일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- 코세라머신러닝
- sql오답노트
- Machine Learning
- 파이썬
- 프로그래머스SQL
- Andrew NG
- coursera
- map
- Algorithm
- programmers
- DATE_FORMAT
- WHERE
- sorted
- 알고리즘
- orderby
- 인프런sql강의
- 코세라머신러닝강의
- 코세라강의
- sql
- SQL공부
- 머신러닝
- groupby
- 프로그래머스
- 머신러닝강의
- POP
- mysql
- 코세라
- PYTHON
- 경제공부
- 안드류응
- Today
- Total
목록머신러닝강의추천 (2)
미래를 예측하는 데이터분석가

Machine Learning by professor Andrew Ng in Coursera Day 8 -The Problem of Overfitting 첫 번째 그림은 underfit or high bias된 경우이다. 모델이 데이터에 잘 적합하지 않으면 발생하는 문제이며 높은 편향이 발생하게 된다. 두 번째는 대체로 잘 적합해 좋은 모델이며 마지막으로 다항식이 매우 많은 모델은 과적합 즉 overfit or high variance를 일으킨다. 특히 과적합은 높은 분산을 가지게 되고 데이터는 적고 feature들이 많을 경우 많이 생긴다. 하지만 다른 데이터에 일반화시키지 못한다는 치명적인 단점이 존재해 과적합을 다루는 방법에 대해 소개한다. feature수를 줄이거나 정규화를 사용하는 방법이다. 정..

Machine Learning by professor Andrew Ng in Coursera Day 6 - Logistic Regression Classification 분류문제에서는 레이블값(0...n)값을 예측하는 것이므로 값을 넣어주면 레이블값을 찾기위해 시그모이드(Sigmoid)함수에 넣어 값을 찾는다. 그 식이 다음과 같이 시그모이드에 값을 넣어주면 0에서 1사이의 확률값을 찾아내고 그 값으로 레이블값을 정하는데 쓰인다. 선형함수를 쓰지 못하는 이유는 선형은 값이 커짐에 따라 계속해서 커지면서 발산하기 때문이다. Decision Boundary 분류 0과 1을 구별하기위해 Decision Boundary를 찾는다. 시그모이드 함수값이 0.5이상이 되는 경우가 y=1이라고 할 때 여기서 z 즉, ..