일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- mysql
- 알고리즘
- Andrew NG
- map
- WHERE
- sql
- sql오답노트
- 인프런sql강의
- groupby
- 코세라머신러닝
- 안드류응
- orderby
- DATE_FORMAT
- coursera
- 코세라
- POP
- 코세라머신러닝강의
- PYTHON
- 프로그래머스
- 머신러닝강의
- 파이썬
- 프로그래머스SQL
- SQL공부
- Algorithm
- Machine Learning
- 머신러닝
- 코세라강의
- sorted
- 경제공부
- programmers
- Today
- Total
목록코세라머신러닝 (9)
미래를 예측하는 데이터분석가

Machine Learning by professor Andrew Ng in Coursera Day 9 - Model Representation I 뉴런 네트워크를 구성하는 요소는 크게 2가지 activation과 weight로 구성되어져있다. 안에서 이루어지는 계산 과정은 x값들이 주어지면 a의 갯수에 맞게 theta의 차원이 정해진다. 그리고 h라는 함수에 넣어 최종적으로 하나의 activation node를 구하기 위해서 계산한다. 우선 x1,x2,x3와 a1,a2,a3가 있으므로 x행렬 X theta행렬 = 3X1이 되어야한다. 고로 theta는 3 X 4이고 (activation node 개수 X (x개수 + 1 ) )가 된다. Model Representation II 뉴런 네트워크가 계속해서..

Machine Learning by professor Andrew Ng in Coursera Day 8 -The Problem of Overfitting 첫 번째 그림은 underfit or high bias된 경우이다. 모델이 데이터에 잘 적합하지 않으면 발생하는 문제이며 높은 편향이 발생하게 된다. 두 번째는 대체로 잘 적합해 좋은 모델이며 마지막으로 다항식이 매우 많은 모델은 과적합 즉 overfit or high variance를 일으킨다. 특히 과적합은 높은 분산을 가지게 되고 데이터는 적고 feature들이 많을 경우 많이 생긴다. 하지만 다른 데이터에 일반화시키지 못한다는 치명적인 단점이 존재해 과적합을 다루는 방법에 대해 소개한다. feature수를 줄이거나 정규화를 사용하는 방법이다. 정..

Machine Learning by professor Andrew Ng in Coursera Day 7 - Logistic Regression Model Cost Function 선형함수인경우와 다르게 비선형함수인 Logistic Regression의 경우에 Cost Function 그래프로 non-convex형태가 되어 global Minimum을 그래프가 울퉁불퉁해 찾을 수 없게 됩니다. 그래서 선을 smooth하게 바꿔주기위해 Cost Function을 다음과 같이 새로 정의하게 됩니다. 위 그림과 같이 y=0과 y=1일 때 그래프를 그리면 다음과 같습니다. 예측값이 1인데 실제값이 0이고 예측값이 0인데 실제값이 1이면 Cost Function은 무한대로 발산하게 됩니다. Simplified Co..

Machine Learning by professor Andrew Ng in Coursera Day 6 - Logistic Regression Classification 분류문제에서는 레이블값(0...n)값을 예측하는 것이므로 값을 넣어주면 레이블값을 찾기위해 시그모이드(Sigmoid)함수에 넣어 값을 찾는다. 그 식이 다음과 같이 시그모이드에 값을 넣어주면 0에서 1사이의 확률값을 찾아내고 그 값으로 레이블값을 정하는데 쓰인다. 선형함수를 쓰지 못하는 이유는 선형은 값이 커짐에 따라 계속해서 커지면서 발산하기 때문이다. Decision Boundary 분류 0과 1을 구별하기위해 Decision Boundary를 찾는다. 시그모이드 함수값이 0.5이상이 되는 경우가 y=1이라고 할 때 여기서 z 즉, ..