일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 코세라머신러닝강의
- POP
- 머신러닝강의
- programmers
- 파이썬
- sorted
- groupby
- mysql
- sql
- 코세라강의
- 프로그래머스SQL
- Machine Learning
- orderby
- 코세라머신러닝
- Algorithm
- 경제공부
- 코세라
- map
- DATE_FORMAT
- 안드류응
- coursera
- WHERE
- SQL공부
- 머신러닝
- Andrew NG
- sql오답노트
- 인프런sql강의
- PYTHON
- 프로그래머스
- 알고리즘
- Today
- Total
목록coursera (9)
미래를 예측하는 데이터분석가

Machine Learning by professor Andrew Ng in Coursera Day 9 - Model Representation I 뉴런 네트워크를 구성하는 요소는 크게 2가지 activation과 weight로 구성되어져있다. 안에서 이루어지는 계산 과정은 x값들이 주어지면 a의 갯수에 맞게 theta의 차원이 정해진다. 그리고 h라는 함수에 넣어 최종적으로 하나의 activation node를 구하기 위해서 계산한다. 우선 x1,x2,x3와 a1,a2,a3가 있으므로 x행렬 X theta행렬 = 3X1이 되어야한다. 고로 theta는 3 X 4이고 (activation node 개수 X (x개수 + 1 ) )가 된다. Model Representation II 뉴런 네트워크가 계속해서..

Machine Learning by professor Andrew Ng in Coursera Day 8 - Multiclass Classification: One-vs-all Multiclass Classification: One-vs-all 다중분류의 로직은 단일 로지스틱 회귀를 이용해 0~n까지의 값을 각각 확률P가 가장 큰 값으로 분류하는 파라미터를 선택하고 n번 반복하게 된다.

Machine Learning by professor Andrew Ng in Coursera Day 7 - Logistic Regression Model Cost Function 선형함수인경우와 다르게 비선형함수인 Logistic Regression의 경우에 Cost Function 그래프로 non-convex형태가 되어 global Minimum을 그래프가 울퉁불퉁해 찾을 수 없게 됩니다. 그래서 선을 smooth하게 바꿔주기위해 Cost Function을 다음과 같이 새로 정의하게 됩니다. 위 그림과 같이 y=0과 y=1일 때 그래프를 그리면 다음과 같습니다. 예측값이 1인데 실제값이 0이고 예측값이 0인데 실제값이 1이면 Cost Function은 무한대로 발산하게 됩니다. Simplified Co..

Machine Learning by professor Andrew Ng in Coursera Day 6 - Logistic Regression Classification 분류문제에서는 레이블값(0...n)값을 예측하는 것이므로 값을 넣어주면 레이블값을 찾기위해 시그모이드(Sigmoid)함수에 넣어 값을 찾는다. 그 식이 다음과 같이 시그모이드에 값을 넣어주면 0에서 1사이의 확률값을 찾아내고 그 값으로 레이블값을 정하는데 쓰인다. 선형함수를 쓰지 못하는 이유는 선형은 값이 커짐에 따라 계속해서 커지면서 발산하기 때문이다. Decision Boundary 분류 0과 1을 구별하기위해 Decision Boundary를 찾는다. 시그모이드 함수값이 0.5이상이 되는 경우가 y=1이라고 할 때 여기서 z 즉, ..