일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 코세라머신러닝강의
- coursera
- sql오답노트
- Andrew NG
- 안드류응
- 알고리즘
- 경제공부
- 코세라머신러닝
- WHERE
- 파이썬
- PYTHON
- orderby
- POP
- 코세라
- mysql
- Machine Learning
- 머신러닝
- sql
- SQL공부
- 머신러닝강의
- 인프런sql강의
- Algorithm
- 코세라강의
- map
- groupby
- sorted
- 프로그래머스SQL
- DATE_FORMAT
- 프로그래머스
- programmers
- Today
- Total
목록Andrew NG (6)
미래를 예측하는 데이터분석가

Machine Learning by professor Andrew Ng in Coursera Day 8 - Multiclass Classification: One-vs-all Multiclass Classification: One-vs-all 다중분류의 로직은 단일 로지스틱 회귀를 이용해 0~n까지의 값을 각각 확률P가 가장 큰 값으로 분류하는 파라미터를 선택하고 n번 반복하게 된다.

Machine Learning by professor Andrew Ng in Coursera Day 6 - Logistic Regression Classification 분류문제에서는 레이블값(0...n)값을 예측하는 것이므로 값을 넣어주면 레이블값을 찾기위해 시그모이드(Sigmoid)함수에 넣어 값을 찾는다. 그 식이 다음과 같이 시그모이드에 값을 넣어주면 0에서 1사이의 확률값을 찾아내고 그 값으로 레이블값을 정하는데 쓰인다. 선형함수를 쓰지 못하는 이유는 선형은 값이 커짐에 따라 계속해서 커지면서 발산하기 때문이다. Decision Boundary 분류 0과 1을 구별하기위해 Decision Boundary를 찾는다. 시그모이드 함수값이 0.5이상이 되는 경우가 y=1이라고 할 때 여기서 z 즉, ..

Machine Learning by professor Andrew Ng in Coursera Day 4 - Linear Regression with Multiple Variables Multivariate Linear Regression 즉, 다변량 회귀에서 Gradient Descent알고리즘이 어떻게 계산되는지를 배웠다. 우선 위의 식을 보면 회귀의 절편값과 기울기들이 θ0, θ1, θ2로나타난다. 회귀식은 H(x) = θ0 + θ1x1+ θ2x2+...+θnxn이다. 여기서 위의 식들을 유추하는 과정은 day-2에 설명하셨고 Cost Function을 각 θi로 미분하여 기울기를 구해 각 θi에서 빼주면서 Cost Function이 가장 작아지는 최적의 파라미터값을 찾는 방법이었다. 그 식들을 간단..

Machine Learning by professor Andrew Ng in Coursera Day 3 - What is Machine Learning? 이번 시간에는 선형대수에서 기본인 행렬과 벡터에 대해 쭉 배웠다. 행렬을 곱할 때 m x n 과 n x 1 이면 m x 1의 벡터가 나온다 (즉, m차원의 벡터를 뜻한다). m x n 행렬과 n x m의 행렬의 경우는 곱하면 m x m의 행렬이 나온다. 여기선 I (Identity) Matrix 즉 항등행렬이며 대각원소의 값이 모두 1이고 나머지는 모두 0인 행렬을 말한다. 항등행렬과 어느 행렬을 곱해도 값이 값이 변하지 않는 특성이 있다. 마미막으로 역행렬에 대해 배웠고 그것으로 1주차 마지막 강의는 마무리가 되었다. 선형대수를 교양으로 듣고 공부도 ..