경사하강법에 대해 더 알아보자. 1. np.linalg.pinv Numpy에서 데이터를 선형 모델로 해석하는 선형회귀식을 찾을 수 있다. sklearn에서 Lienar Regression 를 통해서도 선형회귀를 접할 수 있다. 2. 경사하강법 알고리즘을 활용하여 선형회귀식 찾기 선형회귀 목적식을 구하기 위해서는 위의 목적식을 최소화하는 베타를 찾아야 한다. 위의 식을 통해 그레디언트 벡터를 구하고 주어진 베타에서 미분값을 빼면 된다. import numpy as np X = np.array([[1, 1], [1, 2], [2, 2], [2, 3]]) y = np.dot(X, np.array([1, 2])) + 3 beta_gd = [ 10.1, 15.1, -6.5] # [1, 2, 3] 이 정답 X_ =..
경사하강법에 대해 알아보자. 1. 미분 (differentiation) 이란? 함수 f의 주어진 점 ( x, f(x) )에서의 접선의 기울기를 구한다. 즉, 변수의 움직임에 따른 함수값의 변화를 측정하기 위한 도구이다. 최적화에서 제일 많이 사용하며 sympy 라이브러리를 사용하여 표현할 수 있다. import sympy as sym from sympy.abc import x sym.diff(sym.poly(x**2 + 2*x +3), x) 2. 경사상승법(Gradient Ascent), 경사하강법(Gradient Desence) 미분값을 더하면 함수값이 증가하여 경사상승법이라고 한다. 경사상승법은 함수의 극대값의 위치를 구할때 사용한다. 반대로 미분값을 빼면 함수값이 감소하여 경사하강법이라 한다. 경사..
- db
- numpy
- 인공지능
- Scikit
- 기계학습
- OpenCV
- Max()
- 머신러닝
- 주니온
- Ai
- 알고리즘
- algorithm
- 딥러닝
- cnn
- Python
- MongoDB
- slqd
- SQLD
- Pandas
- Min()
- 부스트코스
- 경사하강법
- 프로그래머스
- 파이썬
- Project
- VGGNet
- Programmers
- sklearn
- SQL
- 자료구조
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- Total
- Today
- Yesterday