형 회귀는 통계학에서 가장 기본적이고 널리 사용되는 예측 모델 중 하나로, 한 변수(종속 변수)와 하나 또는 여러 개의 독립 변수 사이의 선형 관계를 모델링합니다. 이 강의는 선형 회귀의 기본 원리, 모델 구축 방법, 그리고 실제 데이터에 적용하는 방법에 초점을 맞춥니다.
선형 회귀 모델은 다음과 같은 형태의 방정식으로 표현됩니다: Y=β0+β1X1+⋯+βnXn+ϵ
여기서,
선형 회귀 분석의 주요 목적은 실제 데이터를 가장 잘 설명하는 선형 모델의 계수(Coefficients)를 추정하는 것입니다. 이를 통해 데이터의 패턴을 이해하고, 미래의 값을 예측할 수 있습니다.
머신러닝에서 계수(Coefficients)를 추정하는 과정은 주로 최적화 문제를 해결하는 것으로 볼 수 있습니다. 이 과정에서는 주어진 데이터에 가장 잘 맞는 모델의 계수를 찾기 위해 다양한 알고리즘을 사용합니다. 여기서 "가장 잘 맞는"이라는 의미는 모델의 예측값과 실제 값 사이의 차이(오차) 제곱합을 최소화하는 계수를 찾는 방법입니다. 이 최소화 과정을 수행하기 위해 주로 경사하강법이나 정규방정식과 같은 다양한 방법들이 사용됩니다.
경사하강법은 선형 회귀, 로지스틱 회귀, 딥러닝 등 다양한 머신러닝 알고리즘에서 널리 사용되는 최적화 방법입니다. 이 방법은 비용 함수 또는 손실 함수(Loss Function)를 최소화하는 계수를 찾기 위해 사용됩니다. 경사하강법은 다음과 같은 단계로 진행됩니다: