Artificial Intelligence/Studying

Linear regression

geum 2020. 11. 14. 15:58

[λΆ€μŠ€νŠΈμ½”μŠ€] ν…μ„œν”Œλ‘œμš°λ‘œ μ‹œμž‘ν•˜λŠ” λ”₯λŸ¬λ‹ 기초

* μ‹€μŠ΅ μ†ŒμŠ€ μ½”λ“œ : github.com/nsbg/AI

 

Regression (toward the mean)

μ–΄λ–€ 데이터듀이 ꡉμž₯히 ν¬κ±°λ‚˜ μž‘λ”λΌλ„ μ „μ²΄μ μœΌλ‘œ 보면 이 데이터듀은 전체 ν‰κ· μœΌλ‘œ νšŒκ·€ν•˜λ €λŠ” νŠΉμ§•μ„ κ°–λŠ”λ‹€.

∴ μ–΄λ–€ 데이터듀이 μ„ ν˜•μ μΈ 증가/κ°μ†Œ 관계에 μžˆμ„ λ•Œ 이 관계λ₯Ό λΆ„μ„ν•˜λŠ” 것

 

 

Linear Regression μ„ ν˜• νšŒκ·€

μž…λ ₯ 데이터λ₯Ό κ°€μž₯ 잘 λ‚˜νƒ€λ‚Ό 수 μžˆλŠ” μ§μ„ μ˜ 방정식을 μ°ΎλŠ” 것

 

좜처 : μœ„ν‚€ν”Όλ””μ•„

∴ 데이터(νŒŒλž€μƒ‰ 점)듀을 κ°€μž₯ 잘 λ‚˜νƒ€λ‚΄λŠ” μ§μ„ μ˜ 방정식(빨간색 μ„ ) κΈ°μšΈκΈ°μ™€ y μ ˆνŽΈμ„ κ΅¬ν•˜λŠ” 것

 

 

Hypothesis & Loss(=Cost, Error)

Hypothesis : H(x) = Wx+b → κ°„λ‹¨ν•˜κ²Œ λ‚˜νƒ€λ‚Ό 경우 Wx

Loss : H(x)-y (yλŠ” μ‹€μ œ 데이터 → νŒŒλž€μƒ‰ 점)

 

좜처 : λΆ€μŠ€νŠΈμ½”μŠ€ Lec 02 κ°•μ˜μžλ£Œ - loss function

cf. μ–΄λ–€ λ°μ΄ν„°λŠ” μ‹€μ œ κ°’κ³Όμ˜ 차이가 μ–‘μˆ˜μΌ μˆ˜λ„ 있고 μ–΄λ–€ λ°μ΄ν„°λŠ” 음수일 μˆ˜λ„ 있기 λ•Œλ¬Έμ— μ˜λ―Έμ—†λŠ” 값이 λ‚˜μ˜€λŠ” 것을 λ°©μ§€ν•˜κΈ° μœ„ν•΄ μ œκ³±μ„ μ·¨ν•΄μ„œ μ‚¬μš©

 

 

Multi-variable linear regression

좜처 : λΆ€μŠ€νŠΈμ½”μŠ€ Lec 04 κ°•μ˜μžλ£Œ - hypothesis using matrix

행렬을 μ‚¬μš©ν•˜λ©΄ λ°μ΄ν„°μ˜ κ°œμˆ˜μ— 상관없이 ν•˜λ‚˜μ˜ λ³€μˆ˜λ‘œ ν‘œν˜„ κ°€λŠ₯ → H(X)=XW

 

cf. ν…μ„œν”Œλ‘œμš°μ—μ„œ κ΅¬ν˜„ μ‹œ H(X)=WXκ°€ μ•„λ‹ˆλΌ XW둜 μ“°λŠ” μ΄μœ λŠ” 행에 ν•΄λ‹Ήν•˜λŠ” X, 열에 ν•΄λ‹Ήν•˜λŠ” Wλ₯Ό 가지고 ν–‰×λ ¬ 연산을 μˆ˜ν–‰ν•˜κΈ° λ•Œλ¬Έ