λ³Έλ¬Έ λ°”λ‘œκ°€κΈ°

Artificial Intelligence/Studying14

[Causal Inference] 01. Introduction to causality μ£Ό 1회 μ§„ν–‰ν•˜λŠ” μŠ€ν„°λ”” λͺ¨μž„μ—μ„œ ν•¨κ»˜ κ³΅λΆ€ν•΄λ³΄κΈ°λ‘œ ν•œ 자료 정리 λͺ©μ μœΌλ‘œ 글을 μž‘μ„±ν•œλ‹€. μŠ€ν„°λ””μ›λΆ„κ»˜μ„œ 쒋은 자료λ₯Ό μΆ”μ²œν•΄μ£Όμ…”μ„œ 정말 μ˜€λžœλ§Œμ— μ§„λ“ν•œ 이둠 곡뢀λ₯Ό ν•˜κ²Œ 될 것 κ°™λ‹€. 원문: https://github.com/CausalInferenceLab/Causal-Inference-with-Python λ¨Έμ‹ λŸ¬λ‹κ³Ό 인과관계 β—Ύ λ¨Έμ‹ λŸ¬λ‹μ€ μ—„κ²©ν•œ λ°”μš΄λ”λ¦¬ μ•ˆμ—μ„œ μ—„μ²­λ‚œ 일을 ν•  수 μžˆμ§€λ§Œ, 주어진 데이터가 λͺ¨λΈμ΄ ν•™μŠ΅ν•œ 것과 쑰금 λ‹€λ₯Ό 경우 μ œλŒ€λ‘œ μž‘λ™ν•˜μ§€ μ•Šμ„ 수 있음 β—Ύ λ¨Έμ‹ λŸ¬λ‹μ€ 상관관계에 μ˜μ‘΄ν•˜κΈ° λ•Œλ¬Έμ— 인과관계(causation) μœ ν˜•μ˜ 문제λ₯Ό 잘 닀루지 λͺ»ν•¨ μ˜ˆμ‹œ) "ν˜Έν…” μ‚°μ—…μ—μ„œ 가격은 λΉ„μˆ˜κΈ°μΌ λ•Œ μ €λ ΄ν•˜κ³ , μˆ˜μš”κ°€ κ°€μž₯ 많고 ν˜Έν…”μ΄ 가득 μ°¨λŠ” μ„±μˆ˜κΈ° μ‹œμ¦Œμ—λŠ” 가격이 λ†’μŠ΅λ‹ˆλ‹€. ν•΄λ‹Ή 데이.. 2023. 4. 30.
μ λŒ€μ  곡격 κ°œλ… 및 μœ ν˜• πŸ’¬ 개인이 μ—¬λŸ¬ 자료λ₯Ό μ°Έκ³ ν•˜λ©΄μ„œ μ΄ν•΄ν•œλŒ€λ‘œ μ •λ¦¬ν•œ λ‚΄μš©μž…λ‹ˆλ‹€. μ˜€νƒ€λ‚˜ μ˜³μ§€ λͺ»ν•œ 정보가 μžˆμ„ 경우 λŒ“κΈ€λ‘œ μ•Œλ €μ£Όμ„Έμš” πŸ™‚ Adversarial Attack | μ λŒ€μ  곡격 κ΅¬κΈ€λ§ν•΄λ³΄λ‹ˆκΉŒ μ λŒ€μ  곡격의 κ°œλ…μ„ 크게 두 κ°€μ§€λ‘œ μ •μ˜ν•  수 μžˆλŠ” 것 κ°™λ‹€. 두 개 λ‹€ λ§ν•˜κ³ μž ν•˜λŠ” λ°”λŠ” λ™μΌν•œ κ²ƒμœΌλ‘œ μ΄ν•΄ν–ˆκ³  ν‘œν˜„μ˜ 차이가 μ•„λ‹κΉŒ μ‹Άλ‹€. 1. λ”₯λŸ¬λ‹ λͺ¨λΈμ΄ μžˆμ„ λ•Œ 주어진 데이터에 Adversarial perurbation을 μ μš©ν•˜μ—¬ Adversarial example을 μƒμ„±ν•˜κ³ , λͺ¨λΈμ΄ Adversarial example에 λŒ€ν•΄ μ˜€λΆ„λ₯˜λ₯Ό μΌμœΌν‚€κ²Œ ν•˜λŠ” 곡격 방법. (KISA REPORT, μ •λ³΄ν†΅μ‹ κΈ°νšν‰κ°€μ› μ λŒ€μ  λ¨Έμ‹ λŸ¬λ‹ 기술 동ν–₯μ—μ„œ 일뢀 발췌) 2. λ¨Έμ‹ λŸ¬λ‹ μ•Œκ³ λ¦¬μ¦˜ 자체의 취약점에 μ˜ν•΄ μ λŒ€μ  ν™˜κ²½μ—μ„œ .. 2022. 1. 4.
[Hands-on] Ch15 RNNκ³Ό CNN을 μ‚¬μš©ν•΄ μ‹œν€€μŠ€ μ²˜λ¦¬ν•˜κΈ° 15.1 μˆœν™˜ λ‰΄λŸ°κ³Ό μˆœν™˜ μΈ΅ β—½ RNN은 각 νƒ€μž„ μŠ€ν… tλ§ˆλ‹€ X(t)와 이전 νƒ€μž„ μŠ€ν…μ˜ 좜λ ₯인 Y(t-1)을 μž…λ ₯으둜 λ°›μŒ β—½ 첫번째 νƒ€μž„ μŠ€ν…μ€ 이전 좜λ ₯이 μ—†κΈ° λ•Œλ¬Έμ— 보톡 0으둜 μ„€μ • β—½ μ‹œκ°„μ„ μΆ•μœΌλ‘œ λ‚˜νƒ€λ‚Ό 경우 μ‹œκ°„μ— 따라 λ„€νŠΈμ›Œν¬λ₯Ό νŽΌμ³€λ‹€κ³  ν‘œν˜„ ν•˜λ‚˜μ˜ μƒ˜ν”Œμ— λŒ€ν•œ μˆœν™˜ 측의 좜λ ₯ λ―Έλ‹ˆλ°°μΉ˜μ— μžˆλŠ” 전체 μƒ˜ν”Œμ— λŒ€ν•œ μˆœν™˜ λ‰΄λŸ° 측의 좜λ ₯ 15.1.1 λ©”λͺ¨λ¦¬ μ…€ β—½ λ©”λͺ¨λ¦¬ μ…€(λ˜λŠ” μ…€) : νƒ€μž„ μŠ€ν…μ— 걸쳐 μ–΄λ–€ μƒνƒœλ₯Ό λ³΄μ‘΄ν•˜λŠ” μ‹ κ²½λ§μ˜ ꡬ성 μš”μ†Œ β—½ h(t) : νƒ€μž„ μŠ€ν… tμ—μ„œμ˜ μ…€μ˜ μƒνƒœ. κ·Έ νƒ€μž„ μŠ€ν…μ˜ μž…λ ₯κ³Ό 이전 νƒ€μž„ μŠ€ν…μ˜ μƒνƒœμ— λŒ€ν•œ ν•¨μˆ˜ 15.1.2 μž…λ ₯κ³Ό 좜λ ₯ μ‹œν€€μŠ€ 1) μ‹œν€€μŠ€-투-μ‹œν€€μŠ€ λ„€νŠΈμ›Œν¬ : ν•˜λ‚˜μ˜ μž…λ ₯ μ‹œν€€μŠ€, ν•˜λ‚˜μ˜ 좜λ ₯ μ‹œν€€μŠ€(λ„€νŠΈμ›Œν¬ μ „μ²΄λ‘œ 보면 μ—¬λŸ¬ 개의.. 2021. 8. 18.
[Hands-on] Ch18 κ°•ν™” ν•™μŠ΅(Reinforcement Learning) ꡬ쑰 κ°œλ… 정적인 ν™˜κ²½μ—μ„œ ν•™μŠ΅μ„ μ§„ν–‰ν•˜λŠ” 지도/λΉ„μ§€λ„ν•™μŠ΅κ³Ό 달리, μ–΄λ–€ ν™˜κ²½ μ•ˆμ—μ„œ μ •μ˜λœ 주체(agent)κ°€ ν˜„μž¬μ˜ μƒνƒœ(state)λ₯Ό κ΄€μ°°ν•˜μ—¬ 선택할 수 μžˆλŠ” 행동(action)λ“€ μ€‘μ—μ„œ κ°€μž₯ μ΅œλŒ€μ˜ 보상(reward)을 κ°€μ Έλ‹€μ£ΌλŠ”μ§€ 행동을 ν•™μŠ΅ν•˜λŠ” 것 18.1 보상을 μ΅œμ ν™”ν•˜κΈ° μœ„ν•œ ν•™μŠ΅ μ—μ΄μ „νŠΈλŠ” λ³΄μƒμ˜ μž₯κΈ°κ°„ κΈ°λŒ€μΉ˜λ₯Ό μ΅œλŒ€λ‘œ λ§Œλ“œλŠ” 행동을 ν•™μŠ΅ν•˜λŠ” 것을 λͺ©μ μœΌλ‘œ 함 18.2 μ •μ±… 탐색 1) μ •μ±…μ˜ κ°œλ… β—½ μ—μ΄μ „νŠΈκ°€ 행동을 κ²°μ •ν•˜κΈ° μœ„ν•΄ μ‚¬μš©ν•˜λŠ” μ•Œκ³ λ¦¬μ¦˜ β—½ μ—μ΄μ „νŠΈκ°€ μ–΄λ–€ μƒνƒœμ—μ„œ 행동을 μ·¨ν•˜κ²Œ 될 λ•Œ μƒνƒœμ— 맞게 μ·¨ν•  수 μžˆλŠ” 행동을 μ—°κ²°ν•΄ μ£ΌλŠ” ν•¨μˆ˜ 2) ν™•λ₯ μ  μ •μ±… β—½ μ–΄λ–€ μƒνƒœμ— λŒ€ν•œ ν–‰λ™λ“€μ˜ ν™•λ₯ λΆ„포λ₯Ό λ°˜ν™˜ 3) μœ μ „ μ•Œκ³ λ¦¬μ¦˜ β—½ μ μžμƒμ‘΄ 이둠을 기반으둜 ν•œ μ΅œμ ν™” 기법 β—½ λΆ€λͺ¨μ™€ .. 2021. 8. 9.
[Hands-on] Ch17-9 (2) GAN λͺ¨λΈ DCGAN κΉŠμ€ ν•©μ„±κ³±(Deep Convolution) 측을 기반으둜 큰 이미지λ₯Ό μƒμ„±ν•˜κΈ° μœ„ν•œ GAN 1) Guideline β—½ νŒλ³„μžμ˜ 풀링 μΈ΅ → stride convolution으둜 ꡐ체 β—½ μƒμ„±μžμ˜ 풀링 μΈ΅ → fractional-strided convolution으둜 ꡐ체 β—½ μƒμ„±μžμ˜ 좜λ ₯μΈ΅κ³Ό νŒλ³„μžμ˜ μž…λ ₯측을 μ œμ™Έν•œ λͺ¨λ“  측에 Batch Normalization 적용 β—½ 측을 깊게 μŒ“κΈ° μœ„ν•΄ μ™„μ „ μ—°κ²° 은닉측 제거 β—½ tanh ν•¨μˆ˜λ₯Ό μ‚¬μš©ν•΄μ•Ό ν•˜λŠ” 좜λ ₯측을 μ œμ™Έν•˜κ³  μƒμ„±μžμ˜ λͺ¨λ“  측에 ReLU ν™œμ„±ν™” ν•¨μˆ˜ 적용 β—½ νŒλ³„μžμ˜ λͺ¨λ“  측에 LeakyReLU ν™œμ„±ν™” ν•¨μˆ˜ μ‚¬μš© 2) ν•œκ³„ DCGAN으둜 맀우 큰 이미지λ₯Ό 생성할 경우 νŠΉμ§•μ€ κ΅¬λΆ„λ˜μ§€λ§Œ μ „λ°˜μ μœΌλ‘œ 일관성 μ—†λŠ” 이미지λ₯Ό 얻을 κ°€λŠ₯성이 λ†’μŒ.. 2021. 8. 2.
[Hands-on] Ch17-9 (1) 생성적 μ λŒ€ 신경망 μƒμ„±μž(Generator) λžœλ€ν•œ 뢄포(일반적으둜 κ°€μš°μ‹œμ•ˆ 뢄포)λ₯Ό μž…λ ₯ λ°›κ³  μƒˆλ‘œμš΄ 데이터 μΈμŠ€ν„΄μŠ€ 생성. λ³€μ΄ν˜• μ˜€ν† μΈμ½”λ”μ˜ 디코더와 같은 κΈ°λŠ₯을 μ œκ³΅ν•˜μ§€λ§Œ ν›ˆλ ¨ 방식이 크게 λ‹€λ₯΄λ‹€. νŒλ³„μž(Discriminator) μƒμ„±μžλ‘œλΆ€ν„° 얻은 κ°€μ§œ λ°μ΄ν„°λ‚˜ ν›ˆλ ¨ μ„ΈνŠΈμ—μ„œ μΆ”μΆœν•œ μ§„μ§œ 데이터λ₯Ό μž…λ ₯으둜 λ°›μ•„ μž…λ ₯된 데이터가 μ§„μ§œμΈμ§€ κ°€μ§œμΈμ§€ κ΅¬λ³„ν•œλ‹€. μž‘λ™ 방식 νŒλ³„μžκ°€ 더 이상 κ°€μ§œλ‘œ νŒμ •ν•˜μ§€ μ•ŠλŠ” ν•©μ„± 데이터λ₯Ό μƒμ„±μžκ°€ 생성할 수 μžˆμ„ λ•ŒκΉŒμ§€, μƒμ„±μžμ™€ κ°λ³„μžλŠ” μ„œλ‘œ κ²½μŸν•˜λ©΄μ„œ ν›ˆλ ¨ν•˜κ²Œ λœλ‹€. ν›ˆλ ¨μ„ μ„±κ³΅μ μœΌλ‘œ 마치면 μƒμ„±μžκ°€ μƒμ„±ν•œ λ°μ΄ν„°λ‘œ μƒˆλ‘œμš΄ ν•©μ„± 데이터λ₯Ό λ§Œλ“€μ–΄μ„œ λ‹€λ₯Έ 심측 신경망에 μž…λ ₯으둜 μ‚¬μš©ν•  μˆ˜λ„ μžˆλ‹€. 좜처: https://kr.mathworks.com/ ν›ˆλ ¨ 방식 λͺ©ν‘œκ°€ λ‹€λ₯Έ 두 λ„€νŠΈμ›Œ.. 2021. 7. 16.