1️⃣ AI•DS/πŸ₯Ž Casual inference

[Causal ML] κ°•μ—°μžλ£Œ 정리

isdawell 2023. 5. 6. 22:06
728x90

 

 

β—―  Causal representation learning 


 

좜처 

 

•  λ³΅μž‘ν•œ ν•™μŠ΅ λͺ¨λΈμ˜ νŠΉμ„±μ— λŒ€ν•΄ μ΄ν•΄ν•˜κΈ° μœ„ν•΄ 졜근 λ”₯λŸ¬λ‹ λΆ„μ•Όμ—μ„œ 인과좔둠에 λŒ€ν•œ 관심이 λ†’μ•„μ§€κ³  μžˆλ‹€. 

•  causality λ₯Ό ν™œμš©ν•œλ‹€λ©΄ κ΄€μ°°λœ 상황과 λ‹€λ₯Έ ν™˜κ²½μ—μ„œλ„ robust ν•œ μ˜ˆμΈ‘μ„ ν•  수 있으며 데이터 μ‚¬μ΄μ˜ 인과관계도 νŒŒμ•…ν•  수 있기 λ•Œλ¬Έμ— causality 관점이 λ°˜λ“œμ‹œ ν•„μš”ν•˜λ‹€. causality λ₯Ό 톡해 ML 의 ν•œκ³„μ μ„ 극볡할 수 μžˆλ‹€. 

•  λ”₯λŸ¬λ‹ μ°½μ‹œμž μš”μŠˆμ•„ λ²€μ§€μ˜€λŠ” AI λ₯Ό κ°œλ°œν•  λ•Œ 인지λŠ₯λ ₯을 λ”ν•œλ‹€λ©΄ λ¨Έμ‹ λŸ¬λ‹κ³Ό κ΄€λ ¨λœ λ¬Έμ œλ“€μ΄ μ„€λͺ… κ°€λŠ₯ν•˜κ²Œ 될 것이라 μ „λ§ν–ˆλ‹€. μ‚¬λžŒμ΄ μ˜μ‹ν•˜λŠ” 인지λŠ₯λ ₯을 μ‹€ν˜„ν•  수 μžˆλŠ” μƒˆλ‘œμš΄ ν•™μŠ΅ λͺ¨λΈμ΄ ν•„μš”ν•˜λ‹€λ©° μΈκ³Όν•™μŠ΅μ˜ μ€‘μš”μ„±μ„ μ–ΈκΈ‰ν–ˆλ‹€. 

 

 

 

 

 

 

β—― Causal machine learning in practice : Netflix 


 

μ„œμšΈλŒ€κ°•μ—°

 

•  λ¨Έμ‹ λŸ¬λ‹μ€ 'λ„·ν”Œλ¦­μŠ€κ°€ μ½˜ν…μΈ  λ¦¬μŠ€νŠΈμ— D.P λŒ€μ‹ μ— μ˜€μ§•μ–΄κ²Œμž„μ„ 상단에 λ†“λŠ”λ‹€λ©΄ 이용자의 μ½˜ν…μΈ  μ΄μš©μ„ μ¦λŒ€μ‹œν‚¬ 수 μžˆμ„κΉŒ' 와 같은 "What if" λ¬Έμ œμ— λ‹΅ν•˜μ§€ λͺ»ν•œλ‹€. 

 

•  λ¨Έμ‹ λŸ¬λ‹μ—μ„œ μΈκ³ΌμΆ”λ‘ μ˜ μž₯점을 μ‚¬μš©ν•  수 μžˆμ„κΉŒ

β†ͺ λ°μ΄ν„°λ‘œλΆ€ν„° 인과ꡬ쑰λ₯Ό λ°œκ²¬ν•˜κ³ , 이질적인 처치효과λ₯Ό μΆ”μ •ν•˜κΈ° μœ„ν•œ λ³΅μž‘ν•œ ν•¨μˆ˜λ₯Ό ν•™μŠ΅ν•œλ‹€. 

 

 

 

•  인과효과λ₯Ό μΆ”μ •ν•˜λŠ” 방법 

β†ͺ RCT (ATE) , Controlling confounders (CATE), IV (LATE) 

 

 

 

 

•  CATE estimation with ML 

 

β†ͺ Meta-learning 은 CATE (conditional average treatment effect) estimation 을 μœ„ν•œout of the box  ML model 을 μ΄μš©ν•œλ‹€. 

β†ͺ Double/Orthogonalized learning 은 Propensity score 와 outcome model 을 κ²°ν•©ν•œλ‹€. 

β†ͺ Tree-based model 은 CART/RF 의 node split 기쀀을 λ³€κ²½ν•œλ‹€. 

β†ͺ Neural Net-based model 은 곡유된 representation layer λ₯Ό κ°€μ§€κ³  control κ³Ό treatment 에 λŒ€ν•œ κ²°κ³Όλ₯Ό λ™μ‹œμ— ν•™μŠ΅ν•œλ‹€. 

 

 

 

 

•  Causal ML tools 

 

β†ͺ Rgrf 

 

β†ͺ Python 

     β–Έ do-calculus 에 κΈ°λ°˜ν•œ 인과ꡬ쑰λ₯Ό λ„μΆœν•΄λ‚Ό 수 μžˆλŠ” μΈν„°νŽ˜μ΄μŠ€λ₯Ό 제곡 :  Dowhy

     β–Έ ML에 κΈ°λ°˜ν•œ CATE μΆ”μ • 방법을 제곡 : EconML

     β–Έ ML에 κΈ°λ°˜ν•œ CATE μΆ”μ • 방법을 제곡 : Causal ML 

 

causal ML νŒ¨ν‚€μ§€ ν™œμš© μ˜ˆμ‹œ

 

 

   β–Έ PySpark 와 H2O λ₯Ό κ°€μ§€κ³  modeling 을 ν•¨μœΌλ‘œμ¨ scalable ν•œ λͺ¨λΈ : upliftML 

 

 

 

 

 

 

•  Causal ML μ‹€μ œ μ‚°μ—… 적용 case 

 

β†ͺ Observational causal inference : 고객 κ°€μΉ˜ λ³€ν™” λ°œμƒ 뢄석 ν”„λ‘œμ νŠΈμ—μ„œ, ꡐ차 판맀 μ „ν™˜ (Cross-selling) 이 κΈ°μ‘΄ μ‚¬μš©μžμ˜ μž₯기적 κ°€μΉ˜μ— λ―ΈμΉ˜λŠ” 영ν–₯을 μΈ‘μ •

 

 

β€» Cross-selling : κΈ°μ—…μ˜ μ œν’ˆκ³Ό μ„œλΉ„μŠ€ 쀑 ν•˜λ‚˜λ₯Ό κ΅¬λ§€ν•œ κ³ κ°μ—κ²Œ κ·Έ 기업이 μ œκ³΅ν•˜λŠ” λ‹€λ₯Έ μ œν’ˆμ΄λ‚˜ μ„œλΉ„μŠ€λ₯Ό μΆ”κ°€μ μœΌλ‘œ νŒλ§€ν•˜λŠ” μ „λž΅μ„ λ§ν•œλ‹€. κ°€λ Ή 와이셔츠λ₯Ό μ‚° μ‚¬λžŒμ—κ²Œ μ–΄μšΈλ¦¬λŠ” 타이λ₯Ό μ œμ•ˆν•˜λŠ” 경우λ₯Ό λ§ν•œλ‹€. 

 

 

β†ͺ Targeting optimization : RTB Targeting Optimization ν”„λ‘œμ νŠΈμ—μ„œλŠ” μ—…λ¦¬ν”„νŠΈ λͺ¨λΈλ§μ„ μ‚¬μš©ν•˜μ—¬ 섀득λ ₯ μžˆλŠ” μ‚¬μš©μž κ·Έλ£Ή (κ΄‘κ³ λ…ΈμΆœμ—λ§Œ λ°˜μ‘ν•˜λŠ” μ‚¬μš©μž) 을 μ„ νƒν•˜μ—¬ κ΄‘κ³  λΉ„μš© 수읡λ₯ μ„ μ΅œμ ν™”ν–ˆλ‹€. 

 

 

 

β†ͺ Personalization : μš°λ¦¬λŠ” heterogeneous treatment effect λ₯Ό ν•™μŠ΅ν•¨μœΌλ‘œμ¨ μ‚¬μš©μžμ™€ 더 효과적으둜 관계λ₯Ό 맺을 수 μžˆλ‹€. 예λ₯Ό λ“€μ–΄, μ‹œμ²­ν•  증뢄 μ‡Ό μΆ”μ²œ, 사전 고객 지원 제곡 등이 μžˆλ‹€. 

 

 

 

 

 

 

β—― Causal Inference: Question of Why


 

κ³ λ €λŒ€ 산곡 μ„Έλ―Έλ‚˜ 

 

 

•  AI λŠ” λ°μ΄ν„°μ˜ 상관관계 νŒ¨ν„΄μ„ ν•™μŠ΅ν•œλ‹€. μ™ΈλΆ€ν™˜κ²½μ— λ”°λ₯Έ λ°μ΄ν„°μ˜ λ³€ν™”λ‚˜ νŒ¨ν„΄ λ³€ν™”κ°€ 적은 λΆ„μ•Ό (NLP, vision, collaboration filtering) μ—μ„œλŠ” μ„±λŠ₯이 λ›°μ–΄λ‚˜λ‹€. κ·ΈλŸ¬λ‚˜ λΆ„λ₯˜,예츑,μΆ”μ²œμ˜ κ²°κ³Όκ°€ μ™œ λ‚˜μ™”λŠ”μ§€μ— λŒ€ν•΄μ„œλŠ” ꢁ극적으둜 μ„€λͺ…ν•˜μ§€ λͺ»ν•œλ‹€. 

 

•  XAI λ‘œλ„ μΈκ³Όκ΄€κ³„λŠ” μ•Œ 수 μ—†λ‹€. 

 

 

 

 

 

 

 

 

 

 

 

 

 

728x90