본문으로 바로가기

TIL 2021-12-05 Kernel Machines

category TIL 2021. 12. 6. 00:19

Kernel trick

 

고차원으로 projection하지 않고도 implicit하게 projection 하고 나서 decision boundary를 계산하는 효과를 얻을수 있음

 

RBF Kernel

 

C up, var up

s up, var down

s가 크면 smooth한 boundary, s가 작아지면 local한 값들만 집중해서 support vector의 개수도 늘어나고 decision boundary도 울퉁불퉁해짐 (complexity 커짐)

 

Defining kernel

 

Regression

linear model 사용함

 

One Class Kernel Machine

kernel machine으로 outline detection할 수 있음

density 학습하지 않고 boundary만 학습함

 

Large Margin  Nearest Neighbor

mahalonobis의 M covariance metrix을 학습할떄 margin의 조건을 붙임

 

Kernel Dimensional Reduction

high demension으로 mapping해서 dimensionality Reduction하면 됨

 

 

Graphical Model

변수들 간에 관계를 시각적으로 표현하는것

Inference를 할떄 변수가 많으면 decompose해서 joint distribution해서 inference해줄수 있음.

Node(random vars)와 Arc로 구성됨

directed acylic grapth의 구조를 가짐

parameter는 conditional probablity

 

Head to Tail

y값이 결정되면 z값은 y에만 영향받음

 

Tail to Tail

tail과 tail 사이의 독립성

 

Head to Head

z가 fix 안되면 x,y 독립,

z가 fix되면 x,y dependent해짐

 

Causal inference

 

'TIL' 카테고리의 다른 글

TIL 2021-12-11 Graphical Model  (0) 2021.12.11
TIL 2021-12-08 Linear Discrimination  (0) 2021.12.08
TIL 2021-12-03 OSPFv2,  (0) 2021.12.03
TIL 2021-12-02 RIPv2, OSPF  (0) 2021.12.02
TIL 2021-11-30 NAT3, RIP(벨만포드)  (0) 2021.11.30