Summary
β¨ Idea for deep learning for graphs
βΎ Multiple layers of embedding transformation
βΎ At every layer, use the embedding at previous layer as the input
βΎ ββ Aggregation of neighbors
β¨ Graph convolutional network
βΎ Mean aggregaton → permutation invariant/equivariant
β¨ Applications of GNNs
βΎ Node-Level
βΎ Edge-Level
βΎ Graph-Level
β GNN is general architecture
βΎ CNN and Transformer can be viewed as a special GNN
Pre
β¨ κ·Έλν
βΎ μ λ€κ³Ό κ·Έ μ λ€μ μλ μ μΌλ‘ μ΄λ£¨μ΄μ§ λ°μ΄ν° ꡬ쑰
βΎ κ΄κ³λ μνΈμμ©μ λνλ΄λ λ°μ΄ν°λ₯Ό λΆμν λ μ£Όλ‘ μ°μΈλ€.
βΎ EX. νμ΄μ€λΆ μΉκ΅¬κ΄κ³, μμ± νλ μ΄ μ μ -μμ κ°μμ¬λΆ
βΎ G = (V,E) λ‘ μ μ , V : μ μ§ν© , E : μ μ§ν©
βΎ κ·Έλνλ μ£Όλ‘ μΈμ νλ ¬ adjacency matrix λ‘ ννλλ€. (nxn, nμ μ μ κ°μ)
βΎ λ¨Έμ λ¬λμμ κ·Έλνλ₯Ό λ€λ£° λ μ λ€μ νΉμ§μ λ¬μ¬ν feature matrix (nxf) λ‘ νννκΈ°λ νλ€.
β¨ κ·Έλν λΆμμ΄ μ΄λ €μ΄ μ΄μ
βΎ κ·Έλν ν¬κΈ°κ° 컀μ§μλ‘ μ¬λμ΄ ν΄μν μ μλλ‘ μκ°ν νλ κ²μ΄ μ΄λ ΅λ€.
βΎ μ ν΄λ¦¬λ 곡κ°μ μμ§ μλ€ = μ’νκ³λ‘ ννν μ μλ€
βΎ κ³ μ λ ννκ° μλλ€ : μλ λ κ·Έλνμ μΈμ νλ ¬μ κ°λ€.
β¨ κ·Έλνλ₯Ό μ¬μ©νλ μ΄μ
βΎ κ΄κ³, μνΈμμ© κ°μ μΆμμ μΈ κ°λ μ λ€λ£¨κΈ° μ ν©
⾠볡μ‘ν λ¬Έμ λ₯Ό λ¨μν μν¬ μ μλ€.
βΎ μμ λ€νΈμν¬, λ°μ΄λ¬μ€ νμ° λ±μ λͺ¨λΈλ§μ μ¬μ© κ°λ₯
β¨ GNN
βΎ κ·Έλνμ μ§μ μ μ©ν μ μλ μ κ²½λ§
βΎ μ λ 벨, μ λ 벨, κ·Έλν λ 벨μμμ μμΈ‘ μμ μ μννλ€.
βΎ ν΅μ¬ : μ μ΄ μ΄μκ³Όμ μ°κ²°μ μν΄ μ μλλ€.
βΎ λͺ¨λ μ μ΄ κ°κ°μ νΉμ§μ μ€λͺ νλ μ΄λ€ μνλ‘ ννλμ΄ μλ€.
ex. μ μ΄ μνμ΄κ³ ννμ§,λ‘맨μ€,κ³΅ν¬ μ€μ ννμ§μ 곡ν¬μ ν΄λΉνλ€λ©΄ (1,0,1) μνλ₯Ό κ°μ§κ³ μλ€.
βΎ μ°κ²°κ΄κ³μ μ΄μλ€μ μνλ₯Ό μ΄μ©ν΄ κ° μ μ μνλ₯Ό μ λ°μ΄νΈ (νμ΅) νκ³ λ§μ§λ§ μν (node embedding) λ₯Ό ν΅ν΄ μμΈ‘ μ 무λ₯Ό μν
β cnn, rnn, transformer μ κ°μ μ κ²½λ§λ€μ GNN μ special μΌμ΄μ€λ€.
1οΈβ£ Idea for deep learning for graphs
β Graph
π Graph
- κ΄κ³μ±μ κ°μ§κ±°λ μνΈμμ©νλ entity λ€μ νννκ³ λΆμν μ μλ μΌλ°μ μΈ μΈμ΄
- GNN μ Graph λ₯Ό input μΌλ‘ λ°λ λ€νΈμν¬μ΄λ€.
π Many type of Data are Graphs
- λ§μ λ°μ΄ν°λ€μ κ·Έλν ννλ‘ μ΄λ£¨μ΄μ Έ μλ€ π λ€νΈμν¬λ§, μμ λ€νΈμν¬, computation graph, λΆμμ
- κ·Έλν νμμ μ λ€λ£° μ μλ μΈκ³΅μ§λ₯μ΄ μλ€λ©΄ μ μ©ν μΌλ€μ μνν μ μμ κ²μ΄λ€.
π Modern Deep learning
- cnn,rnn, transformer λ€μ κ°λ¨ν sequence μ²λ¦¬λ grid μ²λ¦¬μ μ μ©νλ€.
- κ·Έλ¬λ λͺ¨λ κ²λ€μ΄ grid λ sequence ννλ‘ μ‘΄μ¬νμ§λ μλλ€ π GNN μ μ€μμ± λλ
π Graphs
- λ₯λ¬λ λΆμΌμ μλ‘μ΄ κ°μ²μλ‘ μ£Όλͺ©λ°κ³ μλ€.
- κ·Έλνλ 무μΈκ°λ₯Ό μ°κ²°ν΄μ£Όλ ννλ₯Ό κ°μ§λ€.
- ML μμ κ°μ₯ ν«ν μλΆμΌμ΄λ€.
π Graph Deep Learning is Hard
- graph λ₯Ό λ₯λ¬λμ μ μ©νλ κ²μ λ§€μ° μ΄λ ΅λ€. μ§κΈκΉμ§ νμ‘΄νλ λ₯λ¬λ λ€νΈμν¬ κ΅¬μ‘°λ‘ κ΅¬ννκΈ° μ΄λ ΅λ€.
π¨ ꡬνμ΄ μ΄λ €μ΄ μ΄μ : Network are complex
- ν¬κΈ°κ° μμμ μ΄λ€. (Arbitrary size)
- κ΅¬μ‘°κ° λ³΅μ‘νλ€. (complex topological structure)
- λ Έλμ μμκ° κ³ μ λμ΄ μμ§ μλ€. (No fixed node ordering)
- reference point λ κ³ μ λμ΄ μμ§ μλ€. (No fixed reference point)
- μμκ°κ° λͺ¨μμ΄ λ³νλ ꡬ쑰μ΄λ€. (dynamic)
- μ¬λ¬ ννμ feature λ€μ΄ νλμ λ€νΈμν¬μ λ€μ μ‘΄μ¬νλ€. (multimodal features) : κ°λ Ή μλ κ·Έλνμμ λΉ¨κ°μ μ item, νμμ μ μ¬λ, λ Έλ μ μ μ€λ μ§ λ±λ± μΌλ‘ ꡬμ±λμ΄ μμ μ μμ
β‘ GNN
π Graph Neural Network
- Input : Network (graph)
- Node λ€μ΄ Graph convolution layer λ€μ κ±°μ³ prediction μ μννλ€.
- λ₯λ¬λμ²λΌ Activation function, Regularization λ μννλ€.
π¨ Prediction
- Node label : μλ‘μ΄ μ°κ²°λ Έλλ₯Ό μμΈ‘
- New link : λ Έλ μ¬μ΄μ μλ‘μ΄ μ°κ²°
- Graph : κ·Έλν μ체λ₯Ό μλ‘ λ§λ€κ±°λ subgraph λ₯Ό μμ±
π Node embedding ββ
- λ Έλλ₯Ό d μ°¨μμ μλ² λ© λ²‘ν°λ‘ μΈμ½λ© π λΉμ·ν λ Έλλ μλ² λ© λμμ λ μ μ¬ν 벑ν°λ‘ ννλ μ μλλ‘ λ Έλλ₯Ό μλ² λ© νλ€.
π¨ Node embedding μ λͺ©μ
- Zu : u λ Έλλ₯Ό μλ² λ©ν 벑ν°
- Zv : v λ Έλλ₯Ό μλ² λ©ν 벑ν°
- u λ Έλμ v λ Έλκ° μλ² λ© λμμ λ, μ μ¬λλ₯Ό dot product λ‘ μΈ‘μ ν μ μκ²λ λ§λ λ€.
- λΉμ·ν λ Έλλ€μ μ μ¬λλ₯Ό λμ΄λ λ°©ν₯μΌλ‘ μλ² λ©μ μννλ€.
- μ°λ¦¬κ° μ μν΄μΌ νλ건 μ μ¬λν¨μμ μλ² λ© μΈμ½λ
π¨ Encoder
- κ° λ Έλλ€μ μ μ°¨μμ 벑ν°λ‘ 맀νμμΌμ£Όλ κ²
- input graph μμ node v κ° encoder λ₯Ό κ±°μΉλ©΄ d μ°¨μμ μλ² λ© λ²‘ν°κ° λλ€.
π¨ Similarity function
- λ²‘ν° κ³΅κ°μμμ κ΄κ³μ±μ΄ original network μ κ΄κ³μ±μΌλ‘ mapping λμ΄μΌ νλ€.
- original network μ λ Έλ u,v μ μ μ¬λλ μλ² λ© λ λ²‘ν° κ³΅κ°μμμ λ λ Έλ벑ν°μ dot product μ°μ° κ²°κ³Όμ κ°λ€.
π Embedding Table for encoding
π¨ κ°μ₯ λ¨μν μΈμ½λ© λ°©λ²
- embedding table Z λ§λ€κΈ° π table μ lookup ν΄μ€λ λ°©μμΌλ‘ μλ² λ© μμ μ μννλ€.
- row : μλ² λ© λ²‘ν°μ μ°¨μ (dimension of embeddings)
- column : node μ μ΄ κ°μ
- μ΄λ€ λ Έλμ λν μλ² λ© λ²‘ν°λ₯Ό μ»κ³ μΆμΌλ©΄ κ·Έ λ Έλμ ν΄λΉνλ μΉΌλΌμ μ½μ΄μ€κΈ°λ§ νλ©΄ λλ€.
π¨ νκ³μ
- κ·Έλ¬λ μμ κ°μ λ°©μμΌλ‘ μΈμ½λ©μ νκ² λλ©΄, λ Έλκ° μ¦κ°ν μλ‘ table ν¬κΈ°κ° linear νκ² μ¦κ°νλ€λ λ¨μ μ΄ μ‘΄μ¬νλ€.
- λν λ Έλ κ°μ νλΌλ―Έν°λ₯Ό 곡μ νλ κ²μ΄ μμ΄ , λ Έλ κ°μκ° μ¦κ°νλ©΄ μ°μ°λμ΄ μ¦κ°νκ² λλ€. CNN μ κ²½μ°μ receptive field λ§λ€ filter μ weight νλΌλ―Έν°λ₯Ό 곡μ νμ!
- νλ ¨ κ³Όμ μ€μ λ³΄μ§ λͺ»νλ λ Έλλ€μ λν μλ² λ©μ μ§νν μ μλ€ π 5λͺ μ κ°μ μμ λν λ Έλ μλ² λ© λ²‘ν°κ° μ‘΄μ¬νλλ°, ν λͺ μ΄ μ κ·κ°μ μ νλ©΄ κ·Έ μ μ μ λν΄μλ λ Έλ 벑ν°κ° μ‘΄μ¬νμ§ μμ. μ¦, νλ ¨ λΉμμ μμ±λ μλ² λ© ν μ΄λΈμλ μ κ· λ Έλμ λν μ 보 μμ²΄κ° μ‘΄μ¬νμ§ μμΌλ―λ‘ μλ² λ©μ΄ λΆκ°λ₯νλ€ π κ·Έλ¬λ network μ κ°μ₯ ν° νΉμ§ μ€ νλκ° dynamic νλ€λ μ μΈλ° μ΄μ μμΆ©ν¨
π Deep Graph Encoders
- μλ² λ© ν μ΄λΈμ ꡬμΆνλ λ°©λ² λμ , λ₯λ¬λμ μ¬μ©νμ¬ μΈμ½λ©μ μννλ€.
- μ¬λ¬κ°μ λ Έλλ€μ΄ Neural network λ₯Ό κ±°μ³ node embedding μ νμ±νλ€ π μλ² λ© κ²°κ³Όλ₯Ό κ°μ§κ³ μ¬λ¬κ°μ§μ task λ€μ μννλ€.
π Tasks on Networks
- Node classification : λ Έλμ νμ μ λΆλ₯(μμΈ‘)
- Link prediction : μ μ¬λκ° λμ λ Έλλ€μ μ£μ§λ‘ μ°κ²°λμ΄ μμ κ°λ₯μ±μ΄ λλ€λ κ°μ νμ λ λ Έλ μ¬μ΄μ λ§ν¬ μ°κ²°μ±μ μμΈ‘
- Community detection : κΈ΄λ°νκ² μ°κ²°λ λ Έλ μ§λ¨ node cluster κ° μλμ§ μ¬λΆλ₯Ό λ°ν
- Network similarity : λ λ€νΈμν¬μ μ μ¬λλ₯Ό μΈ‘μ
β’ deep learning for graphs
π Setup
- G : graph
- V : μ λ€μ μ§ν©
- A : adjacency matrix π λ λ Έλκ° μ°κ²°λμ΄ μλλλ₯Ό binary ννλ‘ μλ €μ£Όλ matrix
- X : matrix of node features (m x |V|) π m μ node νλμ λ€μ΄μλ feature κ°μλ₯Ό μλ―Ένλ€.
- ex. user node → gender, age, height
- v : node in V
- N(v) : μ΄μλ Έλ μ§ν© ex. N(A) = {C,D,B}
- Node feature
- social networks : user profile, user image
- Biological networks : gene functional information
π A Naive Approach
- adjacency matrix μ feature λ₯Ό concatenation
- concat ν νλ ¬μ fully - connected network μ μ λ ₯νλ€.
π κ·Έλ¬λ μ΄λ¬ν μ κ·Όλ°©μμλ λ¬Έμ μ μ΄ μ‘΄μ¬νλ€.
- ά± O(|V|) parameters : νλΌλ―Έν° κ°μκ° λ Έλμ κ°μκ° μ¦κ°ν μλ‘ linear νκ² μ¦κ°νλ€.
- κ·Έλν μ¬μ΄μ¦κ° λ€λ₯Έ κ²½μ°μ μ μ©μ΄ λΆκ°λ₯νλ€ : λ§μ½ 5κ°μ λ Έλλ‘ νλ ¨λ λ€νΈμν¬μ 6κ° λ Έλλ‘ μ΄λ£¨μ΄μ§ input μ΄ λ€μ΄μ€λ©΄ νλ ¨μ΄ λΆκ°λ₯
- λ₯λ¬λμ node μ μμμ λ―Όκ°νλ€ : node κ° κ·Έλ¦Όμ²λΌ A,B,C,D,E μμλ‘ νλ ¨λλ©΄ κ·Έ μ΄νμ λ€μ΄μ€λ input λ κ°μ μμλ‘ λ€μ΄μμΌ νλ€. λ₯λ¬λ λ€νΈμν¬μμλ κ°μ κ·ΈλνλλΌλ λ€μ΄μ€λ λ Έλ μμκ° λ€λ₯΄κ² λ€μ΄μ€λ©΄ λ€λ₯Έ νλ ¨ κ²°κ³Όλ₯Ό λ΄λλλ€.
κ·Έλμ μ΄λ° λ¨μν μ κ·Ό 보λ€λ μμΌλ‘ μ΄ν΄λ³Ό GNN, GCN, GAT λ±μ λͺ¨λΈμ΄ λ±μ₯νλ€.
2οΈβ£ Graph convolutional network
ν΅μ¬ Idea : node μ μ΄μμ΄ κ³μ°λ κ·Έλνλ₯Ό κ²°μ νλ€.
π https://jxnjxn.tistory.com/77
β generalize CNN
π CNN
- spatial featureλ₯Ό κ³μν΄μ layerλ§λ€ κ³μν΄μ μΆμΆν΄ λκ°λ©΄μ κ³ μ°¨μμ μΈ νΉμ§μ νν
- grid ꡬ쑰 μΈμ λ€λ₯Έ ꡬ쑰μμ CNN μ μ μ©μμΌλ³΄μ
π¨ ν©μ±κ³± μ°μ°μ μμ΄λμ΄
- local connectivity, shared weights, use of Multi-layer
- μ£Όλ³ μ 보λ₯Ό λ³ννκ³ μ΄λ₯Ό κ²°ν©νλ€ π Graph neural network μ μ μ©
π Real-World Graphs
- κ·Έλ¬λ CNN μ graph μ μ μ©μν€κ³ μ ν λ, μ€μ λ€λ£¨λ κ·Έλν λͺ¨μ΅μ μλμ κ°κΈ° λλ¬Έμ λͺκ°μ§ κ³ λ €ν΄μΌν μ¬νμ΄ μ‘΄μ¬νλ€. (κ·Έλνμ ꡬ쑰μ νΉμ± λλ¬Έμ κΈ°μ‘΄μ ν©μ±κ³± μ°μ°μ μ μ©νλλ° μ΄λ €μ μ‘΄μ¬)
- graphκ° dynamic + complex structure ν νΉμ±μ κ°μ§κ³ μκΈ° λλ¬Έμ λ€μν size λ₯Ό κ°μ§ sliding window λ₯Ό μ¬μ©ν΄μΌ νλ€.
- permutation invariant : κ·Έλνλ μμμ μν₯μ λ°μ§ μλλ€. (λͺ¨λΈ μΆλ ₯μ μ λ ₯ 벑ν°μ μμκ° μν₯μ λ―ΈμΉμ§ μλ λ°μ΄ν°)
π Permutation Invariance
- Graph λ does not have a canonical order of node μ¦, λ Έλ μ¬μ΄μ μ ν΄μ§ μμκ° μλ ꡬ쑰λ₯Ό κ°μ§κ³ μλλ°, Neural Network μ μ λ ₯λλ νλ ¬ (feature matrix, adjacency matrix) μ λ Έλμ μμ μ€μ μ λ°λΌ ννκ° λ¬λΌμ§λ€.
- β λ°λΌμ "Graph μ λ Έλ κ° μμλ μ‘΄μ¬νμ§ μλλ€" λΌλ νΉμ§μ λ°μν΄μ£ΌκΈ° μν΄ μμμ κ°λ ₯ν permutation invariant ν¨μ f λ₯Ό λμ νλ€.
- f(A1, X1) = f(A2, X2) π μ¦, λ Έλμ A~F κΉμ§ μ΄λ¦ μμλ₯Ό λΆμ¬ν λ μΌμͺ½ plan κ³Ό μ€λ₯Έμͺ½ plan μ²λΌ λ€μνκ² μ‘΄μ¬ν μ μμ§λ§ κ·Έμ μκ΄ μμ΄ permutation invarianct ν ν¨μ f λ λμΌν κ²°κ³Όλ₯Ό λμΆν΄λΈλ€.
- νΉμ f(graph with permutation) = graph without permutation μ΄ μ±λ¦½νλ©΄ λλ€. f(p.G) = f(G)
π Permutation Equivariance
- graph μ permutation μ ν ν f λ₯Ό μ μ©ν κ²κ³Ό graph λ₯Ό f μ λ£κ³ μ΄νμ permutation ν κ²μ΄ κ°μΌλ©΄ permutation equivalent λΌκ³ νλ€.
- f(graph with permutation) = permutation * f(graph)
β GNN μ permutation invariant μ equivalent λ λ€ λͺ¨λ λ§μ‘±νλ function μΌλ‘ μ΄λ£¨μ΄μ Έ μμ΄μΌ νλ€
β‘ GCN
π GNN Overview
- GNN μ λ€μμ permutation equivariant/invariant ν¨μλ‘ κ΅¬μ±λμ΄ μλ€.
- λ€λ₯Έ neural network ꡬ쑰λ permutation invariant/equivariant νμ§ μλλ€.
π Graph Convolutional Networks
β Computation graph, information propagate and transform
- Idea : Node's neighborhood defines a computation graph π λ€νΈμν¬ μ΄μλ€μ΄ computation graphλ₯Ό μ μ
- Learn : how to propagate information across the graph to compute node features π node feature λ₯Ό κ³μ°νκΈ° μν΄ κ·Έλν μ λ°μ κ±Έμ³ μ 보λ₯Ό μ ννλ λ°©λ²μ λ°°μ΄λ€.
- μ΄μ λ Έλλ€μ μ 보λ₯Ό ν©μ° : reference node μ μ£Όλ³ node μ weighted sum
- λͺ¨λ λ Έλλ€μ λ Έλλ§λ€ μΈμ λ Έλλ€μ κΈ°λ°νμ¬ computation graph λ₯Ό μ μνλ€.
- λ Έλμ μλ‘μ΄ feature λ₯Ό κ³μ°νκΈ° μν΄ computation graph μμ νμ±λ λ Έλλ€λ‘λΆν° λ°μ΄ν°λ₯Ό aggregation νλ€.
π Aggregation Neighbors
- Generate node embeddings based on local network neighborhoods π local λ²μμ μ΄μ λ Έλλ€λ‘λΆν° node μλ² λ©μ μμ±νλ€.
- Nodes aggregate information their neighbors using neural networks π NNμ μ¬μ©νμ¬ μ£Όλ³ μ΄μ λ Έλλ€λ‘λΆν° μ 보λ₯Ό μ§κ³νλ€.
- λͺ¨λ λ Έλλ€μ΄ μκΈ°λ§μ Neural Network Architectureλ₯Ό κ°κ³ μμΌλ©°, κ°μμ neighborhoodμ κ·Όκ±°ν΄ computiation graphλ₯Ό μ μ
π μΌμͺ½μ input graph λ₯Ό μ€λ₯Έμͺ½ μ²λΌ νΌμ²μ A λ₯Ό μμΈ‘νλ 2-layer NN μΌλ‘ λ§λ¦
π λ Έλ Aμ λν featureλ₯Ό Aμ μ΄μ λ Έλ μ 보λ₯Ό NNμΌλ‘ μμ§ν΄μ λνλ
- Network neighborhood defines a computation graph π network μ μ£Όλ³λΆκ° computation graph λ₯Ό λ§λ λ€
β λͺ¨λ λ Έλμ λν΄ κ°κ° computation graphκ° μμ±λ λͺ¨μ΅ , λ€λͺ¨ νμ λ°μ€λ€μ΄ Neural Network λ₯Ό μλ―Έν¨
β permutation invariant/equivalent ν¨μλ‘ μμμ μκ΄μλ μ§κ³ν¨μμΈ 'νκ· ' μ μ£Όλ‘ μ¬μ©νλ€.
π Deep model : many layers
- model μ μμμ depth λ₯Ό κ°μ§ μ μλ€ π graph μλ hop μ΄λΌλ λ¨μκ° μλ€
- hop ν¬κΈ°μ layer κ°μκ° λΉλ‘
- λ Έλλ€μ κ° layer λ§λ€ μλ² λ©μ κ°μ§λ€.
- Layer-0 embedding of node v is its input feature Xv
- Layer-k embedding gets information from nodes that are έk hops away : node λ‘λΆν° k hop λ¨μ΄μ§ κ³³μΌλ‘λΆν° μ 보λ₯Ό λ°μ μλ² λ©μ μννλ μΈ΅
β Layer-K λ₯Ό μ¬μ©ν΄μ μλ² λ©μ μν = K-hop λ§νΌμ λ Έλμ 보λ₯Ό κ°μ Έμλ€λ μλ―Έ
π Neighborhood aggregation
- μ΄μμμ μ 보λ₯Ό μ§κ³ν΄ κ°μ Έμ€λ λ¨κ³μμ μ΄λ»κ² ν©μ°ν΄μ€λλμ λ°λΌ λ€νΈμν¬ μ’ λ₯κ° κ΅¬λΆλλ€.
- μ΄λ μ§κ³νλ ν¨μλ κ·Έλνμ νΉμ±μΈ permutation invariant λ₯Ό κ³ λ €ν΄μΌ νλ€.
- κΈ°λ³Έμ μΌλ‘ μ΄μμμ μ§κ³ν μ 보λ₯Ό average (νκ· ) ν΄μ NNμ μ μ©νλ λ°©λ²μ λ§μ΄ μ¬μ©νλ€.
π Neighborhood aggregation : The math
- Encoderλ₯Ό μμμ μΌλ‘ λνλ΄λ©΄ λ€μκ³Ό κ°μ΄ μ 리
- hv(0) = Xv : 0-th layer embedding κ°μ node feature κ°κ³Ό λμΌνκ² μ΄κΈ°ννλ€.
- hv(k) = k-th layer (k-hop) embedding π Wk μ Bk λ νμ΅μν€λ νλΌλ―Έν° weight matrix
- Zv : λ€νΈμν¬μ μ΅μ’ κ³μΈ΅μμμ embedding ννμΌλ‘ μ΄μμ λν μ 보 μ§κ³λ₯Ό k-layer λ₯Ό ν΅κ³Όν νμ κ°
β λ€νΈμν¬κ° κΉμμλ‘ μ±λ₯μ΄ μ’λ€ → λ ν° λ€νΈμν¬μμ λ λ§μ μ 보λ₯Ό μ§κ³ν¨
- Wk,Bk : κ°μ weight λ₯Ό 곡μ νλ€.
- Wk : μ΄μλ Έλλ€λ‘λΆν° μ§κ³ν μ 보μ λν κ°μ€μΉ
- Bk : μ§κΈ λ³΄κ³ μλ λ Έλμ μ΄μ λ μ΄μ΄μμμ μλ² λ© μ 보μ λν κ°μ€μΉ (μκΈ° μμ μ λ³νμ μν κ°μ€μΉ νλ ¬)
- μ΄μμ 보μ μ§μ€ν μ§, μμ μ own property μ μ§μ€ν μ§ κ²°μ νλ€.
β μ΅μ’ layer μμμ node embedding μ loss function μ λ£κ³ SGD λ₯Ό μ΄μ©ν΄ νμ΅μ μ§ννλ€.
π Equivariant Property
- neighbor aggregation in graph convolutional networks is permutation equivariant
π Inductive Capability
β Aggregation parametersλ€μ΄ λͺ¨λ λ Έλλ€μ λν΄ κ³΅μ λλ€. κ°μ μΈ΅μ μ κ²½λ§μ νμ΅ κ°μ€μΉλ₯Ό 곡μ νλ€.
- μλ‘μ΄ λ Έλλ₯Ό λ§λ€ μ μλ λ₯λ ₯ : CNNμ νΉμ§μ΄κΈ°λ ν, μ΄λ κ² νλΌλ―Έν°λ₯Ό 곡μ νλ νΉμ§μ κ°μ§κ³ μκΈ° λλ¬Έμ unseen node μ 보μ λν΄μλ μ΄λμ λ μ μ μλ€.
- same aggregation parameters are shared for all nodes
- νκ°μ§ κ·Έλνμ λν΄μ νμ΅μ νκ³ , node embeddingνλ λ²μ λ°°μμ μλ‘μ΄ κ·Έλνμ λν΄μ μΌλ°ν ν μ μλ€.
3οΈβ£ Applications of GNNs
β Node-Level Application
π Protein Floding
- λ Έλ : μλ―Έλ Έμ° μμ
- μ£μ§ : μλ―Έλ Έμ° μ¬μ΄μ 거리
- μ 기체 Aμ λ¨λ°±μ§ μνΈμμ© κ·Έλνμμ νμ΅ν λͺ¨λΈμ ν΅ν΄ μλ‘κ² μ·¨λλ λ°μ΄ν°μΈ μ 기체 Bμ μλ² λ©μ μμ±
β‘ Edge-Level Application
π RecSys
- μλ‘μ΄ edge λ₯Ό μμΈ‘ π μ μ κ° μ’μν λ§ν μμ΄ν μ μΆμ²
β’ Graph-Level Application
π Drug Discovery
- μλ‘μ΄ λΆμꡬ쑰 μμ±
'1οΈβ£ AIβ’DS > π Deep learning' μΉ΄ν κ³ λ¦¬μ λ€λ₯Έ κΈ
[μΈκ³΅μ§λ₯] Meta learning , Transfer learning (0) | 2022.06.14 |
---|---|
[μΈκ³΅μ§λ₯] Reinforcement Learning (0) | 2022.06.14 |
[μΈκ³΅μ§λ₯] μΆμ²μμ€ν (0) | 2022.06.13 |
[μΈκ³΅μ§λ₯] GAN (0) | 2022.06.13 |
[μΈκ³΅μ§λ₯] Transformer Models (0) | 2022.06.11 |
λκΈ