Descargar la presentaciΓ³n
La descarga estΓ‘ en progreso. Por favor, espere
Publicada porNatividad Prado Robles Modificado hace 7 aΓ±os
1
Laplacianos y aprendizaje semisupervisado
2
DifusiΓ³n en redes [πΏ]ππ
Pensamos en un proceso difusivo en el que el flujo desde el nodo-j al nodo-i es proporcional a la diferencia de material: flujoj->i~ C * (xj- xi) cte de difusiΓ³n π π₯ π ππ‘ =πΆ π=1 π π΄ ππ (π₯ π β π₯ π ) π π₯ π ππ‘ =βπΆ π=1 π πΏππππβπ΄ ππ π₯π [πΏ]ππ =πΆ π=1 π π΄ ππ π₯ π βπΆ π=1 π π΄ ππ π₯ π ππ =πΆ π=1 π π΄ ππ π₯ π βπΆ π π π₯ π ππ ππ‘ =βπΆ.πΏ π ππ ππ‘ =πΆ π» 2 π Ec de difusion de calor =πΆ π=1 π π΄ ππ π₯ π βπΆπΏπππππ₯π
3
DifusiΓ³n en redes [πΏ]ππ
Pensamos en un proceso difusivo en el que el flujo desde el nodo-j al nodo-i es proporcional a la diferencia de material: flujoj->i~ C * (xj- xi) cte de difusiΓ³n π π₯ π ππ‘ =βπΆ π=1 π πΏππππβπ΄ ππ π₯π [πΏ]ππ πΏ=π·βπ΄ Si en lugar de asumir random walk, pensamos en que el flujo es proporcional a la diferencia
4
Propiedades πΏ=π·βπ΄ L es simΓ©trica
L es semidefinida-positiva (i.e. autovalores ππβ₯0, π=1β¦π) Suma por columnas y por filas de L es cero Siempre π=0 es autovalor de L con autovector v0=(1,1,β¦,1), ya que L v0 = 0 v0 = 0 L es una matriz singular (i.e. no inversible)
5
Propiedades πΏ=π·βπ΄ Laplaciano combinatorio L es simΓ©trica
L es semidefinida-positiva (i.e. autovalores ππβ₯0 , π=1β¦π) Suma por columnas y por filas de L es cero Siempre π=0 es autovalor de L con autovector v0=(1,1,β¦,1), ya que L v0 = 0 v0 = 0 L es una matriz singular (i.e. no inversible) Si el grafo tiene p componentes, de tamaΓ±os n1, n2,β¦, np Notar que ahora habrΓ‘ p autovectores de L asociados a π=0 de la forma L1 L2 ( 1,β¦,1 π 1 ,0,0,...,0) ( 0,β¦,0 , π ,β¦,1 π 2 ,0,0,...,0) ( 0,β¦,0 π 1 , 0,β¦,0 π 2 , 1,β¦,1 π 3 ,0,0,...,0)
6
Propiedades πΏ=π·βπ΄ Laplaciano combinatorio L es simΓ©trica
L es semidefinida-positiva (i.e. autovalores ππβ₯0, π=1β¦π) Suma por columnas y por filas de L es cero Siempre π=0 es autovalor de L con autovector v0=(1,1,β¦,1), ya que L v0 = 0 v0 = 0 L es una matriz singular (i.e. no inversible) Si el grafo tiene p componentes, de tamaΓ±os n1, n2,β¦, np, existen p autovectores de L asociados a π=0 Corolario: el segundo autovalor de L es π2 β 0 sii el grafo posee una ΓΊnica componente π2 se denomina conectividad algebraica de la red
7
DescomposiciΓ³n espectral de L
πΏ π π = π π π π autovector i-esimo πΏ= π=1 π π π π π π π π matriz
8
Autovectores de L π³ π π = π π π π π π
π³ π π = π π π π autovector i-esimo π π define un campo escalar sobre el grafo Notar: autovectores de bajo Γndice estΓ‘n asociados a campos mΓ‘s suaves sobre el grafo
9
Caminatas al azarβ¦y difusiΓ³n
π π π‘+1 = π=1 π 1 π π π ππ π π (π‘) pi(t) probabilidad de encontrar a Juan en el nodo-i, en el paso temporal t Esta misma ecuaciΓ³n aplica a procesos de tipo difusivos en una red, donde en cada paso temporal toda la cantidad de material que se encuentra en el nodo-i es repartida y enviada a sus vecinos π₯ π π‘+1 = π=1 π 1 π π π ππ π₯ π (π‘) xj(t) cantidad de material que a tiempo t se encuentra en el nodo-j el recurso xj se reparte extensivamente
10
DifusiΓ³n random-walk en redes
A cada paso, la cantidad xi de cada nodo se altera π₯ π π‘+1 = π=1 π 1 π π π ππ π₯ π (π‘) β π₯ π = π₯ π π‘+1 β π₯ π π‘ = π=1 π 1 π π π ππ π₯ π π‘ β π₯ π π‘ en cada nodo hay una cantidad xi de material = π=1 π 1 π π π ππ π₯ π π‘ β πΏππ π₯ π π‘ πΏππ=1 π ππ π=π =β π=1 π πΏππ β 1 π π π ππ [πΏ ππ€ ]ππ π₯ π π‘ Laplaciano random-walk ππ ππ‘ =β πΏ ππ€ π ππ ππ‘ = π» 2 π βπ=β πΏ ππ€ π
11
Laplacianos Entonces, vimos dos tipos de procesos difusivos: [πΏ]ππ
π π₯ π ππ‘ =βπΆ π=1 π πΏππππβπ ππ π₯π [πΏ]ππ πΏ=π·βπ΄ π π₯ π ππ‘ =β π=1 π πΏππ β 1 π π π ππ π₯ π π‘ [ πΏ ππ€ ]ππ πΏ ππ€ = πΌβπ· β1 π΄= π· β1 πΏ πΏ π π¦π β‘ π· β1/2 πΏ π· β1/2 =πΌβ π· β1/2 πΏ π· β1/2 L : Laplaciano combinatorio o no-normalizado Lrw: Laplaciano random-walk Lsym: Laplaciano normalizado o simetrico
12
PriorizaciΓ³n de nuevas asociaciones gen/enfermedad
Algoritmos para propagar sentido de pertenecia al conjunto de interΓ©s: Random Walk with Restart (Kholer 2009) Net-Rank (Chen 2009) Net-Propagation (Vanunu 2010) Functional Flow (Navieba 2005) Lo podemos pensar tambiΓ©n como un proceso de difusiΓ³n con fuentes Kolher et al The American Journal of Human Genetics 2008
13
DifusiΓ³n en redes y aprendizaje semi-supervisado
Tengo informaciΓ³n parcial asociada a un subconjunto de nodos (etiquetas, o valores reales) y quiero utilizarla para inferir propiedades de los no-etiquetados Cada nodo va a propagar su etiqueta de manera iterativa hasta converger Problema de clasificaciΓ³n: l nodos etiquetados con valor 1 (azul) o -1 (rojo) y N-l nodos con valor 0. 1 -1 Problema de priorizaciΓ³n: l nodos etiquetados con valor 1 y N-l nodos con valor 0. 1 0.8 1 2.3 2 Problema de regresiΓ³n: l nodos etiquetados con valores reales y N-l nodos con valor 0. El problema de aprendizaje semi-supervisado consiste en encontrar un etiquetado de los nodos del grafo consistente con El etiquetado inicial (incompleto) La geometria inducida por la estructura de la red
14
DifusiΓ³n en redes y aprendizaje semi-supervisado
1 -1 Algoritmo 1 Label Propagation (Zhu 2002) Computo de matriz de adyacencia W Computo de matriz diagonal D: π· ππ β π π€ ππ Inicializo π (π‘=0) β π¦ 1 ,β¦, π¦ π ,0,0,β¦,0 Itero hasta convergencia π (π‘+1) β π· β1 π π (π‘) π π (π‘+1) β π π Etiqueta del nodo-i resulta π πππ( π¦ π (β) ) Sea el grafo G, nodos 1,2,β¦,l etiquetados no trivialmente segun π π = π¦ 1 ,β¦, π¦ π nodos l+1,β¦,N etiquetados con valor 0 Queremos propagar la informaciΓ³n por la red y estimar el vector de etiquetas asintΓ³tico: π = π π , π π’
15
DifusiΓ³n en redes y aprendizaje semi-supervisado
Algoritmo 2 Label Propagation 1 -1 Computo de matriz de adyacencia W, se fija wii=0 Computo de matriz diagonal D: π· ππ β π π€ ππ Elijo Ο΅>0 y πΌβ 0,1 πβ πΌ 1βπΌ (0,+β) Computo la matriz diagonal π΄ ππ β πΌ π π +π π· ππ +ππ Inicializo π (π‘=0) β π¦ 1 ,β¦, π¦ π ,0,0,β¦,0 Itero hasta convergencia π (π‘+1) β π΄ β1 (ππ π π‘ + π 0 ) Etiqueta del nodo-i resulta π πππ( π¦ π (β) ) para nodo etiquetado para nodo sin etiquetar Diferencias con Algo 1 Se fija wii=0 Se permite π π β π π Se considera un termino de regularizaciΓ³n Ο΅ πΌ π :matriz diagonal con 1βs en los primeros l elementos y 0 el resto
16
DifusiΓ³n en redes y aprendizaje semi-supervisado
1 -1 Algoritmo 3 Label Propagation (Zhou 2004) Computo de matriz de adyacencia W, se fija wii=0 Computo de matriz diagonal D: π· ππ β π π€ ππ Computo Laplaciano simetrico ββ π· β1/2 π π· β1/2 Inicializo π (π‘=0) β π¦ 1 ,β¦, π¦ π ,0,0,β¦,0 Elijo πΌβ[0,1) Itero hasta convergencia π (π‘+1) βπΌβ π (π‘) + 1βπΌ π 0 Etiqueta del nodo-i resulta π πππ( π¦ π (β) ) DifusiΓ³n con fuentes
17
RegularizaciΓ³n en grafos
El problema de aprendizaje supervisado consiste en encontrar un etiquetado de los nodos del grafo consistente con El etiquetado inicial (incompleto) La geometria inducida por la estructura de la red Sea π =( π π , π π’ ) etiquetados no-etiquetados penalizamos apartamiento de etiquetado original Consistencia con etiquetado inicial: Consistencia con geometrΓa de los datos: penalizamos cambios bruscos de etiquetado
18
RegularizaciΓ³n en grafos
El problema de aprendizaje supervisado consiste en encontrar un etiquetado de los nodos del grafo consistente con El etiquetado inicial (incompleto) La geometria inducida por la estructura de la red penalizamos cambios bruscos de etiquetado penalizamos apartamiento de etiquetado original β( π )= π=1 π π¦ π β π¦ π π,π=1 π π€ ππ π¦ π β π¦ π 2 Se trata de encontrar el etiquetado π que minimice β( π ) = π π β π π π π πΏ π β( π )= π π β π π 2 +π π π πΏ π +ΞΌπ π π 2 En la practica se suele agregar un tΓ©rmino de regularizaciΓ³n para romper la simetrΓa entre etiquetas
19
RegularizaciΓ³n en grafos
Se trata de encontrar el etiquetado π que minimice β( π ) β( π )= π π β π π 2 +π π π πΏ π +ΞΌπ π π 2 π=πΌ π matriz diagonal con 1βs en los primeros l elementos y 0 el resto π π βππ 2 1 2 πβ( π ) π π =π π βπ +ΞΌ πΏ π +ΞΌπ π = π+ΞΌ πΏ+ΞΌππΌ π βSπ =0 Las etiquetas optimas pueden obtenerse invirtiendo una matriz Esta matriz depende ΓΊnicamente del Laplaciano de la red (no de las etiquetas) La manera en que las etiquetas se propagan depende exclusivamente de la estructura del grafo β π = π+ΞΌ πΏ+ΞΌππΌ β1 Sπ
20
RegularizaciΓ³n en grafos
Hay otras elecciones para la funciΓ³n a minimizar: β( π )= π π βππ 2 +π π π πΏ π +ΞΌπ π π 2 ββ²( π )= π βππ 2 + π 2 π,π π€ ππ π¦ π π· ππ β π¦ π π· ππ Zhou 2004 Dos diferencias entre β ( π )y ββ²( π ): El primer tΓ©rmino busca ajustar bien las etiquetas conocidas pero ademΓ‘s favorece etiquetas 0 para nodos no-etiquetados inicialmente Las etiquetas estΓ‘n normalizadas por la raiz cuadrada del grado cuando se computa similaridad entre vecinos. π π β π π π π’ 2 Se puede ver que ββ²( π )= π βππ 2 +π ( π· β1/2 π ) π πΏ( π· β1/2 π )
21
VΓnculo entre regularizaciΓ³n y propagaciΓ³n de etiquetas
1 β( π )= π π βππ 2 +π π π πΏ π +ΞΌπ π π 2 β π β = π+ΞΌ πΏ+ΞΌππΌ β1 Sπ Metodo iterativo de Jacobi para invertir una matriz: ππ₯=π π₯ π (π‘+1) = 1 π ππ πβ πβ π π ππ π₯ π (π‘) π₯β‘ π , πβ‘ππ,π=π+ΞΌ πΏ+ΞΌππΌ En nuestro caso y la iteraciΓ³n de Jacobi resulta en para nodo etiquetado para nodo sin etiquetar Algoritmo 2 de propagaciΓ³n de etiquetas (!)
22
RegularizaciΓ³n y propagaciΓ³n de etiquetas
ββ²( π )= π βππ 2 +π ( π· β1/2 π ) π πΏ( π· β1/2 π ) 1 2 πββ²( π ) π π = π βππ+ΞΌ ( π ββ π ) β π β = 1+ΞΌ πΌβΞΌ β β1 Sπ π (π‘+1) βπΌβ π (π‘) +(1βπΌ) π (0) con π= πΌ 1βπΌ La iteracion de Jacobi para resolver πββ²( π ) π π =0 Algoritmo 3 de propagaciΓ³n de etiquetas (!)
23
Conclusiones Vimos ejemplos donde es posible establecer un link entre una metodologia de propagacion de etiquetas y un proceso de minimizacion de una cantidad que da cuenta de el ajuste a la informacion inicial (parcial) suavidad del campo de etiquetas sobre la geometria de los datos
24
Refs Bengio, Delalleau, Le Roux: Label propagation and quadratic criterion.
Presentaciones similares
© 2025 SlidePlayer.es Inc.
All rights reserved.