Descargar la presentación
La descarga está en progreso. Por favor, espere
1
Radial basis functions
Hertz, krogh, palmer
2
Aprendizaje competitivo simple
Input neto Unidad “ganadora” Regla de aprendizaje competitivo
3
Problema de las unidades muertas (sin actualizaciones):
Inicialización en la muestra. Actualizar los vencedores y los perdedores Preservación topológica (kohonen) Ponderar el numero de veces que ganan los vectores (conciencia) Añdir ruido a los patrones.
4
Convergencia: el algoritmo competitivo simple tiende a minimizar la distorsion de la cuantización vectorial de la muestra Función de energía Descenso por el gradiente Existen muchos mínimos locales de la función de energía La aplicación batch del descenso de gradiente es el algoritmo de k-means
5
Mapas de kohonen Tanto la velocidad de aprendizaje como el radio de vecindad van hacia cero muy suavemente
7
Redes de contrapropagación
La capa oculta es de unidades competitivas. La capa de salida es de unidades lineales Entrenamiento lineal de la capa output
8
Redes debase radial Que minimiza
Las unidades ocultas tienen función de activación gausiana normalizada Las unidades de salida son unidades lineales, con entrenamiento: Que minimiza
9
Métodos mixtos: LVQ El problema es de clasificación supervisada. Los vectores input tienen una clase asociada. Los vectores peso también tienen una clase asociada. El entrenamiento depende de la clase del vector input, es repelente o atractivo dependiendo de que sean distintos o coincidan las clases
Presentaciones similares
© 2024 SlidePlayer.es Inc.
All rights reserved.