Radial basis functions Hertz, krogh, palmer
Aprendizaje competitivo simple Input neto Unidad “ganadora” Regla de aprendizaje competitivo
Problema de las unidades muertas (sin actualizaciones): Inicialización en la muestra. Actualizar los vencedores y los perdedores Preservación topológica (kohonen) Ponderar el numero de veces que ganan los vectores (conciencia) Añdir ruido a los patrones.
Convergencia: el algoritmo competitivo simple tiende a minimizar la distorsion de la cuantización vectorial de la muestra Función de energía Descenso por el gradiente Existen muchos mínimos locales de la función de energía La aplicación batch del descenso de gradiente es el algoritmo de k-means
Mapas de kohonen Tanto la velocidad de aprendizaje como el radio de vecindad van hacia cero muy suavemente
Redes de contrapropagación La capa oculta es de unidades competitivas. La capa de salida es de unidades lineales Entrenamiento lineal de la capa output
Redes debase radial Que minimiza Las unidades ocultas tienen función de activación gausiana normalizada Las unidades de salida son unidades lineales, con entrenamiento: Que minimiza
Métodos mixtos: LVQ El problema es de clasificación supervisada. Los vectores input tienen una clase asociada. Los vectores peso también tienen una clase asociada. El entrenamiento depende de la clase del vector input, es repelente o atractivo dependiendo de que sean distintos o coincidan las clases