Inteligencia Artificial (BAIA)  Se propone lograr que las computadoras se comporten de manera que podamos reconocerlas como inteligentes.  Tiene por.

Slides:



Advertisements
Presentaciones similares
Bases de la programación de un PLC
Advertisements

BRUNER Psicología cognitiva: muy positiva en Europa, sin embargo en EE.UU  oposición, resistencia. Predomina el enfoque conductista  Bruner funda.
Introducción a las Redes neuronales
SISTEMAS DE INFORMACIÓN EN LAS ORGANIZACIONES
Historia de la Inteligencia Artificial
FACHADA COMPOSITOR MEMENTO
COLEGIO UNIVERSITARIO DE ADMINISTRACION Y MERCADEO
Base de Datos Distribuidas FUNDAMENTOS DE BASES DE DATOS DISTRIBUIDAS
Visión de máquina: un reto para hacer I.A.
¿Cómo hacer para que una máquina comprenda el LN?
Confiabilidad en Bases de Datos Distribuidas
REDES NEURONALES.
Procesos Cognitivos básicos
LAS CONDICIONES DEL APRENDIZAJE
Redes Neuronales. SOMAdendritas AXON Sinapsis Las neuronas recibe entradas de otras neuronas a través de las dendritas y cuando la señal excede un cierto.
Representación del Conocimiento Sesion 2. Contenido Representación del Conocimiento. Parte de una representación. Manipulación del Conocimiento. Referencias.
REDES NEURONALES ARTIFICIALES
PROGRAMACIÓN LÓGICA.
PROCESO DE PRODUCCIÓN Preguntas:
Elemento Lógico (Software)
Algoritmos Distribuidos Semana 1. Parte 2 Comunicación por Pase de Mensajes Claudia León Universidad Central de Venezuela Facultad de Ciencias Escuela.
LENGUAS ELECTRÓNICAS.
Redes Neuronales Monocapa
Ing. Fabián Ruano.  Definición  Diferencias con BD Centralizadas.
CAMBIO ORGANIZACIONAL
Problemas, algoritmos y programas: Modelar: Simular o programar su solución en un computador. Algoritmos: Es un conjunto finito, y no ambiguo de etapas.
Representación del conocimiento
Tema 10.3: Asignación de Espacio No Contiguo. Tema 10.3: 2 Silberschatz, Galvin and Gagne ©2005 Fundamentos de los Computadores (ITT, Sist. Electr.),
Aplicaciones de las Redes Neuronales Artificilaes Dr. Héctor Allende
(Organización y Manejo de Archivos)
Conexión entre dos computadoras.  Datos: son hechos que describen sucesos y entidades. No tienen ninguna información. Puede significar un numero, una.
Redes Asociativas.
Redes Neuronales Artificiales
PROCESAMIENTO DE LA INFORMACIÓN
UNIVERSIDAD AUTÓNOMA SAN FRANCISCO
Modelos Computacionales
REDES NEURONALES.
Practica 4 supercomputadoras.
EL APRENDIZAJE El aprendizaje es el proceso a través del cual se adquieren o modifican habilidades, destrezas, conocimientos, conductas o valores como.
Redes Neuronales Artificiales 2 - Aprendizaje
Una aproximación a la visión
8.- Inteligencia artificial
María Stefanny Mosquera Flor 11-1
Redes Neuronales BPN - Backpropagation Networks
Metodología de la programación
Las capacidades de las computadoras y sus límites Harry Collins
Tendencias Generales Dotación física Software lógica Más pequeño
Algoritmo de Retropropagación. Conclusiones de Retropropagación n 1. Si la neurona j es un nodo de salida es igual al producto de la derivada y la señal.
Introducción a los Sistemas Inteligentes
PARTES FRONTALES Y TRASERAS DEL CHASIS. PARTES FRONTALES.
Sistemas Basados en Reglas
ARQUITECTURA ALTERNATIVA DE SERVIDORES SISTEMAS OPERTIVOS DE RED En un sistema operativo de red los usuarios saben que están conectados a la red y que.
REDES NEURONALES TEORÍA MODERNA DE LA FIRMA 2010.
MAPA MENTAL Un mapa mental (mind map en inglés) es un diagrama usado para representar las palabras, ideas, tareas, u otros conceptos ligados y dispuestos.
ARQUITECTURAS DE LOS SERVIDORES El computador tiene 2 aspectos para entender su funcionamiento al nivel de programación: Almacenamiento Procesamiento Para.
Teoría Sociolingüística
Neurociencias Cognitivas y Redes Neuronales
Ramas de I.A. ROBOTICA SISTEMAS DE VISION SISTEMAS EXPERTOS
Ismael Cruz Sebastián  Una partición de disco, en mantenimiento, es el nombre genérico que recibe cada división presente en una sola unidad física de.
Introducción a la Inteligencia Artificial
MODELOS CONDUCTUALES.
¿Qué es el conectivismo?
SISTEMAS OPERTIVOS DE RED Los usuarios están conectados a la red y que pueden compartir recursos. Cada equipo ejecuta con sus propios recursos su propio.
Redes Neuronales.
CONECTIVISMO Desarrollada por George Siemens
Conalep 150 Tehuacán inmi 309 soma
LA COMPRENSIÓN LECTORA
Descripción de las Funciones Básicas del Cerebro
PONENCIA: III ENCUENTRO VIRTUAL DE DOCENTES CON EXPERIENCIAS DE AULAS DE INNOVACIONES PEDAGOGICAS 2013 “MEGATENDENCIAS EN EDUCACIÓN”
OBJETIVOS DE LOS PROGRAMAS DE ESTUDIO: SESIÓN DE TRABAJO 3 DE SEPTIEMBRE DE 2013 SECRETARÍA GENERAL SECRETARÍA DE APOYO A LA DOCENCIA.
Transcripción de la presentación:

Inteligencia Artificial (BAIA)  Se propone lograr que las computadoras se comporten de manera que podamos reconocerlas como inteligentes.  Tiene por objeto entender la inteligencia natural.  Las computadoras manipulan símbolos en términos de reglas precisas  Contienen estructuras de datos y reglas formales y precisas, referidas a representaciones estructuradas sintácticamente

Crisis de la BAIA  Limitación de las computadoras: Reconocimiento, comprensión del habla, recuerdo, reconocimiento, planificación, dificultades para aprender. Direccionamiento de la memoria basado en la dirección y no en contenido.  Los cerebros no hacen las cosas de la misma forma que las computadoras. Inteligencias y formas de operación diferentes. Neuronas lentas y de degradación armoniosa.  Restricciones débiles, múltiples y simultáneas que pueden ser violadas (problema de marco) y cualquier porción de información puede resultar relevante para cualquier tarea o conocimiento y puede cambiar el sistema total (cruzamiento).

Sistemas conexionistas o redes neuronales  Red de procesadores simples (neuronas) denominados “nodos”. Cada nodo tiene conexiones con varios nodos de quienes recibe y a quienes envía señales.  El input de cada nodo es una señal simple, de tipo eléctrica, que podría tener valores encendido-apagado o variar en una dimensión (fuerza).  Las señales pueden ser de inhibición o de excitación  El input total de un nodo determina su estado de activación (on-off vs. umbral de encendido).

Sistemas conexionistas o redes neuronales  La fuerza de la conexión entre nodos se denomina peso.  El aprendizaje conexionista consiste en obtener que los pesos cambien.  Si el peso entre dos nodos aumenta, disminuye la resistencia y aumenta la probabilidad de que cuando uno se encienda también lo haga el otro.  Nodos de input – Nodos internos - Nodos de output.  No hay limitaciones sobre los tipos de estructuras de nodos. Estructura por capas.

Sistemas conexionistas o redes neuronales  Problema: activación de nodos de input.  Procesamiento: activación de nodos internos.  Solución: activación de nodos de output  Existe retroalimentación, lazos y conexiones inhibitorias que determinan una única solución.  Se produce actividad hasta que el sistema se asienta y determina una configuración estable.

Sistemas conexionistas o redes neuronales  No hay procesador central y no hay programas.  Todas las conexiones son locales. Las conexiones entre nodos son locales.  Cada nodo solo sabe lo que obtiene de los nodos conectados a él (prendido-apagado).  Lo que ocurre en un lugar del sistema es independiente de lo que ocurre en otro lugar.  Procesamiento local simultáneo distribuido en todo el sistema

Sistemas conexionistas o redes neuronales  Del procesamiento local simultáneo emerge una configuración estable del sistema (solución).  Capacidad de aprender: se asignan interpretaciones arbitrarias a patrones de nodos como output correcto, dado cierto patrón de estimulación de nodos de input.  Los pesos se ajustan algorítmicamente como función de la contribución de cada peso al error.  La retropropagación produce el output correcto para cada configuración inicial de inputs

Sistemas conexionistas o redes neuronales  ¿Cuál es el proceso en la red que cambia los pesos adecuadamente? Problema actual de investigación.  Una representación es un cierto patrón de activación con algunos nodos encendidos y algunos apagados. Se las denomina representaciones distribuidas  Los pesos son establecidos de manera que las representaciones tienden a completarse a si mismas, una vez que algunos nodos están activados. Memoria direccionable al contenido.  Una porción del contenido tiende a activar la totalidad. Cuando nodos de diferentes representaciones se activan compiten por consumarse o completarse en función de mejor ajuste al input.

Sistemas conexionistas o redes neuronales  Las restricciones pueden ser violadas por la representación que mejor se ajusta al input en un todo. Restricciones débiles.  En BAIA las restricciones son lógicas e inviolables. La información se almacena de la misma forma en que se usa.  PDP la información se representa como patrón de activación. Cuando no está en uso, el patrón no está presente en ningún lado del sistema. No se almacena como estructura de datos.  Los pesos son tales que las representaciones apropiadas se crean cuando se necesitan. La información se almacena en los pesos.

Sistemas conexionistas o redes neuronales  Las representaciones se crean en respuesta a estímulos internos o externos.  Los recuerdos no se almacenan, sino que se recrean en respuesta a aquello que nos haga recordar.  La información que no está efectivamente activa está en el sistema de manera potencial.  Las representaciones no tienen estructuras sintácticas. Son representaciones atómicas, no estructuradas.

La representación en los sistemas conexionistas  Representaciones intrínsecas: emplean relaciones con las mismas constricciones inherentes a la relación que representa (imagen).  Representaciones extrínsecas: relación arbitraria entre la representación y lo representado (proposición).  Las representaciones (estructuras) dependen de los procesos (actividades).

La representación en los sistemas conexionistas Modelos simbólicos  Representación por sistema de símbolos.  Nivel semántico explica por qué los sistemas conocen sus objetivos.  Nivel simbólico codifica contenido semántico y dicta reglas para manipulación de símbolos.  Nivel físico actúa como soporte material del sistema

La representación en los sistemas conexionistas Modelos conexionistas o no simbólicos  Rechazan la idea de la manipulación de símbolos.  Poca probabilidad de que el cerebro implemente programas seriales. Funcionamiento paralelo.  Redes con capacidad de autogenerarse, de completar patrones y de tolerar imperfecciones

La representación en los sistemas conexionistas  Equipotencialidad de Lashley. El aprendizaje se produce por un cambio en la fuerza de las conexiones entre elementos de una red.  La conectividad del cerebro cambia con el aprendizaje.  Cada entidad se representa como un patrón de activación distribuida de elementos simples de computación.  Cada elemento está implicado en la representación de muchas entidades diferentes.  La representación es numérica en lugar de simbólica