La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Carlos Reynoso UNIVERSIDAD DE BUENOS AIRES

Presentaciones similares


Presentación del tema: "Carlos Reynoso UNIVERSIDAD DE BUENOS AIRES"— Transcripción de la presentación:

1 Carlos Reynoso UNIVERSIDAD DE BUENOS AIRES carlosreynoso@filo.uba.ar
Ciencia cognitiva Carlos Reynoso UNIVERSIDAD DE BUENOS AIRES

2 Comprender la mente puede ser menos complicado de lo que nuestra vanidad espera o de lo que nuestro intelecto teme. - Rodolfo Llinás, 1986 Objetivos Elaborar una presentación de la disciplina desde el punto de vista antropológico. Mostrar formas complejas de entendimiento (posible) entre antropología y otras disciplinas Poner de manifiesto las limitaciones inherentes a las concepciones antropológicas de los conceptos cognitivos esenciales Conocimiento, símbolo, representación, mente, aprendizaje, lógica, pensamiento, imagen, inteligencia, memoria

3 Agenda Historia de la ciencia cognitiva Antropología cognitiva
Psicología cognitiva* Inteligencia artificial, GOFAI Inteligencia artificial, conexionismo Antropología cognitiva Conclusiones Trabajos pendientes & Referencias

4 Definiciones “Cognición” – Se puede encontrar a fines del siglo XIX (Wilhelm Wundt, William James) Ciencia cognitiva = estudio de la mente o de la inteligencia Reemplazó a la idea de Inteligencia Artificial Modelo de caja gris – Restitución de la mente Investigación multidisciplinaria: psicología, neurociencia, antropología, filosofía, lingüística, computación científica, biología

5 La “revolución cognitiva”
MIT, 11 de setiembre de 1956 (11 al 13) Miller, Mágico número siete Newell y Simon – Logic Theorist, GPS Declinación (momentánea) de la neurociencia y auge de la lingüística Chomsky – Tres modelos para la descripción del lenguaje 1957: Syntactic structures 1958: Review de Verbal behavior de Skinner 

6 Chomsky sobre Skinner Cuestionamiento de la idea de que el lenguaje se puede insuflar via entrenamiento animal Estímulo – Refuerzo – Privación Predecir y controlar comportamiento verbal manipulando variables de entorno. No habría restricciones de especie. La contribución interna del hablante sería poco esencial.

7 La revolución… Chomsky (28 años a esa fecha)
No es viable un modelo de producción lingüística derivado de la teoría de la información de Shannon. Base de su concepción de lenguajes formales y sus autómatas. Base de los métodos formales en computación y de los compiladores de lenguajes formales. Primer modelo “matemático” del lenguaje. Segunda (o tercera) revolución lingüística.

8 George Miller The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information (1956) Sólo se aplica a juicios o estímulos unidimensionales, no a recordar (por ejemplo) caras o lugares. Capacidad de canal equivalente a 2.5 bits (unas 6 alternativas) – Se aplica a percepción, procesamiento y memoria. “En realidad no hay ninguna magia en relación con tantos otros 7s; sólo una perniciosa coincidencia”. Entre las coincidencias incluye las 7 notas de la escala musical, lo que sin duda es un error suyo. No está demostrado que se aplique a la memoria a corto plazo. Se ha convertido en una especie de mito urbano. Elizabeth Rice (1980) – Cultural schemata.

9 Anthony Wallace “On being just complicated enough”, 1964 [disp]
Aunque el tamaño y complejidad de las sociedades varía enormemente, la dimensión del sistema de términos de parentesco no lo hace Para transformar el número de términos en una cifra que sirva para medir complejidad, computó log2 1/L Número de elecciones binarias necesario para producir un sistema de tamaño L

10 Anthony Wallace Todos los sistemas taxonómicos se pueden acomodar en un espacio que requiere 6 dimensiones binarias o menos

11 Anthony Wallace 26 = 64 “Conjuntos contrastantes” = espacios taxonómicos, o sistemas institucionalizados de discriminación Formas verbales en inglés, 61; 64 cuadrados en un tablero de ajedrez, menos de 64 términos numéricos básicos; menos de 64 rangos militares, etcétera

12 Otros hitos 1960 – George Sperling – Memoria icónica
1967 – Ulric Neisser – Psicología cognitiva Modelo computacional para memoria, razonamiento, percepción 1969 – Modelos de la función cerebelar y de la visión de David Marr  1970s – Journals: Cognitive Psychology, Cognition, Memory & Cognition

13 David Marr [1945-1980] Fundador de la neurociencia computacional
Modelos de procesamiento visual: Fisiología +IA+psicología Entender el cerebro presupone entender los problemas que se le plantean y las soluciones que encuentra Tres niveles de análisis: El problema que la visión enfrenta (computacional) La estrategia que puede usarse (algorítmico) Cómo se realiza de hecho la actividad neuronal (implementacional)

14 David Marr [1945-1980] Proceso visual en tres etapas:
Esbozo primitivo (primal sketch), extrayendo rasgos de componentes fundamentales de la escena (bordes, regiones, etc) Un esbozo de 2,5 dimensiones. Se reconocen sombras, texturas, etc Un modelo continuo en 3 dimensiones Dinámica de aprendizaje/optimización, que anticipa los métodos de los algoritmos naturales**

15 David Marr [ ] “Ley del cuadrado inverso” para la investigación científica: El valor de un estudio varía inversamente con el cuadrado de su generalidad Avances en investigación de visión binocular El libro casi póstumo de Marr es reconocido como la Biblia del MIT de visión de computadora. Colin Ware – Information visualization (2004)* Mallot & Allen – Computational vision (2004) Uttal – Computational modeling of vision (1999)

16 Relaciones interdisciplinarias
© Howard Gardner, La nueva ciencia de la mente

17 Tres modelos contrapuestos
IA “fuerte” - MIT Artificial Ligada a computadoras, lógica Modelo mecánico Deducción: cálculo de predicados Newell-Simon, Russell/Whitehead, Frege Atomismo, racionalismo Conexionismo – Redes neuronales Natural Simulación del cerebro – The astonishing hypothesis (Francis Crick) Aprendizaje, inducción Modelo estadístico, caja negra

18 Tres modelos contrapuestos
Neurociencia computacional* Modelos computacionales del cerebro o de diversos componentes funcionales Basado en intuiciones de Andrew Huxley, Alan Hodgkin y David Marr

19 GOFAI

20 Inteligencia artificial
Dificultad de definir consensuadamente “Inteligencia” Propuesta de Alan Turing  La inteligencia como medida del IQ (G) Howard Gardner – Teoría de las múltiples inteligencias La curva de campana (Charles Murray, Richard Herrnstein ) Discutido por Stephen Jay Gould en The mismeasure of man (nueva edición, 1996) Todavía no hay definiciones aceptadas La polémica es hoy explosiva y la antropología no tiene gran cosa que aportar al respecto, pues carece de método comparativo y de capacidad experimental. (Cole & Gay)

21 La prueba de Turing ¿Puede una máquina ser inteligente?
Sí, si inteligencia se define como la capacidad de engañar a un interlocutor humano. Es posible hacerlo durante un corto tiempo. Ejemplos: “George” – Página de Simon Laven – The Postmodern Generator, A veces se confunde la Prueba de Turing con la idea de que el cerebro funciona como una Máquina de Turing.

22 La prueba, Enigma, The Bombe & la Máquina

23 SHRDLU Terry Winograd, 1970

24

25

26

27

28 Supuestos comunes a la IA
La cognición humana comparte características con el procesamiento de información de las computadoras. Ese procesamiento es secuencial y serial. Consiste en operaciones discretas. La memoria es independiente del procesador. Propósito general Las operaciones se pueden describir en términos de reglas como las que caracterizan a los lenguajes de programación.

29 Allen Newell y Herbert Simon
Logic Theorist, 1956 Teoremas de Principia Mathematica General Problem Solver, 1958 SOAR, hasta 1990s – Arquitectura general para sistemas inteligentes, todavía activa

30 Inteligencia Artificial ppd
John McCarthy, 1958 Propuso utilizar cálculo de predicados para la representación del conocimiento. Los programas deberían ser declarativos, no imperativos (o procedimentales). También inventó el lenguaje Lisp. Procesamiento de listas recursivas. Prefiguró los Application Service Providers en 1960. Obviamente no prosperó. A principios de los 90s reconoció que se la había ido un poco la mano.

31 GOFAI John Haugeland, 1985 (Artificial intelligence, the very idea) – Good Old Fashioned Artificial Intelligence. N-S - Sistema [físico] de procesamiento de símbolos. Hechos y reglas. Modelos de programación lógica. Prolog, cláusulas de Horn – Alain Colmerauer y Robert Kowalski, 1972 Algoritmo de resolución de Robinson Cálculo de predicados de primer orden. Cuantificación universal.

32 Programación lógica PROLOG Hechos, reglas, preguntas, hipótesis
mortal(X) :- hombre (X). Hechos: hombre(socrates). Pregunta extensional (en consulta): mortal(X). Hipótesis: mortal(socrates). Las hipótesis tienen la misma estructura de los hechos. Las únicas respuestas a una hipótesis tienen que ser si o no.

33 Aaron

34 GOFAI - 2 Sistemas expertos Inferencia clínica
Base de datos Máquina de inferencia Inferencia clínica Mycin, Neo-Mycin, Pip, Internist, Dendral, SHRDLU AGENI2 (Reynoso) Limitaciones del modelo simbólico No todo conocimiento puede representarse en términos de proposiciones o predicados Reconocimiento de patrones Identificación de instancias diferentes de un mismo objeto (firmas, huellas digitales) Intolerancia a errores o destrucción parcial

35 Inteligencia artificial
Aplicaciones antropológicas de IA simbólica Sistemas expertos de diagnóstico clasificatorio Modelos axiomáticos de la cultura Matrimonio Kariera (Kemeny-Snell-Thompson) Gramáticas culturales Benjamin Colby – Cuentos Ixil Análisis funcional del relato (Vladimir Propp) Lógicas alternativas Lógica temporal Lógica no-monotónica Logica polivalente (Lukasiewicz) Lógica difusa (Lotfi Zadeh)

36 Limitaciones técnicas de GOFAI
Sólo buena para campos conocidos de manera analítica y exhaustiva. Poca tolerancia a errores. Representación sintáctica, no realmente semántica. Reconocimiento de patrones prácticamente imposible. Carente de capacidad de recuperación ante destrucción parcial. No muy eficiente para implementar aprendizaje. El aprendizaje es mayormente inducción.

37 Descrédito de la IA fuerte
Promesas no cumplidas – Invierno de la IA desde 1988 Sistemas expertos exitosos, pero sólo útiles para tareas de diagnóstico Varios SE embebidos en sistemas operativos Fracaso histórico del programa japonés de máquinas de Quinta Generación Proyección original de 5 mil millones de dólares Prolog no puso soportar la competencia de lenguajes procedimentales, particularmente C++ Queda como tecnología de nicho para sistemas basados en reglas, cálculos de riesgo crediticio, diagnósticos varios

38 Conexionismo

39 Problema no tratable analíticamente
¿Cuántos grupos de objetos hay?

40 Otro más Fotografía de R. C. James, 1970s

41 Otro

42 Procesos diversos El cerebro trabaja en el rango de los milisegundos (10-3) y las computadoras en el orden de los nanosegundos (10-9). Sin embargo, el cerebro reconoce formas y patrones mucho más eficientemente. No es posible que lo haga mediante muchísimos procesos unitarios y secuenciales: no habría suficiente tiempo. Trabajos mucho más sencillos (calcular) le insumen tiempos comparativamente enormes.

43 Redes neuronales (Presentación separada)

44 Conexionismo Redes de McCulloch – Pitts (1943) Von Neumann, Winograd
Neuronas como puertas lógicas Pesos: sinapsis excitativas, s. inhibitorias Capacidad de computación universal Máquina de lectura para ciegos, percepción gestáltica Von Neumann, Winograd Redundancia en redes de McC-P para tolerancia a errores Sinapsis de Hebb (1949) Basado en Ramón y Cajal Modelo distribuido (hologramático) Aprendizaje: redes neuronales adaptativas (McKay, Uttley, 1950) Reconocimiento de patrones

45 Conexionismo Perceptrones (Frank Rosenblatt)
Entrenamiento para distinción de patrones Unidades sensoriales y motoras Aumento o disminución de pesos (conductismo) Seymour Papert / Marvin Minsky (1969) Distinción entre T y C, con rotación etc No pueden resolver XOR y funciones lógicas que requieren más alto nivel de tipificación

46 Modelos ulteriores Redes de Hopfield Máquinas de Boltzmann
Spin glass: Problemas de optimización, vendedor ambulante (simulación de templado, AG, etc) – Atrapadas en configuraciones metaestables Máquinas de Boltzmann Múltiples capas Propagación hacia atrás Kohonen: entrenamiento no asistido Resolución XOR, T/C NetTalk: lee y habla inglés Redes amo-esclavo, filtros de Gabor Modelos mixtos: AARON

47 Situación actual Situación incierta de IA fuerte
Sentido común: Estructuras, templates, frames, scripts, mapas cognitivos Dreyfus: What computers can’t do (Flores, Heidegger) 1996: Deep Blue vence a Kasparov Divisiones en el paradigma conexionista (Pinker) Conexionismo eliminativo: sin semántica ni nivel simbólico Conexionismo implementacional: representación sub-simbólica Conexionismo revisionista de procesamiento de símbolos (Escuela de San Diego)

48 Desarrollos ulteriores
1980s: Resurgimiento de la neurociencia con PDP en Escuela de San Diego 1987: Cognición situada, modelos ecológicos 1990: Dinámica no lineal : Cognición distribuida, Modelos basados en agentes

49 Estado de la cuestión Modelo de Izhikovich, igual dimensión que el cerebro 1010 neuronas. Un segundo de simulación insume 50 días en un cluster Beowulf de 27 procesadores de 3 GHz El modelo exhibe ritmos alpha y gamma y otros fenómenos de interés.

50 Aplicaciones en Antropología
Discursivas: Reflexiones de D’Andrade Los antropólogos suelen hablar de reglas. Lo que hay en realidad son conductas. En muchos casos que se describen como seguimiento de reglas, puede no haberlas dentro del actor – Sólo redes de ciertas clases. También hay un paralelismo con la “respuesta automática” versus la no-automática, de carácter simbólico. Gran parte del aprendizaje cultural probablemente sea afin al aprendizaje coneccionista.

51 Aplicaciones en Antropología
Maurice Bloch. “Language, anthropology and cognitive science”. Man 26, (1992) Antropólogo cognitivo de LSE. Granjeros Zafimaniry de Madagascar – Decisiones complejas (p. ej. un pedazo de bosque puede ser un buen campo). No puede ser resultado de análisis por factores de vegetación, pendiente, entorno, hidrología, suelo, etcétera. El modelo folk se resuelve en segundos y no lo podemos comprender bien porque razonamos conforme al modelo de procesamiento simbólico. La alternativa conexionista es mejor.

52 Sobre Maurice Bloch Conocido por su enfoque marxista en sus inicios.
Enemigo de la memética con posterioridad. Desarrolla su trabajo en LSE, no tanto en Francia. Distingue entre la antropología tradicional y el miasma difusionista (esto es, negación radical del evolucionismo, énfasis en lo individual y lo histórico). Después de Mead y Lévi-Strauss, la influencia de la antropología en la vida intelectual se ha esfumado. Cuestiona la negación irreflexiva de la naturaleza humana (postura análoga a la de Steven Pinker). Léase “Where did anthropology go?” (2005).

53 Aplicaciones en Antropología
Modelos de análisis arqueológico de Juan Barceló (Universidad de Barcelona)

54 Aplicaciones en Antropología
Damián Castro (Anthropokaos) – Redes de reconocimiento de motivos de arte rupestre

55 Herramientas conexionistas

56 Software de redes neuronales
Java NNS NeuroSolutions Rosenblatt James Rumenhart Modelo de Damián Castro

57

58

59 Conexionismo heideggeriano

60 Conclusiones y Recursos

61 Conclusiones Ningún bando ganó una batalla.
GOFAI está órdenes de magnitud más cerca de ser un modelo aceptable de la lógica humana de lo que las redes neuronales están de ser un modelo del cerebro. No hay mapeado directo entre lenguaje y observación: la relación es compleja. Las posturas relativistas no se sostienen tan bien. No es buena práctica científica enunciar lo que no puede hacerse (caso Dreyfus). El señalamiento de lo que no puede hacerse sólo ha impulsado a que se lo haga.

62 Propuestas de trabajo No abordar cuestiones relativas a la polémica GOFAI / Conexionismo al menos que se aprenda seriamente computación avanzada. Con los opúsculos de Varela y las monsergas de los morinianos ya hay suficiente información espuria en circulación. Explorar recursos y algoritmos en IA y redes neuronales (JavaNNS, etc)

63 Recursos

64 Recursos

65 Recursos

66 Recursos

67 ¿Preguntas?


Descargar ppt "Carlos Reynoso UNIVERSIDAD DE BUENOS AIRES"

Presentaciones similares


Anuncios Google