La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

Departamento de Filosofía, Universidad de Guanajuato.

Presentaciones similares


Presentación del tema: "Departamento de Filosofía, Universidad de Guanajuato."— Transcripción de la presentación:

1 Departamento de Filosofía, Universidad de Guanajuato

2

3 Información El primero de los modelos de dinámica informacional al que nos dedicaremos será el desarrollado por la física del siglo XX. A continuación veremos: Turing y la programación Wiener y la cibernética Shannon y la teoría matemática de la comunicación

4 Turing y la programación Alan Mathison Turing (23 de junio de de junio de 1954). Fue un matemático, científico de la informática, criptógrafo y filósofo inglés. Se le considera uno de los padres de la Ciencia de la computación siendo el precursor de la informática moderna. Proporcionó una influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing. Formuló su propia versión de la hoy ampliamente aceptada Tesis de Church- Turing, la cual postula que cualquier modelo computacional existente tiene las mismas capacidades algorítmicas, o un subconjunto, de las que tiene una máquina de Turing. Durante la Segunda Guerra Mundial, trabajó en romper los códigos nazis, particularmente los de la máquina Enigma; durante un tiempo fue el director de la sección Naval Enigma del Bletchley Park. Tras la guerra diseñó uno de los primeros computadores electrónicos programables digitales en el Laboratorio Nacional de Física del Reino Unido y poco tiempo después construyó otra de las primeras máquinas en la Universidad de Manchester.23 de junio de junio1954 matemáticoinformática criptógrafofilósofoinglésCiencia de la computación informáticaalgoritmomáquina de TuringTesis de Church- TuringSegunda Guerra Mundial nazis EnigmaNaval EnigmaBletchley ParkLaboratorio Nacional de FísicaReino UnidoUniversidad de Manchester

5 Turing y la programación MÁQUINAS DE TURING § 1. ¿ Qué es calcular? Más de una vez se han preguntado los filósofos si el conoci miento, o al menos su parte lógica, se reduce a cálculo. Y más de una vez, a lo largo de la historia, se ha respondido afirmativamente a esta pregunta. Thomas HOBBES, figura clásica del pensamiento político moderno, le dio el título de Computatio sive Logica (=sCál culo, es decir, lógica») a la sección en que se ocupa de ésta en su obra De Corpore (1655). Mucho antes de él, ya en la Edad Media, Raimundo LULI0 ideó en su Ars magna (1273) un método de cálculo general de verdades sobre Dios y el universo. Y once años después de Hobbes el joven LEJBNIZ desarrolló en su Dissertatio de arte combinatoria (1666) la idea de un cálculo universal del pensamiento.

6 Esos tres proyectos partían del supuesto de que el conocimiento matemático y lógico es puro cálculo. Una versión de este enfoque en nuestro siglo la representa la tarea que el matemático y lógico contemporáneo David HILBERT denominó Entscheidungsproblem (problema de la decisión), entendiendo por tal el problema de hallar un método de cálculo que permita decidir mecánicamente para toda fórmula lógica si es o no válida. Eso podría implicar que todo problema matemático fuese mecánicamente resoluble. Esos tres proyectos partían del supuesto de que el conocimiento matemático y lógico es puro cálculo. Una versión de este enfoque en nuestro siglo la representa la tarea que el matemático y lógico contemporáneo David HILBERT denominó Entscheidungsproblem (problema de la decisión), entendiendo por tal el problema de hallar un método de cálculo que permita decidir mecánicamente para toda fórmula lógica si es o no válida. Eso podría implicar que todo problema matemático fuese mecánicamente resoluble. El planteamiento de esta tarea aconseja, por de pronto, precisar el uso de la palabra «cálculo» y su sinónimo «computación». Solemos llamar así las operaciones que efectuamos de acuerdo con reglas matemáticas, como las de sumar, multiplicar o elevar a potencias. Los límites de nuestra memoria y de nuestra imaginación nos impiden realizar esas operaciones, si revisten algún grado de complejidad, sin una ayuda especial de objetos del mundo exterior. Necesitamos hacer marcas en alguna zona del espacio (papel, pizarras, etc.) y utilizar en nuestras cuentas elementos materiales de cálculo, preferiblemente símbolos numéricos o alfabéticos, pero también objetos de mayor densidad física, como los dedos de la mano o un puñado de piedras. El planteamiento de esta tarea aconseja, por de pronto, precisar el uso de la palabra «cálculo» y su sinónimo «computación». Solemos llamar así las operaciones que efectuamos de acuerdo con reglas matemáticas, como las de sumar, multiplicar o elevar a potencias. Los límites de nuestra memoria y de nuestra imaginación nos impiden realizar esas operaciones, si revisten algún grado de complejidad, sin una ayuda especial de objetos del mundo exterior. Necesitamos hacer marcas en alguna zona del espacio (papel, pizarras, etc.) y utilizar en nuestras cuentas elementos materiales de cálculo, preferiblemente símbolos numéricos o alfabéticos, pero también objetos de mayor densidad física, como los dedos de la mano o un puñado de piedras. Turing y la programación MÁQUINAS DE TURING

7 Turing y la programación MÁQUINAS DE TURING Parte esencial del cálculo es, evidentemente, el uso de reglas. En un sentido más preciso, sin embargo, convenimos en decir que algo es efectivamente calculable o computable si existe un algoritmo 2 o procedimiento de decisión o procedimiento efectivo que lo resuelva, entendiendo por tal un método o procedimiento que se efectúa con forme a reglas y que permite resolver un conjunto de problemas de una manera mecánica y en un número finito de pasos. El llamado «algoritmo de Euclides» para hallar el máximo común divisor de dos números es un ejemplo de este tipo de procedimiento, como también el método de tablas de verdad, que permite decidir efectiva mente si una fórmula del cálculo proposicional es tautológica.

8 Turing y la programación MÁQUINAS DE TURING Pero estas precisiones son sólo verbales e intuitivas. Los lógicos que investigaban hacia los años treinta en el marco del problema hil bertiano de la decisión abordaron la tarea más ambiciosa de caracte rizar o codificar exactamente, en los términos de una teoría mate mática precisa, el concepto de lo efectivamente computable o calcu lable. El resultado ha sido una de las principales aportaciones de la lógica matemática de nuestro siglo, la creación de un área de cono cimiento enteramente nueva, la teoría general de la computabilidad, a la que corresponde en la actual investigación de fundamentos de la matemática un papel comparable por su importancia al de la teoría axiomática de conjuntos.

9 Turing y la programación § 2. Las máquinas de Turing La caracterización matemática del concepto de lo computable tuvo lugar en esos años a lo largo de líneas independientes de investigación que han conducido, sin embargo, a resultados convergentes. En una de ellas se sitúa la teoría elaborada por el lógico y matemático inglés Alan M. TURING El núcleo de la teoría de Turing es la descripción de un tipo de máquinas abstractas de estructura conceptualmente muy simple, pero capaces de realizar complicadas funciones de computación. Como apoyo al entendimiento de esa descripción es útil analizar el proceso de cálculo realizado por una persona. Turing publicó su teoría en el artículo «Sobre números computables, con una aplicación al problema de la decisión» ( ), que es ya un texto clásico en la historia de la lógica contemporánea.

10 Turing y la programación En él puede leerse: El cálculo se efectúa normalmente escribiendo símbolos en un papel. Podemos suponer que este papel se divide en cuadrados, como el cuaderno de aritmética de un párvulo En aritmética elemental se aprovecha a veces el carácter bidimensional del papel. Pero se puede prescindir [ de ese uso, [ que no es esencial para la computación. Doy así por supuesto que el cálculo se lleva a cabo en papel unidimensional, o sea, en una cinta dividida en cuadrados. Supondré también que el número de símbolos a imprimir es finito E...]. El efecto de esta restricción no es muy serio, pues siempre será posible usar en lugar de símbolos aislados secuencias de ellos El comportamiento de la persona que calcula está en todo momento determinado por los símbolos que está observando y por su «estado men tal» en ese momento. Podemos suponer que el número de símbolos o cua drados que puede observar en un momento tiene un limite. Si desea obser var más, habrá de hacerlo en observaciones sucesivas. Supondremos tam bién que el número de estados mentales a tener en cuenta es finito [ Tampoco esta restricción afecta seriamente a la computación, porque el uso de estados mentales más complicados se puede suplir escribiendo más símbolos en la cinta.

11 Turing y la programación Añadamos, finalmente, un par de consideraciones. Una es la analogía que guarda la conducta de la máquina con el comporta miento del calculador humano, que, en el proceso de cálculo, de pende en cada momento de los símbolos que observa y de su estado mental (su conocimiento y memoria de las reglas de cálculo y de la marcha anterior del proceso) en ese preciso momento. Y eso es, advierte Turing, lo que sucede con la máquina: el posible comportamiento de la máquina en cualquier momento está determinado por su estado y el símbolo escrutado. Manuel Gárrido; Lógica simbólica, Técnos, pp

12 Norbert Wiener ( ) Nació en Columbia (EE.UU), fue un niño prodigio y a los 11 años ingresó en la universidad; estudió en las universidades de Cornell, Cambrigde, Göttingen y Harvard, en esta última obtuvo su doctorado en matemáticas con 19 años. Durante la Segunda Guerra Mundial, Wiener trabajó para su gobierno en proyectos relacionados con la defensa antiaérea. Fue cuando se dio cuenta de la necesidad de mejorar las computadoras que había en aquella época, se encaminó hacia la comunicación de información y para ello en el desarrollo de los sistemas de redes.

13 Norbert Wiener ( ) Tras la guerra Wiener continuó constribuyendo con nuevas ideas en diversos campos, incluyendo la teoría de la predicción matemática y la teoría cuántica (debatiendo con físicos como Niels Bohr y Albert Einstein). En 1942, durante un congreso en Nueva York, conoció al científico Rosenblueth y empezó a investigar acerca de los robots y sistemas automáticos, sentando así los fundamentos de una nueva ciencia: la cibernética, vocablo adoptado por Wiener en 1947, y que procede del griego "kybernetes" y que significa piloto. En 1948 publicó su obra "Cibernética: control y comunicación en el animal y en la máquina", en donde desarrolla toda la teoría de la cibernética. Fue profesor de matemáticas en el Instituto Tecnológico de Massachussets (MIT) desde 1932 hasta 1960, también impartió cursos por numerosas universidades del mundo (México, India,...). Poco antes de morir en 1964 recibió la Medalla Nacional de EE.UU en ciencia de manos del presidente Lindon B. Johnson. Existe un premio que lleva su nombre y se entrega desde 1987 por la CPSR (Computer Profesional for Social Responsibility) anualmente a aquellas personas que se dedican a difundir e incrementar el uso de la nuevas tecnologías.

14 Wiener y la cibernética I. Introducción: La tendencia natural a la entropía. En esta sesión vamos a ver el caso de la cibernética como una disciplina que se nutre y retroalimenta a varios de los conceptos de las teorías de la complejidad, general de sistemas y del caos. Pero sobre todo, el interés de esta sesión consiste en vincular de manera general la forma en que se desarrolló esta disciplina y algunos de sus objetos de estudio con el discurso filosófico. Para ese efecto vamos a ver a Norbert Wienner el fundador de esta ciencia y su libro Cibernética y sociedad (The human use of human beings. Cybernetics and society) del año de 1950.

15 Hay que recordar que en nuestro seminario hemos estado revisando temas y nociones básicas del pensamiento complejo. En sesiones previas hemos discutido sobre la historia de corte positivista, reduccionismo, simplificación, complejidad. También hemos identificado algunas dicotomías que se presentan como obstáculos en la adopción de una perspectiva no reduccionista. Entre esas dicotomías podemos mencionar sujeto/objeto, filosofía/ciencia, y naturaleza/lenguaje. En la sesión anterior iniciamos con el modulo dedicado a revisar la cibernética como la ilustración de una trasgresión epistemológica. Consideramos el caso de que esta disciplina es ejemplar al momento de hablar de investigaciones transdiciplinares como modelos de organización epistemológicos inéditos y emergentes.

16 II. Antecedentes. La cibernética tiene sus orígenes en la física. Con precisión en la del siglo XIX con Gibas en Estados Unidos y L. Boltzman en Alemania. Ambos introdujeron el enfoque estadístico como una herramienta novedosa para la física. Con ese nuevo enfoque se podían tratar sistemas moleculares o atómicos muy grandes o muy simples. La estadística es la ciencia de la distribución, y la distribución tal como la veían estos científicos modernos no se ocupaba de grandes números de partículas similares, sino de las diferentes posiciones y velocidades desde las cuales un sistema físico podría echarse a andar. En otras palabras, de acuerdo con el sistema newtoniano, las mismas leyes físicas pueden ser aplica das a una gran variedad de sistemas caracterizados por una gran variedad de posiciones y momenta. Los nuevos estadísticos le dieron un nuevo sesgo a este punto de vista. No abandonaron, de hecho, el principio según el cual ciertos sistemas pueden ser distinguidos de otros por su energía total, pero rechazaron la suposición de que los sistemas con una misma energía total pudieran ser clara, indefinida y definitivamente descritos por leyes causales fijas. P. 12

17 Josiah Willard Gibbs (11 de febrero, 1839 en New Haven:11 de febrero1839New Haven Connecticut, USA – íd.28 de abril 1903) fue un matemático y físico estadounidense que contribuyó de forma destacada a la fundación teórica de la termodinámica. Estudió en la Universidad de Yale, obteniendo su doctorado en 1863 con una tesis sobre los dientes de engranajes.ConnecticutUSA28 de abril1903 estadounidense termodinámica Universidad de Yale1863 En 1886 fue a vivir a Europa, donde permanció tres años: París, Berlín y Heidelberg. En 1871 fue nombrado profesor de física matemática en la Universidad de Yale.1886ParísBerlín Heidelberg1871 Enfocó su trabajo al estudio de la Termodinámica; y profundizó asimismo la teoría del cálculo vectorial, donde paralelamente a Heaviside opera separando la parte real y la parte vectorial del producto de dos cuaternios puros, con la idea de su empleo en física. Termodinámicacálculo vectorialHeavisidecuaternios física

18 Ludwig Edward Boltzmann (Viena, 20 de febrero de Duino, Italia, 5 de septiembre de 1906) fue un físico austriaco pionero de la mecánica estadística. Nacido en Viena, por entonces parte del Imperio Austrohúngaro, se suicidó en 1906 por ahorcamiento durante unas vacaciones en Duino, cerca de Trieste. El motivo que le llevó al suicidio permanece poco claro, pero pudo haber estado relacionado con su resentimiento al ser rechazado, por la comunidad científica de entonces, su tesis sobre la realidad del átomo y las moléculas una creencia compartida, sin embargo, por Maxwell en Inglaterra y Gibbs en Estados Unidos; y por la mayoría de los químicos desde los descubrimientos de John Dalton en 1808.Viena 20 de febrero1844DuinoItalia 5 de septiembre1906 físicoaustriaco mecánica estadísticaImperio AustrohúngaroTriesteMaxwell InglaterraGibbsEstados UnidosquímicosJohn Dalton1808

19 El método de Gibbs consistió en proponer un nuevo y claro procedimiento que tomara en cuenta la contingencia y la incertidumbre en la física clásica. El método de Gibbs consistió en: La intuición que le sirvió de base fue la siguiente: en general, un sistema físico, parte de una clase de sistemas físicos que retiene su identidad corno clase, reproduce en casi todos los casos la distribución en él manifiesta, en un momento dado y para toda aquella clase, i.e., bajo ciertas circunstancias, si el sistema funcionara indefinidamente, podría pasar por todas aquellas distribuciones de posición y de momentun que son compatibles con su energía. P.13 Según Wiener, la primera gran revolución de la física del siglo XX fue producto de Gibas. La cuestión central es concebir una física determinista y otra que no lo es. Ha habido un cambio interesante: en un mundo probabilístico ya no manejamos ni cantidades ni afirmaciones relativas a un universo dado, real y específico, sino que hacemos preguntas que pueden encontrar respuesta en un gran número de universos similares. De esta manera, el azar ha sido admitido, no meramente como una herramienta matemática para la física, sino como parte fundamental de la estructura de está. p. 14. La perspectiva indeterminista gibbseana es el fundamento de la cibernética.

20 Las conferencias de Macy, 48. Publicación de Cibernetics. He escrito un libro más o menos técnico intitulado Cibernética, que apareció en Respondiendo a ciertos pedidos para que pusiera esas ideas al alcance de los profanos, publiqué en 1950 la primera edición de Cibernética y sociedad. P.17 Cibernética y sociedad. En este libro Wiener intenta lo siguiente: Éste libro está dedicado a exponer las consecuencias de la visión gibbseana del mundo de la vida actual, tanto a través de los cambios substanciales que ha provocado en el funcionamiento de la ciencia, como a través de los cambios que ha provocado indirectamente en nuestra actitud ante la vida en general. Por lo tanto, los capítulos que siguen tienen el doble aspecto de una descripción técnica y de una discusión filosófica relacionada con lo que hacemos ante el nuevo mundo que se nos presenta. Repito: la innovación de Gibas consistió en que no consideró un solo mundo, sino todos los mundos que pueden ser respuestas aun conjunto limitado de preguntas relacionadas con nuestro entorno. P. 15.

21 Además el libro implica la siguiente tesis: La tesis de este libro consiste en que sólo puede entenderse la sociedad mediante el estudio de los mensajes y de las facilidades de comunicación de que ella dispone y, además, que, en el futuro, desempeñarán un papel cada vez más preponderante os mensajes cursados entre hombres y máquinas, entre máquinas y hombres y entre máquina y máquina. P. 18 Entropía. Definición de entropía según Wiener: Su idea central es averiguar hasta qué punto las respuestas que podemos dar a las preguntas acerca de un conjunto de mundos. Además, Gibbs sustentaba la teoría de que esa probabilidad aumentaba naturalmente con la edad del universo. La medida de esa probabilidad se llama entropía, y la tendencia característica de la entropía es la de aumentar. P. 15

22 Propósito de la cibernética: comunicación y regulación: Es propósito de la cibernética desarrollar una lengua y unas técnicas que nos permitan, no sólo encarar los problemas más generales de comunicación y regulación, si no además establecer un repertorio adecuado de ideas y métodos para clasificar sus manifestaciones particulares por conceptos. P. 18 Campo de la cibernética: [...] la teoría de los mensajes. A de la parte electrotécnica de su transmisión, existe un camino muy amplio que incluye, no sólo el estudio del lenguaje, sino además el estudio de los mensaje como medio de manejar aparatos o grupos humanos, el desarrollo de las máquinas de calcular y otros autómatas similares, algunas reflexiones sobre la psicología y el sistema nervioso y una tentativa de enunciar una nueva hipótesis del método científico. Esta teoría más amplia de los mensajes es probabilística y parte intrínseca de aquella corriente que debe su origen a Willard Gibbs [...] P. 17 Definición de cibernética: Hasta hace muy poco tiempo no existía una voz que comprendiera ese conjunto de ideas; para poder expresarlo todo mediante una palabra, me vi obligado a inventarla. De ahí: cibernética, que derivé de la voz griega kubernetes o timonel, la misma raíz de la cual los pueblos de Occidente han formado gobierno y sus derivados. Por otra parte, encontré más tarde que la voz había sido usada ya por Ampére, aplicada a la política, e introducida en otro sentido por un hombre de ciencia polaco; ambos casos datan de principios del siglo XIX. P.17

23 Wiener sostiene que la comunicación es una tendencia a la organización que lucha contra el ruido o la desorganización. Los antecedentes de la comunicación como principio óptico se encuentran en las investigaciones de Fermat, Huyghens y Liebnitz. P.19 Dos ideas sobre la entropía: Aquí conviene revisar algunas ideas acerca de la entropía que aparecieron ya en el prólogo. Como ya hemos dicho, ese concepto es una de las más importantes diferencias que distinguen la mecánica de Gibbs de la newtoniana. Para el primero, poseemos una cantidad física que no pertenece al mundo exterior como tal, sino a un cierto conjunto de mundos exteriores posibles y, en consecuencia a la respuesta a ciertas preguntas que podemos plantear respecto al mundo exterior. La física se convierte, entonces, no en la discusión de un universo exterior que puede considerarse como la respuesta total de todas las cuestiones que se refieren a él, sino como una reseña de respuestas a preguntas mucho más limitadas Efectivamente ya no nos ocupamos de estudiar todos los mensajes posibles recibidos o enviados; nos interesan la teoría de los más específicos que entran o salen ello implica una medida del contenido de información proporcionado, que ya no es infinito. P. 22 Así como la entropía es una medida de la desorganización, la información, que suministra un conjunto de mensajes, es una medida de organización. P. 22

24 Para poder contrarrestar la tendencia de la entropía y generar organización a nivel social, Wiener considerar que las estrategias de comunicación y los mensajes deben aprender. El aprendizaje es posible a partir de la sensibilidad y la retroalimentación. La sensibilidad se explica mediante el siguiente proceso: Una acción compleja es aquella que los datos introducidos, que llamaremos entrada implican un gran numero de combinaciones un efecto, que llamaremos salida, sobre el mundo exterior. Esta última es combinación de los datos recibidos en ese momento y de los hechos registrados en el pasado, que llamaremos memoria y que guarda el aparato. P. 24 La retroalimentación se define así: Esta regulación de una máquina de acuerdo con su funcionamiento real y no respecto a lo que se espera de ella se llama retroalimentación y presupone la existencia de sentidos que actúan mediante miembros motrices y que funcionan como elementos que registran una actividad. Esos mecanismos deben frenar la tendencia mecánica hacia la desorganización o, en otras palabras deben producir una inversión temporal de la dirección normal de la entropía. P. 25.

25 El uso de la retroalimentación (feed back) en la regulación de la entropía. Afirmo que en lo físico del ser vivo y el de algunas de las más nuevas máquinas electrónicas son exactamente paralelos en sus tentativas análogas de regular la entropía mediante la retroalimentación. P. 26 El papel en el desarrollo y organización social que tiene la comunicación es de trascendental importancia para Wiener. No pretendo que el sociólogo ignore existencia y compleja naturaleza de las comunicaciones en la sociedad, pero, hasta hace muy poco tiempo tendía a menospreciar su importancia como aglutinante de toda la urdimbre. P. 27.

26 Shannon y la teoría matemática de la información Claude Shannon Los primeros años de su vida los pasó en Gaylord, donde se graduó de la secundaria en Desde joven, Shannon demostró una inclinación hacia las cosas mecánicas. Resaltaba respecto a sus compañeros en las asignaturas de ciencias. Su héroe de la niñez era Edison, a quien luego se acercó bastante en sus investigaciones.1932Edison En 1932 ingresó en la Universidad de Míchigan, siguiendo a su hermana Catherine, doctora en matemática.1932Universidad de Míchigan

27 Shannon y la teoría matemática de la información En 1936 aceptó la posición de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto de Tecnología de Massachusetts (MIT). Su situación le permitió continuar estudiando mientras trabajaba por horas para el departamento, donde trabajó en el computador analógico más avanzado de esa era, el Differential Analyzer de Vannevar Bush.Instituto de Tecnología de Massachusettscomputador analógicoDifferential AnalyzerVannevar Bush En ese momento surgió su interés hacia los circuitos de relevadores complejos. Intentando simplificar centralitas telefónicas de relés se dio cuenta de que estos podían usarse para hacer cálculos. Sumado esto a su gusto por la lógica y el álgebra boleana pudo desarrollar esta idea durante el verano de 1937, que pasó en los laboratorios Bell en la ciudad de Nueva York.relevadoreslógicaálgebra boleana1937Nueva York En su tesis de maestría en el MIT, demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas. En 1940 le fue concedido el Premio a ingenieros americanos del Instituto Americano Alfred Nobel de Estados Unidos, una concesión dada cada año a una persona de no más de treinta años. Un cuarto de siglo más tarde H. H. Goldstine, en su libro "Las computadoras desde Pascal hasta Von Neumann", citó su tésis como una de las más importantes de la historia que ayudó a cambiar el diseño de circuitos digitales.álgebra booleanacircuitosdigitales Estados UnidosPascalVon Neumann Durante el verano de 1938 realizó trabajos de investigación en el MIT y le fue concedida la beca Bolles cuando trabajaba como ayudante de enseñanza mientras realizaba un doctorado en matemática. En 1940 estudió una maestría en ingeniería eléctrica y se doctoró en filosofía matemática.

28 Shannon y la teoría matemática de la información Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter Houser Brattain, John Bardeen y William Bradford Shockley, inventores del transistor; George Stibitz, quien construyó computadoras basadas en relevadores, Warren Weaver, quien escribió una larga y clarificadora introducción a su The Mathematical Theory of Communication y muchos otros más.Harry NyquistWalter Houser BrattainJohn BardeenWilliam Bradford ShockleyGeorge StibitzWarren Weaver Durante este período Shannon trabajó en muchas áreas, siendo lo más notable todo lo referente a la teoría de la información, un desarrollo que fue publicado en 1948 bajo el nombre de "Una Teoría Matemática de la Comunicación". En este trabajo se demostró que todas las fuentes de información (telégrafo eléctrico, teléfono, radio, la gente que habla, las cámaras de televisión, etc.,... ) se pueden medir y que los canales de comunicación tienen una unidad de medida similar. Mostró también que la información se puede transmitir sobre un canal si, y solamente si, la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce, y sentó las bases para la corrección de errores, supresión de ruidos y redundancia.teoría de la información1948telégrafo eléctricoteléfonoradiotelevisióncanales de comunicación En el área de las computadoras y de la inteligencia artificial, publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos.computadorasinteligencia artificial1950ajedrez A lo largo de su vida recibió numerosas condecoraciones y reconocimientos de universidades e instituciones de todo el mundo. Preguntado en una ocasión por un periodista si las máquinas podían pensar replicó: "¡Naturalmente! ¡Usted y yo somos máquinas y vaya si pensamos!" Claude Elwood Shannon falleció el 24 de febrero del año 2001, a la edad de 84 años, después de una larga lucha en contra la enfermedad de Alzheimer.Alzheimer

29 Shannon y la teoría matemática de la información En el mismo año en que Wiener produjo su estudio Cybernetics, Claude Shannon, de Bell Laboratories, publicó su innovador artículo «A Mathematical Theory of Communication», que instauró una nueva disciplina: la teoría de la información, la ciencia de los mensajes. A la obra de Shannon se la reconoce universalmente como uno de los mayores logros intelectuales del siglo. Es también la que más ha contribuido a revolucionar la forma en que. científicos y técnicos esgrimen la palabra información en nuestro tiempo. Antes, la palabra denotaba siempre una afirmación lógica que expresaba un significado verbal y reconocible, generalmente lo que denominaríamos un hecho. Pero Shannon dio a la palabra una definición técnica especial que la divorció de su utilización racional. En su teoría, la información ya no está relacionada con el contenido semántico de las afirmaciones; en vez de ello, pasa a ser una medida puramente cuantitativa de los intercambios comunicativos, en especial porque éstos tienen lugar a través de algún cauce técnico que exige que ese mensaje sea codifica do y luego descodificado, pongamos por caso, en impulsos electrónicos. La mayoría de la gente habría supuesto que la información tenía que ver con lo que pasaba en la comprensión de un hablante y un oyente en el curso de una conversación.

30 Shannon y la teoría matemática de la información En el mismo año en que Wiener produjo su estudio Cybernetics, Claude Shannon, de Bell Laboratories, publicó su innovador artículo «A Mathematical Theory of Communication», que instauró una nueva disciplina: la teoría de la información, la ciencia de los mensajes. A la obra de Shannon se la reconoce universalmente como uno de los mayores logros intelectuales del siglo. Es también la que más ha contribuido a revolucionar la forma en que. científicos y técnicos esgrimen la palabra información en nuestro tiempo. Antes, la palabra denotaba siempre una afirmación lógica que expresaba un significado verbal y reconocible, generalmente lo que denominaríamos un hecho. Pero Shannon dio a la palabra una definición técnica especial que la divorció de su utilización racional. En su teoría, la información ya no está relacionada con el contenido semántico de las afirmaciones; en vez de ello, pasa a ser una medida puramente cuantitativa de los intercambios comunicativos, en especial porque éstos tienen lugar a través de algún cauce técnico que exige que ese mensaje sea codifica do y luego descodificado, pongamos por caso, en impulsos electrónicos. La mayoría de la gente habría supuesto que la información tenía que ver con lo que pasaba en la comprensión de un hablante y un oyente en el curso de una conversación.

31 A Shannon, trabajando desde los laboratorios Bell, le interesaba mucho más lo que pudiera pasar en el cable telefónico que iba del hablante al oyente. En su artículo, los conceptos fundamentales de la teoría de la información ruido, redundancia, entrop se juntan para formar una representación matematica sistematica aqui el «bit», el digito binario que es básico para todo pro ientod f por primera vez ocupar su lugar tomo quántum de la información, una unidad que puede medirse limpiamente y que permite valorar la capacidad trans misora de toda la tecnología de las comunicaciones. No es difícil ver lo útil que semejante cálculo del tráfico de comunicaciones es para los ingenieros eléctricos que se enfrentan al problema de encauzar señales por cables telefónicos o desde satélites espaciales, con el mayor grado posible de economía y claridad. Pero Shannon se vio acosado desde el principio por la comprensible con fusión que nacía entre su uso restringido de «información» y el significado convencional de la palabra. Desde su punto de vista, hasta un guirigay podía ser «información» si alguien se tomaba la molestia de transmitirlo. Después de todo, un mensaje traducido a un código secreto parecería un guirigay a cualquier persona que desconociese el código, pero valdría la pena mandarlo a juicio de quien lo conociese. Los primeros científicos de la información cayeron fácilmente en el error de pensar así en los mensajes y sus transmisiones; muchos de ellos habían prestado servicios en calidad de criptógrafos durante la guerra. A pesar de ello, era ésta una forma rara e irritante de emplear la palabra, y así tuvo que reconocerlo Shannon.

32 Desde luego, la obra de Shannon es sumamente técnica y, por ende, en gran parte inaccesible para el público en general; sin em bargo, su influencia ha sido enorme. Debido a que la teoría de la información se ha aplicado extensamente a nuestra economía tecno lógica, su repercusión en nuestra cultura popular ha sido doble. Ante todo, después de producirse el divorcio entre «informa ción» y su significado convencional, la palabra quedó a disposici6n de cualquiera. Siguiendo el ejemplo de los teóricos de la información, los científicos y los técnicos se creyeron autorizados a utilizar la pala bra en un sentirlo todavía más amplio y poco riguroso. No tardaría en ser aplicable a cualquier señal transmitida que pudiera interpretarse metafóricamente como «mensaje»: por ejemplo, la descarga de un impulso nervioso. Emplear el término de forma tan liberal representa arrinconar toda preocupación por la calidad o el carácter de lo que se está comunicando. El resultado ha sido una desaparición pro gresiva de las distinciones intelectuales. Del mismo modo que para un físico (desde el punto de vista del fenómeno puramente físico) lo mismo da que midamos la c de una piedra que la caída de un cuerpo humano, para el teórico de la información tampoco tiene importancia que lo transmitido sea un hecho, un juicio, una frase hecha y superficial, una enseñanza profunda, una verdad sublime o una obscenidad desagradable. Todas estas cosas son «información». La palabra adquiere una vasta generalidad, mas para ello hay que pagar un precio; el significado de las cosas que se comunican queda nivelado, y lo mismo le ocurre a su valor. Rozsack, El culto a la información


Descargar ppt "Departamento de Filosofía, Universidad de Guanajuato."

Presentaciones similares


Anuncios Google