La descarga está en progreso. Por favor, espere

La descarga está en progreso. Por favor, espere

TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

Presentaciones similares


Presentación del tema: "TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P."— Transcripción de la presentación:

1 TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P.

2 SÍMBOLO A todo aquello que por conversión nos remite a algo que no necesariamente necesita estar presente. Entendemos algo como símbolo, lo interpretamos, tiene significado, cuando este responde a lo que significa. O sea cuando podemos establecer una relación entre el símbolo y lo que constituye su significado, de acuerdo a cierta convención.

3 Se dice que el hombre es un "animal simbológico" en el sentido que no necesita considerar a entes y sucesos en sí mismo, sino que puede referirse a ellos mediante símbolos. Las propiedades o cualidades que determinan entes y sucesos(fenomeno), al ser representados simbólicamente constituyen lo que denominamos ATRIBUTOS de los mismos. Pueden representarse en forma oral o escrita. Los Atributos permiten Identificar Describir Localizar Relacionar Etc. De una manera simbólica sucesos y entidades por sus propiedades

4 AtributoNombreDNIFecha NacDomicilioAltura ValorJuan Corti /02/1978Mitre 575 Oeste 1,75 m En general los atributos conocidos como entes y sucesos son "DATOS", que sirven de referencia con vistas a algún accionar concreto, presente o futuro. El hombre opera con representaciones simbólicas que determinan hechos, entes, conceptos, ordenes, situaciones, etc, a partir de las cuales decide un curso de acción entre varios posibles Representaciones simbólicas de propiedades o cualidades de entes y sucesos, que pueden ser requeridos en un cierto momento como antecedentes para decidir la mejor manera de llevar acabo una acción concreta DATOS

5 Transmitir (para llevarlos de un lugar a otro, o para comunicárselos a alguien) Almacenar (para su posterior uso) Transformar ( operando sobre ellos con ciertas reglas, para obtener nuevos datos). DATOS Tienen la propiedad de

6 Definimos como información a todas aquellas representaciones simbólicas que por el significado que se les asigna quien la reciba e interpreta, contribuyen a disminuir la incertidumbre de forma que pueda decidir un curso de acción entre varios posibles. INFORMACION Datos Operaciones sobre datos InformaciónDecisión "si" …( condición A)...entonces (acción A) "si...(condición B)... entonces (acción B) "si" ( condición A)...entonces accionar A, "si" entonces …

7 Dado que la información consiste en representaciones simbólicas significativas en función de ciertas acciones a realizar, puede ocurrir que aquello que es información para una persona no lo sea para otra. Los símbolos pueden aportar informacion para quien pueda interpretarlos, para quien tienen sentido No solo sirve para decidir cuál es el mejor accionar para lograr un objetivo. La Información Tomada una decisión por un determinado curso de acción, para concretarlo se requiere saber que acciones hacen falta realizar, y en que secuencia.

8 Se trata de información descriptiva, sin la cual no se puede efectuar la acción. En el caso de las computadoras, esta involucrada en los programas, que indican la secuencia de operaciones a realizar para alcanzar el resultado deseado. Útil para verificar que un determinado accionar se ha efectuado correctamente. Así, cada vez que hacemos una resta, podemos verificarla mediante una suma. Información de Control

9 DIFERENCIA ENTRE DATOS E INFORMACIÓN Son representaciones simbólicas de entes, hechos, atributos, etc, DATOS INFORMACION Alude a aquellos datos que por el significado que le atribuye quien necesita decidir una acción entre varias, permite tomar tal decisión con la menor incertidumbre posible. La diferencia así establecida entre datos e información se manifiesta especialmente en el ámbito de la computación. La información consta de datos, pero no todos los datos constituyen información.

10 CONCEPTOS DE TEORÍA DE LA INFORMACIÓN Si consideramos un fenómeno cualquiera, y si tal fenómeno es invariable, o sea totalmente determinado, no se puede aprender nada de él, no se puede decir nada nuevo, de manera que "No hay información si no se trata de un elemento variable". Sea un elemento variable, cuyos finitos cambios de estado, sean imprescindible, se define como información, cuando hay una determinación del estado actual del fenómeno". Fuentes de información El cerebro del hombre, a través de las ideas. La modificación de los estados ambientales. Los censos poblaciones (número de habitantes de una población).

11 Podemos deducir que cuando más rápido sea el cambio impredecible, mayor es la cantidad de información. Contribuye a disminuir la incertidumbre que se tiene acerca de cuál es el mejor camino para resolver un problema. Información Se refiere a lo desconocido, a aquello que no se sabe se sucederá, ya lo que es inesperado, imprevisible. La incertidumbre Una información permite tener una certeza de la existencia u ocurrencia de algún suceso o aspecto de la realidad, a la vez que disminuye el grado de incertidumbre que se tenía para tomar una decisión.

12 MEDIDA DE LA INFORMACIÓN Si examinamos con detalle el contenido de información de un mensaje, podemos ahorrar esfuerzo en su transmisión desde un punto a otro. Si deseamos enviar un telegrama de felicitaciones por un hecho determinado (casamiento, nacimiento, etc), la compañía de telégrafos enviará un texto estándar típico. Ejemplo Un sentido intuitivo podemos ver que algunos mensajes largos no contienen gran información.

13 CANTIDAD DE INFORMACIÓN EN 1946, Claude Shannon desarrolló su "teoría Matemática de las Comunicaciones", en donde se planteó el objetivo de hacer lo más eficiente posible la transmisión de información. Por ejemplo transmitir mensaje lo mas rápidamente posible y con el número mínimo de errores. Hay un límite en la tasa de información que puede ser transmitida por un sistema. Este límite es la capacidad de información, la cual viene determinada por las limitaciones físicas fundamentales en la transmisión de información. Shannon se planteó primero, que dado un conjunto de posibles mensajes que una fuente puede transmitir, ¿cómo pueden ser representados estos mensajes de la mejor manera posible para llevar la información sobre un sistema con sus limitaciones inherentes?.

14 Para tratar este problema, es necesario concentrarse en la "información", más que en las señales eléctricas de comunicación, y por esta razón el trabajo de Shannon fue rebautizado como Teoría de la Información. Dado que la información no es material ni tangible, se requiere para transmitir que sea señalizada en alguna forma que pueda llegar al receptor codificada. Hay que recordar, que Shannon desarrolló su teoría de acuerdo a un esquema:

15 La medida de la información. La capacidad de un canal o sistema de transmisión para transferir información. La codificación como un medio de utilizar los sistemas a máxima capacidad La Teoría de la Información trata con tres conceptos básicos: "Dada una fuente de información y un canal de comunicación, existe una técnica de codificación, tal que la información puede ser transmitida sobre el canal con una tasa menor que la capacidad del canal y con una frecuencia de errores arbitrariamente pequeña a pesar de la presencia de ruido". Estos conceptos pueden ser enlazados por el teorema fundamental de la teoría de la información que dice:

16 ¿Cómo se mide la información? ¿A qué nos referimos cuando decimos cantidad de información? ¿ como se mide la capacidad de un sistema o canal? ¿Cuáles son las características de eficiencia de un proceso de codificación? ¿Cómo se puede minimizar los efectos indeseables de factores exógenos? Nos planteamos las siguientes preguntas:

17 PILA TENSION ELECTRICA 1 0 LetrasCod Binario A 000 B 001 C 010 D 011 E 100 F 101 G 110 H 111

18 Antes de comenzar la transmisión, el receptor tiene una incertidumbre total de cual será el mensaje a recibir. Como la fuente tiene "8" elementos (letras A a la H), y como todas tienen la misma probabilidad de emitirse (sistema equiprobable), la incertidumbre tiene una probabilidad de: P = 1/8 = 0,125 =12,5 % Supongamos, que la primera medición indica ausencia de tensión eléctrica, o sea que ha llegado un "0". Ahora sabemos que la letra estará entre las cuatro primeras, ya que ellas son las que comienzan con "0". A = 000 B = 001 C = 010 D = 011 Ahora la probabilidad de que llegue una letra es de: P = 1/4 = 0,25 = 25 %

19 Si en el segundo periodo, medimos y nos encontramos que existe una tensión eléctrica, estamos ante la presencia de un "1", con lo cual se reduce la incertidumbre por cuanto solo hay dos posibilidades: C = 010 D = 011 La probabilidad aumenta a: P = 1/2 = 0,5 = 50 % suponemos que después de la tercer medición obtenemos que existe ausencia de tensión eléctrica, o sea que llegó otro "0", estaremos ante la única alternativa posible: C = 010 En este caso la probabilidad será: P = 1/1 = 1 = 100 %

20 La llegada de un símbolo duplica la probabilidad, disminuyendo en la misma proporción la incertidumbre de la llegada de un símbolo. Podemos decir que la incertidumbre era: Antes de comenzar a transmitir era = 1 = 100 %. Después de la llegada del primer símbolo (0) = 0,75 = 75 %. Después de la llegada del segundo símbolo (1) = 0,75 = 50 %. Después de la llegada del tercer símbolo (1) = 0 = 0 %. O sea, con cada llegada de símbolo la incertidumbre se reduce, hasta llegar a la incertidumbre nula, cuando la probabilidad es del 100%.

21 Si en vez de tener que transmitir 8 letras se necesita transmitir 16 letras, hacen falta 4 variables binarias, ya que: 2 n = 2 4 = 16 Para poder codificar todo el alfabeto (27 letras) se necesitarían 5 variables binarías, ya que: 2 n = 2 5 = 32 En este caso nos sobrarían combinaciones. Para codificar más símbolos, como ser las letras más los números (0 al 9), y algunos otros códigos de control se utilizan "n = 7" ó "n = 8" elementos, dependiendo del tipo de código.

22 Como podemos apreciar, que ahora los mensajes contienen mayor "cantidad de información", ya que para cada letra debemos transmitir 7 u 8 elementos. Generalizando, si tenemos una fuente con "N = 2 n " mensajes posibles a trasmitir, se requerirá combinar un número mínimo "n" de elementos binarios para codificar cada uno de los "N". Conocido "N", por definición de logaritmo será: n = log2 N De acuerdo a la teoría de la información, puede definirse la cantidad de información de un mensaje "I", como: "el número mínimo "n" de elementos codificados en binarios necesarios para identificar el mensaje entre un total de "N" mensajes posibles". O sea: I = n = log2 N

23 Resulta practico relacionar la cantidad de información de un mensaje con el grado de probabilidad de ocurrencia del mensaje. De acuerdo a lo que ya vimos en el ejemplo anterior, la probabilidad de ocurrencia es: P = 1/N Resulta que: N = 1/P O sea que: I = log 2 1/P = log 2 P-1 = - log 2 p

24 Expresión que relaciona la cantidad de información con la probabilidad de que ocurra un evento. Para poder medir la "cantidad de información", es necesario medir la UNIDAD de medida. Como todas las unidades se debe utilizar una convención para determinarla. I = log 2 1/P = log 2 P-1 = - log 2 p Para ello, se define como "unidad de cantidad de información la obtenida al especificar una de las dos alternativas igualmente probables, llamándose [bit] a esa unidad. La palabra bit, define la unidad de cantidad de información, y se obtiene por contracción de las palabras inglesas "binary digit'.

25 Entonces podríamos decir que información es lo que reduce la incertidumbre, por consiguiente, puede afIrmarse intuitivamente que: La cantidad de información es una función f(P) decreciente al aumentar la probabilidad P de un proceso. La información relativa aun suceso cierto es nula f(1) = 0; y f(0) = 00 En el caso de dos posibilidades igualmente probables (caso de la moneda), la probabilidad es: P = N E Donde: N = cantidad de variables y E = cantidad de elementos. Entonces por definición, cantidad de información es: I = log 2 N E [bit] (1) El caso de la moneda lanzada al aire es: N = 2 ( las dos alternativas, cara y cruz) y E = 1 (la moneda). Aplicando la formula: (1): I = log 2 N E = log = l[bit]

26 INFORMACIÓN MUTUA Consideremos una fuente que produce varios mensajes. Sea A uno de los mensajes, y P A su probabilidad que sea elegido para su transmisión Mutua asociada con A como: I A = f(P A ) Donde la función "P A " debe ser determinada. Para encontrar f(P A ), es intuitivo suponer los siguientes requerimientos: f(P A ) >= 0 donde 0 <= P A <= 1 limP A _l f(P A ) = 0 f(P A ) > f(P B ) para P A < P B Existen muchas funciones que satisfacen las tres anteriores, pero la decisión final se obtiene al considerar la transmisión de mensajes independientes. Cuando el mensaje "A" es entregado al usuario, este recibe "I A " unidades de información. Cuando es entregado un segundo mensaje, la información total recibida debería ser la suma de las informaciones mutuas: I A + I B.

27 Esto es fácil de ver si consideramos que "A" y "B" vienen de diferentes fuentes. Pero supongamos que "A" y "B" provienen de la misma fuente: podemos hablar entonces del mensaje compuesto: C = AB. Si " A" y "B" son estadísticamente independientes tenemos: P C = P A * P B I C = f(P A * P B ) Pero la información recibida es: I C = I A + I B = f(P A ) + f(P B ) Y así: f(P A * P B ) = f(P A ) + f(P B ) Que es el requerimiento para f(P C ). Hay una sola ecuación que satisface las condiciones anteriores, y es la función logarítmica "f(x) = log b (x)". Donde "b" es la base del logaritmo.

28 Así la información mutua en definida como: I A = log b 1/P A Como 0 < P A < 1, el logaritmo es positivo, como se desea. Si especificamos la base "b" del logaritmo, podemos determinar la unidad de información. Lo más usual es tomar "b = 2" denominándose la unidad así determinada como [bit], como ya habíamos determinado anteriormente. Si P A = P B = 1/2, entonces: I A = I B = log 2 2 = 1 [bit]


Descargar ppt "TECNICTURA EN INFORMATICA UNIDAD Nº 2 INFORMATICA LIC. CONTRERAS P."

Presentaciones similares


Anuncios Google