Teoría de las Comunicaciones (a.k.a Redes ) Claudio Enrique Righetti Segundo Cuatrimestre del 2011 Departamento de Computación Facultad de Ciencias Exactas.

Slides:



Advertisements
Presentaciones similares
Control del Enlace de Datos
Advertisements

MODULACIÓN EN CUADRATURA
TELEINFORMÁTICA Y REDES DE COMPUTADORAS
Convertidores A/D y D/A
CAP. 6 - DISTORSIÓN Ing. Verónica M.Miró 2011.
CAPA FISICA.
Tema 2 Técnicas de Modulación Analógica MODULACIÓN DE PULSOS
Modulación de pulsos.
Magíster. Luís Leonardo Camargo Ariza
Control en cascada.
¿QUE SON COMUNICACIONES DIGITALES?
Unidad 4 Transmisión Digital.
Unidad 2 Bases Teóricas para la Comunicación Comunicación
Teoría de la Información y Codificación
Transmisión de Señales y Transmisión de Datos
SEÑALIZACION M-ARIA Y DESEMPEÑO
Teleprocesos y Comunicación de Datos I POR: ING. YVAN GÓMEZ
COMUNICACIONES ELÉCTRICAS ING. VERÓNICA M. MIRÓ 2011
PERTURBACIONES DE LA TRANSMISIÓN
Señales analógicas y digitales
INTRODUCCIÓN A LAS COMUNICACIONES DE DATOS José Estay A.
Ventajas de la señal digital Inconvenientes de la señal digital
Las señales de satélite GPS
Deteccion y Correccion
Teoría de la Información
/1 R1 / Rafael Rodriguez Sistemas de Comunicaciones Móviles FACULTAD DE INGENIERIA U.C.V. Escuela de Ingeniería Eléctrica Introduction to Wireless Communication.
Capítulo 2: Fundamentos de la interfaz radio
Capacidad de un canal Se llama capacidad de un canal a la velocidad, expresada en bps ( bits por segundo), a la que se pueden transmitir los datos en.
Objetivos Comprender como funcionan los sistemas de comunicación digital.
Materia: Comunicaciones Estudiante: Jesus vega Grado: 12ºB.
4.1 Continuidad en un punto 4.2 Tipos de discontinuidades 4.3 Continuidad en intervalos.
-Ganancia –Respuesta de frecuencia –Ancho de Banda (Hz) –Ruido -Tasa de errores CARACTERISTICAS DE UN CANAL DE COMUNICACIONES.
Adaptive Coded Modulation System Model. El problema  Usuarios de servicios inalámbricos requieren altas tasas de transferencia de datos.  Requerimientos.
The Normal Distribution To calculate the probability of a Normal distribution between a and b:
SEÑALES ALEATORIAS Y RUIDO.
1 Elementos de Teoría de la Información Clase 29-Junio-2011.
Perturbaciones en la Transmisión
CONSIDERACIONES INTRODUCTORIAS.
Teoría de la Información Clase 29-sep-2009
Telecomunicaciones II
Unidad 2 Bases Teóricas para la Comunicación Comunicación
Ministerio de Educación Instituto Profesional y Técnico de Veraguas Asignatura: nombre: José Andrade profesor: Amado Gonzales Nivel: 12ºB Fecha:
COMUNICACIONES DIGITALES Y ANÁLOGAS
MEDIOS DE TRANSMISIÓN INTEGRANTES: CARLOS GUERRERO NICOLAS PAEZ
Tecnología y Estructura de Costos. Technologies u A technology is a process by which inputs are converted to an output. u E.g. labor, a computer, a projector,
Integrantes: Grimon, Yoel Negrón, Carlos
Telecomunicaciones II
CARACTERISTICAS DE UN CANAL DE COMUNICACIONES
Tipos de Modulaciones..
MODEM Modulator/Demodulator. El por qué de los MODEMS El sistema telefónico análogo sigue siendo la principal facilidad utilizada para comunicación de.
FORMATEO Y MODULACION BANDABASE
Sistemas de Transmisión de Datos
Telecomunicaciones II
MODULACIÓN.
MÉTODO CIENTÍFICO SCIENTIFIC METHOD. Observación Observation Scientists use observation skills to identify which problems they would like to solve Simply.
CLASIFICACION DE SEÑALES
INTERFERENCIA INTERSIMBOLICA
OBSTACLES OF THE COMMUNICATION PROCESS SEPTEMBER 2011.
Las telecomunicaciones constituyen el conjunto de técnicas que permiten transmitir información a distancia La conversión de la información en ondas electromagnéticas.
UNIVERSIDAD DE COLIMA Facultad de Ingeniería Mecánica y Eléctrica Materia: COMUNICACIONES INALAMBRICAS Tema: REUSO DE FRECUENCIA Y TIPOS DE HANDOFF MARCELO.
1 Teoría de las Comunicaciones Teoría de la Información Clase 15-sep-2009.
PROPAGACIÓN Las técnicas de ingeniería utilizadas en los sistemas de telecomunicación están condicionadas por las condiciones imperantes en el medio de.
OPTIMIZACION DEL DESEMPEÑO DE ERROR
Materiales de apoyo para entrenadores en redes inalámbricas Fundamentos de telecommunicaciones.
Teoría de la información
Sistemas de Comunicación II 2009 Propagación en sistemas con múltiples reflexiones.
1 Teoría de Información. 2 Respuestas que brinda la Teoría de Información Cantidad de Informacion Técnicas de codificación Cantidad máxima de informacion.
Unidad VI. Teoría de la información
Campanada guidelines in your composition notebook ¿Cómo es tu familia? (10 points) Ex. Hoy es Miercoles el 27 de enero First line will start with the date.
Elementos de Teoría de la Información 27-Marzo-2012.
Transcripción de la presentación:

Teoría de las Comunicaciones (a.k.a Redes ) Claudio Enrique Righetti Segundo Cuatrimestre del 2011 Departamento de Computación Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Argentina

Teoría de la Información y Codificación Fundamentos de TIyC - Fuente de Ruidos y Capacidad de un canal Claude Shannon

Teoría de la Información Claude Shannon estableció la Teoría de la Información Clásica (o también los que algunos denominan teoría estadística de la información, otra teoría seria la algorítmica..) Dos Teoremas Fundacionales: 1.Codificación para un fuente sin ruido 2.Codificación para un canal ruidoso C. E. Shannon, Bell System Technical Journal, vol. 27, pp and , July and October, Reprinted with corrections from The Bell System Technical Journal,

Uno de ellos describe la máxima eficiencia posible de un método de corrección de errores ( codificación ) frente a los niveles de ruido y de corrupción de los datos. No dice nada sobre como implementar dicha codificación. En definitiva brinda el limite para la TX de bits (basándose en la Ley de los Grandes Números ) Teoría de Shannon

February 8, 2010Harvard QR485 Shannon, paper Bell Labs (1948)

C. E. Shannon, Bell System Technical Journal, vol. 27, pp and , July and October, 1948 A method is developed for representing any communication system geometrically. Messages and the corresponding signals are points in two “function spaces,” and the modulation process is a mapping of one space into the other. Using this representation, a number of results in communication theory are deduced concerning expansion and compression of bandwidth and the threshold effect. Formulas are found for the maximum rate of transmission of binary digits over a system when the signal is perturbed by various types of noise. Some of the properties of “ideal” systems which transmit at this maximum rate are discussed. The equivalent number of binary digits per second for certain information sources is calculated. “

C. E. Shannon (January 1949). "Communication in the presence of noise" Proc. Institute of Radio Engineers vol. 37 (1): 10–21. C. E. Shannon"Communication in the presence of noise" Proc. Institute of Radio Engineers The recent development of various methods of modulation such as PCM and PPM which exchange bandwidth for signal-to-noise ratio has intensified the interest in a general theory of communication. A basis for such a theory is contained in the important papers of Nyquist and Hartley on this subject. In the present paper we will extend the theory to include a number of new factors, in particular the effect of noise in the channel, and the savings possible due to the statistical structure of the original message and due to the nature of the final destination of the information. The fundamental problem of communication is that of reproducing at one point either exactly or approximately a message selected at another point. Frequently the messages have meaning; that is they refer to or are correlated according to some system with certain physical or conceptual entities. These semantic aspects of communication are irrelevant to the engineering problem. The significant aspect is that the actual message is one selected from a set of possible messages. The system must be designed to operate for each possible selection, not just the one which will actually be chosen since this is unknown at the time of design. If the number of messages in the set is finite then this number or any monotonic function of this number can be regarded as a measure of the information produced when one message is chosen from the set, all choices being equally likely. As was pointed out by Hartley the most natural choice is the logarithmic function. Although this definition must be generalized considerably when we consider the influence of the statistics of the message and when we have a continuous range of messages, we will in all cases use an essentially logarithmic measure.

Información

Definición : unidades

1 Bit

Fuente de memoria nula

Memoria nula (cont)

Entropía

Entropía (cont)  La entropía de un mensaje X, que se representa por H(X), es el valor medio ponderado de la cantidad de información de los diversos estados del mensaje. H(X) = -  p(x) log2 [1/p(x)]  Es una medida de la incertidumbre media acerca de una variable aleatoria y el número de bits de información.  El concepto de incertidumbre en H se puede asociar. La función entropía representa una medida de la incertidumbre, no obstante se suele considerar la entropía como la información media suministrada por cada símbolo de la fuente

Entropía: Fuente Binaria

a ) La entropía es no negativa y se anula si y sólo si un estado de la variable es igual a 1 y el resto 0. b) La entropía es máxima, mayor incertidumbre del mensaje, cuando todos los valores posibles de la variable X son equiprobables. Si hay n estados equiprobables, entonces p i = 1/n. Luego: H(X) = -  p i log 2 p i = - n(1/n) log 2 (1/n) = - (log log 2 n) i H(X) máx = log 2 n Propiedades de la entropía

Extensión de una Fuente de Memoria Nula

Fuente de Markov

Fuente de Markov (cont)

Codificación  Establecer una correspondencia entre los símbolos de una fuente y los símbolos del alfabeto de un código.  Proceso mediante el cual también podemos lograr una representación más eficiente de la información ( eliminar redundancia).

Codificación : condiciones  Bloque  Singular  Separable (unívocamente decodificable)

Condición de los prefijos  La condición necesaria y suficiente para que un código sea instantáneo es que sus palabras cumplan la condición de los prefijos:  No exista palabra que sea prefijo de otra palabra de longitud mayor.

Códigos eficientes  Asignar palabras más cortas a símbolos más probables  l i longitud de la palabra codificada del mensaje m i  r : # de símbolos del alfabeto del código  L =  p i l i : Longitud media de un código  L log r  H(s)  log r : Cantidad promedio máxima de información de un símbolo del código.   S) / ( L log r) Eficiencia

Nos falta encontrar el segundo término pendiente en la definición de cantidad de información: codificador óptimo. Introduciendo el signo negativo dentro del logaritmo en la expresión de la entropía, ésta nos quedará como: H(X) =  p(x) log 2 [1/p(x)] i La expresión log 2 [1/p(x)] representa el número necesario de bits para codificar el mensaje X en un codificador óptimo. Codificador óptimo es aquel que para codificar un mensaje X usa el menor número posible de bits. Codificador óptimo

M = 1 “ ” = 01 A = 000 I = 0010 E = 0011 Código óptimo: Mensaje: MI MAMA ME MIMA Mensaje: (33 bits) Pregunta: ¿Con cuántos bits se codificaría si se usara ASCII? Saque conclusiones. Creación del árbol de frecuencias observadas Codificación de Huffman

Los medios de transmisión…. …. Y las “perturbaciones” …..

Modelo de un Sistema de Comunicaciones

Perturbaciones en la transmisión  La señal recibida puede diferir de la señal transmitida  Analógico - degradación de la calidad de la señal  Digital – Errores de bits  Causado por  Atenuación y distorsión de atenuación  Distorsión de retardo  Ruido

Atenuación  La intensidad de la señal disminuye con la distancia  Depende del medio  La intensidad de la señal recibida:  Debe ser suficiente para que se detecte  Debe ser suficientemente mayor que el ruido para que se reciba sin error  Crece con la frecuencia  Ecualización: amplificar más las frecuencias más altas  Problema “menos grave” para las señales digitales

Distorsión de retardo  Sólo en medios guiados  La velocidad de propagación en el medio varía con la frecuencia  Para una señal limitada en banda, la velocidad es mayor cerca de la frecuencia central  Las componentes de frecuencia llegan al receptor en distintos instantes de tiempo, originando desplazamientos de fase entre las distintas frecuencias

Ruido (1)  Señales adicionales insertadas entre el transmisor y el receptor  Térmico  Debido a la agitación térmica de los electrones  Aumenta linealmente con la temperatura absoluta (N 0 = kT)  Uniformemente distribuido en la frecuencia  Ruido blanco (N BW = kTB)  Intermodulación  Señales que son la suma y la diferencia de frecuencias originales y sus múltiplos (mf 1 ± nf 2 )  Se produce por falta de linealidad

Ruido (2)  Diafonía  Una señal de una línea se mete en otra  Impulsivo  Impulsos irregulares o picos  Ej: Interferencia electromagnética externa (tormenta)  Corta duración  Gran amplitud

Efecto del ruido en señal digital

Conceptos relacionados con la capacidad del canal  Velocidad de datos  En bits por segundo  Velocidad a la cual se pueden transmitir los datos  Ancho de Banda  En ciclos por segundo (hertz)  Limitado por el transmisor y el medio  Ruido, nivel medio a través del camino de transmisión  Tasa de errores, cambiar 0 por 1 y viceversa (BER, Bit Erro Rate)

Ancho de Banda de Nyquist (Capacidad teórica máxima) Para 2 niveles SIN RUIDO  Velocidad binaria Para M niveles SIN RUIDO  Velocidad binaria  1 Baudio = 1 estado señalización/seg ( también se expresa símbolos/seg )  1 Baudio = 1 bps si M=2  La relación entre la velocidad de transmisión C y la velocidad de modulación V es: Nyquist, H., “Certain Factors Affecting Telegraph Speed,” Bell System Technical Journal, April 1924, p. 324; “Certain Topics in Telegraph Transmission Theory,” A.I.E.E. Trans., v. 47, April 1928, p. 617.

Capacidad de Shannon (1)  Para un cierto nivel de ruido, a mayor velocidad, menor período de un bit, mayor tasa de error (se pueden corromper 2 bits en el tiempo en que antes se corrompía 1 bit)  Relación Señal / Ruido (Signal Noise Ratio, SNR) en dB  Restricción: no se puede aumentar M cuanto se quiera porque debe cumplirse:

Capacidad de Shannon (2)  En principio, si se aumenta el ancho de banda B y la potencia de señal S, aumenta la velocidad binaria C.  Pero:  Un aumento del ancho de banda B aumenta el ruido  Un aumento de potencia de señal S aumenta las no linealidades y el ruido de intermodulación  Por tanto, la velocidad binaria teórica máxima será: =>

Ejemplo  Canal entre 3 MHz y 4 MHz  Relación señal ruido = 24 dB, SNR=10 2,4 =251 Calcular ancho de banda  Respuesta: B = 1 MHz  Calcular la velocidad binaria teórica máxima y el número de niveles  Respuesta: SNR = 251  Respuesta: C = 8 Mbps  Respuesta: M = 16 niveles