PDF de programación - Lección 14: Compromiso entre Modulación y Codificación. Parte I

Imágen de pdf Lección 14: Compromiso entre Modulación y Codificación. Parte I

Lección 14: Compromiso entre Modulación y Codificación. Parte Igráfica de visualizaciones

Publicado el 5 de Enero del 2019
576 visualizaciones desde el 5 de Enero del 2019
1,7 MB
28 paginas
Creado hace 11a (04/04/2013)
Lección 14: Compromiso entre

Modulación y Codificación. Parte I

Gianluca Cornetta, Ph.D.
Dep. de Ingeniería de Sistemas de Información y Telecomunicación
Universidad San Pablo-CEU

Contenido

Los Objetivos del Diseñador de Sistemas de

Comunicación

El Plano de Probabilidad de Error
La Banda de Nyquist
El Teorema de Shannon-Hartley
El Plano de Eficiencia de Banda
Compromiso entre Modulación y Codificación
Definición, Diseño y Evaluación de Sistemas de

Comunicación Digitales

04/04/2013

© 2012 Gianluca Cornetta, Comunicaciones Digitales

2

Los Objetivos del Diseñador de Sistemas de Comunicación

 Los objetivos del diseñador de sistemas de comunicación digitales incluyen:

 Objetivo 1: Maximizar la tasa de transmisión de bit R (bit rate)
 Objetivo 2: Minimizar la probabilidad de error de bit PB
 Objetivo 3: Minimizar la potencia de requerida o, de forma equivalente, minimizar la relación entre

energía por bit transmitido y la densidad espectral de potencia de ruido Eb/N0

 Objetivo 4: Minimizar el ancho de banda W requerido por el sistema
 Objetivo 5: Maximizar la utilización del sistema, es decir proporcionar un servicio fiable, robusto,
con un elevado rechazo de las interferencias y un retardo mínimo al mayor número de usuarios
posibles

 Objetivo 6: Minimizar la complejidad, los costes y la carga computacional del sistema

 El diseñador intenta conseguir todos estos objetivos a la vez, sin embargo algunos de

ellos están claramente en conflicto:

 Por ejemplo, los objetivos (1) y (2) están claramente en conflicto con los objetivos (3) y (4)

 El diseñador debe buscar una solución de compromiso entre sus distintos objetivos

teniendo en cuenta las siguientes restricciones:

 Los requerimientos mínimos de ancho de banda fijados por el teorema de Nyquist
 La capacidad de canal fijada por el teorema de Shannon-Hartley
 Las restricciones fijada por los organismos que regulan las telecomunicaciones (por ejemplo, las

restricciones de frecuencia)

 Limitaciones tecnológicas
 Otros requerimientos de Sistema (por ejemplo, órbitas de satélites)

04/04/2013

© 2012 Gianluca Cornetta, Comunicaciones Digitales

3

El Plano de Probabilidad de Error

 Un modulador utiliza un alfabeto de M=2k señales para representar

una secuencia de k bits

 Existen dos clases de señales:

 Señales ortogonales (típicas de modulaciones MFSK): PB mejora (o, de
forma equivalente se Eb/N0 reduce) al aumentar de k en detrimento del
ancho de banda (que aumenta)

 Señales no ortogonales (típicas de modulaciones MPSK): aumentando
k, aumenta la eficiencia espectral (es decir, se reduce el ancho de
banda necesario) al coste de una degradación de PB y de un aumento
de Eb/N0

 Con el mismo ancho de banda W es posible transmitir señales a una tasa más

elevadas (es decir, mejora R/W)

 Cada tipo de modulación tiene un rendimiento que puede
representarse mediante unas curvas de rendimiento de probabilidad
de error (error probability performance curves)
 Estas curvas se representan en un plano que se denomina plano de

probabilidad de error (error probability plane)

 El plano de probabilidad de error representa el lugar geométrico de los
puntos de funcionamiento disponibles para un tipo dado de
modulación y codificación

04/04/2013

© 2012 Gianluca Cornetta, Comunicaciones Digitales

4

El Plano de Probabilidad de Error

Cada curva está asociada a un ancho de banda de transmisión dado, por
ello estás curvas se denominan también curvas de igual ancho de banda
(equibandwidth curves)

04/04/2013

© 2012 Gianluca Cornetta, Comunicaciones Digitales

5

El Plano de Probabilidad de Error

Estos compromisos de diseño implican cambios en el esquema de
modulación y codificación del sistema por tanto deben ser
considerados durante la fase de diseño. De todas maneras,
existen sistemas más flexibles que se denominan Software
Defined Radio (SDR) que permiten cambiar por software
esquemas de modulación y codificación.



la

potencia

Para cambiar el punto de
funcionamiento es suficiente
variar
de
transmisión, lo que es posible
realizar sin problemas también
después de la configuración del
sistema.

04/04/2013

© 2012 Gianluca Cornetta, Comunicaciones Digitales

6

La Banda de Nyquist

 Los sistemas reales padecen de interferencia intersímbolo (ISI) generada

fundamentalmente por las no idealidades de los filtros del sistema

 Nyquist demostró que el mínimo ancho de banda teórico (utilizando un filtro
paso-bajo ideal) necesario para transmitir sin ISI con una tasa de Rs
símbolos/s una señal en banda base es Rs/2 Hz

 En la práctica, los filtros reales imponen un aumento de la banda de Nyquist

de entre un 10% y un 40%.
 Esto reduce la tasa de símbolo de 2 símbolos/s/Hz hasta el rango incluido entre

1.8 y 1.4 símbolos/s/Hz

 En un sistema con un alfabeto de M=2k símbolos, cada símbolo se compone
de k=log2M bits y la tasa de bit (bit rate) debe ser k veces más rápida que la
tasa de símbolo Rs, es decir:



 Si se transmite a una tasa de símbolo fija, aumentar k equivale a aumentar R
 En el caso de un esquema MPSK aumentar k implica aumentar de un factor k la

eficiencia de banda R/W (bits/s/Hz)

04/04/2013

© 2012 Gianluca Cornetta, Comunicaciones Digitales

7

MRkRRkRRss2log El Teorema de Shannon-Hartley

 Shannon demostró que la capacidad C de un canal perturbado por
ruido AWGN es una función de la potencia media recibida S, de la
potencia media de ruido N y del ancho de banda W (Teorema de
Shannon-Hartley):



 Cuando W está en Hz y el logaritmo está en base 2 y la capacidad de
canal en bit/s es posible transmitir en este canal a una tasa
cualquiera RC con una PB arbitrariamente pequeña que depende
de la complejidad del esquema de codificación utilizado

 Para R>C no es posible encontrar un código que permita alcanzar

una PB arbitrariamente pequeña

 S, N y W fijan un límite para la tasa de transmisión y no para la

probabilidad de error



04/04/2013

© 2012 Gianluca Cornetta, Comunicaciones Digitales

8

NSWC1log2 El Teorema de Shannon-Hartley

Capacidad de canal normalizada
C/W en función del SNR

Ancho de banda normalizado W/C en función del SNR. Esta gráfica se
utiliza para estudiar el compromiso entre potencia de transmisión y
ancho de banda para un canal ideal. No se trata de una medida exacta
ya que la potencia de ruido detectada N es proporcional al ancho de
banda, es decir: N=N0/W

04/04/2013

© 2012 Gianluca Cornetta, Comunicaciones Digitales

9

El Teorema de Shannon-Hartley

 Teniendo en cuenta que N=N0W

la
la capacidad de canal se

relación de
vuelve:



 Cuando R=C

la relación Eb/N0 entre
energía por bit transmitido y densidad
espectral de potencia de ruido se vuelve:



 Por tanto la relación de la capacidad de

canal se vuelve:



 De lo que sigue que:

Esta curva representa la relación real
entre potencia de transmisión y ancho
de banda. La reducción de banda se
obtiene al coste de una mayor
potencia de transmisión.

04/04/2013

© 2012 Gianluca Cornetta, Comunicaciones Digitales

10

WNSWC021logCNSCWWNSNERWNSNEbb0000WCNEWCb021log121212000WCbWCbbWCNECWCWNEWCNE El Teorema de Shannon-Hartley

 Existe un valor límite de Eb/N0 por debajo del cual no es posible realizar una

comunicación libre de errores para cualquier tasa de transmisión

 Recuerde que:



 Imponiendo la expresión de la capacidad de canal se vuelve:



 De lo que sigue que:



 Al límite, cuando C/W  0 también x  0 , por tanto



 Este valor se conoce como el límite de Shannon
 En la práctica no es posible alcanzar el límite de Shannon porque si k aumenta
de forma ilimitada, también el ancho de banda necesario aumenta de forma
ilimitada

04/04/2013

© 2012 Gianluca Cornetta, Comunicaciones Digitales

11

exxx101limxxxxWC1221log1logWCNExb0xbxbxNExNE1201201log11log1dB 6.1693.0log1020NEeNEbb El Teorema de Shannon-Hartley

 Es necesario definir también una métrica para medir la cantidad de información contenida en un

mensaje codificado

 Esta métrica fue definida por Shannon y se conoce como entropía (H) de una fuente de información (con

n posibles mensajes de salida)

 La entropía es el contenido medio de bits de información por mensaje de salida de la fuente de

información (source output) y se define como:



 Siendo pi la probabilidad del mensaje i–ésimo y pi=1
 Los mensajes emitidos por una fuente no son equiprobables sino que tienen una cierta probabilidad de

ocurrencia dependiendo del mensaje

 El objetivo es encontrar para los distintos mensajes unas longitudes Li que en promedio minimizan la

entropía H

 La longitud de mensaje debe ser una función de su probabilidad de ocurrencia pi. El objetivo es codificar

los más ocurrentes con menos bits

 Shannon encontró que H es mínima cuando Li =log2(1/pi) =-log2 pi
 El concepto de entropía es el fundamento de la codificación de fuente (source coding)

 Para codificar los mensajes de una fuente conviene utilizar menor cantidad de bits para los mensajes más
probables y mayor cantidad de bits para los mensajes menos probables de forma tal que el promedio de bits
utilizados para codificar los mensajes sea menor a la cantidad de bits promedio de los mensajes originales (esta es
la base de la compresión de datos)

04/04/2
  • Links de descarga
http://lwp-l.com/pdf14764

Comentarios de: Lección 14: Compromiso entre Modulación y Codificación. Parte I (0)


No hay comentarios
 

Comentar...

Nombre
Correo (no se visualiza en la web)
Valoración
Comentarios...
CerrarCerrar
CerrarCerrar
Cerrar

Tienes que ser un usuario registrado para poder insertar imágenes, archivos y/o videos.

Puedes registrarte o validarte desde aquí.

Codigo
Negrita
Subrayado
Tachado
Cursiva
Insertar enlace
Imagen externa
Emoticon
Tabular
Centrar
Titulo
Linea
Disminuir
Aumentar
Vista preliminar
sonreir
dientes
lengua
guiño
enfadado
confundido
llorar
avergonzado
sorprendido
triste
sol
estrella
jarra
camara
taza de cafe
email
beso
bombilla
amor
mal
bien
Es necesario revisar y aceptar las políticas de privacidad