Publicado el 5 de Septiembre del 2018
742 visualizaciones desde el 5 de Septiembre del 2018
1,5 MB
17 paginas
Creado hace 18a (08/06/2006)
Complejidad en Redes Modernas de Comunicaciones
Marco Aurelio Alzate Monroy
Profesor Universidad Distrital
en "Complejidad: Ciencia, pensamiento y aplicación", 2007
teorizar al
1. Introducción
En este Primer Encuentro Interuniversitario sobre
Complejidad se han planteado muchos conceptos con un
nivel de abstracción propio de la ciencia y, más
profundamente aún, de la filosofía de la ciencia. Esta
presentación es mucho más modesta pues no sólo se
refiere a un aspecto tecnológico muy puntual, las redes
modernas de comunicaciones, sino que lo hace desde un
punto de vista mucho más pragmático. En efecto,
revisaremos algunos fenómenos emergentes en este tipo
de redes que nos permiten suponer su complejidad y, en
vez de
respecto, buscaremos como
aprovechar dichos fenómenos en la ingeniería de redes.
A lo sumo, mencionaremos brevemente dos propuestas
alternativas que intentan explicar dicha complejidad.
Debo confesar que me preocupaba participar en el
encuentro con una ponencia tan estrecha en sus
propósitos y sus alcances, hasta que leí un texto del
profesor C. Maldonado: “La ciencia moderna es ciencia
de ingenieros. En una palabra, la ciencia es una forma
de acción sobre el mundo, y no solamente una
comprensión o explicación de los fenómenos y procesos
constitutivos del mundo”[1]. Esta cita se constituye en
la motivación para la presentación que traigo pues,
después de mostrar algunas evidencias de complejidad
en las redes, no vamos a preguntarnos porqué las redes
modernas son complejas ni cómo se desarrolló esa
complejidad, sino que nos preguntaremos de qué
manera se deben ver afectados los procesos de diseño,
administración, operación y mantenimiento de las redes
de comunicaciones ante la abrumadora evidencia de su
complejidad.
El punto de vista que aquí planteo es que ahora los
ingenieros de redes debemos dejar de pensar en la red
como una obra de nuestro ingenio que debe comportarse
tal y como nosotros decidimos que se comportara. En
vez de eso, debemos reconocer que, al implantar
nuestros diseños, se generó una gran cantidad de
interacciones imprevistas, no sólo entre las diferentes
capas del modelo de la jerarquía funcional utilizada,
sino,
los usuarios. En
consecuencia, surgen leyes de potencia con abrumadora
ubicuidad que conducen a fenómenos emergentes
caracterizados por fractalidad en el tráfico, topologías
físicas y
escala, potencial
comportamiento caótico en
los
protocolos, autoorganización de la red al borde de la
la dinámica de
también, entre
libres de
la red y
lógicas
congestión, etc. Todos ellos son comportamientos
inesperados, que nos sorprenden, y que obligan a tomar
una actitud más humilde: La red es un sistema complejo
que se salió de nuestro marco conceptual inicial y por
tanto, debemos enfrentarla como la vida enfrenta el
ambiente incierto en que se desarrolla: Percepción y
adaptación. Opino que la manera efectiva de resolver
los problemas de ingeniería en las redes modernas de
comunicaciones es mediante el uso extensivo y juicioso
de la realimentación, de manera que las decisiones de
control se tomen dinámicamente, adaptándose a las
condiciones particulares de la red en cada instante y en
múltiples escalas de tiempo. En este contexto, los
mecanismos de control bio-inspirados (redes neuronales,
algoritmos genéticos, inteligencia de enjambre, sistemas
difusos, etc.) han demostrado ser de gran utilidad, pues
todos ellos se basan en el principio natural de percibir el
ambiente para aprender de él y decidir un
comportamiento adecuado correspondiente.
2. Evolución Conceptual de
Comunicaciones *
El paradigma que ha guíado el diseño y la realización de
las redes de comunicaciones ha sido, fundamentalmente,
el
formula una
arquitectura de red basada en un modelo jerárquico de
funciones que se implementan mediante algoritmos
distribuidos o protocolos. Cada capa de la jerarquía se
diseña independientemente de las otras, con la única
preocupación de dejar una interface clara y limpia, a
través de la cual se pueden solicitar y ofrecer servicios
básicos entre capas. Esto es, los componentes de la red y
las interacciones entre ellos se diseñan de manera
separada e independiente: ¡Divide y vencerás! [2]
La formulación matemática en la que se ha basado el
dimensionamiento de las redes es la teoría de colas: Los
usuarios generan una demanda que dependen
exclusivamente de sus necesidades, de manera que el
modelamiento de dicha demanda (el tráfico) es apenas
una entrada al proceso de dimensionamiento. La
suposición básica es la de un lazo abierto: la red no
interactúa
su
comportamiento sino que recibe cierta demanda de
reduccionismo mecanicista: Se
los usuarios para
las Redes de
regular
con
* Pido disculpas si el lector nota cierta exageración al describir
la simplicidad de los modelos tradicionales de las redes; es
sólo para enfatizar mi punto vista.
resumen,
los
los demás,
servicios y se debe dimensionar su capacidad para
atender dichas demandas con ciertos niveles mínimos de
desempeño. De hecho, hasta mediados de la década de
los ochentas se suponía un gran número de usuarios,
cada uno participando con un inifinitésimo de la
demanda total, de manera que, como cada usuario era
independiente de
los procesos que
modelaban el tráfico se formaban a partir de variables
aleatorias independientes e idénticamente distribuidas,
aún en intervalos infinitesimales de tiempo [3].
Hasta ese momento también se suponía que todos los
usuarios querían el mismo tipo de servicio con el mismo
nivel de desempeño: Una máxima probabilidad de
bloqueo para las llamadas telefónicas o un máximo
retardo promedio para los paquetes de datos. Siendo así,
resultaba fácil combinar linealmente los flujos entre
extremos de acuerdo con una matriz de enrutamiento
para calcular el flujo total en cada enlace de la red, y
dimensionar entonces cada enlace independientemente:
Número de canales, ancho de banda de cada canal y
cantidad de memoria para almacenar las demandas que
no encontraran canales desocupados [3].
En
ingenieros de comunicaciones
quisieron hacer de la red de comunicaciones un sistema
lineal, homogéneo y gaussiano, con lo que resultaría
muy fácil su diseño, administración, operación y
mantenimiento… Pero las cosas empezaron a cambiar.
Como no resultaba económico tener una infraestructura
de red para conversaciones telefónicas y otra aparte para
paquetes de datos, a principios de la década de los
ochenta se inició un proceso de integración de servicios
que condujo a las redes convergentes de hoy, en las que
la convergencia ya no sólo se refiere a los servicios sino
a las tecnologías [4]. Hoy se prestan servicios de voz,
datos interactivos, correo electrónico, navegación web,
fax, audio y video conferencias, telemetría, televisión,
etc., los cuales se transportan sobre medios físicos tales
como fibra óptica, pares de cables trenzados, cable
coaxial, transmisión inalámbrica por radio o infrarrojos,
cables de alta potencia, enlaces satelitales, modems en
líneas conmutadas, enlaces arrendados con relevo de
tramas o ATM sobre estructuras SDH, acceso de banda
ancha tipo xDSL o WiMax, etc. Y en el centro de todo,
como única
la que
convergen los diferentes servicios y las diferentes
tecnologías de transmisión, está IP, el protocolo de red
de Internet [5].
Cómo resultado, la red perdió una de las características
con la que sus diseñadores soñaron: La homogeneidad.
Lo único que queda es IP como la cintura de un
gigantesco reloj de arena que une todos los servicios
posibles de comunicación por arriba y todas las
infraestructura de red sobre
la visión reduccionista extendiendo
requerimientos homogéneos utilizando
tecnologías de trasnsmisión por abajo. Ya no hay, pues,
un gran número de usuarios homogéneos, con demandas
y
recursos
homogéneos sino que, prácticamente, cada usuario le
exige a la red un nivel de desempeño distinto en
términos de ancho de banda, retardo, variaciones de
retaro, pérdidas y errores, indepedientemente de la
tecnología de transmisión que se utilice, aún cuando
estas mismas tecnologías empiezan a revelar un amplio
rango de escalas de tiempo al recorrer tasas de
transmisión desde pocas decenas de kilobits por
segundo hasta decenas de gigabits por segundo. Más
aún, cada vez más usuarios exigen garantías sobre
niveles mínimos de desempeño para cierto tipo de
aplicaciones críticas para las cuales IP no fue diseñado.
¿Qué hicieron entonces los ingenieros? Tratar de
extrapolar
las
jerarquías funcionales con nuevos protocolos que
permitieran ofrecer garantías de calidad de servicio
(QoS) [6][7]. Claro, estas nuevas jerarquías exigen
monitorear el comportamiento de
los usuarios y
realimentarlos con información sobre la congestión en
la red para que ellos regulen su tasa de transmisión, lo
cual genera un funcionamiento en lazo cerrado que,
originalmente, no se consideró en el diseño de la red. En
consecuencia, se perdió otra de las características
ideales: la linealidad.
Pero los ingenieros de comunicaciones aún no se daban
por vencidos y mantenían tercamente
Comentarios de: Complejidad en Redes Modernas de Comunicaciones (0)
No hay comentarios