You are on page 1of 23

UNIVERSIDAD NACIONAL DE INGENIERÍA

“FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA”

PRÁCTICA CALIFICADA N°1

PROFESOR: RODRIGUEZ GUTIERREZ, ALFREDO

CURSO: TELECOMUNICACIONES II

ALUMNO:
SOLUCIONARIO DE LA PRIMERA PRÁCTICA CALIFICADA
1. PROBLEMA 1: Técnicas de comprensión de datos:

1.1 Técnicas de compresión de texto:

 Basados en caracteres simples:

 Huffman:
El algoritmo consiste en la creación de un árbol binario que tiene cada uno de los símbolos
por hoja, y construido de tal forma que siguiéndolo desde la raíz a cada una de sus hojas
se obtiene el código Huffman asociado a él.

1. Se crean varios árboles, uno por cada uno de los símbolos del alfabeto, consistiendo
cada uno de los árboles en un nodo sin hijos, y etiquetado cada uno con su símbolo
asociado y su frecuencia de aparición.
2. Se toman los dos árboles de menor frecuencia, y se unen creando un nuevo árbol.
La etiqueta de la raíz será la suma de las frecuencias de las raíces de los dos
árboles que se unen, y cada uno de estos árboles será un hijo del nuevo árbol.
También se etiquetan las dos ramas del nuevo árbol: con un 0 la de la izquierda, y
con un 1 la de la derecha.
3. Se repite el paso 2 hasta que sólo quede un árbol.
Con este árbol se puede conocer el código asociado a un símbolo, así como obtener el
símbolo asociado a un determinado código.
Para obtener el código asociado a un símbolo se debe proceder del siguiente modo:

1. Comenzar con un código vacío


2. Iniciar el recorrido del árbol en la hoja asociada al símbolo
3. Comenzar un recorrido del árbol hacia arriba
4. Cada vez que se suba un nivel, añadir al código la etiqueta de la rama que se ha
recorrido
5. Tras llegar a la raíz, invertir el código
6. El resultado es el código Huffman deseado
Para obtener un símbolo a partir de un código se debe hacer así:

1. Comenzar el recorrido del árbol en la raíz de éste


2. Extraer el primer símbolo del código a descodificar
3. Descender por la rama etiquetada con ese símbolo
4. Volver al paso 2 hasta que se llegue a una hoja, que será el símbolo asociado al
código
En la práctica, casi siempre se utiliza el árbol para obtener todos los códigos de una sola
vez; luego se guardan en tablas y se descarta el árbol.
Basados en cadenas:

1
 Lempel-ziv (LZ)
LZW (Lempel-Ziv-Welch) es un algoritmo de compresión sin pérdida desarrollado
por Terry Welch en 1984 como una versión mejorada del algoritmo LZ78 desarrollado
por Abraham Lempel y Jacob Ziv.

La mayoría de los métodos de compresión se basan en un análisis inicial del texto para
identificar cadenas repetidas para armar un diccionario de equivalencias, asignando
códigos breves a estas cadenas. En una segunda etapa, se convierte el texto utilizando los
códigos equivalentes para las cadenas repetidas. Esto requiere dos etapas, una de análisis
y una segunda de conversión y también requiere que el diccionario se encuentre junto con
el texto codificado, incrementando el tamaño del archivo de salida.
La clave del método LZW reside en que es posible crear sobre la marcha, de manera
automática y en una única pasada un diccionario de cadenas que se encuentren dentro del
texto a comprimir mientras al mismo tiempo se procede a su codificación. Dicho diccionario
no es transmitido con el texto comprimido, puesto que el descompresor puede reconstruirlo
usando la misma lógica con que lo hace el compresor y, si está codificado correctamente,
tendrá exactamente las mismas cadenas que el diccionario del compresor tenía.
Las entradas del diccionario pueden representar secuencias de caracteres simples o
secuencias de códigos de tal forma que un código puede representar dos caracteres o
puede representar secuencias de otros códigos previamente cargados que a su vez
representen, cada uno de ellos, otros códigos o caracteres simples, o sea que un código
puede representar desde uno a un número indeterminado de caracteres. En realidad, el
algoritmo no discrimina entre códigos y caracteres simples pues el diccionario se carga
inicialmente de códigos que representan los primeros 256 caracteres simples por lo que
estos no son más que otros códigos dentro del mismo diccionario.

Otra característica importante del algoritmo es que los códigos en la salida se representan
por cadenas de bits variables.

1.2 Técnicas de compresión de video

2
 Formato de contenedores

 Formato AVI
El formato avi permite almacenar simultáneamente un flujo de datos de video y varios flujos
de audio. El formato concreto de estos flujos no es objeto del formato AVI y es interpretado
por un programa externo denominado códec. Es decir, el audio y el video contenidos en el
AVI pueden estar en cualquier formato (AC3/DivX, o MP3/Xvid, entre otros). Por eso se le
considera un formato contenedor.
Para que todos los flujos puedan ser reproducidos simultáneamente, es necesario que se
almacenen de manera intercalada (interleave). De esta manera, cada fragmento de archivo
tiene suficiente información como para reproducir unos pocos fotogramas junto con el
sonido correspondiente.

 Formato específicos:

 Formato MJPEG

Motion JPEG (M-JPEG) es un nombre trivial para aquellos formatos multimedia donde
cada fotograma o campo entrelazado de una secuencia de video digital es comprimidapor
separado como una imagen JPEG. Es frecuentemente usado en dispositivos portátiles
tales como cámaras digitales.

El Motion JPEG utiliza tecnología de codificación intracuadro, que es muy similar en


tecnología a la parte I-frame de los estándares de codificación como el MPEG-1 y el MPEG-
2, sin emplear la predicción intercuadro. La ausencia del uso de la predicción intercuadro
conlleva a una pérdida en la capacidad de compresión, pero facilitando la edición de video,
dado que se pueden realizar ediciones simples en cualquier cuadro cuando todos estos son
I-frames. Los formatos de codificación tales como el MPEG-2 pueden ser también utilizados
basándose meramente en este principio para proveer capacidades similares de compresión
y de edición.

1.3 Técnicas de compresión de multimedia:

 Formato GIF (Graphics Interchange Format)


Graphics Interchange Format (GIF) traducido al español como Formato de Intercambio
de Gráficos), es un formato gráfico utilizado ampliamente en la World Wide Web, tanto
para imágenes como para animaciones.

El formato fue creado por CompuServe en 1987 para dotar de un formato de imagen
en color para sus áreas de descarga de archivos, sustituyendo su temprano
formato RLE en blanco y negro. GIF llegó a ser muy popular porque podía usar el algoritmo

3
de compresión LZW (Lempel Ziv Welch) para realizar la compresión de la imagen, que era
más eficiente que el algoritmo Run-length encoding (RLE)

GIF es un formato sin pérdida de calidad para imágenes con hasta 256 colores, limitados
por una paleta restringida a este número de colores. Por ese motivo, con imágenes con
más de 256 colores (profundidad de color superior a 8), la imagen debe adaptarse
reduciendo sus colores, produciendo la consecuente pérdida de calidad.

 Formato JPEG
Joint Photographic Experts Group (JPEG), traducido al español como Grupo
Conjunto de Expertos en Fotografía, es el nombre de un comité de expertos que creó
un estándar de compresión y codificación de archivos e imágenes fijas.

Además de ser un método de compresión, es a menudo considerado como un formato


de archivo. JPEG/Exif es el formato de imagen más común, utilizado por las cámaras
fotográficas digitales y otros dispositivos de captura de imagen, junto con JPG/JFIF,
que también es otro formato para el almacenamiento y la transmisión de imágenes
fotográficas en la World Wide Web. Estas variaciones de formatos a menudo no se
distinguen, y se llaman “JPEG”. Los archivos de este tipo se suelen nombrar con
la extensión .jpg .

4
El formato JPEG utiliza habitualmente un algoritmo de compresión con pérdida para
reducir el tamaño de los archivos de imágenes, esto significa que al descomprimir o
visualizar la imagen no se obtiene exactamente la misma imagen de la que se partía
antes de la compresión. Existen también tres variantes del estándar JPEG que
comprimen la imagen sin pérdida de datos: JPEG 2000, JPEG-LS y Lossless JPEG.

Otras técnicas de compresión de multimedia son:

5
1.4 Técnicas de compresión de voz:

Otras técnicas de compresión de voz son:

2. PROBLEMA 2: Explique los algoritmos de encriptación de información

¿Qué es encriptación?
Es el proceso mediante el cual cierta información o texto sin formato es cifrado de forma
que el resultado sea ilegible a menos que se conozcan los datos necesarios para su
interpretación. Es una medida de seguridad utilizada para que al momento de almacenar o
transmitir información sensible ésta no pueda ser obtenida con facilidad por terceros.
Opcionalmente puede existir además un proceso de desencriptación a través del cual la
información puede ser interpretada de nuevo a su estado original, aunque existen métodos
de encriptación que no pueden ser revertidos. El término encriptación es traducción literal
del inglés y no existe en el idioma español. La forma más correcta de utilizar este término
sería cifrado.

6
Usos de la Encriptación

Algunos de los usos más comunes de la encriptación son el almacenamiento y transmisión


de información sensible como contraseñas, números de identificación legal, números de
tarjetas de crédito, reportes administrativo-contables y conversaciones privadas, entre
otros.

Como sabemos, en un Sistema de Comunicación de Datos, es de vital importancia asegurar


que la Información viaje segura, manteniendo su autenticidad, integridad, confidencialidad
y el no repudio de la misma entre otros aspectos.
Estas características solo se pueden asegurar utilizando las Técnicas de Firma Digital
Encriptada y la Encriptación de Datos.

Métodos de Encriptación

Para poder Encriptar un dato, se pueden utilizar tres procesos matemáticos diferentes:
Los algoritmos HASH, los simétricos y los asimétricos.

1. Algoritmo HASH:
Este algoritmo efectúa un cálculo matemático sobre los datos que constituyen el
documento y da como resultado un número único llamado MAC. Un mismo documento
dará siempre un mismo MAC.

2. Criptografía de Clave Secreta o Simétrica


Utilizan una clave con la cual se encripta y desencripta el documento. Todo documento
encriptado con una clave, deberá desencriptarse, en el proceso inverso, con la misma
clave. Es importante destacar que la clave debería viajar con los datos, lo que hace
arriesgada la operación, imposible de utilizar en ambientes donde interactúan varios
interlocutores.
Los criptosistemas de clave secreta se caracterizan porque la clave de cifrado y la de
descifrado es la misma, por tanto la robustez del algoritmo recae en mantener el secreto
de la misma.
Sus principales características son:

 rápidos y fáciles de implementar


 clave de cifrado y descifrado son la misma
 cada par de usuarios tiene que tener una clave secreta compartida
 una comunicación en la que intervengan múltiples usuarios requiere muchas
claves secretas distintas

7
Actualmente existen dos métodos de cifrado para criptografía de clave secreta, el
cifrado de flujo y el cifrado en bloques.

 Cifrado de flujo
El emisor A, con una clave secreta y un algoritmo determinístico (RKG), genera
una secuencia binaria (s) cuyos elementos se suman módulo 2 con los
correspondientes bits de texto claro m, dando lugar a los bits de texto cifrado c,
Esta secuencia (c) es la que se envía a través del canal. En recepción, B, con la
misma clave y el mismo algoritmo determinístico, genera la misma secuencia
cifrante (s), que se suma modulo 2 con la secuencia cifrada (c) , dando lugar a los
bits de texto claro m.
Los tamaños de las claves oscilan entre 120 y 250 bits
 Cifrado en bloque
Los cifrados en bloque se componen de cuatro elementos:
- Transformación inicial por permutación.
- Una función criptográfica débil (no compleja) iterada r veces o "vueltas".
- Transformación final para que las operaciones de encriptación y desencriptación
sean simétricas.
- Uso de un algoritmo de expansión de claves que tiene como objeto convertir la
clave de usuario, normalmente de longitud limitada entre 32 y 256 bits, en un
conjunto de subclaves que puedan estar constituidas por varios cientos de bits en
total.

3. PROBLEMA 3: Explique en que consiste y de unos ejemplos de los


algoritmos de compresión con perdida y sin perdida

8
3.1 Algoritmos Asimétricos (RSA):
Requieren dos Claves, una Privada (única y personal, solo conocida por su dueño)
y la otra llamada Pública, ambas relacionadas por una fórmula matemática compleja
imposible de reproducir. El concepto de criptografía de clave pública fue introducido
por Whitfield Diffie y Martin Hellman a fin de solucionar la distribución de claves
secretas de los sistemas tradicionales, mediante un canal inseguro. El usuario,
ingresando su PIN genera la clave Publica y Privada necesarias. La clave Publica
podrá ser distribuida sin ningún inconveniente entre todos los interlocutores. La
Privada deberá ser celosamente guardada. Cuando se requiera verificar la
autenticidad de un documento enviado por una persona se utiliza la Clave Publica
porque el utilizó su Clave Privada.

Firma Digital
Origen:

El concepto de firma digital nació como una oferta tecnológica para acercar la operatoria
social usual de la firma ológrafa (manuscrita) al marco de lo que se ha dado en llamar el
ciberespacio o el trabajo en redes.

Concepto:

Es la transformación de un mensaje utilizando un sistema de cifrado asimétrico de manera


que la persona que posee el mensaje original y la clave pública del firmante, pueda
establecer de forma segura, que dicha transformación se efectuó utilizando la clave privada
correspondiente a la pública del firmante, y si el mensaje es el original o fue alterado desde
su concepción.

9
Ventajas Ofrecidas por la Firma Digital:
El uso de la firma digital satisface los siguientes aspectos de seguridad:

 Integridad de la información: la integridad del documento es una protección contra


la modificación de los datos en forma intencional o accidental. El emisor protege el
documento, incorporándole a ese un valor de control de integridad, que corresponde
a un valor único, calculado a partir del contenido del mensaje al momento de su
creación. El receptor deberá efectuar el mismo cálculo sobre el documento recibido
y comparar el valor calculado con el enviado por el emisor. De coincidir, se concluye
que el documento no ha sido modificado durante la transferencia.
 Autenticidad del origen del mensaje: este aspecto de seguridad protege al receptor
del documento, garantizándole que dicho mensaje ha sido generado por la parte
identificada en el documento como emisor del mismo, no pudiendo alguna otra
entidad suplantar a un usuario del sistema. Esto se logra mediante la inclusión en el
documento transmitido de un valor de autenticación (MAC, Message autentication
code). El valor depende tanto del contenido del documento como de la clave secreta
en poder del emisor.
 No repudio del origen: el no repudio de origen protege al receptor del documento de
la negación del emisor de haberlo enviado. Este aspecto de seguridad es más fuerte
que los anteriores ya que el emisor no puede negar bajo ninguna circunstancia que
ha generado dicho mensaje, transformándose en un medio de prueba inequívoco
respecto de la responsabilidad del usuario del sistema.

Algoritmo de compresión con pérdida


Se refiere a cualquier procedimiento de codificación que tenga como objetivo representar
cierta cantidad de información utilizando una menor cantidad de la misma, siendo imposible
una reconstrucción exacta de los datos originales. Esto es porque, en lugar de guardar una
copia exacta, solo se guarda una aproximación. Esta aproximación se aprovecha de las
limitaciones de la percepción humana para esconder la distorsión introducida.

La compresión con pérdida solo es útil cuando la reconstrucción exacta no es indispensable


para que la información tenga sentido. La información reconstruida es solo una
aproximación de la información original. Suele restringirse a información analógica que ha
sido digitalizada (imágenes, audio, video, etc.), donde la información puede ser "parecida"
y, al mismo tiempo, ser subjetivamente la misma. Su mayor ventaja reside en las altas
razones de compresión que ofrece en contraposición a un algoritmo de compresión sin
pérdida.
La compresión con pérdida acepta una pérdida de datos para poder mejorar el factor de
compresión. Se aplica generalmente al almacenamiento digital de datos analógicos como
ficheros de gráficos y de sonidos. La gran ventaja de comprensión con pérdida es alcanzar
una tasa de compresión más elevadas a costa de sufrir una pérdida de información sobre
la imagen original.

10
Ejemplos
 Chroma subsampling o color subsampling
 JPEG
En compresión de imagen  Compresion fractal.
 GIF

 MPEG
 H.264
En compresión de video  Theora
 Dirac
Sorenson

 AAC
 ADPCM
 ATRAC
En compresión de audio  AC3
 MP3
 Vorbis

Algoritmo de compresión sin pérdida


Se denomina algoritmo de compresión sin pérdida a cualquier procedimiento de
codificación que tenga como objetivo representar cierta cantidad de información utilizando
u ocupando un espacio menor, siendo posible una reconstrucción exacta de los datos
originales. Es decir, la compresión sin pérdidas engloba a aquellas técnicas que garanticen
generar un duplicado exacto del flujo de datos de entrada después de un ciclo de
compresión / expansión. Por esta razón es utilizada para comprimir archivos que contienen
datos que no pueden ser degradados o perdidos, como pueden ser documentos de texto,
imágenes y sonido.

11
Se fundamenta en conceptos de la Teoría de la Información, como
la Redundancia y Entropía de los datos (ver compresión de datos) y es generalmente
implementada usando uno o dos tipos de modelos diferentes: el estático y aquel basado
en diccionario.

El modelo estático lee y codifica utilizando la probabilidad de aparición de cada carácter. Su


forma más simple usa una tabla estática de probabilidades. Generar un árbol de
Huffman completo de los datos tiene un coste computacional significativo; por tanto, no siempre
se genera, sino que en su lugar se analizan bloques representativos de datos, dando lugar a
una tabla de frecuencia característica. A partir de ésta, se genera un árbol de Huffman que se
generaliza al resto de datos, dando lugar a un modelo estático. Pero utilizar un modelo estático
tiene sus limitaciones. Si un flujo de entrada no concuerda bien con la estadística previamente
acumulada, la relación de compresión se degradaría, posiblemente hasta el punto de que el
flujo de datos saliente fuese tan largo como el entrante (o incluso más). Por tanto, la siguiente
mejora obvia fue construir una tabla que se construya conforme se recibe el flujo de entrada.

Ejemplos

 PNG
En compresión de imagen  RLE (run-length encoding)

 RAR
 gzip
En compresión de archivo
 bzip2
 ARJ

 FLAC
En compresión de audio
 Monkey's
Audio

12
4. PROBLEMA 4: Analizar la inteligencia artificial y los algoritmos genéticos,
aplicaciones en la industria de electrónica y telecomunicaciones.
INTELIGENCIA ARTIFICIAL

La inteligencia artificial (Artificial Intelligence, o AI) es la simulación de procesos de


inteligencia humana por parte de máquinas, especialmente sistemas informáticos. Estos
procesos incluyen el aprendizaje (la adquisición de información y reglas para el uso de la
información), el razonamiento (usando las reglas para llegar a conclusiones aproximadas o
definitivas) y la autocorrección. Las aplicaciones particulares de la AI incluyen sistemas
expertos, reconocimiento de voz y visión artificial.

Tipos de inteligencia artificial:

AI puede ser categorizado en cualquier número de maneras, pero aquí hay dos ejemplos.

El primero clasifica los sistemas de AI como AI débil o AI fuerte. La AI débil, también


conocida como AI estrecha, es un sistema de AI que está diseñado y entrenado para una
tarea en particular. Los asistentes personales virtuales, como Siri de Apple, son una forma
de débil de AI.

La AI fuerte, también conocida como inteligencia general artificial, es un sistema de AI con


habilidades cognitivas humanas generalizadas, de modo que cuando se le presenta una
tarea desconocida, tiene suficiente inteligencia para encontrar una solución. La prueba de
Turing, desarrollada por el matemático Alan Turing en 1950, es un método utilizado para
determinar si una computadora puede realmente pensar como un humano, aunque el
método es polémico.

El segundo ejemplo es de Arend Hintze, profesor asistente de biología integradora e


ingeniería y ciencias de computación en la Universidad Estatal de Michigan. Categoriza la
AI en cuatro tipos, desde el tipo de sistemas de AI que existen hoy en día hasta los sistemas
sensitivos, que aún no existen. Sus categorías son las siguientes:

• Tipo 1: Máquinas reactivas. Un ejemplo es Deep Blue, el programa de ajedrez de IBM


que venció a Garry Kasparov en los años noventa. Deep Blue puede identificar piezas en
el tablero de ajedrez y hacer predicciones, pero no tiene memoria y no puede usar
experiencias pasadas para informar a las futuras. Analiza movimientos posibles –los propio
y los de su oponente– y elige el movimiento más estratégico. Deep Blue y AlphaGO de
Google fueron diseñados para propósitos estrechos y no pueden aplicarse fácilmente a otra
situación.

• Tipo 2: Memoria limitada. Estos sistemas de AI pueden usar experiencias pasadas para
informar decisiones futuras. Algunas de las funciones de toma de decisiones en vehículos
autónomos han sido diseñadas de esta manera. Las observaciones son utilizadas para
informar las acciones que ocurren en un futuro no tan lejano, como un coche que ha
cambiado de carril. Estas observaciones no se almacenan permanentemente.

13
• Tipo 3: Teoría de la mente. Este es un término psicológico. Se refiere a la comprensión
de que los demás tienen sus propias creencias, deseos e intenciones que afectan las
decisiones que toman. Este tipo de AI aún no existe.

• Tipo 4: Autoconocimiento. En esta categoría, los sistemas de AI tienen un sentido de sí


mismos, tienen conciencia. Las máquinas con conciencia de sí comprenden su estado
actual y pueden usar la información para inferir lo que otros están sintiendo. Este tipo de AI
aún no existe.

ANALISIS DE LA INTELIGENCIA ARTIFICIAL

La Inteligencia Artificial supone un avance exponencial en la comodidad de las personas,


ya que las máquinas son, cada vez más, más capaces de aprender y de realizar tareas.
Entre otras cosas, por medio de la Inteligencia Artificial, también se podrán mejorar las
técnicas de reconocimiento de los patrones que utilizan los ciberdelincuentes, con lo que
las computadoras podrán detectar a los hackers con malas intenciones todavía más rápido
que las personas.

En los últimos años, el 'malware' ha evolucionado tanto que se han dado casos como el de
'Blackshades', un virus a modo de franquicia del mal. Este sistema de Inteligencia Artificial,
diseñado por un hacker sueco, se instaló en lo más profundo de los sistemas operativos de
miles de ordenadores. El ciberdelincuente creó un programa que cualquiera se podía
descargar para gestionar el virus y conectarse a los micros y webcams de esos miles de
ordenadores.

La investigación generalista en IA está desapareciendo. En este mundo inundado de datos,


esta tecnología es completamente distinta. El coche autónomo de Google o el
superordenador Watson de IBM analizan terabytes de información para tomar decisiones
correctas. Sin embargo, no saben explicar cómo han llegado a ellas

Uno de los mayores problemas en sistemas de inteligencia artificial es la comunicación con


el usuario. Este obstáculo es debido a la ambigüedad del lenguaje, y se remonta a los inicios
de los primeros sistemas operativos informáticos. La capacidad de los humanos para
comunicarse entre sí implica el conocimiento del lenguaje que utiliza el interlocutor. Para
que un humano pueda comunicarse con un sistema inteligente hay dos opciones: o bien
que el humano aprenda el lenguaje del sistema como si aprendiese a hablar cualquier otro
idioma distinto al nativo, o bien que el sistema tenga la capacidad de interpretar el mensaje
del usuario en la lengua que el usuario utiliza.

En un estudio publicado por McKinsey Global Institute, expertos examinaron el papel de la


Inteligencia Artificial (IA) en diversas industrias, entre ellas la educativa. Los analistas
afirman que la implementación exitosa de la IA en la educación dependerá no sólo de
aspectos técnicos, sino también de cuestiones éticas, por ejemplo, la gestión de los datos
privados de los estudiantes.

14
La inteligencia artificial no sólo de pie para ayudar a difundir el uso de recursos renovables
que también lleva a cabo una profunda potencial de las energías tradicionales. Las
industrias de petróleo y gas natural también tienen sus ojos puestos en la IA.

APLICACIONES EN LA ELECTRONICA

Animatrónica e inteligencia artificial

La animatrónica junto con la inteligencia artificial es lo que da como resultado los androides,
como se suele conocer a los robots que imitan el comportamiento humano. Tenemos una
técnica capaz de dotar del aspecto y comportamiento de seres vivos a máquinas. Es decir,
humanizar' a los robots. Pero ya no sólo hablamos que los movimientos sean muy reales,
sino que además, parece real gracias a la piel sintética que han usado y al maquillaje.

Biométricas

Esta tecnología contempla la identificación, medición y análisis de las características físicas


(forma o composición del cuerpo) y de comportamiento de las personas. Esto permite
interacciones más naturales entre humanos y máquinas, incluyendo –pero no limitado a–
reconocimiento de tacto, imagen, habla y lenguaje corporal.

Automatización de procesos robóticos

Esta automatización se da al integrar scripts y otros métodos para imitar y automatizar


tareas humanas que apoyen en los procesos empresariales.

Actualmente utilizado en casos donde resulta muy costoso o ineficiente que los humanos
ejecuten una determinada tarea o proceso.

Eso sí, recordemos que la inteligencia artificial no viene a reemplazar la capacidad humana,
sino a complementarla y a potencializar todo el talento que tienen las personas.

El Área de Electrónica e Inteligencia Artificial, además de realizar investigación aplicada y


desarrollos industriales bajo fórmulas de colaboración técnica o subcontratación, ofrece el
diseño de prototipos, y la fabricación, así como la total gestión de la industrialización del
producto, incluyendo testeo, ensayos, validación y certificación CE.

APLICACIONES EN TELECOMUNICACIONES

Las compañías de telecomunicaciones planean aumentar la inversión en inteligencia


artificial y robótica en un 40%, en promedio, en el corto plazo. Sin embargo, incluso con
este impulso, anual, el gasto aún ascenderá a menos de siete millones de euros, lo que
probablemente será insuficiente para explorar completamente la amplia gama de
aplicaciones que actualmente están disponibles o que estarán disponibles pronto.

La inteligencia artificial (IA) y el análisis predictivo se focalizaron durante mucho tiempo


solamente a la investigación y a las aplicaciones altamente especializadas. Recientemente,

15
han encontrado un uso más generalizado para las aplicaciones de consumo, como por
ejemplo el asistente Siri de Apple. Ahora este tipo de servicios se están comercializando
rápidamente para una variedad de aplicaciones empresariales estándar.

Algunas empresas, en particular los grandes corporativos, se han mostrado reacias en


adoptar servicios de cloud pública. Las preocupaciones sobre seguridad, confiabilidad y
control han llevado a la preferencia por las implementaciones de la nube privada. Esto a su
vez ha significado dejar de lado algunos de los beneficios más fundamentales de la
revolución de la nube: costos drásticamente más bajos, no existen instalaciones para
administrar y algo muy importante escalabilidad y elasticidad ilimitadas.

La Nube pública se convertirá en la opción preferida del mercado

Algunas empresas, en particular los grandes corporativos, se han mostrado reacias en


adoptar servicios de cloud pública. Las preocupaciones sobre seguridad, confiabilidad y
control han llevado a la preferencia por las implementaciones de la nube privada. Esto a su
vez ha significado dejar de lado algunos de los beneficios más fundamentales de la
revolución de la nube: costos drásticamente más bajos, no existen instalaciones para
administrar y algo muy importante escalabilidad y elasticidad ilimitadas.

Estas barreras también han afectado a las Comunicaciones Unificadas como Servicio
(UCaaS): Sólo las empresas muy grandes podrían justificar las implementaciones de una
nube privada por ello es que los proveedores de servicios implementaran su propia nube
privada para la prestación de servicios.

Ahora el impulso de la nube pública está aumentando tanto en las empresas como los
proveedores de servicios. Esto es impulsado principalmente por un cambio en la percepción
sobre la seguridad. Es cada vez más claro que la nube pública es de hecho superior: su
escala permite medidas de seguridad avanzadas y robustas, tanto computacionales como
físicas.

Call Center: la Inteligencia Artificial en las telecomunicaciones

En los call centers, los dispositivos que disponen de IA son los responsables por el análisis
de las llamadas y por el direccionamiento inteligente de las demandas, inclusive en el
seguimiento relacionado a otras máquinas, fortaleciendo el concepto de Máquina a Máquina
(M2M, su siglas en ingles Machine to Machine), transmisión automática y medición de datos
de fuentes remotas realizado por medios como la radio y el cable.

Normalmente, la entrega de las llamadas pasa por cuatro fases:

Analizar el tipo de llamada y encontrar el agente correcto para el cliente;

Acceder a las informaciones de los clientes y comprender los direccionamientos de ultimo


agente que lo atendió;

16
Gestionar rutas dinámicamente: alterar la ruta y realizar la distribución inteligente de
llamadas entre servidores propios y tercerizados;

Optimizar el uso de la fuerza de trabajo, suministrando datos útiles al agente responsable.

Inteligencia artificial y los smartphones

La inteligencia artificial abarca la capacidad programada en las máquinas para que puedan
desempeñar por sí mismas tareas que sólo eran realizadas por los humanos, esta
capacidad además de otorgarles un “pensamiento propio” también los dota de otras
cualidades para que ejecuten su asignación sin errores y en el menor tiempo posible.
Actualmente las telecomunicaciones se apoyan en los avances de la tecnología para
ofrecer novedades de interés y entretenimiento a los internautas

Un ejemplo de esto es la opción de actualización automática de las aplicaciones en los


smartphones, que permite la descarga de nuevo contenido y gracias a esa función puede
ser visualizados desde la foto de una mascota hasta los resultados de una contienda
electoral en pocos segundos. Tampoco se debe dejar de lado las redes de
telecomunicaciones que junto a la inteligencia artificial contribuye a compartir
simultáneamente los contenidos entre varios usuarios interconectados.

Inteligencia artificial y las redes de comunicación

Las aplicaciones de la inteligencia artificial también cubren las redes de comunicación


empresariales pues son utilizadas para adaptar los sistemas de respuestas automatizadas
en sistemas de soporte técnico al público (las conocidas operadoras).

Inteligencia artificial optimiza telecomunicaciones ópticas

Las redes de datos se entienden como la infraestructura física que permite la transmisión
de información a través de, por ejemplo, fibra óptica.

La predicción de eventos en las redes de telecomunicaciones tiene dos ventajas: la primera


permite detectar daños en la infraestructura o ataques externos a la misma red (como la
irrupción de hakers), lo que implica salir avante de ellos.

La segunda ventaja consiste en predecir grandes demandas repentinas de información y


de datos por parte de los usuarios de la red, lo que permite preparar la red por adelantado
garantizando un mayor rendimiento y un mejor servicio.

Como consecuencia directa, es muy importante mencionar que la predicción de eventos y


la preparación temprana por parte de la red, habilitando o deshabilitando subsistemas de
acuerdo con la demanda, permitirá el ahorro energético.

Así lo estableció Neil Guerrero González, profesor de la Universidad Nacional de Colombia


(U.N.) Sede Manizales, quién representó a la Institución en el Comité Científico del mayor

17
congreso de comunicaciones ópticas conocido como OFC (Optical Fiber Conference),
realizado entre el 19 y el 23 de marzo en Los Ángeles, Estados Unidos.

De acuerdo con el docente “optimizar los recursos de infraestructura usados dentro de la


red de telecomunicaciones y disminuir el consumo energético aunado a la utilización de las
redes ópticas son algunas de las principales mejoras en la red de telecomunicaciones”.

El investigador también se refirió a la mejora en la transmisión de datos a velocidades


superiores a 100 gigabits por segundo, utilizando tecnologías basadas en la modulación
directa, que están siendo empleadas para dar soporte a centros de datos, como por ejemplo
los usados por Google.

La otra tendencia tiene que ver con la implementación de modulación y codificación


avanzadas, como formatos multidimensionales y mapeado no uniforme de bits y símbolos
dependiendo de la calidad del canal de transmisión.

ALGORITMO GENETICO

Los Algoritmos Genéticos (AGs) son métodos adaptativos que pueden usarse para resolver
problemas de búsqueda y optimización. Están basados en el proceso genético de los
organismos vivos. A lo largo de las generaciones, las poblaciones evolucionan en la
naturaleza de acorde con los principios de la selección natural y la supervivencia de los más
fuertes, postulados por Darwin (1859). Por imitación de este proceso, los Algoritmos
Genéticos son capaces de ir creando soluciones para problemas del mundo real. La
evolución de dichas soluciones hacia valores óptimos del problema depende en buena
medida de una adecuada codificación de las mismas.

Se aplican tres operadores genéticos: selección, cruzamiento y mutación. La selección


identifica los individuos que van a cruzarse para producir la siguiente generación. Utilizamos
la selección por torneo binario, donde dos individuos son elegidos aleatoriamente de la
población, el que tenga mejor aptitud, gana. Este proceso se repite dos veces con el fin de
seleccionar dos padres. Los individuos se desarrollan hasta que el criterio de paro se
cumple. En nuestro caso, el algoritmo se detiene si la aptitud del mejor individuo encontrado
no mejora en 10 generaciones.

Análisis de algoritmo genético

Tanto las redes sociales como los algoritmos genéticos son herramientas que ya tienen
varias décadas, sin embargo actualmente siguen estando muy vigentes. Por un lado, las
redes sociales permiten analizar un conjunto de personas representando las relaciones
entre ellas. La prioridad del análisis de redes sociales está puesto en las relaciones de las
personas más que en las características específicas de cada individuo. Por otra parte, los
algoritmos genéticos consisten en una estrategia que, usando operadores análogos a los
de la selección natural, filtra y optimiza un conjunto de soluciones inicialmente aleatorio.

18
Este tipo de algoritmos de naturaleza heurística resulta de utilidad para problemas que
involucren un gran caudal de información y un gran conjunto de soluciones posibles.

Se dice que no poseen una buena escalabilidad con la complejidad, por ejemplo para
sistemas que están compuestos por muchas variables, componentes o elementos su
respectivo espacio de búsqueda crece de manera exponencial debido entre otras cosas a
las relaciones que puedan surgir, por lo tanto el problema del diseño de una aeronave debe
desglosarse en representaciones simples, como perfiles aerodinámicos, tomando en
cuenta que la recombinación de los elementos puede perjudicar el rendimiento individual.

No es recomendable utilizarlos para problemas que buscan respuesta a problemas que


convergen en soluciones simples como Correcto/Incorrecto ya que el algoritmo difícilmente
convergerá y el resultado será tan válido como escogerlo al azar.

Para problemas de alta complejidad la función de evaluación puede tornarse demasiado


costosa en términos de tiempo y recursos. Por ejemplo existen casos en la vida real para
los cuales recrear una simulación de la solución propuesta por una iteración puede tardar
muchos días y consumir gran cantidad de procesamiento y recursos asociados.

El diseño, la creación de la función de aptitud (fitness) y la selección de los criterios de


mutación entre otros, necesitan de cierta pericia y conocimiento del problema para obtener
buenos resultados.

Puede haber casos en los cuales dependiendo los parámetros que se utilicen para la
evaluación el algoritmo podría no llegar a converger en una solución óptima o bien terminar
en una convergencia prematura con resultados no satisfactorios (la convergencia prematura
podría significar una convergencia en un óptimo local o punto arbitrario afectando los
resultados a largo plazo).
La "mejor" solución lo es solo en comparación a otras soluciones por lo que no se tiene
demasiado claro un criterio de cuándo detenerse ya que no se cuenta con una solución
específica.

Aplicaciones de algoritmos genéticos en la industria electrónica

En el campo de la Ingeniería Mecatrónica se destacan dos grupos de aplicación de los AG:


la ingeniería de control y la robótica. Para problemas de ingeniería de control, la
sintonización de los valores de comando que controlan un sistema es un problema
frecuente. De una correcta selección de estos valores depende el correcto desempeño de
un sistema, como un robot, un proceso industrial o un sistema mecánico. Los AG son
utilizados (Martínez et al., 2006) como sintonizadores que garantizan la robustez del
sistema de control y determinan un máximo global que garantice el mejor desempeño,
optimizando en compa-ración con aquellos que se sintonizaban de forma tradicional.En el
caso de los sistemas de control basados en redes neuronales (Fiszelew et al., 2002) y
Lógica Fuzzy (Mucientes et al., 2006) se aprovechan los recursos de exploración que
proporcionan los AG para sintonizar adecuadamente sus valores de trabajo. Las redes
neuronales requieren encontrar una arquitectura óptima que les garantice aprender un

19
problema particular, sin embargo su espacio de búsqueda es muy grande. El AG explora
las diferentes estrategias, y selecciona de acuerdo con los parámetros de evaluación la
mejor red.En robótica, las aplicaciones de los AG están en el control de movimiento. Para
un robot móvil, es posible generar trayectorias en función de la topografía del entorno (Kala
et al., 2009 y Castillo & Trujillo, 2005). El AG genera trayectorias válidas en un ambiente
con obstáculos, a través de funcio-nes de evaluación que analicen el diseño de los
trayectos, evaluando su dificultad y la distancia de la trayectoria para favorecer la
minimización de tiempo y uso de energía del vehículo. Kala (2009) incluyó obstáculos en
movimiento (otros robots por ejemplo), esto se logró a través de la generación de
trayectorias entre dos puntos que se interconectaban hasta conformar la trayectoria
general.

Para otras estructuras robóticas, como un robot con piernas (Heinen & Santos, 2006) es
necesario determinar los valores de los parámetros que afectan el caminar, como la
distancia, la inestabilidad, el número de extremidades en contacto con el suelo (si tiene más
de dos piernas), que se convierten en funciones de evaluación. Los investigadores
trabajaron con un software llamado LegGen el cual esta-blece los parámetros de caminata
a través de un ambiente virtual. El software explora a través de un AG los valores que
garanticen una buena caminata. Un trabajo similar (Picado, et al., 2009) establece
trayectorias de movimiento para cada una de las articulaciones del robot, estas trayectorias
están parametrizadas por ecuaciones obtenidas a través de funciones de oscilación de
simple frecuencia, las cuales requieren de parámetros para su calibración. Los AG
determinan los parámetros más ade-cuados para el sistema y garantizan un paso estable,
rápido y poco sensitivo a los disturbio

En otra aplicación robótica, se implementa el AG para determinar las rotaciones de las


articulaciones de un robot antropomórfico que garanticen una correcta localización de un
actuador localizado en la última extremidad (Zacharia & Aspragathos, 2004). El AG
determina una ruta óptima en un sistema de seis grados de libertad tomando en cuenta
múltiples soluciones, para esto aplicaron el problema del Vendedor Viajero (TSP por sus
siglas en inglés), el cual busca la mejor ruta para un vendedor que debe visitar todos los
puntos de un recorrido sin repetirse y regresar a la ciudad de origen. Sin embargo, un
posicionamiento en el espacio de un manipulador presenta restricciones de movimiento y
múltiples respuestas a causa de las N posiciones que puede tener un actuador para
localizarse en determinada posición, el AG evalúa estos dos aspectos para determinar el
individuo que cumpla con las restricciones y además genere la mejor trayectoria de
movimiento. En otro problema de la robótica, como es la cinemática inversa, se implementa
un AG para realizar una búsqueda de los valores de rotación necesarios en cada una de
las articulaciones de un sistema, para alcanzar una posición y orientación del efector
deseada. Los métodos tradicionales como Piper (Goodwine, 2005) permiten encontrar un
conjunto de posiciones en las cuales el sistema cumple las condiciones de posición y
orientación requeridas, sin embargo, esta respuesta no siempre es la más adecuada. Los
AG establecen, a través de parámetros de búsqueda y restricción estos valores (Veslin,

20
2010; Giraldo et al., 2006; Gordillo et al., 2009; Parker & Goldberg, 1989, Tabandel et al.,
2006 y Mar-cos et al, 2009), encontrando así la respuesta más adecuada a la morfología
del robot. El individuo está compuesto por los valores de rotación posibles para cada una
de las articulaciones, en tanto que la función de evaluación son las ecuaciones de
movimiento del sistema, el sistema pondera pesos en función del error de posicionamiento
del efector final y las orientaciones de cada articulación, y al final selecciona aquel que
favorezca la menor desviación respecto a los valores requeridos, la Figura 4 presenta la
tendencia de la respuesta del AG para 100 pruebas respecto a un conjunto de valores
predefinidos, la tendencia del algoritmo es el encontrar una única respuesta con una media
(línea punteada) cercana al valor requerido definido, queda por delante optimizar este
proceso de búsqueda explorando otros operadores naturales.

APLICACION DE ALGORITMOS GENETICOS EN TELECOMUNICACIONES

ALGORITMOS GENÉTICOS Y LA CLASIFICACIÓN DE IMÁGENES

En relación con la utilización de los algoritmos genéticos en el proceso de clasificación de


imágenes, se encuentran tres enfoques. El primero se refiere a la aplicación de estos
algoritmos directamente al proceso de clasificación de imágenes no clasificadas. El
segundo enfoque plantea la aplicación de esta técnica en la extracción (aprendizaje) de
reglas de clasificación sobre imágenes previamente clasificadas por expertos. Un tercer
enfoque utiliza los algoritmos genéticos para generar un nuevo algoritmo clasificador a partir
de la combinación de operadores de bajo nivel aplicables a las imágenes.

En (Larch, 1994) se encuentra un ejemplo del primer grupo, donde se propone un mé- todo
que utiliza algoritmos genéticos para optimizar las reglas usadas en la clasificación de
coberturas en imágenes Landsat. Las reglas optimizadas son obtenidas mediante la
comparación de los resultados de las reglas con datos reales del terreno, usando una
función objetivo que minimiza el número de falsos positivos y falsos negativos. Un ejemplo
del segundo grupo se encuentra en (Quirin, Korczak et al., 2004) en donde se describen
dos sistemas de clasificación aprendida, que pueden ser usados para clasificar imágenes
de percepción remota. Un primer sistema utiliza ICU (Quirin, 2002), que es un sistema de
descubrimiento de reglas que combina un algoritmo genético, una población de reglas de
clasificación que describen las restricciones para cada píxel de los datos, y un conjunto de
métodos usados para la selección de las reglas y la asignación de la exactitud. El segundo
sistema utiliza XCS (Wilson, 1998), en este caso la función de aptitud se basa en la
exactitud de la predicción y en que las cadenas de bits clásicas de los sistemas
clasificadores son reemplazadas por vectores de valores reales (Wilson, 2000). En ambos
casos se trata de la extracción de reglas de clasificación de una imagen previamente
clasificada por expertos, y de la aplicación de dichas reglas a imágenes no clasificadas. Se
habla aquí de la minería de reglas como el proceso de descubrir un conjunto de
clasificadores, donde cada uno de ellos toma como entrada un píxel y devuelve su clase.
En esta categoría cae también el trabajo presentado en (Benton, 1995) donde los algoritmos
genéticos son utilizados para identificar, dentro de un conjunto de píxeles ya clasificados,

21
aquellos que resulten representativos de una categoría de clasificación, y a partir de esta
selección automatizar la labor de clasificación de los píxeles en imágenes similares. Como
muestra del tercer enfoque, se encuentra en (Brumby, 2004) una descripción de una
aplicación llamada Genie, que en lugar de optimizar un único algoritmo, toma varios
algoritmos de procesamiento de imágenes individuales (detección de bordes, medición de
texturas, operaciones espectra- UNIVERSIDAD MILITAR NUEVA GRANADA Ciencia e
Ingeniería Neogranadina, Vol. 17-2, 2007 105 les, filtros morfológicos) como miembros de
la población inicial. Sobre esta población se aplica el algoritmo genético, produciendo un
nuevo algoritmo de clasificación supervisada. Genie está escrito en una mezcla de código
Perl y C, y corre sobre estaciones de trabajo Linux estándar. Adicionalmente, y como un
tema estrechamente relacionado se encuentran varios trabajos sobre clustering con
estrategias evolutivas (Lee and Antonsson, 2000), (Lozano and Larrañaga, 1998). El
clustering es uno de los mecanismos más utilizados en el proceso de clasificación, y
consiste en el agrupamiento de píxeles con valores digitales similares.

Algoritmos Genéticos aplicados a la optimización de antenas

Los algoritmos genéticos son una técnica de optimización global, empleados hoy en día en
el diseño de antenas. En el artículo se definen los principios básicos de estos algoritmos y
se muestran los resultados obtenidos utilizando estos algoritmos en el proceso de diseño y
optimización de tres tipos de antenas, la bocina piramidal, el reflector parabólico y el parche
circular.

Aplicación y evaluación de diferentes algoritmos genéticos canónicos en el diseño eficiente


de redes de radio frecuencia en comunicaciones inalámbricas

La difusión de servicios inalámbricos de comunicación (telefonía, internet, etc) es cada vez


mayor en la actualidad. El costo de los equipamientos necesarios para brindar el servicio
con calidad adecuada es elevado. La selección de un conjunto de puntos geográficos que
permitan una cobertura óptima de una señal de radio frecuencia minimizando uso de
recursos es fundamental. A esta tarea se la denomina diseño de la red de radio y es un
problema NP – duro de optimización, por lo tanto, es factible de ser tratado con
metaheurísiticas. Las metaheurísiticas son métodos que integran procedimientos de mejora
local y estrategias de alto nivel para realizar una búsqueda robusta en el espacio del
problema.

22

You might also like