Videoconferencia

INTRODUCCION.


Los seres humanos estamos visualmente orientados. Desde las paredes de las cavernas en Lascaux, Francia las cuales sirvieron como lienzo para el hombre hace unos 40,000 años, hasta la actual demanda de utilizar interfaces gráficas, "las imágenes no sólo pueden considerarse como el medio de comunicación más efectivo pero contienen una mayor cantidad de información cuando se le compara con las palabras escritas o ideas conceptuales."

En efecto, de acuerdo a los autores David Lewis y James Green, quienes han escrito acerca del mejoramiento de la memoria, dicen que "la mente retiene las imágenes mucho mejor que las palabras, números o conceptos abstractos."

Dada la sofisticación del sistema de la visión humana, la predilección del ser humano por las imágenes es sorprendente, no sólo una gran parte del cerebro esta dedicada a la visión y al análisis visual sino que también la capacidad de transporte de información (el ancho de banda) de nuestro sistema visual es mucho mayor que el de cualquier otro de nuestros sentidos.

De todas las imágenes y pinturas conocidas, el rostro humano es la más importante como fuente de información. Cuando hablamos cara a cara con otra persona, obtenemos mayor información de las expresiones faciales, más que de sus palabras o calidad de voz combinadas.

De hecho, los psicólogos han determinado que cuando hablamos cara a cara, sólo el siete por ciento de lo que es comunicado es transferido por el significado de las palabras. Otro treinta y ocho por ciento proviene de cómo las palabras son dichas. Eso deja al cincuenta y cinco por ciento restante de la comunicación, tomar la forma de señales visuales.

El problema es que en el ambiente global de los negocios de ahora las comunicaciones cara a cara han llegado a ser una práctica costosa, con un alto consumo de tiempo por lo que es, frecuentemente omitida. Se hace uso entonces de medios como el teléfono, el fax o el modem para satisfacer las necesidades de comunicación corporativas. " La videoconferencia ofrece hoy en día una solución accesible a esta necesidad de comunicación, con sistemas que permiten el transmitir y recibir información visual y sonora entre puntos o zonas diferentes evitando así los gastos y pérdida de tiempo que implican el traslado físico de la persona, todo esto a costos cada vez más bajos y con señales de mejor calidad ". Estas ventajas hacen a la videoconferencia el segmento de mayor crecimiento en el área de las telecomunicaciones.

 

CAPITULO 1.- SISTEMAS DE VIDEOCONFERENCIA.


1.1. DEFINICIÓN DE VIDEOCONFERENCIA.

Al sistema que nos permite llevar a cabo el encuentro de varias personas ubicadas en sitios distantes, y establecer una conversación como lo harían si todas se encontraran reunidas en una sala de juntas se le llama sistema de "videoconferencia".

Como sucede con todas las tecnologías nuevas, los términos que se emplean no se encuentran perfectamente definidos. La palabra "Teleconferencia" esta formada por el prefijo "tele" que significa distancia, y la palabra "conferencia" que se refiere a encuentro, de tal manera que combinadas establecen un encuentro a distancia.

En los Estados Unidos la palabra teleconferencia es usada como un término genérico para referirse a cualquier encuentro a distancia por medio de la tecnología de comunicaciones; de tal forma que frecuentemente es adicionada la palabra video a "teleconferencia" o a "conferencia" para especificar exactamente a que tipo de encuentro se esta haciendo mención. De igual forma se suele emplear el término "audio conferencia" para hacer mención de una conferencia realizada mediante señales de audio.

El término "videoconferencia" ha sido utilizado en los Estados Unidos para describir la transmisión de video en una sola dirección usualmente mediante satélites y con una respuesta en audio a través de líneas telefónicas para proveer una liga interactiva con la organización.

En Europa la palabra teleconferencia se refiere específicamente a las conferencias o llamadas telefónicas, y la palabra "videoconferencia" es usada para describir la comunicación en dos sentidos de audio y video. Esta comunicación en dos sentidos de señales de audio y de video es lo que nosotros llamaremos "videoconferencia".

Existen algunos términos que pueden crear confusión con respecto a videoconferencia, como puede ser el término "televisión interactiva"; esté término ha sido empleado para describir la interacción entre una persona y un programa educativo previamente grabado en un disco compacto (Láser disc) pero no requiere de la transmisión de video.

Durante el desarrollo de este tema, se habrá de utilizar el término "videoconferencia" para describir la comunicación en doble sentido ó interactiva entre dos puntos geográficamente separados utilizando audio y video.

La videoconferencia puede ser dividida en dos áreas:

Videoconferencia Grupal o Videoconferencia sala a sala con comunicación de video comprimido a velocidades desde 64 Kbps (E0, un canal de voz) hasta 2.048 mbps (E1, 30 canales de voz) y,

Videotelefonía, la cual está asociada con la Red Digital de Servicios Integrados mejor conocida por las siglas "ISDN" operando a velocidades de 64 y 128 Kbps. Esta forma de videoconferencia esta asociada a la comunicación personal o videoconferencia escritorio a escritorio. Durante el desarrollo de éste y los siguientes capítulos, se utilizará el término videoconferencia haciendo referencia al modo grupal o sala a sala.

1.2. HISTORIA DE LA VIDEOCONFERENCIA.

El interés en la comunicación utilizando video ha crecido con la disponibilidad de la televisión comercial iniciada en 1.940. Los adultos de hoy han crecido utilizando al televisor como un medio de información y de entretenimiento, se han acostumbrado a tener un acceso visual a los eventos mundiales más relevantes en el momento en que estos ocurren. Nos hemos convertido rápidamente en comunicadores visuales. Es así, que desde la invención del teléfono, los usuarios han tenido la idea de que el video podría eventualmente ser incorporado a éste.

AT&T presentó en 1.964 en la feria del comercio mundial de Nueva York un prototipo de videoteléfono el cual requería de líneas de comunicación bastante costosas para transmitir video en movimiento, con costos de cerca de mil dólares por minuto. El dilema fue la cantidad y tipo de información requerida para desplegar las imágenes de video.

Las señales de video incluyen frecuencias mucho más altas que las que la red telefónica podía soportar (particularmente las de los años 60's). El único método posible para transmitir la señal de video a través de largas distancias fue a través de satélite. La industria del satélite estaba en su infancia entonces, y el costo del equipo terrestre combinado con la renta de tiempo de satélite excedía con mucho los beneficios que podrían obtenerse al tener pequeños grupos de personas comunicados utilizando este medio.

A través de los años 70's se realizaron progresos substanciales en muchas áreas claves, los diferentes proveedores de redes telefónicas empezaron una transición hacia métodos de transmisión digitales. La industria de las computadoras también avanzó enormemente en el poder y velocidad de procesamiento de datos y se descubrieron y mejoraron significativamente los métodos de muestreo y conversión de señales analógicas (como las de audio y video) en bits digitales.

El procesamiento de señales digitales también ofreció ciertas ventajas, primeramente en las áreas de calidad y análisis de la señal; el almacenamiento y transmisión todavía presenta obstáculos significativos. En efecto, una representación digital de una señal analógica requiere de mayor capacidad de almacenamiento y transmisión que la original. Por ejemplo, los métodos de video digital comunes de fines de los años 70 y principios de los 80 requirieron de relaciones de transferencia de 90 megabits por segundo. La señal estándar de video era digitalizada empleando el método común PCM (Modulación por codificación de pulsos) de 8 bits, con 780 pixeles por línea, 480 líneas activas por cuadro de las 525 para NTSC(Netware Transmisión System Codification) y con 30 cuadros por segundo.

La necesidad de una compresión confiable de datos digitales fue crítica. Los datos de video digital son un candidato natural para comprimir, debido a que existen muchas redundancias inherentes en la señal analógica original; redundancias que resultan de las especificaciones originales para la transmisión de video y las cuales fueron requeridas para que los primeros televisores pudieran recibir y desplegar apropiadamente la imagen.

Una buena porción de la señal de video analógica esta dedicada a la sincronización y temporización del monitor de televisión. Ciertos métodos de compresión de datos fueron descubiertos, los cuales eliminaron enteramente esta porción redundante de información en la señal, con lo cual se obtuvo una reducción de la cantidad de datos utilizados de un 50% aproximadamente, es decir, 45 mbps, una razón de compresión de 2:1. Las redes teléfonicas en su transición a digitales, han utilizado diferentes relaciones de transferencia, la primera fue 56 Kbps necesaria para una llamada telefónica (utilizando métodos de muestreo actuales), enseguida grupos de canales de 56 Kbps fueron reunidos para formar un canal de información más grande el cual corría a 1.5 mbps (comúnmente llamado canal T1). Varios grupos de canales T1 fueron reunidos para conformar un canal que corría a 45 mbps (ó un "T3"). Así usando video comprimido a 45 mbps fue finalmente posible, pero todavía extremadamente caro, transmitir video en movimiento a través de la red telefónica pública. Estaba claro que era necesario el comprimir aún más el video digital para llegar a hacer uso de un canal T1 (con una razón de compresión de 60:1), el cual se requería para poder iniciar el mercado. Entonces a principios de los 80's algunos métodos de compresión hicieron su debut, estos métodos fueron más allá de la eliminación de la temporización y sincronización de la señal, realizando un análisis del contenido de la imagen para eliminar redundancias. Esta nueva generación de video codecs (COdificador/DECodificador ), no sólo tomó ventajas de la redundancias, si no también del sistema de la visión humana. La razón de imágenes presentadas en el video en Norte América es de 30 cuadros por segundo, sin embargo, esto excede los requerimientos del sistema visual humano para percibir movimiento. la mayoría de las películas cinematográficas muestran una secuencia de 24 cuadros por segundo. La percepción del movimiento continuo puede ser obtenida entre 15 y 20 cuadros por segundo, por tanto una reducción de 30 cuadros a 15 cuadros por segundo por sí misma logra un porcentaje de compresión del 50 %. Una relación de 4:1 se logra obtener de esta manera, pero todavía no se alcanza el objetivo de lograr una razón de compresión de 60:1.

Los codecs de principios de los 80's utilizaron una tecnología conocida como codificación de la Transformada Discreta del Coseno ( abreviado DCT por su nombre en inglés). Usando esta tecnología DCT las imágenes de video pueden ser analizadas para encontrar redundancia espacial y temporal. La redundancia espacial es aquella que puede ser encontrada dentro de un cuadro sencillo de video, "áreas de la imagen que se parecen bastante que pueden ser representadas con una misma secuencia". La redundancia temporal es aquella que puede ser encontrada de un cuadro de la imagen a otro " áreas de la imagen que no cambian en cuadros sucesivos". Combinando todos los métodos mencionados anteriormente, se logró obtener una razón de compresión de 60:1.

El primer codec fue introducido al mercado por la compañía Compression Labs Inc. (CLI) y fue conocido como el VTS 1.5, el VTS significaba Video Teleconference System, y el 1.5 hacia referencia a 1.5 mbps ó T-1. En menos de un año CLI mejoró el VTS 1.5 para obtener una razón de compresión de 117:1 (768 Kbps), y renombró el producto a VTS 1.5E. La corporación británica GEC y la corporación japonesa NEC entraron al mercado lanzando codecs que operaban con un T-1 (y debajo de un T-1 si la imagen no tenia mucho movimiento). Ninguno de estos codecs fueron baratos, el VTS 1.5E era vendido en un promedio de $180.000 dólares, sin incluir el equipo de video y audio necesarios para completar el sistema de conferencia, el cual era adquirido por un costo aproximado de $70.000 dólares, tampoco incluía costos de acceso a redes de transmisión, el costo de utilización de un T-1 era de aproximadamente $1.000 dólares la hora.

A mediados de los 80's se observó un mejoramiento dramático en la tecnología empleada en los codecs de manera similar, se observó una baja substancial en los costos de las medios de transmisión. CLI(Compression Labs Inc) introdujo el sistema de video denominado Rembrandt los cuales utilizaron ya una razón de compresión de 235:1 (384 Kbps). Entonces una nueva compañía, Picture Tel (originalmente PicTel Communications), introdujo un nuevo codec que utilizaba una relación de compresión de 1600:1 (56 Kbps). PictureTel fue el pionero en la utilización de un nuevo método de codificación denominado Cuantificación jerárquica de vectores (abreviado HVQ por su nombre en inglés). CLI lanzó poco después el codec denominado Rembrandt 56 el cual también operó a 56 Kbps utilizando una nueva técnica denominada compensación del movimiento. Al mismo tiempo los proveedores de redes de comunicaciones empleaban nuevas tecnologías que abarataban el costo del acceso a las redes de comunicaciones. El precio de los codecs cayeron casi tan rápido como aumentaron los porcentajes de compresión.

En 1990 los codecs existentes en el mercado eran vendidos en aproximadamente $30.000 dólares, reduciendo su costo en más del 80 %, además de la reducción en el precio se produjo una reducción en el tamaño. El VTS 1.5E medía cerca de 5 pies de alto y cubría un área de 2 y medio pies cuadrados y pesaba algunos cientos de libras. El Rembrandt 56 media cerca de 19 pulgadas cuadradas por 25 pulgadas de fondo y pesó cerca de 75 libras.

El utilizar razones de compresión tan grandes tiene como desventaja la degradación en la calidad y en la definición de la imagen. Una imagen de buena calidad puede obtenerse utilizando razones de compresión de 235:1 (384 kbps) ó mayores.

Los codecs para videoconferencia pueden ser encontrados hoy en un costo que oscila entre los $25.000 y los $60.000 dólares. La razón de compresión mayor empleada es de 1600:1 (56 Kbps), ya que no existe una justificación para emplear rangos de compresión aún mayores, puesto que utilizando 56 Kbps, el costo del uso de la red telefónica es aproximado el de una llamada telefónica. El emplear un canal T-1 completo cuesta aproximadamente $50 dólares por hora. Esto ha permitido que los fabricantes de codecs se empleen en mejorar la calidad de la imagen obtenida utilizando 384 kbps ó mayores velocidades de transferencia de datos. Algunos métodos de codificación producen imágenes de muy buena calidad a 768 Kbps y T-1 que es difícil distinguirla de la imagen original sin compresión. Algunos paquetes de equipo de audio y video creados específicamente para aplicaciones de videoconferencia pueden adquirirse entre $15,000 y $42.000. Un sistema completo para videoconferencia tiene un costo que oscila entre los $40.000 y $100.000 dólares.

1.3. APLICACIONES DE LA VIDEOCONFERENCIA.

La baja sustancial registrada en los equipos de videoconferencia, así como también el abaratamiento y disponibilidad de los servicios de comunicación han hecho que la industria de videoconferencia sea la de mayor crecimiento en el mercado de teleconferencias.

Con las videoconferencias, una reunión crítica toma sólo unos cuantos minutos en organizar. Además previenen errores y están siempre disponibles. Gracias a ellas, la información está siempre fresca , exacta y a tiempo. Cancelar una reunión importante, adelantarla o aplazarla es muy fácil, eliminándose de esta manera los problemas que esto podría traer al tener que cancelar compra de pasajes a última hora, o reservar vuelos anteriores, etc.

Actualmente la mayoría de compañías innovadoras del primer mundo utilizan las videoconferencias para:

Enseguida se dan algunos ejemplos específicos de como se ha aplicado la videconferencia en algunas de las áreas antes mencionadas:

1.3.1. Grupos de trabajo divididos:

El Departamento de la Defensa de Estados Unidos y la industria Aerospacial han manejado el desarrollo de sistemas de armas muy complejas involucrando cooperaciones múltiples con agencias del Departamento de defensa a través de un sistema de seguridad de videoconferencia. La corporación Boing estima haber ahorrado 30 días de costo en el desarrollo del 757 utilizando un sistema de videoconferencia entre el departamento de ingeniería y los grupos de producción.

1.3.2. Viaje Internacional en una Crisis:

La guerra del Golfo en 1991 introdujo a algunas corporaciones internacionales a valorar la videoconferencia cuando el viaje es difícil o peligroso. Algunos ejecutivos utilizaron sistemas de videoconferencia para manejar operaciones transnacionales durante la guerra.

1.3.3. Educación y Capacitación:

Aprendizaje a distancia, el uso de videoconferencia para impartir educación y capacitación corporativa directamente en el lugar de trabajo ha sido la aplicación más exitosa y de mayor crecimiento de la videoconferencia. La Universidad de Minnesota esta impartiendo un curso de Maestría en Educación utilizando videoconferencia, y afirma que los beneficios institucionales obtenidos con el uso de la videoconferencia al impartir este curso son entre otros, el incremento en la población estudiantil que recibe los cursos, reducción en la demanda de salones de clase, reducción en los costos de operación y organización de los cursos. El Instituto Politécnico Nacional de México, instala actualmente un sistema de videoconferencia con 8 sistemas con los cuales se desea hacer llegar a un mayor número de estudiantes, profesores e investigadores, conferencias, cursos de postgrado, cursos de maestría y especialización de la propia institución y de instituciones educativas extranjeras reconocidas.

Al instalar este tipo de servicio en nuestro instituto, comenzarían a eliminarse una serie de métodos obsoletos, que lastimosamente se utilizan, y se producirían profundos cambios en la sociedad y en las distintas disciplinas del conocimiento, los cuales serían ventajosos tanto para los estudiantes como para las instituciones educativas, al recibir un nivel muy alto de conocimientos en el primer caso, y al brindar un excelente servicio a sus alumnos, en el segundo.

Todas estas ventajas mencionadas anteriormente, se pueden resumir en los siguientes dos puntos:

1.3.3.1 Para el Instituto Italia:

1.3.3.2 Para los estudiantes

1.4. POR QUÉ SE NECESITA LAS VIDEOCONFERENCIAS EN EL I.S.T.I ?

En los albores del nuevo milenio, la enseñanza en un instituto superior debe contar con instalaciones modernas y su gente debe saber aprovechar la tecnología para estar en capacidad de competir. Así mismo como la educación en el siglo XX ha requerido bibliotecas de consulta, técnicas y materiales audiovisuales, proyectores de diapositivas, de transparencias y de opacos, uso de computadores locales, etc. Actualmente los medios de apoyo y enseñanza ya no son locales ni estáticos, están en cualquier lugar del mundo, pero se hacen presentes instantáneamente al mágico conjuro de la tecnología, viajando a través de medios muy diversos, a velocidades cercanas a la de la luz. La potencia que se ha puesto así al alcance de nuestras manos, es de una riqueza y complejidad tan increíble, que no podemos imaginar sin haberla experimentado y es difícil que la aprovechemos si no nos hemos preparado para ello.

Una de las herramientas tecnológicas utilizadas en el primer mundo, muy necesarias actualmente en la labor docente, es la videoconferencia. La implantación de ésta tecnología como parte de la formación académica de los estudiantes del I.S.T.I, a más de factible, es indispensable y debe ser aprovechada en la mejor forma.

El propósito con nuestro trabajo, es presentar al instituto una propuesta clara, concreta y aplicable, para poder utilizar el sistema de videoconferencias como un medio de impartir y recibir capacitación, transmitir conocimientos e intercambiar información de manera interactiva, segura y confiable, mediante la conexión a internet y los recursos existentes en el I.S.T.I

Pensamos que a las puertas del siglo XXI, es indispensable introducir tanto a los estudiantes como a los profesores, en este método de enseñanza moderno y efectivo, mediante el cual no van a permanecer pasivos y callados, sino que podrán interactuar directamente con personalidades reconocidas en cada tema, sin tener la necesidad de trasladarse a otro sitio, ciudad o país para lograrlo

El Instituto Superior " ITALIA " no puede permanecer con los brazos cruzados al ver que el nuevo milenio se acerca y trae consigo un cargamento inagotable de nuevas tecnologías que pueden ser fácilmente aplicables para mejorar el nivel de educación que actualmente se brinda a los estudiantes. Es necesario empezar a conocer más a fondo acerca de éstas e iniciar el proceso de " modernización educativa " , adquiriendo lo antes posible aquellas opciones que sean de fácil aplicación y que ayuden a mejorar, tanto la imagen como el servicio que brinda el instituto, cosa que no está de más mencionar, " es su obligación ".

En función de todo lo mencionado anteriormente, la pregunta que se plantea no es si hay que usar las videoconferencias en nuestro instituto, sino cuando empezar a hacerlo.

 

1.5. ELEMENTOS BÁSICOS DE UN SISTEMA DE VIDEOCONFERENCIA.

Para fines de estudio y de diseño los sistemas de videoconferencia suelen subdividirse en tres elementos básicos que son:

A su vez la sala de videoconferencia se subdivide en cuatro componentes esenciales: el ambiente físico, el sistema de video, el sistema de audio y el sistema de control.

A continuación se describe brevemente cada uno de los elementos básicos de que consta un sistema de videoconferencia.

1.5.1 La red de comunicaciones.

Para poder realizar cualquier tipo de comunicación es necesario contar primero con un medio que transporte la información del transmisor al receptor y viceversa o paralelamente (en dos direcciones). En los sistemas de videoconferencia se requiere que este medio proporcione una conexión digital bidireccional y de alta velocidad entre los dos puntos a conectar. Las razones por las cuales se requiere que esta conexión sea digital, bidireccional y de alta velocidad se comprenderán más adelante al adentrarnos en el estudio del procesamiento de las señales de audio y video.

El número de posibilidades que existen de redes de comunicación es grande, pero se debe señalar que la opción particular depende enteramente de los requerimientos del usuario.

Es importante hacer notar que, como se observa en la figura 1 el círculo que representa al CODEC no toca al que representa a la red, de hecho existe una barrera que los separa la que podemos denominarle como una interface de comunicación, esto es para representar el hecho de que la mayoría de los proveedores de redes de comunicación solamente permiten conectar directamente equipo aprobado y hasta hace poco la mayoría de los fabricantes de CODECs no incluían interfaces aprobadas en sus equipos.

Figura 1 Elementos básicos de un sistema de videoconferencia.

1.5.2 La Sala de Videoconferencia.

La sala de videoconferencia es el área especialmente acondicionada en la cual se alojará el personal de videoconferencia, así como también, el equipo de control, de audio y de video, que permitirá el capturar y controlar las imágenes y los sonidos que habrán de transmitirse hacia el(los) punto(s) remoto(s).

El nivel de confort de la sala determina la calidad de la instalación. La sala de videoconferencia perfecta es la sala que más se asemeja a una sala normal para conferencias; aquellos que hagan uso de esta instalación no deben sentirse intimidados por la tecnología requerida, más bien deben sentirse a gusto en la instalación. La tecnología no debe notarse o debe de ser transparente para el usuario.

1.5.3 El Codec

Las señales de audio y video que se desean transmitir se encuentran por lo general en forma de señales analógicas, por lo que para poder transmitir esta información a través de una red digital, ésta debe de ser transformada mediante algún método a una señal digital, una vez realizado esto se debe de comprimir y multiplexar estas señales para su transmisión. El dispositivo que se encarga de este trabajo es el CODEC (Codificador/Decodificador) que en el otro extremo de la red realiza el trabajo inverso para poder desplegar y reproducir los datos provenientes desde el punto remoto. Existen en el mercado equipos modulares que junto con el CODEC, incluyen los equipos de video, de audio y de control, así como también equipos periféricos como pueden ser:

1.6. ESTANDARES E INTEROPERABILIDAD DE LOS SISTEMAS DE VIDEOCONFERENCIA.

El mercado estuvo restringido por muchos años porque las unidades de fax manufacturadas por diferentes vendedores no eran compatibles. Es claro que la explosión que ahora experimentamos esta directamente relacionada a el estándar desarrollado por el grupo 3 del Comité Consultivo Internacional para la Telefonía y Telegrafía (CCITT), el cual hace posible que las unidades de fax de diferentes fabricantes sean compatibles.

Algo similar ocurrió con la videoconferencia/videoteléfono. El mercado de la videoconferencia punto a punto estuvo restringido por la falta de compatibilidad hasta que surgió la recomendación de CCITT H.261 en 1990, con lo que el mercado de la videoconferencia ha crecido enormemente. Hay otros tres factores que han influido en este crecimiento, el primero es el descubrimiento de la tecnología de videocompresión, a partir de la cual, el estándar está basado. Mediante la combinación de las técnicas de la codificación predictiva, la transformada discreta del coseno (DCT), compensación de movimiento y la codificación de longitud variable, el estándar hace posible el transmitir imágenes de TV de calidad aceptable con bajos requerimientos de ancho de banda, anchos de banda que se han reducido lo bastante para lograr comunicaciones de bajo costo sobre redes digitales conmutadas.

El segundo factor que ha influido es el desarrollo de la tecnología VLSI(Very Large System Integration), la cual redujo los costos de los codecs de video. Ahora en el mercado se encuentran chips mediante los cuales se pueden implantar las tecnologías DCT y de compensación de movimiento, partes del estándar.

El tercer factor es el desarrollo de ISDN (Integrated Services Data Network; Red Digital de Servicios Integrados), la cual promete proveer de servicios de comunicaciones digitales conmutados de bajo costo. El acceso básico de ISDN consiste de dos canales full dúplex de 64 Kbps denominados canales B y un canal también full dúplex de 16 Kbps denominado D.

El estándar H.261 está basado en la estructura básica de 64 Kbps de ISDN. Esta da nombre al título de la recomendación H.261 "Video Codec para servicios audiovisuales a PX64 Kbps". Aunque tomará varios años para que ISDN esté disponible globalmente, los video codecs que cumplen con el estándar H.261 pueden ya operar sobre las redes de comunicaciones actualmente disponibles.

La CCITT es una parte de la Organización de la Naciones Unidas, y su propósito es el desarrollo formal de "recomendaciones" para asegurar que las comunicaciones mundiales sean establecidas eficiente y efectivamente.

La CCITT trabaja en ciclos de 4 años, y al final de cada periodo un grupo de recomendaciones es publicado.

Los libros "rojo" y "azul" que contienen estas recomendaciones fueron publicados en 1984 y 1988 respectivamente. En el libro rojo de 1984 fueron establecidas las primeras recomendaciones para codecs de videoconferencia (la H.120 y H.130). Estas recomendaciones fueron definidas específicamente para la región de Europa (625 líneas; 2.048 Mbps, ancho de banda primario) y para la interconexión entre Europa y otras regiones. Debido a que no existían recomendaciones para las regiones fuera de Europa, la CCITT designó un "grupo de especialistas en Codificación para Telefonía Visual" con el fin de desarrollar una recomendación internacional. La CCITT estableció dos objetivos para el grupo de especialistas:

  1. Desarrollar una recomendación para un video codec para aplicaciones de videoconferencia que operará a NX384 Kbps y
  2. Empezar un proceso de estandarización para el video codec de videoconferencia/video teléfono que operara a MX64 Kbps. El resultado fue una sola recomendación que se aplica a los rangos desde 64 Kbps hasta 2 Mbps, utilizando PX64 Kbps.

En 1989, un diverso número de organizaciones en Europa, EUA y Japón desarrollaron codec flexibles para encontrar una especificación preliminar de la recomendación. Varios sistemas fueron interconectados en los laboratorios y a través de largas distancias para poder validar la recomendación. Estas pruebas resultaron exitosas y apareció entonces una versión preliminar de la recomendación H.261 en el libro azul de CCITT. Sin embargo, esta versión estaba incompleta, la versión final de la recomendación fue aprobada en diciembre de 1990.

Actualmente, la mayoría de los fabricantes ofrecen algoritmos de compresión que cumplen con los requisitos especificados en la norma CCITT H.261, y ofrecen también en el mismo codec, algoritmos de compresión propios. La norma CCITT H.261 proporciona un mínimo común denominador para asegurar la comunicación entre codecs de diferentes fabricantes.

A continuación se enlistan cuáles son las recomendaciones de la CCITT que definen a las comunicaciones audio visuales sobre redes digitales de banda angosta.

Servicios

Equipo Terminal Audio Visual:

Punto a punto.

Multipunto

Seguridad

A continuación se enlistan cuales son las recomendaciones de la CCITT que definen las comunicaciones audiovisuales sobre ISDN de banda ancha (B-ISDN).

Estándares ISO para almacenamiento y utilización de material audiovisual (MPEG).

Estándar ISO para compresión de imágenes fijas (JPEG).

1.7 PERSPECTIVAS DE LA VIDEOCONFERENCIA.

Mientras que los requerimientos de transmisión para todos los niveles de comunicaciones de datos se han venido abajo, los mejoramientos en la tecnología de compresión han producido video de calidad con requerimientos de ancho de banda menores. El crecimiento del mercado de la videoconferencia ha sido centrado en estos requerimientos mínimos asociados con el crecimiento de los servicios públicos digitales. En 1.992 existían cerca de 8.000 sistemas de videoconferencia grupal instalados en todo el mundo, tres cuartas partes tan sólo en los Estados Unidos. El crecimiento de esta cantidad esta cerca del 50% por año. Las tecnologías que se avistan en el horizonte como el videoteléfono y computadoras que incluyen dispositivos de videoconferencia, continuarán introduciendo el video digital comprimido dentro de nuestras actividades diarias. Es un campo creciente y excitante lleno de nuevas oportunidades.

El videoteléfono 2500 de AT&T presentado en 1.992 es el primer videoteléfono disponible comercialmente que opera sobre una línea telefónica estándar. Valuado en $1.500, este sistema de video a color tiene resolución y aplicaciones limitadas. Videoteléfonos de mayor capacidad basados en el servicio telefónico de la Red digital de Servicios Integrados (abreviado ISDN por su nombre en inglés) con un costo de $5.000 dólares ó más, presentan una mejor calidad de video en color y una resolución de imágenes parecidas a las que se observan en la televisión comercial.

La evolución de las videocomunicaciones ha traído el video al escritorio y finalmente hasta la casa. Esta combinación de video y computadoras ha sido llamada de diferentes maneras, multimedia, producción de video de escritorio, telecomputadora o videoconferencia de escritorio. Todas involucran, en varios niveles, la conversión de video a datos, su manipulación en una forma digital y su conversión de vuelta a video para su despliegue. Las videocomunicaciones se están desplazando desde la sala especial hacia el escritorio y el vehículo que acelera este desplazamiento es la microcomputadora. Para los ejecutivos de negocios, su terminal conectada localmente por una red de área local de banda ancha y a través del mundo utilizando video comprimido hace posible el contar con una ventana con video en tiempo real en la pantalla de su computadora.

Los equipos de videoconferencia personal no han alcanzado el nivel óptimo de la relación existente entre la utilidad que se obtiene al adquirir un equipo y el costo de adquirirlo, como ha sucedido con los equipos de videoconferencia grupal. Para el caso de la videoconferencia grupal, la tendencia es hacia el abaratamiento de los costos de los propios sistemas, reducción de los requerimientos de ancho de banda, de las dimensiones de los equipos requeridos, de los costos de instalación y de las condiciones mínimas necesarias para operación, así como también el incremento en la calidad del video.

CAPITULO 2.- LA SUPER AUTOPISTA DE LA INFORMACION E INTERNET.


2.1 QUE ES INTERNET?

La Internet es una comunidad internacional de usuarios que están interconectados a través de una red de redes de telecomunicaciones que hablan el mismo protocolo de comunicaciones.

    1. ANTECEDENTES

Comenzó con una red denominada Arpanet que estaba patrocinada por el Departamento de Defensa de Estados Unidos. La Arpanet fue reemplazada y ampliada, y hoy sus descendientes forman la arteria principal de lo que llamamos la Internet. Lo maravilloso y útil de la Internet tiene que ver con la información misma.

La Internet permite comunicarse y participar a millones de personas en todo el mundo. Nos comunicamos enviando y recibiendo correo electrónico, estableciendo una conexión con la computadora de otra persona y tecleando mensajes de forma interactiva.

Se puede compartir información participando en grupos de discusión y utilizando muchos de los programas y fuentes de información que están disponibles de forma gratuita.

Aprender a utilizar la Internet es embarcarse en una gran aventura. Se introduce en un mundo en el que personas de muy diferentes países y culturas cooperan desinteresadamente compartiendo de forma generosa su información y conocimientos. Comparten su tiempo, su esfuerzo, y sus productos.

La Internet es mucho más que una red de computadoras o un servicio de información. La Internet es la demostración de aquellas personas que puedan comunicarse de forma libre y conveniente, serán más sociales y generosas. Las computadoras son importantes porque hacen el trabajo sucio de llevar los datos de un sitio para otro, y ejecutar los programas que nos facilitan el acceso a la información. La información en sí misma, es importante, por que nos es útil, nos recrea y entretiene. Pero, sobre todo, lo más importante es la gente. La Internet es el primer foro general y la primera biblioteca general. Cualquiera puede participar, a cualquier hora la Internet nunca cierra, más aún, no importa quién sea, siempre será bienvenido.

La Internet no tiene leyes, ni policía, ni ejército. No hay forma real de herir a otra persona, y por el contrario, hay muchas formas de ser generoso. (Aunque esto no impide a la gente discutir.) Lo que nosotros preferimos creer es que, por primera vez en la historia, un número ilimitado de personas puede comunicarse con facilidad, y que hemos encontrado nuestra naturaleza para ser comunicativos, útiles, curiosos y considerados.

2.3 COMO UTILIZAR INTERNET.

Utilizar la Internet significa sentarse delante de la pantalla de su computadora y acceder a la información. Puede estar en el trabajo, en la escuela, o en la casa, utilizando cualquier tipo de computadora como ejemplo una sesión típica puede comenzar comprobando el correo electrónico. Puede leer sus mensajes, contestar aquellos que requieran una respuesta y, quizás, enviar algún mensaje a un amigo en otra ciudad. Puede leer unos cuantos artículos en alguno de los grupos mundiales de discusión. Después de dejar los grupos de discusión, puede entretenerse con algún juego, o leer una entrevista electrónica, o buscar alguna información en otra computadora en cualquier país. Esto es lo que significa usar la Internet.

2.4 SERVICIOS IMPORTANTES PROPORCIONADOS POR INTERNET.

El software que sustenta la Internet proporciona un gran número de servicios técnicos sobre los que todo se construye. La mayoría de estos servicios funcionan ocultos, y no hay que preocuparse de ellos. No obstante, hay cuatro servicios de Internet sobre los que debemos hablar, existen muchos recursos de Internet disponibles que dependen de estos servicios.

2.5 CORREO ELECTRONICO.

Un usuario de Internet, puede enviar y recibir mensajes de cualquier otro usuario de Internet. Más aún, puede enviar mensajes a otros sistemas de correo. Sin embargo, correo electrónico no significa solamente mensajes personales.

Cualquier cosa que se pueda almacenar en un archivo de texto puede ser enviado por correo electrónico: programas (fuente) de computadora, anuncios, revistas electrónicas, etc. Cuando se necesite enviar un archivo binario que no se puede representar como texto habitual, como programas de computadora compilados o imágenes gráficas, existen facilidades de codificar los datos del texto. De igual forma, una vez que se reciben mensajes codificados, es posible decodificarlos para guardarlos con su formato original. Por eso, se puede enviar por correo electrónico cualquier tipo de archivo a cualquier persona. El sistema de correo electrónico de Internet es la columna vertebral de la red.

2.6 CONEXIÓN REMOTA.

Se puede hacer telnet a cualquier computadora remota de Internet. Una vez que se ha establecido la conexión, se puede utilizar esa computadora en la forma habitual (si se posee una cuenta válida).

El nombre de una cuenta de usuario se denomina identificador de usuario (userid). La palabra secreta que se debe introducir, se llama palabra clave (password). Si se posee un identificador de usuario y palabra clave válidos, se puede conectar con cualquier computadora de Internet.

Muchos servicios de Internet permiten a cualquier usuario conectarse la cuenta especial guest. Por ejemplo, en los Estados Unidos, existe un sistema que proporciona información meteorológica de todo el País. Cualquier persona puede conectar con este sistema y comprobar cuál será el tiempo para el fin de semana.

2.7 WORLD WIDE WEB.

El servicio WorldWide Web a menudo llamado "Web" es una herramienta basada en hipertexto que permite recuperar y mostrar información basada en búsquedas por palabras clave. Lo que hace al servicio WorldWide Web tan potente es la idea de hipertexto: datos que contienen enlaces a otros datos. Por ejemplo, cuando se esté leyendo alguna información, aparecerán ciertas palabras y frases marcadas de una forma especial.

Se puede decir a Web que seleccione una de estas palabras. Siguiendo el enlace, encontrará la información relevante y la mostrará. De esta forma, se puede saltar de un sitio a otro, siguiendo los enlaces lógicos en los datos.

2.8 LISTAS DE CORREOS.

Una lista de correo es un sistema organizado en el que un grupo de personas reciben y envían mensajes sobre un tema en particular. Estos mensajes pueden ser artículos, comentarios, o cualquier cosa relacionada con el tema en cuestión.

Todas las listas de correo tienen una persona que se ocupa de mantenerlas. Es posible subscribirse o eliminarse de esa lista, enviando un mensaje a la dirección apropiada. Muchas listas de correo están "moderadas", lo que significa que alguien decide qué mensajes se envían a la lista de correos y cuáles no.

2.9 QUE ES PROTOCOLO?

Un protocolo es una serie de reglas que describen, técnicamente, cómo deben hacerse determinadas tareas. Por ejemplo, hay un protocolo que describe exactamente el formato que debe tener un mensaje. Todos los programas de correo de Internet seguirán este protocolo cuando preparen un mensaje para su entrega.

2.9.1 Qué es TCP/IP?

Para terminar este capítulo y nuestra visión global de Internet, necesitamos hablar unos momentos sobre TCP/IP. Como sabemos, Internet está construída sobre una colección de redes que recorren el mundo. Estas redes conectan diferentes tipos de computadoras, y de alguna manera, algo debe mantenerlas a todas unidas. Ese algo es TCP/IP.

Los detalles de TCP/IP son profundamente técnicos y están muy lejos del interés de nosotros, pero hay unas cuantas ideas básicas que debemos entender. Para garantizar que los diferentes tipos de computadoras pueden trabajar juntas, los programadores crean sus programas utilizando protocolos estándar. TCP/IP es el nombre común de una colección de más de 100 protocolos que nos permiten conectar computadoras y redes.

El nombre "TCP/IP" proviene de los dos protocolos más importantes: TCP (Transmission Control Protocol, Protocolo de Control de Transmisión) e IP (Internet Protocol, Protocolo Internet). Aunque no es necesario conocer los detalles, será muy útil tener una idea de cómo funcionan y cuál es su misión de Internet:

Dentro de Internet, la información no se transmite como una cadena continua de caracteres de host a host. Mejor que esto, los datos se transmiten en pequeños trozos de información llamados paquetes. Por ejemplo, supongamos que enviamos un mensaje de correo electrónico muy extenso a un amigo al otro lado del país.

TCP dividirá este mensaje en paquetes. Cada paquete se marca con un número de secuencia y con la dirección del destinatario. Además, TCP inserta determinada información de control de errores. Estos paquetes se envían a la red, donde el trabajo de IP es transportarlos hasta el host remoto. En el otro extremo, TCP recibe los paquetes y comprueba si hay errores. Si encuentra algún error, TCP pide que el paquete en cuestión le sea reenviado. Una vez que todos los paquetes se han recibidos de forma correcta, TCP utilizará los números de secuencia para reconstruir el mensaje original.

En otras palabras, el trabajo de IP es transportar los datos en bruto, los paquetes de un lugar a otro. El trabajo de TCP es manejar el flujo de datos y asegurarse que éstos son concretos. Partir los datos en paquetes tiene varios beneficios importantes:

Primero, permite utilizar en Internet las mismas líneas de comunicación a varios usuarios diferentes al mismo tiempo. Puesto que los paquetes no tienen que viajar juntos, una línea de comunicación puede transportar tantos tipos de paquetes como ella pueda de un lugar a otro. Piense en una carretera en la que muchos coches viajan en un mismo sentido aunque se dirijan a lugares diferentes. En su camino, los paquetes son dirigidos de host en host hasta que encuentra su último destino. Esto significa que la Internet tiene una gran flexibilidad. Si una conexión en particular está fuera de servicio, las computadoras que controlan el flujo de datos, puede encontrar normalmente una ruta alternativa. De hecho, es posible que dentro de una misma transferencia de datos, varios paquetes sigan rutas distintas. Esto también significa que, cuando las condiciones cambian, la red puede usar la mejor vía disponible en ese momento. Por ejemplo, cuando parte de una red comienza a saturarse, los paquetes pueden redirigirse sobre otra línea menos ocupada. Otra ventaja de utilizar paquetes es que, cuando algo va mal, sólo tiene que ser retransmitido un paquete, en lugar del mensaje completo. Esto incrementa de forma importante la velocidad de Internet. Toda esta flexibilidad redunda en la gran fiabilidad. De una forma u otra, TCP/IP asegura que entrega los datos de forma correcta. En realidad, la Internet funciona tan bien que pueden pasar sólo unos segundos en enviar un archivo desde un host a otro, aunque estén a miles de kilómetros de distancia y que todos los paquetes deban pasar a través de múltiples computadoras. Aunque hay varias respuestas a la pregunta. "Qué es TCP/IP?" La respuesta técnica es que TCP/IP es una gran familia de protocolos que se utilizan para organizar las computadoras y dispositivos de comunicaciones en una red. Los dos protocolos más importantes son TCP e IP (Internet Protocol)¨, los cuales aseguran que todo funciona correctamente. La mejor respuesta, sin embargo, es que la Internet depende de miles de redes y millones de computadoras, y TCP/IP es el pegamento que mantiene todo unido.

2.10 DIRECCIONES ESTANDAR DE INTERNET.

En Internet, la palabra dirección se refiere siempre a una dirección electrónica, no a una dirección postal. Si un usuario le pide su "dirección", lo que quiere saber es su dirección Internet. Todas las direcciones Internet tienen la misma forma: el identificador de usuario de la persona, seguido del carácter @ (arroba), seguido del nombre de la computadora. (Cada computadora en Internet tiene un único nombre.) Aquí tiene un ejemplo:

[email protected]

En este caso, el identificador de usuario es harley, y el nombre de la computadora es fuzzball.ucsb.edu. Como muestra el ejemplo, nunca debe haber espacios en blanco en una dirección. Cada persona tiene un nombre de usuario llamado identificador de usuario. Este es el identificador de usuario que se utiliza como primera parte de la dirección de una persona. Si se trabaja con un sistema Unix, su identificador de usuario será el nombre con el que conecta en esa máquina. La parte de la dirección que sigue del carácter @ se llama dominio. En este caso, el dominio es fuzzball.ucsb.edu. Por lo tanto, el formato general de una dirección Internet es:

identificador_de_usuario@dominio

Un identificador de usuario por si solo no necesariamente será único. Por ejemplo, dentro de toda Internet, habrá probablemente un gran número de personas que tendrán la suerte de tener como nombre de usuario harley. Sin embargo, la combinación de identificador de usuario y dominio debe ser única. Por lo tanto, aunque habrá muchos harley en Internet, solamente puede haber uno con este identificador de usuario en la computadora llamada fuzzball.ucsb.edu.

Si se lee una dirección Internet, se verá que siempre incluirá el signo @. Por ejemplo, para enviar correo electrónico a la persona cuya dirección es la que hemos visto anteriormente, se utilizará la orden:

mail [email protected]

Cuando pruebe esta orden, puede decirse a usted mismo, "Estoy enviando correo electrónico a harley, que es un usuario de la computadora fuzzball.ucsb.edu". Habitualmente, expresar el nombre de la computadora de esta forma se denomina nombre por dominios totalmente calificado (fullyqualyfied domain name o FQDN).

CAPITULO 3. APLICACIÓN PRACTICA


3.1 Equipo necesario para realizar una videoconferencia a través de Internet.

Los equipos necesarios y su funcionamiento respectivo para realizar una videoconferencia a través de vía Internet se encuentran referenciados en el capítulo 6 literales 6.2 Requerimientos de Software y Hardware y 6.4 Proceso de Videoconferencias a través de Internet.

3.2 Descripción gráfica.

3.3 Equipo necesario para realizar una videoconferencia a través de vía TV VideoPhone.

Para realizar una videoconferencia a través del sistema vía TV VideoPhone necesitamos el siguiente equipo:

Cable de poder

Cable coaxial.

3.4 Descripción práctica de la instalación.

Nota: Esta misma configuración debe ser tomada en cuenta en el punto audiovisual remoto.

3.5 Funcionamiento general.

Una vez instalado y en funcionamiento el sistema en los dos puntos audiovisuales se procede a realizar la videoconferencia:

Supongamos que un usuario desea comenzar a comunicarse a través del sistema éste deberá tomar el teléfono y marcar el código (número telefónico) asignado por el equipo hacia el punto remoto, una vez establecida la comunicación con el punto remoto éste enviará vídeo captado por la cámara y el audio captado mediante el micrófono del teléfono hacia el punto origen, el cual receptará la información audiovisual a través del televisor, y viceversa.

Debemos tomar en cuenta que la información que envía la cámara hacia el televisor se realiza mediante los equipos VC5055 y VCR que son equipos cuyo funcionamiento es la de transformar las señales digitales en analógicas y viceversa; también controla el retardo que existe al enviar las señales de vídeo cuyo objetivo es la de sincronizar al audio del teléfono con el vídeo para que la recepción de la información audiovisual sea observada y escuchada por todos los participantes en tiempo real.

3.6 Descripción gráfica.

CAPITULO 4. ELEMENTOS DE UN SISTEMA DE PROCESAMIENTO DE IMAGENES


4.1Modelo de Imagen Simple

Consideremos una situación simple en la que la orientación de una superficie no juega ningún papel, por ejemplo un grupo de círculos en el que dentro de cada uno se refleja la luz de la misma forma (ver figura 4.1). Este tipo de escena recibe el nombre de Mondrian en honor del pintor holandés Cornelis Mondrain que a comienzos del siglo veinte pintaba cuadros con estas características.

Figura 4.1: Un Mondrian formado por regiones de color constante

En una situación de este tipo, la radiancia de la escena, que se nota l(x,y), se caracteriza por dos componentes: (1) la cantidad de luz que incide en la escena que se está observando y (2) la cantidad de luz que reflejan los objetos en la escena. Estos conceptos reciben el nombre de irradición y reflectancia y se notan e(x,y) y r(x,y) respectivamente. Su producto define l(x,y), es decir

donde

Las ecuaciones anteriores indican que la reflectancia está acotada por 0 (absorción total) y 1 (reflectancia total). La naturaleza de c(x,y) se determina por la fuente de luz y r(x,y) lo determina la característica del objeto.

Algunos ejemplos típicos son los siguientes. En un día claro la iluminación puede ser de 9000 candelas en la superficie de la Tierra y menor que 1000 en un día nublado. La luna puede producir 0.01 candelas de iluminación. En cuanto a la reflactancia 0.01 es el

número correspondiente a terciopelo negro, 0.65 le corresponde a acero inoxidable, 0.80 para las paredes blancas, 0.93 para la nieve, etc.

Es obvio que una pregunta a la que necesitamos dar respuesta es qué relación existe entre la radiancia en un punto de un objeto (radiación de la escena) L y la irradiancia en el correspondiente punto de la imagen captada (irradiación de la imagen) E. Si d es el diámetro de la lente y f es la distancia al plano de la imagen, puede probarse que (ver figura 1.2)

Donde

Es el ángulo del rayo desde el objeto hasta el centro de la lente.A lo largo de este capítulo usaremos f para notar el nivel de gris observado.

Figura 4.2: De escena 3-D a la imagen 2-D

4.2 Formación de la Imagen

Supongamos que un objeto tridimensional o escena es convertido en una imagen 2-D mediante un sistema de grabación como una cámara (ver figura 1.3). Los sistemas de grabación no son perfectos e introducen distorsiones estadísticas y determinísticas.

 

 

Figura 4.3: Captación de Imagen

 

Notaremos por ƒ(i,j) y g(i,j) la imagen original sin distorsiones y la imagen observada, ruidosa y emborronada, respectivamente. Un modelo general de formación de imágenes consta de las partes siguientes

Función de Emborronamiento o psf

 

Transformación

 

 

 

Proceso de Ruido

 

Donde S{.} representa una función no lineal, d(i,j,m,n) es la respuesta del sistema de emborronamiento a un impulso bidimensional en la posición (i,j),

 

 

 

denota el proceso de ruido, y

representa una operación punto a punto.

4.3 Algunas Relaciones Básicas Entre Píxeles

En esta sección vamos a considerar varias relaciones simples aunque importantes entre los píxeles de una imagen digital. Como mencionamos antes, una imagen se nota mediante ƒ(x,y). Para píxeles particulares usaremos letras minúsculas como p y q. Un subconjunto de píxeles de ƒ(x,y) se nota S.

 

 

 

4.4 Transformaciones de Imágenes

En este tema analizaremos algunas transformadas discretas de señales e imágenes, así como algunas de sus aplicaciones. La teoría de las transformaciones ha jugado, y juega, un papel fundamental en el procesamiento de imágenes por su descripción alternativa de una imagen y por ser una herramienta para realizar operaciones como la resolución de ecuaciones lineales. Ambos conceptos serán tratados en este tema. Es muy importante tener en cuenta la enorme aplicación de las transformaciones de imágenes en campos como la restauración, codificación, mejora, segmentación, etc.

Aunque el material de este tema trata fundamentalmente del desarrollo de transformaciones bidimensionales y sus aplicaciones, algunos conceptos serán introducidos a partir de funciones unidimensionales.

 

4.5 Transformada de Fourier. Caso Continuo.

Series de Fourier

Consideremos una función ƒ(t) definida sobre la recta real y consideremos ahora, de nuevo, la función

esta función tiene como transformada de Fourier

que recibe el nombre de serie de Fourier. Observemos además que la función Fs(u) es periódica de período 2.

4.6 Ejemplo de la transformada de Fourier

Una vez estudiada la transformada de Fourier veamos algunos ejemplos de espectros de funciones así como alguna de sus propiedades. La figura 4.4 muestra lo que le ocurre a la transformada de Fourier cuando la imagen es rotada.

Figura 4.4: De izquierda a derecha y de arriba a abajo. Imagen y su espectro de potencias, la misma imagen rotada y su espectro de potencias.

 

Ejemplo de una aplicación en procesamiento de imágenes

/* suponemos que existen los include correspondientes

donde están definidas, entre otras cosas, las funciones que usamos */

#define MAXSIZE 256

float g[MAXSIZE*MAXSIZE],

prior [MAXSIZE*MAXSIZE],

blur[MAXSIZE*MAXSIZE];

float complexblur[MAXSIZE*MAXSIZE*2],

complexg[MAXSIZE*MAXSIZE*2];

main(argc,argv)

int argc;

char **argv;

{

/* Habremos declarado las variables que necesitemos */

/* En g tenemos la imagen observada y en blur el emborronamiento */

/* suponemos que g y blur tienen el mismo tama\~no */

/* las dimensiones son nr2 (filas) y nc2 (columnas) ambos

potencias de 2 */

/* por tanto */

dim[0]=nr2;

dim[1] =nc2;

size = nc2*nr2;

real2complex(blur,complexblur,size);

real2complex(g,complexg,size);

fourn(complexblur-1,dim-1,2,-1);

fourn(complexg-1,dim-1,2,-1);

cal_coefprior (prior, nc2, nr2);

complex_rest(complexg,complexim,complexblur,prior,lambda,nc2,nr2);

fourn(complexim-1,dim-1,2,1);

complex2real(complexim, g, size);

mult_image(g, g, 1.0/size, size);

}

void complex_rest(complexim,complexrest,complexblur,prior,lambda,nc2,nr2)

float *complexim, *complexrest, *complexblur, *prior, lambda;

int nc2,nr2;

/* Calculates in the frequence domain

* blur^{t}(complexim)/(lambda*prior + blur^{t}blur)

* We assume that blur is complex, so it comes in complex format,

*/

{

int i, size = nr2*nc2;

float *p1,*p2, *p3, *p4, aux, re1, re2, im1, im2, re, im;

for(i=0,p1=complexim,p2=complexrest,p3=complexblur,p4=prior;

i<size; i++,p1+=2,p3+=2,p4++){

re1 = *p1;

re2 = *p3;

im1 = *(p1+1);

im2 = *(p3+1);

re = re1 * re2 + im1 * im2 ;

im = - re1*im2 + re2*im1 ;

aux = 1.0/((re2*re2 + im2*im2) + lambda*(*p4));

*p2++= aux * re;

*p2++= aux * im;

}

}

 

void cal_coefprior(prior, nc2, nr2)

float *prior ;

int nc2,nr2;

/* Calculates the fourier transform of the prior model.

*/

{

float *p1;

int i,j, size=nr2*nc2;

double pi2;

float coc1, coc2;

pi2 = 8 * atan(1.0);

coc1 = pi2 / nr2;

coc2 = pi2 / nc2;

for(i = 0, p1 = prior; i < nr2; i++)

for(j=0;j<nc2;j++)

*p1++= 1.0-0.5*(cos(i*coc1)+cos(j*coc2));

}

void real2complex (realmatrix, complexmatrix, size)

float *realmatrix, *complexmatrix;

int size;

/* convert the real image realmatrix to complex format.

* the assumed size of realimage is size, so complexmatrix

* should be size*2.

*/

{

int i;

float *p1, *p2;

for (i = 0, p1 = realmatrix, p2 = complexmatrix; i < size; i++){

*p2++ = *p1++;

*p2++ = 0.0;

}

}

void complex2real (complexmatrix, realmatrix, size)

float *complexmatrix, *realmatrix;

int size;

/* copies the real part of the complex matrix complexmatrix to

* realimage, size is the size of realimage.

* complexmatrix is stored in the format, real part, i part, .....

* See the book "recipes in C" for details.

*/

 

{

int i;

float *p1, *p2;

for (i = 0, p1 = realmatrix, p2 = complexmatrix; i < size; i++){

*p1++ = *p2++;

p2++;

}

}

void mult_image (destination, source, factor, size)

float *destination, *source, factor;

int size;

/* Multiplies source by factor and

* copies the result in destination.

* the assumed size of both images is

* size.

*/

{

int i;

float *p1, *p2;

for (i=0,p1=destination,p2=source; i<size; i++)

*p1++ = *p2++ * factor;

}

 

4.7 Restauración de Imágenes

En el campo del análisis de imágenes, éstas son procesadas para mostrar o extraer información útil para el problema que estemos resolviendo. Como ya sabemos, debido a las imperfecciones en su proceso de captación las imágenes observadas son versiones degradadas de la imagen original. Esta degradación, que fue examinada anteriormente, es debida por una parte al emborronamiento y por otra al proceso de ruido.

El campo de la restauración de imágenes se dedica a la estimación de la imagen original, la imagen sin corrupción que ha dado lugar a la imagen degradada. Básicamente este proceso es el inverso del sistema de formación de la imagen. En este tema veremos los modelos más simples de restauración de imágenes y el uso de la transformada de Fourier para estimar la imagen original.

 

4.7.1 Restauración sin condiciones, Filtrado Inverso.

Como dijimos al principio del tema el objetivo de la restauración de imágenes es estimar la imagen original f, dada una imagen degradada g y algún conocimiento sobre la matriz de emborronamiento D y el ruido

Supuesto el modelo

El objetivo, es buscar un estimador de la imagen original que haga mínima una determinada función. La primera idea en que puede pensarse es definir el estimador de la imagen original,

 

Si la matriz inversa de D existe, tendremos que

 

4.7.2 Restauración con restricciones

Cuando la inversa no existe o bien debido al proceso de ruído la estimación es inestable y no realista, la solución del sistema anterior requiere que introduzcamos restricciones en la solución que buscamos, estas restricciones suelen tener la forma de cotas superiores sobre las derivadas primera o segunda.

4.8 Mejora de Imágenes

El principal objetivo de las técnicas de mejora de imágenes es procesar una imagen dada de forma que la imagen resultante sea más apropiada que la imagen original para unas aplicaciones específicas. Es importante destacar el término ``específico'' ya que establece que las técnicas que veremos en este tema estarán muy orientadas a aplicaciones concretas. Así por ejemplo, un método que es muy útil para mejorar imágenes de rayos X puede no ser la mejor aproximación para mejorar las imágenes de Marte transmitidas por un transbordador.

Mejora Mediante Procesamiento Puntual

Podría decirse que este tipo de transformaciones son operaciones de memoria cero, en el sentido de no tener en cuenta información local. Un nivel de gris

Ampliación de Contraste

Las imágenes con poco contraste aparecen a menudo debido a iluminación pobre o no uniforme o a la no linealidad o pequeño rango dinámico de los sensores de las imágenes.

4.9 Diferencia y Promedio de Imágenes

La diferencia entre dos imágenes ƒ(x,y) y g(x,y) viene expresada por

Esta técnica tiene numerosas aplicaciones en segmentación y realce.

Supongamos que el valor del ruido

en cada pixel es una variable aleatoria con media cero y desviación típica

Es decir, tenemos el modelo

para todo i,j. El resultado de realizar el promedio sobre n imágenes distintas de la misma escena sería

Lo que ocurre es que ahora la desviación típica del ruido es

Por tanto si tenemos n imágenes de la misma escena, podemos obtener una nueva versión de la imagen original con menos ruido mediante la fórmula del estimador de la desviación estándar para la mejora de imágenes.

4.10 Filtros de Alisamiento

Los filtros de alisamiento se usan con el objetivo de emborronar o para reducir el ruido. El emborronamiento es usado como preprocesamiento para suprimir detalles pequeños antes de la extracción de objetos usualmente grandes, también puede usarse para unir segmentos.

4.11 Filtros de Realce

El objetivo principal del realce es destacar los detalles finos de una imagen o mejorar detalles que han sido emborronados, bien por errores o por problemas en la adquisición de la imagen.

4.12 Mejora en el Dominio de las Frecuencias

El fundamento de las técnicas basadas en el dominio de las frecuencias es el teorema de convolución. Este teorema dice que si g(x,y) es la imagen formada por la convolución de la imagen ƒ(x,y) y un operador lineal invariante h(x,y), es decir,

entonces por el teorema de convolución, se verifica la siguiente relación en el dominio de las frecuencias

donde G,H y F son las transformadas de Fourier de g,h y f respectivamente.

Muchos problemas de mejora de imágenes pueden ser formulados como sigue, dado ƒ(x,y), una vez calculado F(u,v) el objetivo es seleccionar H(u,v) de forma que la imagen deseada

muestra algunos rasgos de interés de ƒ(x,y). Por ejemplo, bordes en la imagen ƒ(x,y) pueden ser acentuados usando una función que enfatice las frecuencias altas de F(u,v).

h(x,y) caracteriza un sistema cuyo objetivo es producir una imagen de salida g(x,y) a partir de una imagen de entrada ƒ(x,y). El sistema realiza la convolución de h(x,y) con la imagen de entrada y produce el resultado. El teorema de convolución permite dar una nueva interpretación al proceso, en el sentido de que se puede alcanzar el mismo resultado si multiplicamos F(u,v) por H(u,v) para producir G(u,v). Calculando la transformada de Fourier inversa de la salida, produce la imagen deseada.

Supongamos por un momento que h(x,y) es desconocido y que aplicamos una función de impulso unitario (es decir, un punto de luz) al sistema. La transformada de Fourier del impulso unidad es simplemente uno, y por tanto tenemos

por tanto la transformada inversa de G(u,v) es h(x,y). Este resultado es bien conocido en la teoría de los sistemas lineales: un sistema lineal invariante por traslaciones se especifica completamente por su respuesta a un impulso.

Es importante notar que la mejora de imágenes no coincide con el problema de la restauración de las mismas, aunque su formulación podría resultar muy similar.

Tal y como acabamos de discutir, la mejora en el dominio de las frecuencias es, en principio, directa. Simplemente calculamos la transformada de Fourier de la imagen que queremos mejorar, multiplicamos el resultado por una función de transferencia, un filtro, y calculamos la transformada de Fourier inversa para producir la imagen mejorada.

4.13 GEOMETRIA DE IMAGENES

Estudiaremos ahora como se forman las imágenes 2-D a partir de las escenas tridimensionales. Entender la formación de imágenes es un prerequisito para entender completamente los métodos de recuperar información 3-D a partir de imágenes. Si entendemos el proceso por el cual el mundo 3-D (una escena) se proyecta en el mundo 2-D (una imagen) comprenderemos dos aspectos fundamentales de la formación de imágenes:

4.14 Perspectiva por Proyección.

Consideremos un agujero diminuto ideal (ojo de aguja) a una distancia fija delante del plano de la imagen. Supongamos que idealmente sólo la luz que viene a partir del ojo de la aguja puede alcanzar el plano de la imagen. Puesto que la luz viaja en línea recta, cada punto en la imagen corresponde a una dirección particular definida por un rayo desde el punto a través del ojo de la aguja.

Definimos el eje óptico, en este caso simple, como la perpendicular, a través del ojo de la aguja, al plano de la imagen. Introducimos un sistema de coordenadas con el origen en el ojo de la aguja y el eje z alineado con el eje óptico y apuntando hacia la imagen. Es importante tener en cuenta que con esta orientación los puntos hacia los que mira la cámara tienen componente z negativa.

Queremos ahora calcular dónde aparecerá la imagen P´ del punto P que está sobre un objeto enfrente de la cámara. Supondremos que no existe ningún otro objeto en el rayo que une P y el ojo de la aguja O. Sea P (x,y,z)t el vector que une P y O y r´= (x´,y´, ƒ´) el que une O y P´.

Si el rayo que conecta P y P´ forma un ángulo:

con el eje óptico tendremos

Donde:

es el vector unitario en la dirección del eje óptico. Es importante recordar que los puntos delante de la cámara tienen componente z negativa. Además

de modo que

lo que en componentes significa:

El mismo modelo puede obtenerse cuando el plano z=0 se sitúa en el plano de la imagen.

4.15 Proyección Ortográfica.

Consideremos la proyección de perspectiva donde el plano de la imagen se encuentra en z=0, el ojo de la aguja en z=f y el plano de la escena en z=z, con f > z. En ese caso las ecuaciones de la proyección de perspectiva serían, observemos que en este caso las imágenes no salen invertidas,

obviamente la z proyectada tiene z=0 en todos los casos. Observemos que cuando f tiende a infinito tenemos que x = x´ y y = y´ . Llamaremos perspectiva con distorsión a la que aplica (x,y,z) en (ƒx/( ƒ-z), ƒy/( ƒ-z), ƒz/( ƒ-z)).

Esta transformación recibe el nombre de proyección ortográfica cuando el ojo de la aguja está a distancia infinito en la dirección de z.

La perspectiva con distorsión produce un objeto tridimensional al que se le ha quitado la forma, cuanto más lejano del ojo de la aguja esté más pequeño se verá.

Observemos que en los modelos que hemos descrito hemos perdido la información sobre el eje z. Es claro que para recuperarla necesitamos al menos dos imágenes distintas, desde diferentes ángulos, del mismo objeto.

CAPITULO 5.-EL CODEC DE VIDEOCONFERENCIA


5.1. EL CODEC DE VIDEOCONFERENCIA

La palabra codec significa Codificador/Decodificador. El codec codifica las entradas de audio, vídeo y datos del usuario, y las combina o multiplexa para su transmisión en forma de una cadena digital de datos a una sala de videoconferencia remota. Cuando el codec recibe las cadenas de datos digitales provenientes del punto remoto, separa o demultiplexa el audio, el vídeo y los datos de información del usuario, y decodifica la información de tal manera que puede ser vista, escuchada ó dirigida hacia un dispositivo periférico de salida situado en la sala de conferencia local.

Este ha sido el rol dominante de un codec desde la década de los ochenta y continúa siendo su responsabilidad primordial en la mayoría de los sistemas de videoconferencia de hoy.

El sistema de distribución de vídeo se ha movido hacia dentro del codec, junto con el sistema de control central, mezclador de audio, amplificador y cancelador de eco. Así mismo, las cámaras, micrófonos, bocinas y paneles de control continúan estando fuera del codec, pero se conectan directamente a él.

Ante toda esta gama de posibilidades que intervienen en el diseño de un codec, es necesario asegurar la compatibilidad hacia los equipos de otros fabricantes, compatibilidad que debe de considerarse también cuando se desee adquirir un equipo de videoconferencia.

Durante este capítulo, se describirá solamente al codec de vídeo, componente principal del codec de videoconferencia, que se encuentra definido por la recomendación H.261 ó PX64.

5.2. EL ESTÁNDAR H.320 UNA INTRODUCCION A PX64.

En Diciembre de 1990, la CCITT finalizó una serie de cinco recomendaciones (H.261, H.221, H.242, H.230 y H.320), las cuales definen en conjunto a una terminal audiovisual para proveer los servicios de vídeo teleconferencia (VTC) y videotelefonía (VT), sobre la Red Digital de Servicios Integrados (ISDN). Debido a que el bloque básico de construcción de ISDN es un canal básico operando a 64 Kbps , el término genérico "PX64 Kbps" se refiere a la operación de estas terminales con valores integrales de P con un máximo de 30 kbps. (los valores de P de mayor interés son 1, 2, 6, 12, 24 y 30 kbps).

La recomendación de CCITT H.320 define la relación entre las cinco recomendaciones como se muestra en la figura 5-1. Entre las funciones de la recomendación H.320 se encuentran la definición de las fases del establecimiento de una llamada en un teléfono visual y la definición de 16 tipos diferentes de terminales audiovisuales y de sus respectivos modos de operación.

Figura 5-1 Estándar H.320

5.3. EL ESTÁNDAR H.261.

Si la señal estándar de vídeo fuera digitalizada empleando el método común PCM (Modulación por codificación de pulsos) de 8 bits, se requeriría de un ancho de banda de aproximadamente 90 Mbps para su transmisión.

Las tecnologías de videocompresión se emplean para reducir este valor a los valores primarios (1.544 Mbps y 2.048 Mbps), o a valores básicos (64 Kbps o múltiplos de estos como 384 Kbps). La función de compresión es ejecutada por un vídeo codec (COdificador, DECodificador), H.261 es recomendada para los codecs de videoconferencia.

La figura 5-2 es el diagrama a bloques de un codec de vídeo como lo define la recomendación H.261.

Figura 5-2 Diagrama a bloques de un codec de vídeo.

5.4. Componentes principales de Vídeo Codec según el estándar H.261.

5.4.1. Codificador Fuente: El corazón del sistema es el codificador fuente el cual comprime el vídeo que se introduce evitando las redundancias inherentes de la señal de TV.El codificador fuente opera sobre imágenes basadas en un formato intermedio común (CIF) que emplean 625 líneas y 50 Hz de velocidad de cuadros. Surgió después un segundo formato denominado QCIF (un cuarto de CIF). Los parámetros de CIF y QCIF se definen en la tabla 5-1.

Tabla 5-1 Parámetros CIF y QCIF.

El formato QCIF, que emplea la mitad de la resolución espacial del formato CIF en direcciones vertical y horizontal, es el formato principal para H.261. El formato CIF es opcional. Esta anticipado que QCIF será empleado para aplicaciones de videoteléfono donde imágenes de cabeza y hombros son envíados, mientras que el formato CIF será utilizado para videoconferencias donde diversas personas deberán ser vistas en una sala de conferencia. Para el estándar H.261 se adoptó un método de compresión de vídeo híbrido, el cual incorpora principalmente una técnica de predicción dentro de las imágenes para evitar redundancias temporales y la codificación de la transformada para reducir la redundancia espacial. El decodificador cuenta con la capacidad de compensar el movimiento.

5.4.2. Estructura de la imagen: En el proceso de codificación, que se realiza dentro del codificador fuente, cada imagen es dividida en grupos de bloques (GOB), la imagen CIF es dividida en 12 GOB mientras que la imagen QCIF es dividida en solo 3 GOB. Cada GOB es entonces dividido en 33 macrobloques, (ver la figura 5-3). El encabezado del macrobloque define la localización del macrobloque dentro del GOB, el tipo de codificación ha ser ejecutada, los vectores de movimiento posibles y cuáles bloques dentro de los macrobloques serán codificados. Existen dos tipos básicos de codificación: intra e inter. En la codificación intra, la codificación es ejecutada sin referencia a las imágenes previas. Cada macrobloque deberá ser ocasionalmente intracodificado, para controlar la acumulación de error de acoplamiento en la transformada inversa. El tipo de codificación más común es el inter, en el cual solamente la diferencia entre la imagen previa y la actual es codificada. Por supuesto para áreas de imagen sin movimiento, el macrobloque no tiene que ser codificado del todo. Cada macrobloque es dividido a su vez en seis bloques (ilustrado en la figura 5-3). Cuatro de los bloques representan la luminancia o brillantez (Y), mientras que los otros dos representan las diferencias de color de rojo y azul (Cr y Cb respectivamente). Cada bloque mide 8 X 8 pixeles, así que puede verse que la resolución de color es la mitad de la resolución de la luminancia en ambas dimensiones. Cada bloque típicamente tiene energía esparcida en todos sus elementos.

Figura 5-3 Subdivisiones en un GOB y en un macrobloque.

5.4.3. El Multiplexor de Video: El multiplexor combina los datos comprimidos con otro tipo de información que indica los modos alternos de operación. El multiplexor esta dimensionado en una estructura jerárquica con cuatro capas: la capa de imagen, capa de grupo de bloques (GOB), Macrobloques (MB) y Bloques.

Un diagrama de sintaxis del codificador multiplexor de video se muestra en la figura5-4.

Figura 5-4 Diagrama de sintaxis para el codificador multiplexor de vídeo.

Capa de Macrobloques: Cada GOB es dividido en 33 macrobloques. Un macrobloque relaciona a 16 pixeles por 16 líneas de Y (luminancia) y a 8 pixeles por 8 líneas para los componentes de crominancia rojo y azul.

5.4.4. Buffer de Transmisión: Un buffer de transmisión es empleado para suavizar los cambios en las variaciones de la velocidad de transmisión del codificador fuente para adaptarlo a un canal de comunicaciones con velocidades variables.

5.4.5. Codificador de Transmisión: El codificador de transmisión incluye funciones de control de error para preparar la señal para el enlace de datos.

Cuando se opera con CIF el número de bits creados al codificar cualquier imagen sencilla no deberá exceder 256 Kbits. K = 1024. Cuando se opera con QCIF el número de bits creados por la codificación de cualquier imagen sencilla no deberá exceder 64 K bits. La contabilidad de bits no incluye los bits de corrección de error, Indicador de llenado (Fi), bits de llenado o información de corrección de error de paridad.

Los datos de vídeo deberán ser provistos en cada ciclo de reloj válido. Esto puede asegurarse por el uso de el bit indicador de llenado (Fi) ó el llenado subsecuente de bits con valor 1 en el bloque de corrección de error, o también mediante el relleno de MBA o ambos.

5.4.6. Retardo en la codificación del vídeo.

Esta característica esta incluida en la recomendación debido a que el retardo en el codificador y decodificador de vídeo necesita ser conocido para permitir la compensación en el retardo cuando H.261 es utilizada para formar parte de un servicio convencional. Esto permitirá mantener la sincronización de los labios.

5.4.7. Corrección de errores para la señal de vídeo codificada.

La cadena de bit transmitida contiene un código de corrección de errores de trama, el cual consiste de una multitrama de 8 tramas, cada trama comprende un bit de trama , 1 bit de indicador de llenado (Fi), 492 bits de datos codificados (ó llenados todos con 1s) y 18 bits de paridad. El patrón de alineación de la trama es:

(S1S2S3S4S5S6S7S8) = (00011011)

El indicador de llenado (Fi) puede ser puesto en cero por un codificador. En este caso, solamente los 492 bits de llenado (todos con valor 1) mas los bits de paridad son enviados y no son transmitidos los datos codificados.

5.5. ESTÁNDARES RELACIONADOS CON H.261.

5.5.1. Estándar H.221: Estructura de la trama de comunicaciones para un canal de 64 a 1920 Kbps en teleservicios audiovisuales.

El propósito de esta recomendación es definir la estructura de la trama de comunicaciones para los teleservicios audiovisuales en un canal de 64 Kbps múltiple ó sencillo ó canales de 1.536 Kbps y 1.920 Kbps los cuales hacen el mejor uso de las propiedades y características de los algoritmos de codificación de audio y vídeo, de la estructura de trama de comunicaciones y de las recomendaciones existentes. Ofrece las siguientes ventajas:

Esta recomendación provee de la subdivisión dinámica o de un uso total de un canal de transmisión de 64 a 1.920 Kbps dentro de velocidades más bajas utilizadas para audio, vídeo, datos y propósitos telemáticos. Un canal simple de 64 Kbps está estructurado dentro de octetos transmitidos a 8 Khz. La posición de cada bit del octeto puede ser considerada como un subcanal de 8 Kbps. El octavo subcanal es denominado el canal de servicio (SC), el cual contiene las dos partes críticas enlistadas a continuación:

5.5.1.1. FAS (Señal de alineación de la trama): Este código de 8 bits es utilizado para situar los 80 octetos de información en un canal B (64 Kbps).

5.5.1.2. BAS (Señal de control de velocidad de transmisión de los bits): Este código de 8 bits describe la habilidad de una terminal de estructurar la capacidad de un canal o canales múltiples sincronizados de varias maneras, y dirigir un receptor para demultiplexar y hacer uso de las señales constituyentes es esa estructura. Esta señal es utilizada también para control y señalización.

La cadena de bits de vídeo es transportada en tramas de datos. Cada trama corresponde a un canal B de 64 Kbps en ISDN. Se muestran dos tramas. Una para la porción de audio de la conferencia y otra para la porción de vídeo. En cada uno de ellas, hay 8 bits de señal de alineación de la trama (FAS) que permiten la sincronización de la trama y la señalización de baja velocidad del gasto de la línea de comunicación. Hay también una señal de 8 bits de control de la velocidad (BAS) que define cómo es que están divididos los canales y subcanales H.221 y qué tipo de servicio es utilizado en cada sección. Por ejemplo un código BAS es utilizado para indicar "estándar de vídeo, recomendación H.261", mientras que otro podría indicar que dos canales B están asignados a este servicio. Los códigos BAS pueden cambiar de trama a trama para indicar protocolos complejos o cambios de modo de operación.

5.5.2. Estándar H.242: Sistema para el establecimiento de la comunicación entre dos terminales audiovisuales usando canales digitales de mas de 2 Mbps.

La recomendación H.242 define el protocolo detallado de comunicación y los procedimientos que son empleados por las terminales H.320. Los principales tópicos cubiertos por esta recomendación se listan a continuación:

5.5.3. Estándar H.230: Control síncrono de trama e indicadores de señales para sistemas audiovisuales. Los servicios audiovisuales digitales son provistos por un sistema de transmisión en el cual, las señales relevantes son multiplexadas dentro de un patrón digital. Además de la información de audio, vídeo, datos de usuario, estas señales incluyen información utilizada para el funcionamiento adecuado del sistema. La información adicional ha sido llamada de "control e indicación" (C&I) para reflejar el hecho de que mientras algunos bits están genuinamente para el "control", causando un estado de cambio en algún otro lado en el mismo sistema, otros proveen de las indicaciones para los usuarios como para el funcionamiento del sistema.

La recomendación H.230 tiene dos elementos primarios. El primero, define a los símbolos C&I relacionados al vídeo, audio, mantenimiento y multipunto. Segundo, contiene la tabla de códigos de escape BAS los cuales especifican las circunstancias bajo las cuales algunas funciones C&I son prioritarias y otras opcionales.

5.6 CODIFICACIÓN DE AUDIO.

Los códigos BAS de H.221 son utilizados para la señalización de una amplia gama de modos de codificación de audio posibles. Los modos más prominentes se definen en las recomendaciones G.711 y G.722. La recomendación G.711 (Modulación por código de pulsos de frecuencias de la voz) es utilizada para la voz y es muestreada a 8.000 muestras/segundo y codificada a 8 bits /muestra para una velocidad de 64 Kbps.

La recomendación G.722 (Codificación de audio de 7 khz con 64 Kbps) describe las características de un sistema de codificación de audio (50 a 7 000 Hz) el cual puede ser utilizado en una gran variedad de aplicaciones de voz de una mayor calidad. El sistema de codificación utiliza la modulación adaptativa diferencial de la subbanda para pulsos codificados (SB-ADPCM) para una velocidad de 64 Kbps, En la técnica SB-ADPCM utilizada, la banda de frecuencia es dividida dentro de dos subbandas (mayor y menor) y las señales en cada subbanda son codificadas utilizando ADPCM. El sistema tiene tres modos básicos de operación correspondientes a las velocidades de transmisión utilizadas para la codificación de audio de 7 khz: 64, 56 y 48 Kbps.

G.728 es una nueva recomendación utilizada para la transmisión de voz de buena calidad a 16 Kbps.

5.7. MULTIPUNTO: Hasta ahora, no existe un estándar para la operación multipunto de las terminales H.320/Px64. Sin embargo se esta trabajando en dos recomendaciones para cubrir este rubro.

5.8. PRIVACÍA: Se encuentra trabajando activamente en la recomendación para proveer la privacía de la transmisión entre las terminales audiovisuales. Un sistema de privacía consiste de dos partes; el mecanismo de confidencialidad o proceso de descripción para los datos, y el subsistema de administración de las claves.

5.9 RED DIGITAL DE SERVICIOS INTEGRADOS, (ISDN).

La Red Digital de Servicios Integrados (ISDN), esta dividida en dos partes: de banda angosta (N-ISDN) y de banda ancha (B-ISDN). N -ISDN opera a velocidades iguales o menores que las velocidades primarias (por ejemplo 1.544 mbps), mientras que la B-ISDN opera a velocidades por encima de las velocidades primarias.

5.9.1. Red Digital de Servicios Integrados de Banda Angosta, (N-ISDN).

ISDN es una evolución de la Red Digital Integrada (RDI) telefónica a la cual se agregan nuevas funciones y características para proporcionar nuevos servicios. De acuerdo a la recomendación ITU-T(sector de estandarización en Telecomunicaciones de la Unión Internacional de Telecomunicaciones), la principal característica del concepto de ISDN es el soporte de un amplio rango de aplicaciones sobre la misma red. ISDN se desarrolló para proporcionar un conector de acceso universal a una variedad de servicios ofrecidos dentro de la red pública evitando así el tener diferentes conexiones a diferentes tipos de redes (red pública telefónica conmutada, líneas telefónicas privadas analógicas y digitales, telex y redes de conmutación de paquetes).

ISDN debe ser capaz de ofrecer servicios de fax, teletex (una forma de correo electrónico para uso doméstico y de negocios), videotex (acceso interactivo a bases de datos), telemetría, alarmas, etc. En su acceso básico destinado para uso doméstico y de pequeños negocios, ISDN proporciona una interfaz digital con dos canales B que trabajan en modo de circuitos a 64 Kbps para transmisión de voz o datos, y un canal D de 16 Kbps para transmitir principalmente información de control y señalización, ofreciendo entonces una capacidad total de 144 Kbps. Los canales B y D se transmiten en tramas síncronas de 48 bits, que incluyen información de control. Para empresas que necesitan mayor capacidad de transmisión, ISDN proporciona en su acceso primario 23 canales B y un canal D a 64 Kbps (23B+D); esta elección de canales permite transportar una trama del acceso primario en un enlace T1 de 1.544 Mbps. En el estándar europeo se utiliza un enlace E1 a 2.048 Mbps para transportar 30 canales B y uno D (30B+D). El acceso primario permite el agrupamiento de canales B para formar canales de mayor velocidad:H0 (384 Kbps), H11 (1536 Kbps) y H12 (1920 Kbps).

5.9.2. Red Digital de Servicios Integrados de Banda Ancha (B-ISDN).

La Red Digital de Servicios Integrados de Banda Ancha (Broadband- ISDN) es una extensión de ISDN en servicios y velocidades, cuyo objetivo es transportar de manera integral voz, datos y video en la misma red. La recomendación I.211 del ITU-T agrupa a los servicios que puede ofrecer B-ISDN en dos tipos: interactivos, en los que el intercambio de información, entre dos usuarios o entre un usuario y un prestador de servicios es bidireccional y, de distribución, en los que el intercambio de información es primordialmente unidireccional, de un prestador de servicios a los usuarios. Los servicios interactivos incluyen los servicios convencionales, de mensajería y de recuperación de información, mientras que los servicios de distribución se subdividen en servicios de difusión , en los que el usuario no tiene control sobre la presentación de la información que recibe, y servicios cíclicos, que permiten al usuario acceder a la información de manera selectiva. Como ejemplos posibles proporcionados por B-ISDN podemos citar: videotelefonía, videoconferencia de banda ancha, vigilancia por vídeo, interconexión de redes locales, telefax de alta velocidad, transferencia de archivos voluminosos, correo electrónico con vídeo, vídeotex de banda ancha, educación a distancia, acceso a bibliotecas, televisión de alta definición, y periódicos electrónicos entre otros.

La necesidad de tener canales cuya velocidad de transmisión varíe de acuerdo al tráfico implica que, aunque algunos servicios (voz y vídeo) necesitan ancho de banda garantizado, otros podrían implantarse usando recursos multiplexados estadísticamente para no desperdiciar ancho de banda. En B- ISDN se conoce a los aspectos de conmutación y multiplexaje utilizados en la red como el modo de transferencia.

B-ISDN utiliza un modo de transferencia asíncrono (ATM) a diferencia de N-ISDN, el cual utiliza el modo de transferencia síncrono (STM). STM aunque funciona muy bien para servicios que requieren de canales de velocidades fijas, no es eficiente para soportar los servicios por ráfagas de B-ISDN. STM tiene problemas para manejar una mezcla dinámica de servicios que utilizan una variedad de canales de velocidades diferentes debido a que su estructura es muy rígida. Mientras que ISDN utiliza canales de velocidades fijas, B-ISDN utiliza canales de velocidades variables. B-ISDN se encuentra aún en estudio, y se encuentran realizando experimentos pilotos en Japón , Australia y muchos países europeos, con el propósito de establecer en un futuro cercano redes públicas de telecomunicaciones que ofrezcan los servicios mencionados y más.

5.10. ESTÁNDARES ISO PARA ALMACENAMIENTO Y RECUPERACIÓN AUDIOVISUAL.

5.10.1. El Estándar MPEG (Grupo de Expertos en Imágenes en Movimiento).

La organización de estándares ISO ha establecido un grupo de trabajo, conocido como MPEG (Grupo de expertos en imagen en movimiento), para desarrollar tres estándares para la codificación de las señales audiovisuales para su almacenamiento en medios digitales. Las velocidades para los tres estándares (MPEG1, MPEG2, MPEG3) son de 1.5, 10 y 40 mbps respectivamente. El estándar MPEG1 tiene tres partes o capas, (Sistemas, vídeo, audio) los cuales son especificados brevemente a continuación.

5.10.2. El estándar JPEG (Grupo Unidos de Expertos en Fotografía).

El grupo unido de expertos en fotografía (JPEG) en un grupo de trabajo ISO/CCITT que tiene como fin el desarrollo de un estándar internacional, ("Compresión y codificación digital de imágenes fijas en escala de grises o a color") para propósito general. El propósito de el algoritmo estándar es el de dar soporte a una amplia variedad de servicios de comunicaciones a través de imágenes. Esta estructura de reporte dual tiene como objetivo asegurar que ISO maneje un mismo estándar de compresión de imágenes.

El equipo de estándar JPEG especifica dos clases de procesos de codificación y decodificación: procesos con pérdidas y procesos sin pérdidas. Aquellos procesos que están basados en la transformada discreta del coseno (DCT) son llamados lossy, los cuales permiten que se logre una compresión substancial produciendo una imagen reconstruida con alta fidelidad visual a la imagen fuente del codificador. El proceso más simple de codificación basado en la transformada discreta del coseno (DCT) es referido a ésta como el proceso secuencial de línea base. Este proceso provee de la capacidad mínima para llevar a cabo diversas aplicaciones.

Existen procesos adicionales basados en DCT los cuales extienden el proceso secuencial de línea base a una más amplia gama de aplicaciones. En cualquier ambiente de aplicación que utilice procesos de decodificación DCT extendidos, la decodificación base es requerida para dotar de la capacidad de decodificación de default. El segundo proceso de decodificación no esta basado en DCT y es provisto para satisfacer las necesidades de las aplicaciones que requieren compresión lossless, (por ejemplo imágenes de rayos X). Los procesos de codificación y decodificación lossless son utilizados independientemente de cualquiera de los procesos que utilizan DCT.

La codificación aritmética es una alternativa opcional, "moderna" Debido a que el método de codificación aritmética elegido se adapta a los valores de los parámetros de la imagen, generalmente provee de un 5 a un 10 por ciento de mejor compresión que el método Huffman elegido por JPEG. Este beneficio es compensado por el incremento en la complejidad del sistema.

La reconstrucción progresiva, la alternativa a la reconstrucción secuencial, es específicamente útil cuando se utilizan bases de datos de imágenes con canales de comunicación de poco ancho de banda. Para la codificación progresiva: primero, una imagen "tosca" es enviada, entonces los refinamientos son enviados, mejorando la calidad de la imagen "tosca" hasta que la calidad deseada es lograda. Este proceso es llevado a cabo por aplicaciones como las bases de datos de imágenes con resoluciones múltiples y de diversos requerimientos de calidad, congelamiento de cuadro en videoconferencias, fotovideotex para velocidades bajas.

La codificación sin pérdidas progresiva se refiere al método de compresión el cual opera en conjunto con la reconstrucción progresiva. En este modo de operación la etapa final de la reconstrucción progresiva resulta en una imagen recibida la cual es bit por bit idéntica a la original.

5.10.3. El estándar JBIG (Grupo Unidos para imágenes bi-nivel).

En 1988, un grupo de expertos fue formado para establecer un estándar internacional para la codificación de imágenes bi-nivel. El JBIG (Grupo unido para imágenes bi-nivel), JBIG ha desarrollado un documento titulado "Estándar de compresión progresiva para imágenes bi-nivel", el cual define un método para la compresión de imágenes bi-nivel ( esto es, una imagen en blanco y negro). Debido a que el método se adapta a una amplia gama de características de imágenes, es una técnica de codificación muy robusta.

El estándar JBIG opera tanto en el modo secuencial como en el modo progresivo. Cuando se decodifica una imagen codificada progresivamente, una imagen de baja resolución con respecto a la original esta disponible primero, la imagen va aumentando su resolución conforme mas datos son decodificados. La codificación progresiva presenta dos beneficios, la primera es que una misma base de datos de imágenes puede servir a diferentes dispositivos de salida con resoluciones distintas cada uno. Solamente aquella información en el archivo imágenes comprimidas que permita la reconstrucción a la resolución del dispositivo de salida en particular necesita ser enviado y decodificado.

El otro beneficio de la codificación progresiva es que provee subjetivamente de imágenes superiores (en un monitor) sobre enlaces de comunicación de velocidades baja o medias. Una imagen de baja resolución es rápidamente transmitida y desplegada, con el mejoramiento de la resolución que se desee enseguida. Cada etapa de mejoramiento de la resolución se construye en la imagen ya disponible. La codificación progresiva lo hace fácil para el usuario para el reconocimiento rápido de la imagen siendo desplegada, lo cual hace posible que el usuario pueda interrumpir la transmisión de una imagen indeseada.

CAPITULO 6.- METODO DE VIDEOCONFERENCIAS UTILIZANDO EL SERVICIO DE INTERNET.


6.1. DESCRIPCIÓN

Como habíamos mencionado anteriormente, nuestra tesis de grado se basa en la presentación de una propuesta para dotar a los centros de computo del instituto el servicio de videoconferencias, servicio que es totalmente factible al contar con Internet.

Este último constituye un punto favorable que hay que tomar en cuenta, pues si nuestro instituto decidiera optar por otros medios para lograr videoconferencias, uno de los cuales sería por ejemplo un enlace satelital directo, se perdería mucho tiempo y dinero al tratar de conseguir todos los permisos y licencias que le permitan efectuar las transmisiones, y en adquirir los equipos necesarios, en caso de querer operar por sí misma, aún sin autonomía sobre la operación del sistema, puesto que solamente los técnicos de la NASA están permitidos de acceder al mismo.

Si hoy en día el comunicarnos instantáneamente con cualquier parte del mundo está al alcance de nuestras manos gracias a la red mundial Internet, y si actualmente existen en el mercado una infinidad de paquetes que permiten efectuar videoconferencias utilizando está conexión. ¿ Por qué no implementar ya en nuestro instituto una tecnología tan factible y necesaria, en lugar de estar esperando soluciones a largo plazo que representan menores ventajas y pérdidas de tiempo y dinero?

No está de más anotar que existen algunos paquetes para videoconferencias que están disponibles en Internet totalmente gratis y al alcance de todos. Otros no son gratis, pero el costo de sus licencias es representativamente menor que el costo que significaría un enlace satelital. Además, el adquirir una pequeña cámara de video, más el software necesario y equipos que cuenten con tarjetas de sonido, representa una inversión mucho menor que el de adquirir antenas, estaciones terrenas, canales de comunicación, licencias, etc.

Por otro lado, pensamos, y de hecho este es el pensamiento de mucha gente, que los satélites de comunicaciones pronto serán desplazados por otros medios de comunicación más rápidos y eficientes, como son los microondas y la fibra óptica, debido a que ofrecen mayor velocidad y ancho de banda, más disponibilidad, y son tecnologías más fáciles y sencillas de operar y administrar.

En este capítulo describiremos todo el proceso de videoconferencias a través de Internet, que es lo que proponemos para el I.S.T.I Comenzaremos por mencionar los requerimientos de hardware y software que necesita una videoconferencia, luego detallaremos el proceso y finalmente analizaremos los posibles problemas que se pueden presentar y sus soluciones.

6.2. REQUERIMIENTOS DE HARDWARE Y SOFTWARE PARA LOGRAR VIDEOCONFERENCIAS EFICIENTES.

Efectuar una videoconferencia utilizando internet es muy fácil. Cualquier persona puede hacerlo. Los paquetes existentes actualmente han sido programados para presentar un entorno gráfico muy amigable para el usuario, convirtiéndolos en aplicaciones de tan alto nivel, que mantienen transparente todo el proceso de conexión.

En la mayoría de ellos, el último dato básico e indispensable que el usuario debe proporcionar es la dirección IP del otro punto de la conexión, y nada más.

Ahora, los requerimientos de Hardware y Software para efectuar videoconferencias no son nada del otro mundo, todo lo contrario, constituyen programas e implementos con los que cualquier computador está equipado actualmente, con excepción de la cámara de vídeo. Sin embargo en el mercado existen una infinidad de cámaras que pueden servir para este propósito, y cuyo costo no es muy elevado, especialmente si tomamos en cuenta que se trata de una inversión que nos prestará un servicio que funcionará a largo plazo y que vale la pena.

A continuación detallamos los requerimientos básicos con los que debe contar cualquier equipo destinado a efectuar videoconferencias.

6.2.1 Hardware:

6.2.2 Software:

Para enviar y recibir vídeo también se necesita:

Para enviar y recibir sonido también se necesita:

6.3. VERSIONES DE WINDOWS:

6.4. PROCESO DE VIDEOCONFERENCIAS A TRAVÉS DE INTERNET

Al contar con todos los requerimientos detallados anteriormente, un usuario que corra un paquete de videoconferencias podrá efectuarlas de manera sencilla y rápida.

Luego de instalar cualquier paquete, siempre es necesario configurar algunas características. Con esto nos referimos a que el usuario debe especificar al programa ciertos parámetros , como por ejemplo el tipo de cámara y tarjetas de vídeo y sonido que se va a utilizar en la videoconferencia, y los manejadores de los mismos. Además algunas aplicaciones requieren el nombre del usuario, para mostrarlo al otro lado de la videoconferencia.

Generalmente, es necesario configurar en el programa la dirección IP correspondiente de la computadora que estará al otro lado de la conexión, esta conexión se hace vía Internet, si la dirección IP es incorrecta o no ha podido ser ubicada, el programa de videoconferencias presentará al usuario un mensaje explicativo al respecto, indicando que la conexión no pudo ser establecida.

Como se ve, Internet es esencial para la realización de videoconferencias mediante estos paquetes, porque al ser una red a la cual todo el mundo tiene acceso, constituye el medio ideal para establecer una comunicación entre puntos cualquiera del mundo, y efectuar reuniones.

Con el avance de la tecnología, se ha conseguido que sea posible transportar vídeo y sonido desde un punto a otro, a través de Internet. Los paquetes que utilizan este medio de transporte, emplean pequeñas cámaras de vídeo que, conectadas a una tarjeta de captura de imágenes del computador, atrapan la imagen y la voz de quien está frente al mismo, las convierte en señales digitales y transportan esta información utiliando la red hasta llegar al destino, en donde podrían ser vistas y escuchadas por quienes se encuentren allí.

Específicamente, la cámara de vídeo conectada al computador captura la imagen de las(s) persona(s) que está(n) frente a la misma. Así mismo, a través de un micrófono y con la ayuda de una tarjeta de sonido, todo el audio es atrapado. Des este modo, la información al ser capturada por los implementos conectados al computador, son encapsulados y enviados a la red, en donde, a través de la conexión a Internet, el paquete utiliza los principios del protocolo TCP / IP para lograr que los datos lleguen hacia su destino final, o la persona cuya dirección IP fue ingresada al inicio de la videoconferencia.

Además, gracias a esto también se provee el medio para asegurar el arribo seguro de la información a su destino correcto, porque cada programa cuenta con métodos especiales para detectar la pérdida de paquetes de datos enviados ya sea de vídeo o de audio, y realiza sus propias operaciones o aplica algoritmos que le permiten salvar la videoconferencia, y lograr que la pérdida de datos pase desapercibida para el usuario.

En algunos de estos paquetes para videoconferencias a través de Internet, toda la captura de vídeo es efectuada vía Microsoft Vídeo para Windows Vídeo-Capture API. Esto les permite capturar vídeo desde cualquier tarjeta que soporte vídeo Para Windows.

Cada paquete tiene su propio método de transmisión, tanto de vídeo como de audio, algunos como por ejemplo el Vídeo Phone, utilizan técnicas que minimizan la cantidad de información al transmitir, logrando una transmisión más rápida y segura. Sea cual fuera el método utilizando por cada paquete, todos ofrecen una calidad exelente de sonido e imágenes, permitiendo que se realicen videoconferencias exitosas en la mayoría de los casos.

Una ventaja de utilizar estos paquetes actuales y el medio de transmisión de Internet, es que disminuyen molestias y evitan otros inconvenientes que causaban las videoconferencias anteriores. Pocos años antes, las videoconferencias requerían la instalación de salas especialmente equipadas y de enlaces de transmisión dedicados.

Por suerte, hoy en día existen firmas y marcas que ofrecen productos que superan todos estos obstáculos. Esto lo logran usando tecnologías nuevas que reducen dramáticamente los costos de equipamiento y transmisión. Además estos paquetes toman ventaja de los bajos costos de las líneas digitales usando las líneas de tipo dial-up. Obviamente, el medio ideal para transmitir la imagen y el sonido ha sido la red mundial Internet.

Históricamente, problemas con el eco y movimientos del micrófono han afectado adversamente la calidad de audio de una videoconferencia. Para que ésta sea tan natural y espontánea como un encuentro cara a cara, los participantes requieren un audio " Full Duplex " 1, el cual permite conversaciones simultáneas, sin embargo para resolver problemas de eco y de regeneración o feedback, los sistemas de audio de muchas videoconferencias se llevaban, e inclusive en algunos se llevan aún, en un modo half-duplex, en el cual una sola persona puede hablar a la vez, porque las señales a pesar de ser transmitidas en ambas direcciones, sólo se transmiten en una dirección a la vez. De este modo, la gente que está en un extremo de la videoconferencia no puede ser escuchada mientras quien está al otro lado se encuentra hablando, lo cual difiere de una conversación natural, muchos de los paquetes actuales de videoconferencias a través de Internet ofrecen el modo Full Duplex.

1 Modo Full Duplex: En los dos lados de la videoconferencia es posible hablar y escuchar simultáneamente, permitiendo que se produzcan de forma natural las preguntas e interrupciones al conferencista por parte del auditorio. Un sistema de audio full duplex requiere ya sea una sala de reuniones diseñada especialmente con arreglos acústicos, una técnica AEC( Acoustic Echo Cancelation) o una combinación de los dos.

Antiguamente y como mencionamos antes, para solucionar estos problemas se requería de micrófonos especializados localizados cuidadosamente y procedimientos complejos de calibración para la sala, es decir, un cuarto complejamente arreglado para producir un buen efecto acústico. La mayoría de eliminadores de eco, ayudan a prevenir las señales de retorno de la voz que se producen cuando alguien habla, substrayéndolas de la señal que proviene del micrófono, sin embargo estos sistemas requieren una calibración exacta, una colocación cuidadosa de los micrófonos y de los hablantes, y un ajuste preciso de la sensibilidad del micrófono y del volumen de la voz de quien habla. En muchas situaciones, el cuarto también requiere tratamientos acústicos especiales. Entre estos métodos acústicos tenemos el cubrir las paredes con elementos que absorben el sonido como: tapices pesados, azulejos, tejas, y alfombras especiales.

Actualmente estos problemas han sido eliminados porque los paquetes de videoconferencias cuentan con técnicas como la AEC que minimizan tanto la señal acústica que produce el micrófono cuando se habla como el eco del videoconferencista en el cuarto. Sin un AEC, el auditorio escucharía un molestoso eco de la voz al retornar del otro extremo de la videoconferencia, sin embargo está técnica tiene la desventaja de que requiere de micrófonos direccionados para minimizar el eco. En vista de que los micrófonos direccionados, pierden la conversación en varias áreas del cuarto y no permiten mucha libertad en los mivimientos de los participantes de la videoconferencia.

Sin embargo otros paquetes incorporan una tecnología más moderna y mejorada: la IDEC( Integrated Dynamic Echo Cancellation), la cual mejora dramáticamente la calidad de audio. Por otro lado, permite a los participantes escuchar y ser escuchados fácilmente desde cualquier parte de la sala de videoconferencia, sin necesidad de efectuar arreglos complejos en los cuartos ni instalación de micrófonos direccionados, capatando hasta las conversaciones más lejanas en cualquier parte de la sala.

Además estos paquetes cuentan con algoritmos de compresión de audio, los cuales se encargan de proveer una exelente fidelidad de sonido, inclusive de cualquier sistema anteriormente instalado.

Finalmente, los micrófonos para videoconferencias que existen en el mercado, pueden recoger la voz de cualquier espectador, desde cualquier punto de la sala. De este modo, las personas que participan de la videoconferencia tiene la libertad de moverse alrededor de la sala al igual que lo hicieran si estuvieran en una reunión frente a frente.

6.5. ANALISIS DE CONTINGENCIAS.

En cualquier programa de comunicaciones, por más avanzado y bueno que sea, algunas veces se producen problemas en su funcionamiento y operación, especialmente las primeras veces que se lo utiliza. Muchas de estas fallas están fuera de control del usuario e inclusive del programa, porque dependen de la red, del ancho de banda, de la congestión existente, del número de estaciones que la están utilizando en un momento determinado, etc. Otras constituyen falla humanas que los usuarios inexpertos e inclusive los expertos, cometen algunas veces por está razón presentamos algunos de los problemas más comunes que se pueden presentar en una videoconferencia y cómo solucionarlos para tener éxito.

Uno de los problemas más comunes es la incapacidad de recibir o enviar audio. Esto se debe a que seguramente el tipo de tarjeta de sonido que se está utilizando no es la adecuada para el programa escogido. Siempre antes de instalar un programa de videoconferencias, es necesario constatar cuáles son las tarjetas de sonido que trabajan con dicho software, para no incurrir en fallas por instalaciones de tarjetas incompatibles.

Problemas similares pueden ocurrir con las tarjetas de captura de vídeo y cámaras utilizados. Es conveniente revisar siempre las compatibilidades del software empleando antes de ponerlo a funcionar.

Otro problema común se presenta cuando no existe respuesta de parte de la dirección IP ingresada para realizar la videoconferencia. Es necesario verificar que esta dirección haya sido correctamente ingresada. Si está bien, lo más probable es que esa máquina esté apagada. En ese caso hay que realizar un Telnet, FTP o PING al servidor correspondiente, para verificar si el usuario está allí.

En caso de haber comprobado que el usuario de la otra máquina está allí, lo más seguro es que no esté corriendo en ese momento la aplicación para videoconferencias, razón por la cual no es posible establecer la conexión. Para evitar este problema es necesario hacer pruebas anteriores a la videoconferencia y sincronizar con la otra parte el día y la hora de la misma.

Hay ocasiones en que el audio no funciona, a pesar de que el usuario cuenta con una tarjeta de sonido compatible con el programa. Si esto ocurre, hay que tomar en cuenta que el ancho de banda es muy importante, El audio funcionará solamente si el ancho de banda es lo suficientemente grande como para soportarlo, esto quiere decir que se necesita por lo menos de 28.8 Kbps a 64 Kbps, o una conexión más rápida a Internet.

Si al estar realizando la videoconferencia a través de Internet y comprobamos que la comunicación no es eficiente porque el ancho de banda no es óptimo nosotros hemos planteado un sistema de respaldo para solucionar este problema. Este sistema se denomina Videoconferencias a través de Vía TV VideoPhone, cuyo análisis se encuentra en el capítulo 3.

CAPITULO 7.- METODO DE VIDEOCONFERENCIAS UTILIZANDO EQUIPOS DE ENLACE SATELITAL DIRECTO.


7.1 GENERALIDADES.

Con el inicio de la "era espacial" el 4 de Octubre de 1957, se abrió un nuevo capítulo en el campo de las comunicaciones de larga distancia en el planeta Tierra. Fue en esta fecha cuando los rusos lanzaron exitosamente al espacio el primer satélite artificial, llamado Sputnik 1. Luego de esto y hasta la actualidad, la tecnología espacial ha avanzado tanto, que lo que algún día parecía un sueño imposible de realizar o una fantasía perteneciente a un cuento de Julio Verne, hoy nos parece totalmente normal y forma parte de la vida cotidiana en nuestro planeta.

Los equipos que se han creado para poder conseguir la anhelada "conquista del espacio" son muy variados, desde pequeños cohetes y antenas, hasta sofisticados satélites y naves espaciales capaces de llegar a la luna o a cualquier planeta del sistema terrestre.

Un sistema completo de comunicaciones satelitales, comprende básicamente dos segmentos: el segmento espacial, constituido por un satélite de comunicaciones, y un segmento terrestre, que comprende el equipo utilizado para comunicarse con el mismo.

En este capítulo nos centraremos en los satélites artificiales particularmente en los de comunicaciones y en las estaciones terrenas que se utilizan para poder comunicarse con estos.

7.2 SATÉLITES.

Los satélites artificiales son objetos construidos por el hombre y colocados en órbita alrededor de la Tierra o de cualquier otro cuerpo celeste, con el objeto de realizar investigaciones científicas, reconocimientos militares, estudios meteorológicos, facilitar las comunicaciones, etc.

En este punto, vale la pena recalcar que los satélites artificiales propiamente dichos, son aquellos que se colocan en órbita alrededor de la Tierra; aquellos que son ubicados girando alrededor de otros planetas, son conocidos como "sondas espaciales". Existen otros artefactos que los científicos suelen ubicar girando alrededor del sol. Estos son conocidos como "planetoides".

A continuación se describen los tipos de satélites más importantes:

7.2.1 Tipos de Satélites.

Satélites pasivos: Se denomina así a aquellos que no llevan ningún instrumento de medida en su interior y cuyos movimientos son controlados y estudiados desde la Tierra.

Satélites activos: Contrariamente a los pasivos, estos llevan todo tipo de equipamiento en su interior, para poder realizar mediciones y observaciones exactas de los cuerpos celestes y del espacio exterior. Entre estos instrumentos están: cámaras fotográficas, detectores de radiaciones, fuentes de energía eléctrica, cámaras de televisión, radios, detectores de meteoritos, etc. Obviamente, el equipamiento del satélite depende del objetivo por el cual éste fue puesto en órbita y de su capacidad de carga. Dentro de esta clasificación tenemos:

Satélites para realizar investigaciones científicas: Originalmente, el principal propósito de cualquier satélite de hecho, los primero satélites fueron lanzados con este objetivo era el de realizar estudios del espacio interior y de lo que existía más allá de la atmósfera terrestre. Gracias a dichos estudios espaciales y al avance de la tecnología, actualmente es muy fácil observar y estudiar cuerpos celestes utilizando un satélite, sin preocuparse por la interferencia que produce la atmósfera terrestre. También se utilizan satélites para estudiar el sol y las estrellas.

Satélites de comunicaciones: Son satélites que orbitan alrededor de la Tierra y cuyo objetivo es facilitar las comunicaciones terrestres. Esta es tal vez la aplicación tecnológica más importante de los satélites artificiales. Sin embargo, debido al avance constante de la tecnología, los satélites están siendo relegados por otros medios de comunicación más baratos y rápidos. Entre ellos tenemos a las microondas y a la fibra óptica. En muy poco tiempo, estos sistemas tomarán el lugar de los satélites y los desplazarán por completo, en lo que se refiere al campo de las comunicaciones.

Satélites de navegación: Estos artefactos proveen los medios necesarios para señalar con precisión cualquier lugar sobre la Tierra, y llegar a conocer exactamente cualquier posición en el globo terráqueo, realizando cálculos basados en el Efecto Doppler. Así, conociendo la órbita del satélite, cualquier posición desconocida puede llegar a calcularse exactamente al realizar mediciones del aumento o decremento de la frecuencia de radio emitida por satélite mientras órbita la Tierra.

Satélites meteorológicos: Estos satélites utilizan instrumentos altamente sensitivos para obtener datos y fotografías de la atmósfera y sus componentes, para luego usarlos en los modelos atmosféricos generados por computadores, que son la base de los pronósticos climáticos.

Además, los datos del satélite proveen información sobre los océanos, desiertos y áreas polares, donde los reportes meteorológicos convencionales eran imposibles o muy limitados. Es posible localizar tormentas, nevadas, cerros, cordilleras, corrientes de aire y de gas, neblinas y brumas, condiciones congelantes para los mares, y dirección y velocidad de los vientos.

Para poder tomar fotografías exactas y muy claras, los satélites están equipados con cámaras ópticas e infrarrojas, con las cuales es posible abarcar áreas inmensas que no sería posible fotografiar utilizando otros medios.

Satélites para observación de la tierra y el mar: Para poder realizar observaciones de este tipo, los satélites están dotados con ciertos sensores especiales, a través de los cuales pueden distinguir entre la tierra y el agua, ciudades y campos, e inclusive entre plantaciones de maíz y plantaciones de trigo. Todos estos datos sirven para obtener información sobre los recursos existentes en la tierra y el mar. Además, gracias a esto se pueden realizar mapeos exactos de áreas remotas de la Tierra. Por otro lado, los Geólogos y otros especialistas utilizan dicha información para la explotación mineral, reforestación, conservación del suelo y control de inundaciones y derrumbes.

Satélites de propósito militar: Desde mediados de la década de los sesenta, tanto los Estados Unidos como Rusia han puesto en órbita un considerable número de satélites, cuyo principal objetivo ha sido el de monitorear actividades y operaciones militares de otras naciones, detectando explosiones nucleares, lanzamientos de misiles y realizando inteligencia electrónica, entre otras cosas. Pero actualmente la finalidad de este tipo de satélites está dejando de ser la simple detección y rastreo de actividades militares, para pasar a complementarse con la destrucción de otros satélites y aeronaves enemigas.

7.2.2 Componentes Básicos:

Todos los satélites artificiales, independientemente del objeto para el cual fueron creados y puestos en órbita, poseen ciertas características en común en lo que se refiere a sus componentes. Por ejemplo, todos poseen radares, instrumentos necesarios para realizar reconocimiento y monitoreo de localizaciones, y para efectuar mediciones de altitudes. También todos poseen sensores, los cuales son utilizados para efectuar diversas operaciones, que difieren de acuerdo al tipo de satélites que sea y a su propósito.

Potencia eléctrica es otra característica común a todos los satélites. Aquellos que son lanzados para ejecutar misiones que duran apenas unos cuantos días pueden operar con baterías, las cuales cuentan entre el equipamiento obligatorio de cualquier satélite. En algunos casos, suelen reemplazarse estas baterías por celdas de combustible de alta eficiencia, que convierten ciertas reacciones de oxígeno e hidrógeno en electricidad. Pero la fuente de energía más comúnmente utilizada, la constituyen las celdas solares. Esas se encuentran ubicadas en paneles planos en forma de "alas" o envueltas alrededor de la superficie exterior del satélite. Las celdas solares absorben energía del sol y la transforman en la energía eléctrica necesaria para el perfecto funcionamiento del aparato.

Las baterías son también utilizadas cuando el satélite se encuentra alejado del sol y la energía que recibe no es suficiente para que las celdas solares funcionen correctamente, o cuando existe algún planeta que está bloqueando la luz solar para el satélite.

Otro componente indispensable es el equipo de control de estado, el cual se utiliza para mantenerlo en su órbita designada, o para colocar sus antenas y sensores apuntando correctamente hacia la Tierra, en caso de que se hayan desviado.

Los receptores y transmisores de señales son ciertamente necesarios en cualquier satélite artificial, pero son más frecuentemente utilizados en los de comunicaciones, debido al tipo de operaciones que estos efectúan. Estos sensores son generalmente utilizados para enviar y recibir señales desde y hacia la Tierra, sin lo cual, el monitoreo y control del satélite sería imposible.

Finalmente tenemos los encoders de Telemetría, que no son más que transmisores que se encargan de medir voltajes, corrientes, temperaturas y otros parámetros que describen la condición del equipo que se encuentra en el interior del satélite y envían esta información a la Tierra, utilizando los transmisores. La información que se recibe a través de un enlace de radio desde un satélite, es llamada Telemetría.

7.2.3 Funcionamiento General.

Como se ha indicado anteriormente, el objetivo de estos satélites es facilitar las comunicaciones entre varios puntos de la Tierra y, ayudados con el avance de la tecnología actual, brindar comunicaciones avanzadas y nítidas, además de otros servicios, a los usuarios.

A diferencia del sistema que utilizan la mayoría de las comunicaciones radiales de larga distancia que se efectúan en la Tierra, basado en el envío de señales vía microonda de un lugar a otro utilizando torres, mediante el cual se consigue la comunicación solamente de las dos estaciones que se encuentran en los extremos del enlace microonda, un satélite puede obtener comunicaciones entre un sinnúmero de puntos de contacto o estaciones.

La mayoría de satélites artificiales se colocan generalmente en una órbita cercana a la tierra, región a la que se le conoce como LEO (Low Earth Orbit) u órbita terrestre menor, donde el período de un satélite es de aprox. 90 minutos. Pero los satélites de comunicaciones y meteorológicos llegan a mayor altura y se colocan en la órbita Geosincrónica o GEO, ubicada a una altura de aprox. 36000 Km por encima del Ecuador. El motivo por el cual deben colocarse a esta altura es porque ésta mantiene a los satélites en una posición exacta sobre un punto seleccionado de la superficie terrestre: en la órbita GEO, el período del satélite es de 24 h, por lo cual gira a la misma velocidad con que lo hace la Tierra.

Los satélites tienen uno o más dispositivos tipo receptor-transmisor, y cada uno de ellos tiene un haz que cubre una parte de la Tierra localizada debajo de él. Cada uno de los receptores-transmisores, escucha una parte del espectro, amplifica la señal de entrada, y luego le retransmite a otra frecuencia, para evitar los efectos de interferencia con las señales de entrada. El flujo dirigido hacia abajo puede ser muy amplio y cubrir una zona muy extensa de la Tierra, o bien muy estrecho y cubrir apenas algunos cientos de kilómetros.

Con el objeto de prevenir un posible caos en el cielo, debido a la gran cantidad de satélites existentes en las diferentes órbitas, se han establecido acuerdos internacionales para definir quien puede hacer uso de qué ranuras y de qué frecuencias. Así, las bandas que han sido definidas como de telecomunicaciones, varían en los siguientes rangos: de 5925 a 6425 megahertz (MHz) para transmisiones desde una estación terrena hacia el satélite, y de 3700 a 4200MHz, para flujos de información enviados desde el satélite hacia la estación terrena. A estas bandas se las conoce como las de 4/6GHz, y actualmente están superpobladas.

Las siguientes bandas superiores, disponibles para la telecomunicación, son las de 12/14 GHz, las cuales están descongestionadas aún. A estas frecuencias, los satélites pueden tener un espaciamiento mínimo de un grado. Sin embargo, aquí existe el problema de la lluvia, puesto que absorbe fácilmente este tipo de microondas. Afortunadamente, las grandes tormentas pueden detectarse con facilidad, antes de que ocurran, y se puede resolver el problema utilizando varias estaciones terrenas suficientemente separadas, en lugar de una sola, cuya función es realizar una serie de conmutaciones rápidas entre ellas.

Otras bandas disponibles también para las telecomunicaciones, son las de frecuencias de 20/30 GHz, pero los equipos necesarios para trabajar en ellas, son todavía de costos muy elevados.

Los satélites dividen su ancho de banda de 500MHz, en aproximadamente una docena de receptores-transmisores, cada uno con un ancho de banda de 36MHz. Cada uno de estos, es utilizado para codificar un flujo de información de 50Mbps, 800 canales de voz digitalizada de 64Kbps, o bien, otras combinaciones diferentes. Por otro lado, dos receptores-transmisores pueden emplear la misma banda de frecuencia simultáneamente, sin que existan interferencias. Esto lo hacen utilizando señales con diferente polarización.

Para la difusión de las señales, como los satélites están equipados con múltiples antenas y receptores-transmisores, cada uno de los haces de información provenientes de los mismos puede enfocarse sobre un área geográfica muy pequeña, de tal forma que se puedan efectuar varias transmisiones simultáneas de haces hacia el satélite.

A pesar de que las señales que van o vienen de los satélites viajan a la velocidad de la luz, existe un retardo substancial al recorrer la distancia total, debido al tiempo que tarda la información en ir y venir. Generalmente, el tiempo de tránsito de las señales en un viaje total de ida y vuelta, está entre 250 y 300 m, dependiendo de la distancia que existe entre el usuario y la estación terrena y de la elevación del satélite con respecto al horizonte.

En la siguiente figura (figura 7.1) podemos observar los canales correspondientes a las comunicaciones satelitales.

Canales de transmisión de los satélites

Figura 7.1

7.3 ESTACIONES TERRENAS

Una estación terrena es un poderoso equipo de comunicaciones, compuesto básicamente por una antena, un amplificador, un decodificador de señales, un transmisor de radio con una potencia de salida que varía dependiendo del tipo de estación terrena, y un receptor.

Este equipo es utilizado para enviar o recibir señales directamente desde o hacia un satélite.

Las señales enviadas desde el satélite hacia las estaciones terrenas, viajan en el enlace descendente, mientras que las enviadas desde la estación terrena al satélite, están en el enlace ascendente.

Existen también estaciones más pequeñas, inclusive receptores portátiles, que pueden ser utilizados. Estos equipos están diseñados para ser instalados en terrazas y azoteas de casas y edificios. Son versiones pequeñas y modestas de las grandes estaciones terrestres que existen.

Muchas veces, el éxito de una transmisión satelital depende de la localización adecuada de la estación terrena. Aunque esto parece algo trivial y sin importancia, finalmente tiene un gran peso cuando se trata de obtener buenos resultados. Es indispensable ubicar las estaciones terrenas en lugares donde no se produzcan interferencias de ningún tipo, y preferiblemente alejadas de áreas rodeadas de grandes edificios.

A continuación tenemos el tipo de estaciones terrenas que pueden ser utilizadas para comunicaciones satelitales, particularmente por programas similares al ACTS, sus componentes principales y funcionamiento general.

7.3.1 Tipos de estaciones terrenas.

Las estaciones terrenas, particularmente las construidas por la NASA para sus programas experimentales, pueden tener capacidades variables y operar en dos modos de comunicación distintos: BBP y MSM, los cuales utilizan un equipo distinto de recepción y transmisión de señales. El primero emplea un procesador llamado Base Band Processor, y el segundo una Matriz de Switcheo de Microondas o Microwave Switching Matrix. Para comprender mejor estos términos, a continuación se presenta una breve explicación de los mismos:

Modo de operación BBP (Base Band Processor): Cuando se está utilizando el método de Multiplexión por división de tiempo o TDMA (Time Division Multiple Access), se requiere la regeneración y almacenamiento de las señales de Banda Base o BaseBand (Método de transmisión, en el cual una red utiliza su rango de transmisión completo para enviar una sola señal) a bordo del satélite. Para esto, se utiliza un procesador denominado BBP, el cual efectúa el siguiente proceso: Primero, las señales recibidas son demoduladas y transformadas a señales digitales de BaseBand. Luego, se las almacena en las localidades de memoria de entrada del satélite y se las decodifica, si es necesario. Entonces, las señales son ruteadas a una localización apropiada de la memoria de salida, codificadas si es necesario, moduladas y enviadas al transmisor apropiado. El convertidor a la banda superior de frecuencias, transforma las señales TDMA de 3GHz a 20GHz. El amplificador las amplifica a un nivel de poder suficiente para transmitirlas en el enlace descendente hacia las estaciones terrenas.

Modo de operación MSM (Mirowave Switch Matrix): El modo MSM, por otro lado, se utiliza cuando no es necesario un almacenamiento de las señales recibidas a bordo del satélite. No obstante, el tráfico debe ser ruteado y transmitido en tiempo real. El modo como opera el equipo utilizado en este caso es el siguiente: las señales recibidas son convertidas a la banda inferior de frecuencias, específicamente a frecuencia intermedia (IF), ruteadas hacia el equipo Microwave Switch Matrix, el cual las switchea. Entonces, las señales son enviadas a un convertidor que las vuelve nuevamente a la banda superior de frecuencia, donde son convertidas a 20GHz, amplificadas y finalmente transmitidas. Como se ve, no existe almacenamiento de las señales en ninguna parte de la memoria, y esta son ruteadas y transmitidas en tiempo real.

Tanto el modo de operación BBP como el MSM tienen sus propios tipos de estaciones terrenas. A continuación se presenta una lista de los tipos de estaciones terrenas de la NASA para trabajar en estos dos modos, y sus características principales:

Estación Terrena T-1 VSAT:

Este es el tipo de estación terrena utilizada por el programa ACTS.

El término VSAT significa: Very Small Aperture Terminal. Físicamente, las estaciones T-1 VSAT están configuradas en dos unidades básicas: una unidad diseñada para ser instalada en interiores o "indoor" y una parte el exterior u "outdoor". La primera no es más que un rack estándar, que contiene equipos para interfaz con el usuario, multiplexores y buffers, equipo para codificar y decodificar señales, modulador y demodulador, y un procesador para control de la estación terrena.

La unidad exterior u "outdoor" comprende la antena, equipo transmisor/receptor y una plataforma de montaje.

Los dos tipos de datos que pueden ser transmitidos y recibidos por la estación terrena T-1 VSAT son Voz, Video y Datos. Para comunicarse con el usuario, estas estaciones cuentan con varias interfaces para funcionar con teléfonos, fax, computadores, etc..

Estación Terrena "Master" de la NASA (NGS):

Son estaciones gigantes que generalmente se encargan de recibir las señales más importantes para controlar el satélite, corregir su rumbo y supervisar su correcto funcionamiento, y que en un gran sistema de comunicaciones, están conectadas y tienen interfaces con las estaciones terrenas experimentales más pequeñas del tipo VSAT. Realizan operaciones de monitoreo del satélite y de telemetría y comando de señales.

Terminal móvil ACTS (AMT):

Este tipo de estaciones está siendo desarrollado por el Laboratorio de Jets a Propulsión de la NASA (JPL). El diámetro de su antena es de más o menos 7"x7". Contiene un amplificador de 0.4W de potencia. Tiene una capacidad total de envío/recepción de señales que varía entre los 2.4Kbps y 9.6Kbps.

Terminal USAT (Ultra Small Aperture Terminal):

Cuenta con una antena cuya área es menor a 100 pulgadas cuadradas (menor que 0.5m) y un amplificador de menos de 1.0W. Su peso es menor a 25 libras.

Su principal aplicación es realizar control supervisado y adquisición de datos. El escenario que presenta un experimento realizado con este tipo de estaciones, muestra a un número de terminales USAT ubicadas en sitios remotos, comunicándose con una estación terrena central mucho más grande, la cual está localizada en donde se encuentra la computadora central de la red. También soporta otras aplicaciones de tasas bajas de transmisión de datos, en el rango de los 300 a 2400 bps.

7.3.2 Componentes Básicos

Las estaciones terrenas del tipo T1 VSAT, contienen fundamentalmente 5 sub-sistemas funcionales, los cuales interactúan con el satélite y le permiten transmitir y recibir voz, video y datos, y son los siguientes.

Sub-sistema de antena: que incluye el reflector, la montura, duplexores y filtros, y un equipo descongelador que viene incluido si se lo requiere, y que sirve para ubicar la antena en los lugares donde nieva.

Sub-sistema transmisor: que incluye un convertidor de señales a la banda superior de frecuencias, un transmisor de radio frecuencias de 15 GHz y un duplicador de frecuencias de alto poder de 30 GHz (HPFD).

Sub-sistema receptor: que incluye un receptor de 20 GHz, un amplificador y un convertidor de señales a la banda inferior de frecuencias.

Sub-sistema de control y generación de frecuencias: que incluye osciladores de reloj y frecuencias, un (os) microprocesador (es) de control y medición de tiempo, un computador de control y equipo de interfaz para monitoreo y control del satélite.

Equipo de Interfaz terrestre: que incluye el equipo de interfaz eléctrica y de señales, requerido para comunicarse con el equipo de telecomunicaciones del usuario.

El equipo de una estación terrena tipo T-1 VSAT está dividido en dos categorías: equipo de la unidad "indoor" y equipo de la unidad "outdoor".

Aquí la descripción detallada de este equipamiento:

Equipo Indoor:

Equipo Outdoor:

  1. Antena (de 1.2m o 2.4m de diámetro)
  1. Unidad de Radio Frecuencia y Alimentación Electrónica (RF/FEU)
  2. Amplificador de Potencia Intermedia (IPA)
  3. Interfaz para facilidades de enlace (IFL/IF)

En la figura 7.2 se pueden observar las partes visibles de la estación terrena:







Figura 7.2 Equipo Outdoor

 

7.3.3 Funcionamiento General.

A través de la estación terrena T-1 VSAT, el usuario puede acceder al satélite de comunicaciones. El sistema de comunicación satelital, generalmente está compuesto por el satélite en el espacio, y en la Tierra, por una estación master que hace las veces de "central", dando o no permiso al usuario para transmitir, y por varias estaciones terrenas individuales, a las cuales llegan las señales del satélite, saltando de una en una. Básicamente el sistema funciona de la siguiente manera: El usuario envía el tráfico de señales a través de un periférico (MSP) ubicado en el rack de la estación terrena, haciendo una llamada telefónica, puesto que el MSP provee una interfaz flexible entre el equipo de telefonía del usuario y el terminal ACTS. El MSP transmite el tráfico hacia el satélite utilizando la antena, donde las señales pasan por todo el proceso del modo BBP. Luego, cuando están listas para su envío, son transmitidas de regreso a la Tierra, donde son pasadas a todas las estaciones terrenas individuales a grandes velocidades por la estación master, la cual se encarga de extraer el tráfico de enlace satelital y enviarlo a su destino final.

Pero ¿cómo se efectúa todo este proceso? A continuación se describe el proceso detallado:

Todo el tráfico enviado por el usuario a través de las llamadas, es ruteado a través del MSP (Modular Switching Peripheral), que es un periférico que brinda funciones de switcheo de señales y una interfaz flexible entre el equipo de telefonía utilizado por el usuario y el terminal ACTS. El manejo de las funciones de este periférico MSP, es ejecutado por el procesador de control.

Cuando el usuario requiere servicio de tráfico de señales (que puede ser envío hacia el satélite, o recepción desde el mismo), el procesador de control envía estos requerimientos a una estación de control "master", denominada MCS (Master Control Station), a través del satélite. Esta MCS retorna una respuesta aceptando o negando el requerimiento de tráfico, y arregla la estructura de envío de señales para acomodarla al requerimiento del usuario.

El MSP conecta el tráfico del usuario a uno o más de los 28 canales de 64Kbps que están disponibles en la estación terrena. Esta inserta el tráfico enviado por el MSP en el (los) slot (s) apropiados, donde es convertido a la base superior de frecuencias, específicamente a 3GHz, y posteriormente transmitido al satélite, a una tasa de 27Mbps para datos no codificados y de 13.7Mbps para datos codificados.

Todos los envíos en el canal de enlace ascendente son demodulados por el BBP del satélite, y almacenados momentáneamente en memoria. Entonces, los mensajes individuales del canal de enlace ascendente son re-ensamblados, de acuerdo a sus destinos correspondientes. Luego, el BBP remodula los mensajes re-ensamblados para transmitirlos hacia la estación terrena en el canal de enlace descendente, a una tasa de 110Mbps para datos no codificados y de 55Mbps para datos codificados.

El manejo necesario para coordinar el almacenamiento y posterior procesamiento de las señales en modo BBP, con los saltos de haz de una antena a otra, es centralizado por la estación de control Master, la que además planifica los tiempos de envíos de señales y las secuencias de salto de las mismas entre las antenas, de acuerdo a las demandas de tráfico de las estaciones terrenas individuales.

Este tráfico enviado, o los haces enviados, los cuales van saltando de una estación a otra, completan una secuencia entera de salto una vez cada milisegundo.

El envío desde el satélite en el enlace descendente, es recibido a 20GHz, y luego convertido a la banda inferior de frecuencias BaseBand. La estación terrena extrae el tráfico del usuario del enlace descendente enviado desde el satélite y lo pasa al MCS, donde es ruteado a su destino o usuario final.

 

 

 

 

 

 

7.4 PROTOCOLOS DE ASIGNACIÓN DE CANALES DE COMUNICACIÓN

PARA ENLACES SATELITALES

FDM: Sus siglas significan Multiplexión por División de Frecuencia. Para poder efectuar una comunicación satelital real, las señales llegan a los receptores transmisores del satélite a través de canales, los cuales están a su vez divididos en varios subcanales de diferentes frecuencias, separados por bandas de protección, con el objeto de no permitir que existan interferencias entre ellos. Cuando un usuario desea enviar información al satélite desde una estación terrena, hace una llamada telefónica, a la cual se le asigna un subcanal. Este subcanal se usa exclusivamente por esa llamada telefónica durante todo el tiempo que dure la transmisión, al final de la cual se libera. Cabe anotar que todo el ancho de banda de este subcanal, es para esa llamada determinada.

TDM: Es una técnica alternativa a la anterior. Sus siglas significan Multiplexión por División de Tiempo. A diferencia del protocolo FDM, aquí los canales no se dividen en subcanales por frecuencia, sino por tiempo. Así, cada cual se divide en ranuras agrupadas en tramas, y la información puede ser colocada en un ancho de banda de una sola ranura, basándose en un esquema de división de tiempo.

En el momento en que se efectúa una llamada, a esta se le asigna una ranura, y todas las tramas pertenecientes a dicha ranura se utilizan para esta llamada, hasta que termine. Cada estación recibe cada ranura el momento de la transmisión de señales desde el satélite hacia la Tierra. Por esto el TDM se utiliza para enviar mensajes de control y estado desde el satélite hacia las estaciones terrenas. En caso de que ninguna ranura esté disponible, la respuesta a la llamada del usuario será un tono de ocupado, y se deberá intentar de nuevo más tarde.

Estos dos protocolos anteriores, funcionan solamente cuando el número de estaciones terrenas es pequeño y relativamente estático, y todas tienen un tráfico continuo. Si no es así, se utilizan otros protocolos. Uno de ellos es el ALOHA. Los protocolos ALOHA fueron creados por Norman Abramson y sus colegas de la Universidad de Hawaii, en 1.970.

Solucionan los problemas que se presentan cuando varios usuarios pelean por el uso de un mismo canal de transmisión. Existen básicamente dos tipos de protocolos ALOHA a considerarse: ALOHA puro y ALOHA ranurado.

El ALOHA puro se basa en permitir que los usuarios transmitan información siempre que quieran, utilizando el canal de transmisión que deseen. Esto ocasiona colisiones, siempre y cuando dos usuarios hayan escogido un mismo canal para transmitir, destruyéndose en todos los casos las tramas que colisionan. Pero un usuario puede saber si su mensaje se destruyó, escuchando la salida del canal, gracias a la propiedad de retroalimentación de la difusión. En caso de que la trama no se haya logrado transmitir, los usuarios deben esperar un tiempo aleatorio para volver a intentarlo. Caso contrario, podría existir colisiones continuamente.

Otro tipo de protocolo ALOHA, es el conocido como ALOHA de reserva. La primera variación de este método, se basa en obtener un buen uso de un solo canal compartido que tenga mucha carga. Estos métodos generalmente comienzan funcionando como ALOHA, cuando hay poca carga en el canal, y se van pasando al protocolo TDM, conforme el tráfico va aumentando.

Finalmente otro protocolo es el PODA (Asignación de demanda orientada a prioridad), el cual es especial para manejar, tanto los flujos de datos continuo, como las ráfagas. Este protocolo también transmite mediante grupos de ranuras, las que están divididas en dos clases: ranuras de datos y ranuras de reserva. Para asignar las ranuras de reserva, existen dos métodos:

Este protocolo fue creado en 1979 por Jacobs, en la Universidad de Hawaii.

El programa ACTS, es un importantísimo programa espacial de comunicaciones satelitales para enseñanza y experimentación, el cual hace honor al satélite principal, eje central de la operación del proyecto, y cuyas siglas significan: Advanced Communications Technolgy Satellite.

Pero ¿de qué se trata el programa ACTS?

Este proyecto, concebido desde sus inicios por la Agencia Norteamericana del Espacio (NASA) en el año de 1979 y manejado particularmente por el Centro de Investigaciones Lewis y por la Oficina de Comercialización de esta organización, tuvo como primer objetivo el desarrollar y demostrar tecnologías revolucionarias que ayudaran a mantener el liderazgo de los Estados Unidos en el campo de las comunicaciones satelitales.

La NASA a través del programa ACTS, está desarrollando tecnologías avanzadas cuyo costo de desarrollo es muy elevado, en pro del avance de la ciencia de las comunicaciones.

Gracias a la producción de estas tecnologías, se puede obtener una gran variedad de beneficios como son: introducción de nuevos servicios, mayor eficiencia y eficacia en los servicios ya existentes, crecimiento en las capacidades de los sistemas satelitales, entre otros.

Actualmente, el programa ACTS cuenta con un satélite que pesa aproximadamente 286 libras y mide 46.5 pies desde el un extremo de las celdas solares hasta el otro extremo, y 30 pies desde una antena a la otra. Está ubicado en la órbita Geosincrónica, a 100 grados de longitud Oeste.

 

 

 

 

 

7.5 PROCESO DE VIDEOCONFERENCIAS A TRAVES DEL ENLACE SATELITAL DIRECTO

Uno de los grandes avances en el ámbito de las comunicaciones constituye el haber conseguido poner en órbita los satélites para enlazar a millones de personas al mismo tiempo, rebajando significativamente el costo de la comunicación. Esto nos ha permitido conocer a mucha más gente alrededor del mundo, perteneciente a diferentes culturas y con otras costumbres. Actualmente, nos es posible observar un evento mundial desde nuestros hogares, sin tener que viajar al país en donde está sucediendo.

El siguiente paso fue la instalación de redes telefónicas en casi todo el mundo, gracias a lo cual podemos conversar directamente con cualquier persona en cualquier parte del planeta.

Una vez alcanzados estos logros, los cuales constituyeron los objetivos iniciales del mundo de las comunicaciones, la tendencia actual es la consecución de un tipo de comunicación que permita obtener las ventajas de los dos medios mencionados anteriormente, conjugados en uno sólo: poder hablar con una o varias personas, y al mismo tiempo ver sus imágenes en tiempo real. Este método es conocido como videoconferencia.

Al contar con un enlace satelital y el equipo necesario, es posible llevar a cabo una videoconferencia, sin mucha complicación.

Dentro de este capítulo, describiremos cómo se realiza esta conexión, los esquipos necesarios para la comunicación, los problemas que se pueden presentar y sus soluciones.

7.6 REQUERIMIENTOS DE HARDWARE

Para correr cualquier aplicación que utilice un enlace satelital directo, se debe contar con un conjunto de equipos adecuados, los cuales se describen a continuación.

Un módem es indispensable para enviar la señal al satélite. Este debe tener el poder suficiente para mandar la señal a una antena parabólica de cualquier tipo, la cual se direcciona al satélite.

Debido al costo del enlace satelital, es aconsejable contar con un multiplexor, cuyo objetivo principal es el de enviar una sola señal al satélite. Otra función que debe cumplir, es dividir la señal proveniente del satélite en varios canales, uno de los cuales corresponderá al video, y otra a lo que se refiere a la voz. Sin embargo, es posible tener el audio en otro medio, como por ejemplo en una línea telefónica.

Sabemos que la señal de video es analógica, mientras que la que se transmite al satélite es digital. Por lo tanto, es necesario contar con un equipo que transforme la señal de video que viene del multiplexor a una señal de video analógica. Para esto necesitamos un Codificador – Decodificador, el cual digitaliza la señal analógica de video, y desdigitaliza la señal que viene del satélite. A este equipo se le conoce como CoDec.

Muchos de estos CoDec vienen con la posibilidad de multiplexar señales de audio, video y datos, para ser enviadas luego al lugar de destino, eliminando de esta forma la necesidad de tener un multiplexor. Adicionalmente, pueden cumplir la función de ser controladores de sistemas de videoconferencias.

Una cámara de video es indispensable. Esta transforma la luz captada en su lente en señales analógicas de video, y el sonido captado en un micrófono en señales analógicas de audio, para su posterior tratamiento en el CoDec y su envío al punto de destino.

Para visualizar las imágenes enviadas desde el origen, requerimos de un monitor que transforme las señales analógicas de video que llegan desde el CoDec. Este monitor puede ser cualquier aparato de televisión, o una simple pantalla de computador.

El enlace satelital que se requiere debe tener un mínimo de 64 Kbps. Es necesario ubicar las antenas en los dos puntos de comunicación, para subir y bajar las señales de satélite.

Adicionalmente a estos equipos básicos, existen otros que también intervienen en la implementación de una videoconferencia. Entre los más utilizados tenemos:

7.7 PROCESO DE ENLACE

En esta sección trataremos sobre cómo viaja la señal desde el origen hasta su destino. El siguiente diagrama (figura 7.3) muestra el proceso de enlace, utilizando el hardware descrito anteriormente.




 


Figura 7.3

 

Como en capítulos anteriores haremos énfasis en la descripción del CoDec.

Como observamos en el gráfico además del CoDec, tenemos la cámara de video la cual convierte las imágenes que capta, en señales analógicas de video, las cuales son enviadas al CoDec, que es el equipo que realiza el mayor trabajo en este tipo de enlace.

Como se mencionó anteriormente, el CoDec es el encargado de transformar en digitales a las señales analógicas. De este forma, cuando recibe señales digitales de video, las transforma a analógicas para enviarlas al monitor, quien se encarga de transformarlas en imágenes.

En general, un CoDec tiene una estructura como la que se muestra en la siguiente figura (figura 7.4):

 

 

 

 

 

 







Figura 7.4

 

 

 

Las señales generadas por una cámara de video, son transformadas de analógicas a digitales, y comprimidas por el procesador de video entrante (Input), quien se encarga de enviarlas a un procesador de comunicación.

Dependiendo de la funcionalidad del equipo, puede existir un procesador de audio entrante, el cual transforma las señales de audio analógicas en digitales, para que el procesador de comunicaciones las combine con las de video y envíe el paquete completo correctamente por un solo medio. De ésta forma, el CoDec también tendría una función de multiplexión de las señales.

Otra de las funciones del procesador de comunicación, a parte de combinar las señales de audio y video para ser enviadas por un solo medio de transmisión, es la de separar las señales que llegan desde el punto de origen. Una vez separadas, las envía a los procesadores de video saliente (Output) y de audio saliente, para que estos transformen sus respectivas señales de digitales a analógicas y las envíen a un monitor, en el caso del procesador de video, y a los parlantes, en el caso del procesador de audio.

Desde la década de los ochenta hasta nuestros días, este ha sido el rol dominante del CoDec dentro de los sistemas de videoconferencia. Actualmente, la introducción en el mercado de nuevos sistemas de videoconferencias se dirige a la expansión de las funciones realizadas por el CoDec, incorporando funciones que antes eran ejecutadas por equipos periféricos, como por ejemplo:

Debido a esta incorporación de varias funciones en el CoDec, se debe asegurar una total compatibilidad con otros equipos. Esta es la razón por la cual la mayoría de fabricantes utilizan la recomendación H.261, como modelo para el diseño de sus equipos CoDec.

Como consecuencia del costo que tiene el enlace satelital, las empresas que cuentan con este servicio dividen el ancho de banda en varios canales, dependiendo de sus necesidades particulares. Algunos canales pueden ser utilizados solamente para voz, otros sólo para datos y otros para todo lo que se refiere a video.

Por esto hemos incluido a un multiplexor en nuestro diagrama del enlace, el cual se encarga de dividir en diferentes canales todas las señales que le llegan del satélite, y de combinarlas, sean estas de voz, video o datos, para enviarlas al satélite como una sola señal.

Cabe resaltar que estas señales de voz y datos no intervienen en la videoconferencia, aunque se puede usar un canal de voz como audio de la misma, sin contar con la facilidad de multiplexión de video y audio del CoDec. En este caso, este aparato solamente se encarga de procesar la señal de video.

Una vez que el CoDec transforma las señales analógicas de video en digitales, las envía a un canal del multiplexor, para que las combine con otros canales. Finalmente pasan al módem, a través del cual, utilizando cierto protocolo, suben al satélite.

En el sitio de destino, una antena recibe la señal del satélite, y el proceso continúa de forma inversa; es decir, el módem pasa la señal al multiplexor, quien se encarga de dividirla en los diferentes canales de voz, video y datos para su posterior procesamiento. Las señales de video pasan al CoDec para ser transformadas en señales analógicas, y luego son desplegadas como imágenes en la videoconferencia.

7.8 ANALISIS DE CONTINGENCIAS

Dentro de esta sección, trataremos los posibles problemas que se producen durante la realización de videoconferencias, y plantearemos soluciones para corregirlos.

Existe un problema con los sistemas de reloj de los equipos de comunicación produce un deslizamiento en los bits de las tramas que se envían por el medio, además de la pérdida de sincronización de los modems satelitales, lo cual puede llevar a una pérdida de comunicación.

Para solucionar este problema, existen dos métodos de sincronización: El primero consiste en la utilización de un solo reloj por parte de los equipos de comunicación. A éste método se lo conoce como Sistema de Sincronización de Lazo (Loop Timed System), en el cual el reloj del sistema es proporcionado por el equipo terminal de datos (Data Terminal Equipment). El módem satelital utiliza buffer para compensar las diferencias entre el DTE y el suyo propio. En el otro extremo el DTE trabaja en modo esclavo para tomar el reloj de la señal de recepción y sincronizar el reloj de la señal de transmisión.

El segundo método de sincronización consiste en utilizar dos diferentes fuentes de reloj, las cuales se manejan independientemente en cada nodo de un circuito de comunicación punto a punto.

Otro de los problemas más comunes es la pérdida de comunicación de los modems satelitales, lo cual se debe a una desorientación de las antenas, o a las malas condiciones del clima, que pueden provocar interferencia y ocasionar esta pérdida de comunicación. Para solucionarlo, es necesario que las antenas se ubiquen en una orientación óptima para poder obtener una buena señal del satélite. Una vez solucionado este percance, no se debería repetir, ya que si la configuración utilizada da buenos resultados, no es necesario cambiarla.

 

 

 

 

 

 

 

 

 

CAPITULO 8. ANALISIS COMPARATIVO DE LOS METODOS DESCRITOS PARA VIDEOCONFERENCIAS


8.1. ¿POR QUÉ COMPARAMOS?

En función de los objetivos planteados al iniciar nuestra tesis, uno de los cuales constituye el de presentar al Instituto una propuesta para incorporar, como método educativo, un sistema de videoconferencias utilizando los recursos existentes, hemos debido realizar un análisis entre los dos métodos de posible implantación, compararlos detenidamente y determinar la opción más factible, cumpliendo de esta forma con nuestro objetivo.

La comparación es esencial, porque nos brindará pautas para resaltar las ventajas y desventajas de cada uno de los métodos propuestos, demostrar la fácil aplicabilidad e importancia del sistema en nuestro instituto, y de acuerdo a los resultados obtenidos, detallar los procesos y operaciones que deben efectuarse para poner en práctica la solución propuesta.

A continuación detallamos los criterios en base a los cuales se realiza la operación:

8.2. FACTORES DE COMPARACIÓN.

Para definir los criterios que sirvan como base para la comparación, es necesario conocer a fondo los dos métodos a comparar y determinar las características esenciales de cada uno, que pueden ser cruciales al momento de definir cuál es el método más factible. Para este efecto, hemos determinado los siguientes índices:

Equipos: Compararemos los equipos utilizados para cada uno de los métodos y determinaremos, en base a este índice, cuáles son más asequibles para el I.S.T.I, tomando en cuenta precios, disponibilidad, instalación, mantenimiento, operación, etc.

Ancho de Banda: Este criterio nos sirve para determinar la velocidad de conexión y transmisión de información de cada uno de los métodos analizados, ayudándonos a definir cual es el más rápido.

Disponibilidad: Se refiere a la facilidad de acceso que tienen los métodos para su utilización.

Portabilidad. Se refiere a la facilidad de ejecutar el sistema sobre cualquier plataforma, además de la posibilidad de operarlo desde diferentes localizaciones físicas.

Costos: Este es quizá uno de los índices más importantes en la comparación, puesto que la diferencia en el costo de los equipos y de la implantación total del sistema de videoconferencias, puede tener un gran peso al momento de la decisión final.

Otras características: En este criterio, se tratará características diferentes, propias de cada uno de los métodos.

8.3. VENTAJAS Y DESVENTAJAS DE LA CONEXIÓN SATELITAL DIRECTA.

Para la determinación de las ventajas y desventajas de la conexión mediante cualquiera de los métodos, nos basaremos en los índices de comparación definidos en el numeral anterior:

Equipos: Los equipos utilizados para realizar videoconferencias mediante enlaces satelitales directos, además de ser costosos son especializados. Esto quiere decir que son equipos sofisticados que se dedican únicamente al tratamiento de las señales de vídeo y audio. Además, algunos incluyen herramientas de compresión y cancelación de Eco.

Por otro lado, factores relacionados más complicados, como son la disponibilidad de acceso a la estación terrena y equipos necesarios para operarla y conducir la comunicación, son de difícil operación, costo elevado y acceso restringido.

Como se puede observar, los equipos constituyen una desventaja que afecta la aplicabilidad del método de videoconferencias utilizando el enlace satelital, principalmente debido a su elevado costo y difícil operación, mantenimiento e instalación.

Ancho de Banda: El ancho de banda disponible para este tipo de conexión es, en la mayoría de los casos, de 64 kbps, lo cual constituye una ventaja en vista de que se tiene un canal de comunicación dedicado solamente para las señales de vídeo, ocupando todo el ancho de banda. De esta forma, los cuadros de vídeo se reciben en forma casi continua, permitiendo observar movimiento en las imágenes. Por otro lado, las señales de audio también resultan beneficiadas, ya que al compartir el ancho de banda del canal de transmisión, estas ocupan poco espacio, obteniéndose una mayor disponibilidad del audio en el lado receptor. Además debido a que los equipos utilizados para este tipo de conexión disponen de algoritmos para compresión de la información, se puede producir un ahorro en el ancho de banda, permitiendo mayor velocidad en la videoconferencia.

Disponibilidad: La disponibilidad del enlace de comunicación satelital constituye una ventaja, en vista de que una vez obtenidos los permisos y licencias necesarias para operarlo, su acceso será siempre certero y factible. Por otro lado, este enlace presenta una característica muy importante que es la confiabilidad. Con esto nos referimos a que el enlace nunca va a caerse, impidiendo de esta forma que se produzcan pausas y problemas de este tipo durante la transmisión.

Portabilidad: Debido a la complicada instalación de los equipos que los transforma en componentes fijos de un lugar determinado, a la operación, mantenimiento y sobre todo a la correcta adecuación de la sala de videoconferencias, equipándola con una serie de herramientas para lograr mejor calidad de audio y vídeo, el sistema de videoconferencias utilizando el enlace satelital directo carece de portabilidad.

Esto constituye una desventaja, porque esclaviza al usuario a la utilización de una misma sala, trayendo consigo los problemas de mantenimiento y disponibilidad de la misma. Como se puede ver, no es posible movilizar el servicio de un subcentro de computo a otro, creando la necesidad de transportar a los estudiantes hacia la sala, lo que constituye una molestia adicional.

Costos: Como mencionamos anteriormente, los costos constituyen la desventaja que afecta principalmente a la opción del enlace satelital en el numeral 8.5 de este capítulo, se analizarán los costos detalladamente. Por el momento, aquí podemos anotar que un sistema completo de videoconferencias utilizando un enlace satelital directo, tiene un costo que oscila entre los 40.000 USD y 100.000 USD.

Es claro que, basándonos en estos precios que constituirían una inversión altísima, la aplicabilidad de esta opción está negada para el I.S.T.I, tomando en cuenta la difícil situación económica actual.

Otras caracterísitcas: Es necesario mencionar que para optar por un satelite en el caso de nuestro instituto, por el satélite ACTS, es preciso obtener las licencias y permisos correspondientes.

Esto constituye también una desventaja, puesto que incluye una molestia más para el servicio al introducir demoras en la realización de este tipo de trámites burocráticos necesarios para la obtención de las licencias.

Por otra parte, el hecho de comprimir los datos para obtener una disminución en el ancho de banda utilizado y aumentar la velocidad del enlace, puede constituir una arma de doble filo. De hecho, se sabe que utilizar razones de compresión muy grandes puede degradar la calidad y definición de la imagen.

Finalmente, podemos agregar que la sincronización que se requiere para efectuar una videoconferencia exitosa mediante este método, no se refiere solamente a concordar en la hora y día exactos en los que se efectuará la transmisión, sino que también es necesario definir exactamente las frecuencias de enlace que se utlizará.

8.4. VENTAJAS Y DESVENTAJAS DE LA CONEXIÓN VÍA INTERNET.

De igual forma que con el método anterior, concluiremos las ventajas y desventajas de este método utilizando los índices de comparación definidos en el numeral 8.2

Equipos: La principal ventaja que ofrecen los equipos de videoconferencias mediante Internet con respecto a los analizados anteriormente es, su bajo costo, disponibilidad y fácil operación. Además su instalación y mantenimiento son muy sencillos, debido a que se trata principalmente de pequeñas cámaras de vídeo, tarjetas de sonido y captura de vídeo, y sencillos micrófonos para capturar sonido y enviar señales de audio.

Otra ventaja con relación a los equipos del enlace satelital directo, es que el control de la operación de los mismos y en sí, de todo el proceso, está totalmente e manos del I.S.T.I, siendo sus técnicos quienes podrán controlar los equipos y la ejecución correcta de las videoconferencias.

Ancho de Banda: El ancho de banda asignado para la conexión a Internet de nuestro instituto es de 64 kbps. Sin embargo, esta velocidad es compartida por todos los usuarios de la red, que se encuentran utilizándola en un determinado momento. El disminuir el ancho de banda asignado para la aplicación de videoconferencias afecta en lo que se refiere a la transmisión de las señales de audio y vídeo, restándole continuidad tanto a la imagen como al sonido, y constituyendo innegablemente una desventaja.

Disponibilidad: Al igual que en el caso anterior, una vez provistos del enlace a la red Internet, la disponibilidad de efectuar videoconferencias está siempre vigente, lo que en cierta forma constituye una ventaja. Sin embargo se puede correr el riesgo de que se caiga la conexión a Internet, perdiéndose la videoconferencia, pero esto ocurre muy pocas veces. Una vez con el enlace, lo único que hace falta es sincronizar el día y la hora con el otro extremo y está se efectuará sin problemas.

Portabilidad: Es otra característica en la cual el enlace vía Internet supera al anterior. En este caso, la posibilidad de que no se dependa de salas de videoconferencias acústicamente adecuadas con características especiales, y el hecho de poder efectuar una videoconferencia desde cualquier equipo que tenga Internet, pudiendo mover la cámara de vídeo fácilmente hasta cualquier localización, permite que el servicio sea brindado desde los subcentros de computo del instituto, constituyendo una gran ventaja y haciendo más atractivo a este método.

Costos: Esta característica provee la ventaja más importante que supera al método anterior. De hecho las diferencias en este sentido son increíblemente grandes. Los costos detallados correspondientes a este servicio serán explicados detenidamente en el numeral 8.6 del presente capítulo. Por el momento podemos mencionar que el instituto puede adquirir sistemas completos de videoconferencias por alrededor de 200 USD, lo cual constituye una opción mucho más aplicable y factible que el anterior, brindando los mismos beneficios.

Otras características: Las licencias pertenecientes a los paquetes de videoconferencias vía Internet están fácilmente disponibles y su costo no es elevado. Al comparar la licencia, no es necesario efectuar ningún tipo de trámite adicional para operar el paquete. Esto constituye una gran ventaja sobre el método anterior. Por otro lado el enlace satelital utilizado para la conexión con la otra parte del mundo mediante Internet está fuera de la jurisdicción tanto del operador como del usuario final, permaneciendo transparente para aquellos.

Finalmente, la calidad de audio y vídeo que se obtiene con este método, aunque no es igual que la obtenida mediante un enlace satelital directo, puede llegar a ser muy similar

o simplemente aceptable. Cabe anotar que el método de videoconferencias mediante Internet tiene otra ventaja interesante: al mejorar el enlace a Internet, mejorarán las videoconferencias, lo que representa una enorme ventaja en épocas de crisis económica, cuando no hay recursos para una conexión dedicada a videoconferencias.

8.5 ANÁLISIS COSTO/BENEFICIO DE LA CONEXIÓN SATELITAL DIRECTA

Como se mencionó anteriormente, los costos referentes a este tipo de conexión son muy elevados, lo que podría influir mucho en la decisión final para la instalación permanente de un sistema de videoconferencias. En el siguiente cuadro se muestra un estimativo de los costos relacionados con este método.

REQUERIMIENTOS

COSTO APROXIMADO

CODEC para videoconferencias

Entre 2.500 USD y 60.000 USD

Paquetes de equipo de audio y vídeo creados específicamente para aplicaciones de videoconferencias

Entre 15.000 USD y 42.000 USD

Transmisión (específicamente en el programa ACTS)

3.000 USD por hora

Costo aproximado total del servicio:

Entre 40.000 USD y 100.000 USD

Tabla 8-1

Suponiendo que adquirimos los equipos de costo más bajo, la inversión necesaria sería la siguiente:

CODEC........................................................................................ 25.000 USD

Paquetes de audio y vídeo............................................................ 15.000 USD

Monitor........................................................................................ 500 USD

Cámara de vídeo........................................................................... 500 USD

Adecuación de la sala................................................................... 500 USD

TOTAL........................................................................................ 41.500 USD

Ahora, este gasto se refiere únicamente a la adquisición de los equipos y adecuaciones necesarias. Una vez que se cuente con todos los requerimientos, una videoconferencia que dure 2 horas tendrá un costo de 6.000 USD, tomando en cuenta que el valor por hora de transmisión en el programa ACTS es de 3.000 USD, como mencionamos anteriormente.

Para un período de un año, suponiendo que se efectúe una videoconferencia por mes, tendríamos un costo total de 72.000 USD. Suponemos que la NASA mantendrá fija esta tarifa hasta dentro de cinco años.

Los beneficios cuantificables se refieren al ahorro que se obtendría gracias a la eliminación de gastos de viajes y estadías de los participantes en conferencias fuera del campus del instituto.

Los beneficios no cuantificables que se obtiene al aplicar este método son los siguientes:

Si bien es cierto que los cuadros de vídeo que se presentan en una videoconferencia mediante un enlace satelital directo aparecen más seguido, dotándole de continuidad a la imagen, y que la calidad del sonido resulta mejor, convirtiendo a la videoconferencia en una conversación casi normal, el costo que se requiere para lograr esto es excesivamente elevado, haciendo que la opción no sea factible actualmente.

Sobre todo, hay que tomar en cuenta que al contar con un medio de transmisión de información tan importante y conocido como es Internet, se pueden efectuar videoconferencias a un costo muchísimo menor y con beneficios que, si bien es cierto no tienen la excelente calidad que los anteriores, pueden mejorarse tomando en cuenta ciertas características y permitiendo construir videoconferencias aceptables que ayudarán a mejorar increíblemente el nivel de educación impartido en el I.S.T.I.

Concluimos que para los beneficios ofrecidos, el costo no es rentable para nuestro instituto. La inversión no se justifica en este caso, convirtiendo a esta opción en no aplicable.

8.6 ANÁLISIS COSTO/BENEFICIO DE LA CONEXIÓN VÍA INTERNET

En lo que se refiere al método de videoconferencias utilizando Internet, los costos relacionados son los siguientes:

REQUERIMIENTOS

COSTO APROXIMADO

Cámara de vídeo

Entre 70 USD y 300 USD

Licencias de paquetes

Entre 50 USD y 200 USD

Transmisión por hora

Entre 4 USD y 7 USD

Tarjetas de captura de vídeo

Entre 100 USD y 1000 USD

Tarjetas de sonido

Entre 100 USD Y 800 USD

Costo aproximado total del servicio:

Entre 320 USD y 2.300 USD

Tabla 8-2

Para efectos de comparación, vamos a suponer que se adquieren los equipos más caros. El costo de la adquisición vendría a ser aproximadamente 2.300 USD, inversión muy baja comparada con la del método anterior, la cual representaba un costo de 41.500 dólares, utilizando los equipos más baratos. Esto quiere decir una diferencia de 39.200 USD que no puede pasar desapercibida al momento de decidir cual método es mejor para el I.S.T.I

Sin embargo hay que tomar en cuenta que esto no será un costo real para nuestro instituto, puesto que se puede ahorrar en algunos casos: por ejemplo muchos computadores tienen una tarjeta de sonido incluida entre sus componentes. Por otro lado y como ya habíamos mencionado, en el mercado existe un tipo de cámara que no requiere de una tarjeta de captura de vídeo, y que es la que utilizaremos para nuestra demostración.

Esta cámara se denomina Quick Cam tiene un valor de apenas 96 USD

De esta forma, el instituto puede adquirir los equipos para videoconferencias mediante Internet por alrededor de 200 USD.

Ahora una videoconferencia que tenga un tiempo de duración de 2 horas, luego de haber adquirido los equipos necesarios. Tendría un costo de 20 USD actualmente, Para un período de un año, realizando una videoconferencia por mes y tomando en cuenta la tasa de inflación, el costo total sería de 18,92 USD a cinco años este costo sería de 545.023 USD Valor increíblemente bajo comparado con el del método anterior.

Los beneficios cuantificables obtenidos gracias a este tipo de conexión, serían exactamente los mismos que en el caso anterior, puesto que también producen un ahorro en los gastos de viajes y estadías.

Para hablar de los beneficios no cuantificables del servicio de videoconferencias utilizando este método podemos anotar las siguientes:

Si bien es cierto que la continuidad de la imagen y el sonido de las videoconferencias no será de la misma calidad que ofrece el método que emplea un enlace satelital directo, éste segundo método ofrece buenos resultados a un costo increíblemente menor, favoreciendo a la implantación de un servicio que puede ser brindado desde cualquier subcentro de cómputo y que ayuda a mejorar el nivel educativo e imagen del I.S.T.I

Por lo tanto concluimos que esta es la opción con mayor factibilidad de aplicación en el instituto ITALIA actualmente.

8.7 RESULTADOS

Luego de comparar los dos métodos presentados en esta tesis de grado para la implantación del servicio permanente de videoconferencias en el I.S.T.I concluimos que el método más factible es el que emplea Internet como medio de transmisión de la información audiovisual.

Al ofrecer beneficios que de algún modo pueden ser parecidos a los que representa la conexión satelital directa, y mejorar de este modo la calidad de educación impartida en el I.S.T.I a un costo muy bajo, el método de videoconferencias mediante Internet es el más opcionado para ser aplicado en nuestro instituto.

El siguiente es un cuadro explicativo que muestra las razones por la cual se debe optar por este método vía Internet.

CRITERIOS DE COMPARACIONENLACE SATELITAL DIRECTO

ENLACE VIA INTERNET

 

Equipos Costosos

SI

NO

Fácil Operación

NO

SI

Fácil instalación y mantenimiento

NO

SI

Utilización del canal completo de 64 kbps para la transmisión de audio y vídeo

SI

NO

Continuidad en las imágenes

SI

Relativamente

Completa disponibilidad

SI

SI

Facilidad de adquisición de licencias

NO

SI

Portabilidad

NO

SI

Costo elevado

SI

NO

 

CAPITULO 9. REQUERIMIENTOS PARA REALIZAR UNA VIDEOCONFERENCIA


9.1 DESCRIPCION GENERAL.

La sala de videoconferencia es sobre lo que más conocerán o verán los usuarios del sistema. Por lo tanto, el nivel de confort que esta área genere determinará el éxito de la instalación. La sala de videoconferencia perfecta es un cuarto que se siente tan agradable como una sala de conferencias normal. Aquellos que utilicen la sala no deberán ser intimidados por la tecnología requerida, al contrario, deberán sentirse en confianza con ella. La tecnología en los equipos modernos de videoconferencia suele estar escondida y se utiliza de manera "transparente" al usuario.

En el diseño de una sala, tanto el ambiente físico como la tecnología deberán ser tomados en cuenta. El tamaño del cuarto y la forma de este, pueden jugar un factor significante en cuánto y cómo interactúen los usuarios con el sistema. El tamaño y la forma del cuarto deberán seleccionarse de tal manera que sea consistente con el uso propuesto de la sala. Ahora, esto parece fácil de decir, sin embargo muchas personas han caído dentro de la trampa de decir, el cuarto de videoconferencia no puede ser menor que "X", o mayor que "Y". Por lo tanto, trataremos de llevar esta aplicación a algo entre "X" y "Y".

Es posible diseñar la sala para satisfacer cualquier necesidad. Existen sistemas propiamente diseñados operando en plantas de fabricación donde los aeroplanos son ensamblados. Es también posible generalizar la sala de videoconferencia en un ambiente corporativo o en un ambiente educativo.

Una sala de videoconferencia típica está cerca de los 7.5 metros de profundidad y los 6 metros de ancho, estas dimensiones podrán albergar a un sistema de videoconferencia mediano y una mesa para conferencias para aproximadamente 7 personas (tres en cada lado y uno más al final de la mesa). Hay otros tres factores a considerar en conjunción con la elección del tamaño y forma del cuarto, iluminación, acústica y amueblado.

9.1.1 Iluminación.

La energía total emitida por segundo por un manantial de ondas electromagnéticas se denomina "flujo radiante". Si consideramos exclusivamente las ondas correspondientes al espectro visible, el flujo radiante se denomina "flujo luminoso". Concretamente definiremos como flujo luminoso total de un manantial, a la energía luminosa visible emitida por segundo por el manantial. Se define a la unidad de flujo luminoso como "lumen", que es el flujo luminoso por unidad de ángulo sólido emitido por un manantial de una bujía. Siendo la "bujía" la sesentava parte de la intensidad luminosa de un centímetro cuadrado de cuerpo negro, operando a la temperatura de fusión del platino (2046 K). La iluminación o iluminancia de una superficie, es el flujo luminoso que incide sobre ella por unidad de área. La unidad de medida en el sistema métrico es el "lux", que es el lumen por metro cuadrado. La iluminación máxima producida por la luz solar es de 100 000 lux, mientras que en los días nublados sólo llega a unos 1000 lux.

Existen tres elementos primordiales en la consideración de la iluminación de una sala: niveles de iluminación, ángulos de iluminación y color de iluminación. El objetivo es proveer iluminación del color correcto a niveles que le permitan a la cámara el representar una escena de manera natural.

El error más común en iluminación se lleva a cabo en la consideración de los niveles de iluminación (ya sea muy poca o demasiada iluminación). Las videocámaras más modernas especifican niveles de iluminación entre 1000 y 2000 lux, pero pueden funcionar bien a niveles de 500 lux. La ventaja de contar con niveles altos de iluminación (1250 lux) será un desempeño de las cámaras mejorado. La profundidad de campo, la habilidad para llevar a cabo el enfoque de la escena, está directamente relacionada a la cantidad de iluminación disponible a los lentes.

Así que, donde los niveles de iluminación sean altos, será fácil realizar el enfoque de la imagen. También con iluminación suficiente habrá muy poco o no habrá "ruido" en la señal de video de la cámara (El ruido se manifiesta como una imagen granulada estática en el monitor). El ruido es generado normalmente por un circuito de Control de Ganancia Automático (AGC) en la cámara el cual tiende a incrementar la fuerza de la señal en situaciones de baja iluminación. La desventaja de utilizar niveles altos de iluminación es el calor adicional generado por las instalaciones eléctricas, que hacen a la sala más cara (y potencialmente más ruidosa) para ambientar. Los participantes de la conferencia probablemente se sentirán incómodos en un ambiente brillante y caliente.

Las ventajas de utilizar un nivel bajo de iluminación (750 lux) se centran en el confort de los participantes y en el costo de ambientar la sala. Sin embargo por debajo de los 750 lux de iluminación la cámara de video no será capaz de representar propiamente la escena. Los colores se "lavarán" y las sombras serán demasiado pronunciadas. La señal de video contendrá ruido el cual afectará la habilidad del codec de video de adaptar apropiadamente el movimiento en la escena (el ruido es percibido como movimiento en la escena).

El objetivo es entonces trabajar entre 750 y 1250 lux (en un valor aproximado de 1000 lux). A este valor, los niveles de ruido de la cámara serán aceptables, los colores serán representados apropiadamente, y los participantes de la conferencia estarán confortables.

La luz en un ángulo apropiado es un factor importante para obtener una imagen de buena calidad. Desafortunadamente, la mayoría de las salas de videoconferencia existentes, están equipadas con instalaciones para irradiar la iluminación en su mayoría hacia abajo normalmente sobre la superficie de la mesa de conferencia. Esto es aceptable para una sala de conferencia "normal", donde el propósito es proveer de la iluminación adecuada sobre los documentos u objetos colocados en la mesa. Desafortunadamente, este tipo, o ángulo de iluminación provoca sombras obscuras sobre los ojos, nariz y barba de las personas en la mesa. También provoca áreas "calientes" de iluminación en hombros y cabezas.

El ojo humano es mucho más capaz de compensar este tipo de iluminación, mejor aún que la más sofisticada de las videocámaras. El rango de contraste aceptable para el ojo incluye el rango entre estas áreas de brillo más notable y las sombras obscuras. Una video cámara es mucho menos tolerante; cualquier sombra creada por ángulos de iluminación pobre será mucho mas notoria en el monitor de video del punto distante de recepción que para los ojos de aquellos que se encuentren en la sala local.

Para cumplir con una escena uniformemente iluminada, se deberán satisfacer varias condiciones. La fuente de iluminación no deberá ser un sólo punto (así como una luminaria de spot, o una estructura de enfoque simple), deberá ser entonces proporcionada por diversas fuentes (como por ejemplo bulbos múltiples de 2' X 2' o instalaciones fluorescentes de 2' X 4'). Existe una regla para la iluminación de las salas de videoconferencia la cual puede ser aplicada. Hablando generalmente, una fuente luminosa deberá ser colocada 45 grados por encima del objeto. Las fuentes de iluminación situadas a ángulos menores de 45 grados estarán "sobre los ojos" de los participantes de la conferencia, las fuentes a más de 45 grados dejarán sombras notables particularmente debajo de los ojos.

Es importante que la cámara vea una escena con niveles de iluminación uniformes en todos los sitios. Aún más crítico que una escena con niveles de iluminación distribuidos equitativamente, es la cantidad de luz reflejada hacia la cámara por la pared situada al frente de la sala. El nivel de iluminación reflejado por la pared trasera deberá ser escasamente menor que y nunca deberá exceder aquella reflejada por los participantes de la conferencia.

Este puede ser un reto interesante porque los fondos de diferente color o textura reflejarán diferentes niveles de iluminación. Por consiguiente, no es suficiente el instalar iluminación de pared y asumir que un nivel apropiado será reflejado.

El método más exacto de medición de la cantidad de luz reflejada es con un "exposímetro". Estos dispositivos son utilizados comúnmente por fotógrafos para el análisis de los niveles de exposición de una película en diferentes áreas de una escena. Algunas cámaras de 35 mm. tienen construido en sí uno de estos dispositivos.

Se deberá tomar entonces la lectura de la cantidad de iluminación en los sitios donde se situará a los participantes, para después tomar el nivel de iluminación que está siendo reflejado por la pared de fondo.

En general se entiende como fuente luminosa al dispositivo que es capaz de emitir radiaciones visibles para el ojo humano. A las fuentes luminosas artificiales se las llama lámparas. Todos los tipos de lámparas existentes se pueden incluir en algunos de los dos grandes grupos siguientes, las que emiten "radiaciones caloríficas" y las que emiten "radiaciones luminiscentes". Las primeras se basan en las radiaciones que se producen cuando se eleva la temperatura de ciertos cuerpos hasta un valor conveniente, también se les conoce con el nombre de "incandescentes". El segundo tipo se basa en el fenómeno de la luminiscencia, que consiste en la producción de radiaciones luminosas con un pequeño aumento en la temperatura, que puede obtenerse por fluorescencia o fosforescencia. Cuando la emisión de radiaciones luminosas persiste después de cesar la causa que la produce se trata de fosforescencia.

Desde el punto de vista luminotécnico, las lámparas se caracterizan por las siguientes magnitudes:

La iluminación de una sala de conferencias estándar normalmente esta establecida mediante la combinación de dos tipos diferentes de instalaciones de iluminación. La instalación fluorescente normalmente tiene una temperatura de color de 5.600 grados Kelvin, y las instalaciones incandescentes tienen una temperatura de color de 3.200 grados kelvin. La escala de temperatura de color fue inventada por un físico británico (de ahí el nombre de kelvin) y hace referencia al color de una varilla de hierro cuando es calentada a temperaturas específicas.

Cuando una varilla es calentada gradualmente cambia de color hasta que se vuelve "blanca", a bajas temperaturas tiende a ser de color rojo. La luz del sol en un día soleado mide entre 5.500 grados y 5.600 grados. Un bulbo de iluminación de tungsteno proporciona 3.200 grados.

Existe un pequeño "inconveniente" en este sistema de medición de color de la luz. La mayoría de los decoradores de interiores hacen referencia a los colores entre el rango de naranja - rojo como colores "cálidos" y los colores entre el rango de azul - blanco como colores "frescos" o "fríos". Si observamos esta terminología en la escala de kelvin las luces "frías" son las naranja - rojizas, y los colores "cálidos" o "calientes" son los azul -blanco (porque la varilla del metal está mucho más caliente cuando adquiere estas tonalidades).

Como se puede imaginar, el color de la luz disponible en una sala de videoconferencia afectará en cómo percibirá la cámara el color de los objetos (y personas) dentro de esa área. La mayoría de las cámaras están equipadas con una características de "balance de blancos" la cual corrige electrónicamente la temperatura de color de la luz en el cuarto. Esta característica varía de una cámara a otra, pero generalmente está disponible para corregir entre los rangos de 3.200 y 5.600 grados. El ojo humano ejecuta este ajuste automáticamente y muy exactamente, normalmente en unos instantes.

Subjetivamente, parece ser que las luces "frías" (en la escala de kelvin) son más placenteras que las luces "calientes". Por otro lado, las luces "calientes" son más brillantes, estos es, se obtienen niveles de iluminación más altos a partir de una instalación que incorpore luces "calientes" que las que se obtienen de instalaciones "frías" con un mismo consumo de energía. La mayoría de las instalaciones de iluminación industriales incorporan bulbos fluorescentes de 5.600 grados, aunque existen también bulbos fluorescentes de 3.200 grados. Muchas salas de conferencia han mezclado exitosamente los dos tipos de bulbos en una proporción aproximada de 50 por ciento, con buenos resultados. Esto da como resultado niveles de iluminación suficientes con colores placenteros.

9.1.2 Acústica

Junto con la iluminación, los diseñadores de salas deberán considerar también la acústica. Existen cuatro elementos a considerar dentro del diseño acústico de una sala de videoconferencia: niveles de ruido ambiental, tiempo de reverberación, colocación del micrófono y bocina y el método de cancelación de eco ha ser utilizado.

El objetivo general es proveer de una sala silenciosa con un tiempo de reverberación relativamente pequeño. La colocación adecuada del micrófono y la bocina aumentará la calidad del sonido transmitido entre las salas de conferencia. Todo esto se combina para ayudar al cancelador de eco en su función.

El primer paso para alcanzar un audio de alta calidad es obtener una señal de la voz clara y fuerte de todos los participantes. Esto no deberá ser opacado por la obtención simultánea de ruido de fondo excesivo, sonido distante de reverberación. El ruido del fondo generalmente proviene de los ductos de ventilación, balastras de iluminación fluorescente, y los ventiladores de los equipos de enfriamiento. La calidad de reverberación viene de la superficie de las paredes, pisos y techos que reflejan la voz de los participantes muchas veces en su camino al micrófono.

Estos sonidos pueden también interferir con las conversaciones dentro del cuarto. Esta interferencia es aminorada por el efecto de "filtrado" binaural normal de los escuchas. Un escucha en el cuarto puede distinguir entre el sonido directo y la reverberación. Un escucha en el extremo distante de la conferencia no tiene esta habilidad. Un micrófono sencillo capta toda la reverberación, ruido, y habla directa y las reproduce sin la "señal" de dirección que beneficia al escucha dentro de la sala. Por esta razón, el audio transmitido deberá estar más limpio que el del cuarto en el cual se produce para obtener el mismo nivel de inteligibilidad.

9.1.3 Micrófonos.

En los primeros días de la videoconferencia, se empleaban en los sistemas micrófonos omnidireccionales, los cuales responden de igual manera a todos los sonidos provenientes de todas direcciones. El micrófono omnidireccional permitió a los participantes sentados cerca de él, a una distancia uniforme, el ser escuchados a niveles similares. Esto sólo operó cuando los participantes se sentaban cerca del micrófono debido a la cantidad de ruido ambiental y de reverberación que se captaba en adición a la voz de los participantes. Esta limitación redujo el número de participantes.

La utilización de micrófonos unidireccionales en lugar de micrófonos omnidireccionales mejoró la inteligibilidad. Un micrófono unidireccional responde a los sonidos de una manera diferente dependiendo de su ángulo de captación o entrada. Un sonido proveniente de la parte trasera (fuera del eje primario) del micrófono produce una salida más baja que un sonido que proviene del frente (sobre el eje). Esta característica direccional del micrófono ayuda a reducir la cantidad de reverberación y ruido transmitido al escucha distante. Cuando el frente del micrófono está apuntando hacia el participante, la voz del participante producirá una salida más fuerte que el ruido y reverberación provenientes de la parte trasera y lados.

La manera en que un micrófono responde a los sonidos que este capta a diferentes ángulos está descrita por una gráfica especial denominada patrón polar. El micrófono unidireccional básico tiene un patrón polar "cardioide" (con figura de corazón). Un micrófono cardioide (figura 9.1) es cerca de la mitad de sensitivo a los sonidos que provienen del frente con respecto a los sonidos que provienen de atrás. Los micrófonos están disponibles con una gran variedad de características direccionales. Por ejemplo, un micrófono supercardioide tiene un nivel de captación más angosto siendo sólo 37 por ciento más sensitivo a los sonidos que arriban desde los lados comparado con los sonidos que arriban desde el frente. Sin embargo este patrón angosto también tiene lóbulos (áreas) de captación traseros y, en general, no tienen significativamente menos captación de ruido y de reverberación que el patrón básico cardioide. El micrófono cardioide es generalmente el más adecuado para aplicaciones de videoconferencia. Estos micrófonos son generalmente pequeños, del tipo de montaje en superficie para minimizar las reflexiones provocadas por la mesa y la obstrucción visual.

El reemplazar un sólo micrófono con múltiples micrófonos fue utilizado para tratar de incrementar el número de participantes. Esta técnica sitúa a cada participante cerca de un micrófono. Con un micrófono cerca de cada participante, la captación de éste tendrá una mejor relación de la voz de los participantes con respecto al sonido de fondo y reverberación. Desafortunadamente la señal de este micrófono se mezclará con los demás micrófonos dentro de la sala. La salida de los otros micrófonos contiene en su mayoría ruido de fondo y reverberación debido a su distancia con el participante. La señal resultante contiene más ruido y reverberación que un sólo micrófono pudiera captar por sí solo. El uso de múltiples micrófonos unidireccionales produce ligeramente mejores resultados que los que producirían múltiples micrófonos omnidireccionales, pero la cantidad de ruido y reverberación captados es todavía excesiva si todos los micrófonos están abiertos al mismo tiempo.

 

 

Figura 9.1 Patrón cardioide básico

Una solución a este problema es el encender sólo el micrófono que esté próximo al participante. El dotar a cada micrófono con un switch "oprima para hablar" (push-to-talk) permite a cada usuario el seleccionar su propio micrófono cuando el desee hablar. Esto resulta generalmente incómodo y es difícil de aprender para los usuarios ocasionales y nuevos. Los micrófonos manualmente operados inhiben el flujo normal de la conversación, limitando la espontaneidad y el intercambio.

Los sistemas más nuevos algunas veces utilizan dispositivos automáticos de mezclado. Estos dispositivos automáticos usaron un nivel de activación compuesto, por debajo del cual, un sonido no activaría a un micrófono.

Existen diversos inconvenientes en utilizar un sistema de este tipo. Primero, si el sistema está ajustado cuando la ventilación está apagada, el sistema encenderá los micrófonos cuando la ventilación se encienda. De manera inversa, si el sistema es ajustado con la ventilación encendida el nivel de corte pudiera ser ajustado a un nivel muy alto para las conversaciones ordinarias. Segundo, el nivel de activación compuesto también permite a un participante con voz fuerte el activar múltiples micrófonos mientras que previene que un participante con voz suave pudiera encender alguno.

Los sistemas de videoconferencia modernos, capaces de usar más de dos micrófonos utilizan un mezclado automático con un nivel de corte de ruido adaptable. Como su nombre lo implica, el nivel de corte al cual un micrófono se enciende automáticamente se adapta a la cantidad de ruido constante en la sala, sin necesidad de llevar a cabo un ajuste manual. La circuitería de detección de voz utiliza esto para distinguir entre los sonidos de fondo constantes y sonidos cambiantes rápidamente como la voz. Un sistema incorpora circuitería adicional la cual selecciona automáticamente el micrófono más cercano al participante. Este micrófono captará la voz del participante con un mínimo de ruido y reverberación.

9.1.3.1 Tipos de micrófonos.

Una sala de videoconferencia normal en una organización sitúa a todos los participantes en una mesa sencilla y larga. Una opción excelente para este escenario es un micrófono montable en superficie. La apariencia de este tipo de micrófono es distinta a los micrófonos convencionales, con su apariencia abultada, no presenta obstrucción a los participantes. Su estilo reduce la posibilidad del temor al micrófono y se entremezcla fácilmente con la estética de la sala. Un micrófono montable en superficie con un patrón de captación cardioide es deseable para evitar la retroalimentación acústica entre micrófono y bocina, además de la captación del ruido ambiental existente en la sala.

Se podría también, colocar un micrófono sobre la superficie del techo de la sala, con lo cual se captarían menos ruidos de golpes en la mesa provocados por los participantes. Este tipo de instalación generalmente produce resultados marginales (especialmente en sistemas en los que no se cuente con un sistema de control de micrófono automático)

Una videoconferencia podría efectuarse también haciendo uso de un pequeño estrado. En un pequeño estrado generalmente el rango de movimiento de un conferencista es pequeño, lo que simplifica la colocación del micrófono. El micrófono convencional de pedestal es el más utilizado para esta aplicación. Un conferencista podría esperar encontrar un micrófono de pedestal en el podium y está muchas veces, familiarizado con su uso.

Sin embargo, este tipo de micrófono adolece de diversos problemas. Algunos conferencistas posicionarán innecesariamente el micrófono cerca de su boca. Este acercamiento puede enfatizar enormemente las bajas frecuencias, creando un sonido indistinguible, además de que obstruye la vista de la cara del conferencista en aplicaciones de videoconferencia.

El conferencista haciendo uso de un pizarrón necesitará de movilidad. Ya sea frente al pizarrón o de espaldas a este, la voz del conferencista deberá ser escuchada al mismo nivel. Un micrófono lavalier, colocado en la solapa o a la altura de ésta, obtendrá una señal uniforme de la voz del conferencista debido a que su distancia con el micrófono nunca cambia. Si el cable resulta ser incómodo e inseguro, podría sustituirse a una opción inalámbrica.

Para una mejor operación, el área de utilización del micrófono lavalier deberá estar limitada a áreas bien definidas de la sala de videoconferencia, alejada del sistema de bocinas. Si el conferencista con el micrófono lavalier se aproxima demasiado al sistema de bocinas, podría haber una retroalimentación acústica y podría enviarse eco hacia la sala distante. Podrían colocarse en el mismo pizarrón dos micrófonos de superficie colocados a los extremos de éste y uno más sobre de él. Este arreglo presenta dos grandes ventajas. Primero, la posición relativa de los micrófonos y las bocinas está bien establecida, con lo cual se evitaría la retroalimentación acústica y el eco.

Segundo, se prevería la pérdida accidental de los costosos micrófonos lavalier inalámbricos.

En resumen, para obtener los mejores resultados, la característica reverberante de la sala y los niveles de ruido ambiental deberán ser controlados, ya que no existe aún la tecnología que permita eliminar ambos una vez que han sido captados por el micrófono. El uso de micrófonos unidireccionales reducen la cantidad de reverberación que se pudiera captar y por lo tanto, reduce la cantidad de absorción requerida. Si el número de participantes es mayor que dos o tres, se requerirá del uso de micrófonos múltiples con control automático. Este arreglo permite a los participantes situarse dentro de una distancia óptima hacia al micrófono (típicamente no más de un metro). El sonido directo de los participantes es entonces mucho mayor que el ruido y la reverberación.

9.1.3.2 Guía general para la selección de micrófonos.

Como se mencionó previamente, una recepción fuerte y clara de la señal de la voz del participante es importante en una videoconferencia. El tipo de micrófono y su colocación determinará que tan fuerte será la voz del participante con respecto al ruido ambiental y reverberación. El proceso de selección deberá comenzar resolviendo algunas preguntas simples. Algunas de estas pueden ser:

Las respuestas a estas preguntas, consideradas con las condiciones acústicas de la sala determinará el tipo, estilo y colocación de los micrófonos.

9.1.3.3 Colocación de micrófonos.

La distancia crítica (Dc) del cuarto es una buena guía para la colocación del micrófono cuando se considera junto con el ruido ambiental presente en el cuarto. La distancia crítica de un cuarto es el punto, relativo a la fuente, al cual el sonido arriba directamente desde la fuente que es igual en intensidad a los sonidos que arriban por reflexión alrededor del cuarto. Un micrófono omnidireccional situado a una distancia crítica tendrá iguales cantidades de sonido directo y reflejado en su salida. Esta combinación de 50/50 de sonido directo y reverberante hacen a la voz el escucharse hueca. fatigante y difícil de escuchar para largos periodos de tiempo. El colocar el micrófono a la mitad de la distancia crítica resultará en una captación de la voz del participante con cantidades aceptables de reverberación.

Virtualmente los mismos resultados pueden alcanzarse usando un micrófono unidireccional a la distancia crítica.

Con un micrófono unidireccional, la distancia crítica puede ser multiplicada por un número o factor especial denominado el factor de distancia. El factor de distancia representa el mejoramiento en la distancia crítica que un patrón direccional dado ofrece comparado a los resultados con un micrófono omnidireccional. Por ejemplo, un micrófono cardioide, con un factor de distancia de 1.7, puede ser situado a 1.7 veces más alejado que un micrófono omnidireccional podría y captará la misma cantidad de reverberación. El micrófono supercardioide tiene un factor de distancia de 1.9 y el hipercardioide tiene un factor de 2. Estos micrófonos teóricamente dan aún, una mayor ventaja sobre la distancia crítica, pero sólo si el participante está directamente "sobre el eje". El patrón de captación angosto de este tipo de micrófonos hacen que el estar directamente sobre el eje sea crítico y que los lóbulos traseros de captación puedan lograr ser un problema. Como se planteó anteriormente el micrófono cardioide es la mejor de las opciones.

9.1.4 Selección y colocación de altoparlantes o bocinas.

En la sala distante, la colocación de las bocinas con respecto a los usuarios no es tan crítica como la disposición de los micrófonos en la sala transmisora. El escucha binaural de los participantes ayuda a diferenciar el sonido directo de las bocinas del ruido de fondo local y reverberante, así como también del sonido producido por alguien que habla dentro de la sala. El ruido de la sala deberá ser mantenido bajo de tal manera que el sonido de las bocinas no sea elevado excesivamente. El beneficio adicional de mantener bajo el nivel de ruido de la sala es que la cantidad de ruido transmitido a la sala distante será mínimo.

La colocación de la(s) bocina(s) utilizadas deberán tener una respuesta en frecuencia plana en todo el rango de frecuencia disponible y una característica direccional uniforme a través de al menos la frecuencia de audio intermedia (a 3 Khz). Estas frecuencias son las más críticas para la reproducción inteligible del habla. La región de cruce de frecuencias (crossover), donde uno de los transductores deja de aplicarse para que funcione otro, generalmente miente en el rango crítico para la inteligibilidad del habla. En muchas bocinas este crossover no es manejado de una manera adecuada. Una bocina que se desempeña aceptablemente en un rango de frecuencias amplio para aplicaciones de música podría mostrar picos o caídas indeseables en la respuesta de frecuencia y cambios en el patrón direccional sobre las frecuencias de voz de banda angosta.

Hasta ahora se ha mencionado cómo es que se puede obtener la mayor fidelidad posible en el audio, al igual que se ha seguido el habla desde el lugar donde se origina en la sala hasta el punto donde es captado por el micrófono y su reproducción en la sala. Debido a que la naturaleza del audio utilizado en videoconferencia es bidireccional, estos esquemas existen para los participantes en ambos cuartos. Esto nos brinda el siguiente tópico: La estabilidad en la retroalimentación del lazo electro - acústico formado por estos dos esquemas.

9.1.4.1 Estabilidad del sistema.

La figura 9.2 muestra las señales acústicas como se encuentran usualmente en las aplicaciones de videoconferencia. Los símbolos de altavoz pueden representar múltiples altavoces y el símbolo de micrófono representa la suma de todos los micrófonos mezclados ya sea de manera convencional o de manera automática.

En suma al acoplamiento entre la bocina y el micrófono, en la sala distante, existe un acoplamiento entre la bocina y el micrófono en la misma sala. Esto forma un lazo de retroalimentación el cual se comporta de manera similar a aquellos que gobiernan a la retroalimentación de osciladores. Dando una suficiente ganancia a la señal y un cambio apropiado de fase, el sistema oscilará.

 

Figura 9.2 Fuentes sonoras en una sala de videoconferencia.

Para mantener una operación estable, la ganancia alrededor de todo el sistema de lazo extremo a extremo y el lazo local deberá ser menor a la unidad a todas las frecuencias. Mantener esta estabilidad es el principal reto para los sistemas de videoconferencia. Muchas de las prácticas que se han tratado anteriormente que mejoran la claridad y la inteligibilidad del audio de la videoconferencia ayudan también a reducir este efecto para mejorar la estabilidad de retroalimentación. Micrófonos unidireccionales y el control automático de micrófonos ayudan a evitar el acoplamiento directo entre bocina y micrófono. El tratamiento acústico en la sala ayuda a reducir los patrones reverberantes de bocina a micrófono. Sin embargo estas prácticas por si solas no son suficientes para mantener la estabilidad de retroalimentación.

Si un sistema es ajustado para mantener la estabilidad de retroalimentación simplemente reduciendo el nivel de la bocina, el sistema generalmente estará más silencioso que lo deseado por alrededor de 6 dB en una sala optimizada o bien mas allá de este valor para salas en condiciones no óptimas. Los sistemas sin control automático de micrófonos excederán a este valor por aún más. Un sistema con cuatro micrófonos deberá ser más silencioso 6 dB que el sistema equivalente con sólo un micrófono. Esta es la razón primaria del porqué los sistemas sin control de micrófonos casi nunca exceden más de dos o tres micrófonos.

Si el nivel de transmisión (ganancia en los micrófonos) son reducidos para alcanzar la estabilidad del sistema en lugar de los niveles de las bocinas, los niveles débiles son transferidos a la sala distante. Con tan sólo bajar las ganancias del audio de transmisión o recepción se logra la estabilidad del sistema deseada, pero deja al escucha con un nivel inaceptablemente bajo o con la necesidad de que el participante se acerque demasiado al micrófono.

Debido a que los niveles son muy bajos, la única opción es el acercamiento excesivo del participante hacia el micrófono.

Una mejor manera de mantener la estabilidad en la retroalimentación es bajar temporalmente (atenuar) la señal de transmisión o de recepción. Este "supresor de retroalimentación" (no debe confundirse con supresión de eco), atenuará alternativamente el nivel de la señal recibida o transmitida automáticamente de acuerdo a la dirección de la conversación. La cantidad de atenuación requerida variará de acuerdo a la cantidad de acoplamiento acústico de la bocina al micrófono. Para el caso de una sala de videoconferencia óptima, la cantidad de reducción de supresión de retroalimentación es de 6 dB o menos. Cuando es manejado de una manera altamente interactiva, este nivel de supresión es imperceptible. Bajo estas condiciones, las transiciones del sistema para los modos de transmisión y recepción deberán ser uniformes y complementarios en cada sala.

9.1.5 Ruido ambiental.

El ruido ambiental no deberá exceder los 50 dBA (idealmente) para lograr resultados aceptables. Un decibel acústico (dBA), es la relación que existe entre una potencia acústica-mecánica de un sonido dado en relación a una potencia de referencia mínima que exitará al tímpano del oído.

Cuando el ruido sobrepasa el nivel de los 50 dBA, provoca que los usuarios aumenten el nivel de sus voces para ser escuchados dentro del cuarto y también requieren de un nivel más alto de captación de los micrófonos del sistema de videoconferencia. Cuando los niveles de ruido ambiental son altos, los micrófonos deberán ser colocados cerca de los participantes para captar su voz de manera inteligible. La relación señal a ruido de la señal de los micrófonos del cuarto dependerá de la distancia a la que estén colocados con respecto a los participantes y de la cantidad de ruido ambiental presente en la sala. Una relación señal a ruido de al menos 20 dB es deseable para prevenir la fatiga de los escuchas. La relación señal a ruido de audio de un sistema es la relación del voltaje de valor cuadrático medio (RMS) de la señal de tono de prueba estándar contra el voltaje cuadrático medio (RMS) del ruido en las terminales de la salida del sistema. Puede considerarse como ruido a una señal extraña en la banda de 50 a 18 khz.

Una relación de 10 dB es generalmente el límite absoluto de aceptabilidad. En un cuarto con 50 dBA de nivel de ruido ambiental, un micrófono omnidireccional necesitará estar situado a 45 cms. del participante. Un micrófono unidireccional en la misma sala podría estar situado a 80 cms. para obtener la misma relación. El nivel de audición preferido mínimo es aproximadamente de 64 dBA para un nivel de ruido ambiental de 42 dBA. El nivel de audición preferido aumentará en la misma proporción en que el nivel de ruido ambiental aumente. Al bajar los niveles de ruido ambiental en la sala se logra que el sistema sea operado en niveles de conversación normales, lo que provocará que las videoconferencias sean escuchadas de una manera más natural.

9.1.6 Reverberación.

Cuando se conecta una fuente sonora en un recinto, como consecuencia de las reflexiones, existe un crecimiento gradual de la energía, posteriormente el aumento de energía cesa después de cierto tiempo, alcanzando la energía en el recinto, un valor constante. Si una vez alcanzado este valor, la fuente sonora deja de emitir, el sonido que recibe el observador no desaparece inmediatamente. Un corto tiempo después de que la fuente ha dejado de emitir, desaparece la onda directa y el observador recibe la energía de la primera onda reflejada, después la segunda, tercera, etc., ondas reflejadas y así sucesivamente, siendo la energía de estas ondas cada vez más pequeña. Después de cierto intervalo de tiempo, la energía de las ondas que llegan al observador, ha disminuido tanto, que el oído no puede percibirlas y el sonido desaparece.

El proceso de persistencia y disminución de la energía en un recinto, una vez desconectada la fuente sonora, recibe el nombre de reverberación y el tiempo que la señal sonora necesita para reducirse hasta el umbral de audición, se conoce como tiempo de reverberación.

El tiempo de reverberación de un recinto está en función del empleo que tenga el local, así como también del volumen del mismo. Es necesario mencionar que el tiempo de reverberación dentro de la sala es un factor importante desde el punto de vista de que si se está utilizando un cancelador de eco, cualquier señal de audio que se encuentre semejante será eliminada, pero se empleará mayor poder de procesamiento si es que el tiempo de reverberación es grande, por lo que, para el diseño de la sala, se deberá considerar un tiempo de reverberación mínimo. La reverberación ideal para una sala de videoconferencia, según pruebas experimentales, es igual o menor a 0.4 segundos.

9.1.7 Cancelación de eco.

En un sistema de teleconferencia, el habla del extremo remoto de la conferencia es amplificado por el sistema de conferencia y entregado por la bocina local. Algo de esta energía del sonido va directamente desde la bocina hasta el micrófono (acoplamiento acústico directo) y algo es reflejado por las paredes u otros objetos en la sala de conferencia (eco reflejado). Después de un tiempo de retardo dependiente del tamaño del cuarto y del sonido reflejado por las paredes del cuarto, este eco es también alimentado al micrófono.

Para el micrófono, estas señales del habla parecieran ser originadas en el cuarto y serán enviadas normalmente el extremo remoto, donde serán apreciadas como indeseable eco. El retardo en la señal del habla es particularmente objecionable, siendo muy difícil para el escucha remoto el entablar una conversación.

Para eliminar este eco indeseable, los sistemas de conferencia tradicionales y bocinas simplemente apagan el micrófono cuando detectan habla remota. Esto bloquea efectivamente el eco de retornar al extremo remoto. Los sistemas mas avanzados controlan los niveles de la bocina y micrófono de una manera mas sofisticada, pero todavía bloquean el habla de una dirección u otra. Estos viejos sistemas proveen un canal de audio "half-duplex", en el cual sólo una de las partes puede hablar a un tiempo sin cortar al otro extremo. En este sistema half-duplex, un participante continuo puede monopolizar el canal de audio, la interactividad normal es suprimida y las sílabas del habla al principio y final de las oraciones son frecuentemente cortadas. Las consecuencias negativas de este tipo de sistemas son muchas.

A las personas no les agrada utilizar sistemas como estos, porque se sienten frustrados al no ser capaces de expresarse propiamente. En el peor de los casos, información importante puede perderse debido a sílabas cortadas y palabras perdidas. Existe también un sentimiento de falta de control durante la conferencia, la cual puede conducir a una pérdida de productividad y desentendimiento de intenciones percibidas.

Este efecto es mayor en conferencias multipunto, donde participen tres o más sitios. Cualquier habla o nivel alto de ruido de fondo, como un tosido o el cerrar de una puerta, en cualquiera de las salas provocará que los micrófonos se cierren temporalmente y entonces se interrumpirá la conferencia.

Afortunadamente, se ha descubierto recientemente una tecnología conocida como cancelación de eco, la cual elimina la necesidad de apagar o atenuar los micrófonos y bocinas proporcionando un canal de audio full dúplex.

Esta tecnología ha mejorado aún más la calidad del audio.

En el proceso de cancelación de eco, la señal de audio que se recibe desde la sala remota es enviada a la bocina local. Es también convertida en una señal digital y guardada en una memoria de computadora (ver figura 9.3). La señal del micrófono local es también convertida a digital, y un procesador de señal digital compara las dos señales.

 

Figura 9.3 Sistema de cancelación de eco.

Cualquier similitud en estas dos señales será ocasionada debido a que los componentes de la bocina serán captados por el micrófono, ya sea vía acoplamiento directo o de reflexiones del sonido de las paredes de la sala de conferencia. El procesador de señal tiene una imagen guardada del habla enviada a la bocina, compara esta imagen a la de la señal recibida por el micrófono, determinando las similitudes que existen entre ellas. Estas similitudes son extraídas electrónicamente de la entrada del micrófono, dejando solamente el habla local. El resultado, que consiste solo el habla local, libre de eco, es entonces enviado al sitio distante el habla local.

El procesador esencialmente construye un modelo electrónico de las propiedades acústicas de la sala de conferencias. Para una cancelación de eco efectiva, no sólo deberá ser exacto este modelo, sino que también deberá estar siendo constantemente reconstruido el modelo, para prevenir cambios en las características acústicas de la sala.

La acústica de la sala depende siempre de factores variables como el número de personas en el cuarto y la disposición de los micrófonos. Los cambios en estos factores deberán ser compensados rápidamente en el cancelador de eco para alcanzar la construcción de un modelo apropiado.

El tiempo en el cual el procesador construye el modelo correcto es llamado el "tiempo de convergencia". Un tiempo de convergencia corto resultará en un canal de audio más robusto y estable, con menor cantidad de eco al principio de la conferencia o cuando las condiciones cambien.

Los cálculos que deben ser ejecutados para construir y mantener este modelo toman una cantidad considerable de poder de procesamiento, y requieren de el uso de circuitos integrados específicos.

9.1.7.1 Ventajas de la cancelación del eco.

Debido a que el eco acústico es removido electrónicamente en vez de acústicamente, se necesita dar menor atención a la colocación de la bocina y micrófono y las características acústicas de la sala. Los micrófonos omnidireccionales podrían ser utilizados y las salas de conferencias, con muy poco o nada de tratamiento acústico pueden ser utilizadas brindando servicio como salas de videoconferencia. Con micrófonos omnidireccionales no existen zonas muertas y aún comentarios en voz baja pueden ser escuchados por todas las partes.

Debido a que el acoplamiento acústico entre bocina y micrófono es menos importante, una disposición de micrófonos más flexible es posible, usualmente resultando en la utilización de sistemas menos complejos, lo que mejora la apariencia de cualquier sala de conferencia y reduce los costos totales.

En adición, con una cancelación de eco de alta calidad se puede lograr un canal de audio natural full dúplex.

9.1.8 Aire acondicionado.

El acondicionamiento de aire es un proceso que tiende al control simultáneo, dentro de un ambiente delimitado, de la pureza, humedad, temperatura y movimiento del aire. El aire acondicionado no depende de las condiciones climáticas exteriores. El acondicionamiento de aire se puede realizar de las siguientes maneras:

1. Enfriándolo,

2. calentándolo,

3. quitándole humedad,

4. añadiéndole humedad al seco ó parcialmente seco,

5. comprimiéndolo.

Los márgenes de confort de trabajo, para personas ocupadas en actividades normales desde el punto de vista de temperatura son de 18º a 23º C en invierno y de 22º a 28º C en verano dentro de los recintos de trabajo.

Un sistema de ventilación o de aire acondicionado bien diseñado deberá funcionar normalmente sin generar o transmitir ninguna vibración o ruido aéreo, y tampoco deberá permitir el paso de una conversación al transmitirla entre dos recintos conectados por el mismo conducto de aire. El ruido que aporta un sistema de ventilación al ruido total de un recinto puede reducirse mediante las siguientes medidas:

  1. Una elección e instalación adecuada de los motores, ventiladores y rejillas. Estos últimos son las principales fuentes de ruidos que se transmite a través del aire y a través de las vibraciones en estructuras mecánicas.

  2. Un diseño aerodinámico del sistema de transmisión de aire de tal forma que se evite la formación de turbulencias. Cuando el aire fluye a través de una conducción, las obstrucciones de cualquier tipo (curvas, ramificaciones laterales, cambios de la sección del conducto, rejillas, etc.) producen corrientes en remolino o cualquier otra forma de flujo turbulento. Como consecuencia de estas turbulencias se generan ruidos que contienen sonidos de todas las frecuencias. Sin embargo, los ruidos que proceden de este mecanismo, suelen tener un porcentaje mayor de ruido en las altas frecuencias que los ruidos generados por el sistema motor - ventilador. Por lo tanto, un diseño aerodinámico conducirá hacia una reducción efectiva del nivel de ruido. Algunas veces las turbulencias harán que algunas partes del sistema entren en vibración, mas concretamente las paredes de los conductos sin ningún tipo de recubrimiento darán por tanto al ruido un timbre muy determinado.

  3. Aplicación del tratamiento absorbente adecuado en el interior de los conductos y dentro de los recintos de los equipos. El recubrimiento deberá añadir un cierto amortiguamiento mecánico a las paredes del tubo para evitar que entren en resonancia. Si el recubrimiento tiene un bajo coeficiente de conductividad térmica como sucede normalmente, no será necesario un posterior aislamiento térmico del conducto. Como contrapunto a esto, el recubrimiento incrementa la resistencia al flujo de aire en el interior del tubo. Las propiedades acústicas de los materiales que se requieren para el recubrimiento de conductos son algo más precisas que las necesarias para el tratamiento acústico de recintos. Deberán ser resistentes a la humedad y deberán ofrecer la mínima resistencia posible al paso del aire. Es esencial que estos materiales sean resistentes al fuego, de hecho las conducciones combustibles están prohibidas por la mayoría de las leyes de construcción. Por esta razón, la mayoría de los materiales de recubrimiento son de naturaleza mineral que normalmente se consolidan como un aglutinante incombustible que proporciona una rigidez estructural adecuada y evita que la corriente de aire arrastre las partículas minerales.

9.1.9 Amueblado

El amueblado está en función de la discreción de los propietarios de la sala de videoconferencia. La mayoría de las discusiones acerca de los muebles para las salas de videoconferencia terminan en la figura que deberá tener la mesa. Una variedad de formas de mesas han sido tratadas y una defensa celosa de cada configuración de mesa puede ser encontrada.

En la figura 9.4 se presenta una de las formas de mesa más populares, una mesa trapezoidal la cual es más ancha del extremo situado frente a los monitores de videoconferencia. Esta figura es popular porque permite a las personas alrededor de la mesa interactuar con cada uno de ellos fácilmente, al igual que con las personas situadas en el otro extremo del enlace de conferencia.

 

Figura 9.4 Amueblado para una sala de videoconferencia.

Es realmente una manera de preferencia individual y debería estar decidida con un buen entendimiento de los diferentes grupos que utilizan la sala.

Para el caso del amueblado de una teleaula (figura 9.5), se deberá contemplar la necesidad de escritura para los asistentes, así como el espacio necesario que permita la colocación de dispositivos y materiales didácticos auxiliares (computadora, cuadernillos de estudio, etc.), además de los dispositivos propios del sistema o sala, (micrófonos si es que es el caso); esto se aplica también para el instructor.

 

 

Figura 9.5 Distribución de amueblado en una teleaula.

 

9.1.10 Subsistema de video.

Las configuraciones de equipo de videoconferencia en la sala son tan variadas como las aplicaciones para videoconferencias. Todos los paquetes de equipo tienen subsistemas comunes: El subsistema de video, el subsistema de audio y el subsistema de control.

Es imposible discutir cada una de las posibles combinaciones de equipo, pero existen algunas generalizaciones de equipos que pueden ser hechas y que podrían ser de gran ayuda para su comprensión.

Un sistema bien diseñado es aquel que no utiliza más que los dispositivos que sean absolutamente necesarios. El requerimiento básico es el entregar video proveniente de las cámaras hacia el codec, y desde el codec hacia él (los) monitor(es). Mas allá de esto existe un número de funciones las cuales varían en importancia, y de nuevo, dependen mucho del uso propuesto para la sala de videoconferencia.

La figura 9.6 identifica los elementos claves del subsistema de video. La línea horizontal más gruesa divide el lado de transmisión (arriba) del lado de recepción (abajo).

El sistema entero puede ser pensado como los dispositivos que generan video, los dispositivos que reciben video, y los dispositivos que portan (o mueven) el video de un extremo a otro. El codec es único porque genera y recibe video.

 

 

Figura 9.6 El subsistema de video.

Es adecuado discutir primero acerca del sistema de distribución de video porque es responsable de la conexión de las fuentes de video a los destinos del video. Las fuentes de video incluyen cámaras, proyectores en video de diapositivas, salidas de videograbadoras para reproducción, las salidas de video del codec, etc. El destino del video incluye: monitores de video, entradas de videograbadoras para grabación, entradas del codec para transmisión, impresoras de video, etc.

El sistema de distribución puede ser tan simple como un cable el cual conecte directamente la salida de la cámara a la entrada del codec, o tan complicado como un sistema de switcheo de video configurado para permitir a cualquier fuente de video ser conectada a cualquier combinación de destinos de video a cualquier tiempo.

Las salas de videoconferencia existen en ambos extremos. La más simple es una sala con una cámara sencilla y monitor directamente conectados al codec. Esto funcionará sin problemas, el tiempo que sea necesario. Existen diseños que incluyen siete u ocho cámaras enrutadas a través de switches sofisticados al codec y a múltiples monitores.

Los participantes de una videoconferencia deciden que cámara será vista en el extremo lejano haciendo la selección en el sistema de control de la sala de conferencia. Normalmente sólo una cámara puede ser vista en el extremo distante en un tiempo dado.

El término de "video en movimiento" es utilizado para describir el video en vivo o con movimiento transmitido de una de las salas de videoconferencia a la otra. Esto se origina con la cámara principal de la sala de conferencia y es dirigida hacia la entrada del codec a través del sistema de distribución. El codec codificará y comprimirá la señal de video y la pasará hacia la red de comunicaciones al codec situado en el extremo distante donde será decodificada y desplegada.

Virtualmente cualquier videocámara (u otra fuente de video) puede ser enrutada a través del sistema de distribución al codec para su transmisión al otro extremo. Los sistemas de videoconferencia normalmente incluyen una cámara sencilla localizada al frente de la sala de conferencia y cerca del monitor principal de video. Está colocada cerca del monitor para mantener una ilusión de contacto visual con las personas en el otro extremo.

Los participantes de la conferencia tienden a mirar este monitor primero debido a que verán personas en el extremo distante. El localizar la cámara principal cerca del monitor principal da al participante la ilusión de que los participantes están mirando hacia la cámara, aunque estén actualmente mirando al monitor cerca de la cámara.

Muchas salas de videoconferencia proveen de dispositivos de video gráficos los cuales facilitan el despliegue de documentos (o imágenes guardadas en memoria) para que todos los participantes los vean a ambos extremos de la conexión de videoconferencia, el codec de video cuenta con una segunda entrada separada de la entrada principal de video la cual es capaz de transmitir una imagen simple de video "congelado".

El dispositivo gráfico más común de video es una cámara de documentos. Este dispositivo tiene una cámara de video suspendida sobre una pequeña tabla. Los documentos pueden ser situados en esta tabla dentro de la vista de la cámara. La salida de cámara es enrutada mediante el sistema de distribución de video a la entrada de gráficos del codec. Entonces, será posible transmitir una imagen "congelada" de la mesilla de documentos al extremo distante.

Cualquier dispositivo de video puede funcionar como una fuente gráfica. Una cámara de documentos es la más típica. Algunas salas de videoconferencia incluyen una cámara montada en el techo sobre la mesa de conferencias. El posicionar la cámara sobre la mesa de conferencias permite a los participantes colocar documentos, u objetos grandes, en la mesa al frente de ellos para que puedan ser vistos por las personas situadas en el extremo distante. Las computadoras personales algunas veces son también utilizadas para generar cartas o gráficas para transmisión.

Existen dispositivos especializados de video los cuales pueden ser diseñados para satisfacer las necesidades de los participantes, algunos de los más comunes pueden ser reproductores de videocintas y grabadores, proyectores de video de diapositivas de 35 mm.. Proyectores de videofilmes de 8 y 16 mm., "scanners" de video, impresoras de video, reproductores de video discos ó computadoras personales.

Si el dispositivo tiene una salida de video hay una buena oportunidad de poderlo interconectar al sistema de distribución de video. La utilidad de muchas salas de videoconferencia podría ser mejorada incluyendo algún equipo periférico común a las necesidades de presentación de los usuarios regulares de la sala.

Un acuerdo regular es que el sistema de videoconferencia permita a las personas llevar a cabo un tipo de encuentro al que ellos están normalmente acostumbrados. Esto es debido a que generalmente estas personas están acostumbradas a un sólo método de presentación de gráficas como por ejemplo las diapositivas de 35 mm. y los acetatos los cuales no pueden ser utilizados convenientemente dentro de una sala de videoconferencia, por lo que los dispositivos apropiados de despliegue de gráficos deberán incluirse por el diseñador de la sala.

El término "previo" es utilizado para describir la posibilidad del sistema de distribución la cual permite a los participantes de la conferencia visualizar imágenes de ellos mismos (como se verían en el extremo distante), o el visualizar las imágenes de los gráficos antes de ser transmitidas.

A través de un comando en el sistema de control de videoconferencia, las imágenes de las fuentes locales de video pueden ser visualizadas en los monitores locales. La característica del previo está incluida para permitir a los participantes de la conferencia estar seguros de cómo es que los están viendo en el extremo distante y de asegurarse a sí mismos que las imágenes correctas están siendo transmitidas.

9.1.11 Subsistema de audio.

El propósito fundamental del subsistema de audio es permitir a los participantes de ambos extremos de la junta escuchar y el ser escuchados. Esto es mucho más difícil de lo que parece. Ver figura 9.7. Los componentes principales del sistema de audio se muestran en la figura 9.8, los cuales se describirán a continuación.

Uno o dos micrófonos se sitúan normalmente en la mesa de conferencias en un lugar que permita cubrir el audio de los participantes. Se utilizan normalmente micrófonos direccionales con lo cual se pretende reducir la cantidad de sonido captado desde la bocina. Las ondas sonoras se debilitan conforme recorren mas distancia, por lo que las personas que estén alejadas de la mesa no serán escuchadas con la misma claridad que las personas situadas alrededor de la mesa.

Figura 9.7

 

Figura 9.8 El subsistema de audio.

El mezclador de audio combina todas las fuentes de audio de la sala local en una sola señal de audio. Esto deberá incluir a todos los micrófonos, la salida de audio de los reproductores de cinta, o de cualquier otra fuente que requiera ser escuchada en el extremo distante.

El cancelador de eco tratará de remover las señales que representen eco potencial de la línea de transmisión. Los métodos empleados varían entre fabricantes. Es importante notar que el cancelador de eco varía el sonido transmitido a la sala distante (cuando se detecta eco potencial). La mayoría de los canceladores de eco no hacen nada con el eco que entra a la sala local proveniente de la sala distante.

Los amplificadores reciben el audio desde la sala distante después de que fue procesado por el cancelador de eco y lo promueve hacia la salida a través de las bocinas. Las bocinas o monitores de audio es el punto final para las señales de audio dentro de la sala. Están localizadas normalmente en algún lugar cerca del monitor para aumentar la ilusión de contacto con el punto distante. Es natural voltear la cabeza hacia la dirección desde la cual proviene el audio, esto es, cerca del monitor principal donde podrá observarse a los participantes del otro extremo la ilusión del contacto es reforzada.

9.1.12 Subsistema de control.

El sistema de control de la videoconferencia es el corazón y el alma de la videoconferencia porque es lo que los participantes de la conferencia tocan y sienten. No hay duda de que la calidad del audio y el video está relacionada directamente al codec y al modo de compresión utilizado. Sin embargo la mayoría de los participantes de la conferencia se llegan a acostumbrar al nivel de calidad de la imagen. El sistema de control en el panel de control situado sobre la mesa de conferencias es lo que ellos tocan y usan día a día. Un sistema de control de la sala de videoconferencia tiene dos componentes claves: el panel de control (el cual normalmente se sitúa sobre la mesa de videoconferencia) y el sistema de control central.

 

 

 

 

 

 

Figura 9.9 El subsistema de control.

Es a través del control que los participantes trasladan sus deseos hacia acciones. Ellos seleccionan cuál fuente de video será vista en el extremo distante, como son posicionadas sus cámaras, cuándo una videograbadora reproducirá un material, etc. El sistema de control central actúa cuando los botones del panel de control son oprimidos por los participantes de la conferencia. El panel de control es todo sobre lo que los participantes deberán conocer.

Los participantes de la conferencia no deberán ser confundidos con detalles pertenecientes a las interfaces del sistema de control a otros dispositivos en la sala. Su interés sólo abarcará que el panel es de fácil uso y comprensión. Por esto, su diseño y funcionalidad llegan a ser unos factores críticos. La mayoría de las salas capaces técnicamente sufrirán de la falta de uso si el panel de control no simplifica la operación hasta el punto en que cualquiera puede utilizar la sala con el mínimo de entrenamiento.

Un panel de control puede mirarse como el de la figura 9.10. Esta figura nos muestra el panel de control principal utilizado por un fabricante. Está presentado en una pantalla sensible al tacto. La pantalla puede también representar otras pantallas o botones.

 

 

 

Figura 9.10 El panel de control.

El potencial para un panel de control crece con la complejidad de la sala de videoconferencia. El diseñador de la sala constantemente camina en aquella línea fina entre la provisión de todas las características que él considera necesarias y el mantener la sala simple y de fácil uso.

9.2 ACONDICIONAMIENTO ACÚSTICO DE SALAS.

La calidad de la audición sonora, o el ambiente acústico necesario para facilitar una escucha determinada, depende de las exigencias de empleo de los recintos, por ejemplo: en teatros, auditorios, estudios de grabación sonora, etc., la audición es más crítica que en viviendas, oficinas, etc.

Los problemas más importantes que se presentan al tratar de acondicionar una sala, son principalmente los referidos al aislamiento y al acondicionamiento acústico.

El primer punto consiste en obtener un buen aislamiento, tanto contra el ruido aéreo como contra el ruido estructural, entre los diferentes locales, para los que es necesario tener en cuenta en el momento de diseño, las leyes fundamentales del aislamiento acústico, considerando los materiales que se emplean para construir las paredes divisorias, el espesor de las mismas, la existencia de paredes dobles, puertas, ventanas, la perforación de paredes, techo o suelo para servicios básicos, tales como potencia eléctrica, aire acondicionado, cableado de sistemas, junto con conductos ruidosos de sistemas de aire acondicionado.

El segundo punto a tomar en cuenta, es el de obtener un buen acondicionamiento acústico, para lo cual se tratará internamente las paredes, puertas, ventanas, techo y suelo. También será necesario un grado de difusión acústica uniforme en todos los puntos del mismo, considerando que sus propiedades acústicas se deben a las reflexiones de las ondas acústicas en todas las superficies límites (paredes laterales, suelo y techo, fijándose en que el valor del tiempo de reverberación sea idóneo en cada caso).

En muchos locales el acondicionamiento térmico, y sus sistemas de climatización, son muy importantes, con el fin de que su aportación sonora, al nivel sonoro ambiental sea prácticamente nula. Por este mismo tema, debe cuidarse el sistema de iluminación, con el fin de que no introduzca ruido aéreo al ambiente sonoro de la sala.

La propiedad característica de muchos recintos para la palabra, es que cuanto se diga en ella, debe de oírse clara e inteligible, y de que el timbre de la voz de quienes hablan no varíe. Los recintos para música, pretenden transmitir la música con gran calidad.

Los datos más característicos que deben tenerse en cuenta para obtener un buen diseño de todos los locales son:

a) Niveles de ambiente de ruido, Tiempo de reverberación, Pérdidas de transmisión acústica de paredes, suelos y techo.

Los materiales y estructuras acústicas, se pueden describir como aquellos que tienen la propiedad de absorber o reflejar una parte importante de la energía de las ondas acústicas que chocan contra ellos.

Pueden emplearse para aislar y para acondicionar acústicamente, de diferentes maneras:

El aislamiento acústico consiste en impedir la propagación de una señal sonora, mediante diferentes obstáculos reflectores, para lo que son necesarias paredes duras y pesadas, que reflejan el sonido, pero no lo absorben.

También se puede realizar el amortiguamiento del sonido, mediante la absorción del mismo. El aislamiento de vibraciones consiste en impedir la propagación de las vibraciones, mediante sistemas que vibren en concordancia de fase, es decir, con cuerpos de dimensiones pequeñas frente a la longitud de onda. La frecuencia límite entre sonido y vibración de un cuerpo sólido se puede situar alrededor de los 100 Hz. Los materiales empleados para aislar a ruido aéreo, que es el sonido no deseado transmitido por el aire, son ladrillos de diferentes tipos, como por ejemplo de 15 cms., o de 30 cms., huecos, macizos, etc. Así mismo se emplean otros materiales como yeso, cartón - yeso , fibras de diferentes densidades y otros muchos tipos de materiales.

Los materiales acústicos se emplean también como superficies de acabado de diferentes tipos de construcciones, con el fin de satisfacer unas determinadas condiciones acústicas. Algunas de las propiedades que merecen consideración, además de la absorción acústica, son el efecto decorativo, reflectividad lumínica, mantenimiento, duración, resistencia al fuego, etc.

Las pérdidas de energía acústica en los materiales se pueden caracterizar mediante el coeficiente de absorción acústica a, entendiendo por tal a la relación entre la energía acústica absorbida por un material y la energía acústica incidente sobre dicho material, por unidad de superficie y que puede variar desde un 1 ó 2 % al 100 % para diferentes materiales. El coeficiente de absorción de un material depende de la naturaleza del mismo, de la frecuencia de la onda sonora y del ángulo con el que la onda incide sobre la superficie. Ya que el coeficiente de absorción varía con la frecuencia, se suelen dar los mismos a las frecuencias de 125, 250, 500, 1000, 2000 y 4000 Hz. Los materiales de acabado de interiores tales como hormigón, yeso, vidrio, mampostería, terrazo, etc. , son lo suficientemente rígidos y no porosos como para ser muy reflectante, con unos coeficientes de absorción inferiores a 0.05, sobre todo a las bajas frecuencias.

Las alfombras y cortinas proporcionan una buena absorción sonora, en virtud de su porosidad la absorción de las alfombras depende de un cierto número de factores, que incluyen altura de pelo, peso, tipo de apoyo, espesor y material del forro. En la mayoría de las alfombras, la absorción crece con la frecuencia, alcanzando valores elevados en las zonas de las altas frecuencias.

La absorción de las cortinas varía ampliamente dependiendo de su peso y de la cantidad de pliegue. La absorción se incrementa especialmente a las bajas frecuencia, separando las cortinas, algunos centímetros desde la pared

Los materiales acústicos comerciales utilizados para recubrir superficies de paredes y techos, se pueden clasificar de diferentes formas, dependiendo de las propiedades físicas y estructurales que se consideren, pudiendo exponer unas ideas generales sobre los siguientes tipos:

a) Materiales porosos

Son de estructura granular o fibrosa, siendo importante el espesor de la capa y la distancia entre ésta y la pared.

El espesor del material se elige de acuerdo con el valor del coeficiente de absorción deseado, ya que si es demasiado delgado, se reduce el coeficiente de absorción a las bajas frecuencias, mientras que si es muy grueso resulta muy caro. En la práctica, el empleo de materiales fibrosos absorbentes, se asocia a varias cubiertas perforadas que pueden ser de madera contrachapada, cartón, yeso, etc. Suelen presentarse en forma de paneles o tableros acústicos de fácil adaptación e instalación, tanto en nuevas construcciones, como en edificios ya existentes. La mayoría de estos materiales puede colocarse como un techo suspendido por medio de elementos metálicos, debiendo cuidarse el problema de las humedades, que pueden originar la flexión de los materiales.

Estos sistemas permiten la combinación de techos absorbentes, con la iluminación y el aire acondicionado en cualquier disposición deseada, permitiendo un fácil acceso al espacio superior.

En un panel acústico, el incremento de su espesor, aumenta la absorción principalmente a las frecuencias de 250, 500 y 1000 Hz, con un efecto prácticamente despreciable fuera de este rango. Si se monta este material dejando un espacio de aire, entre el mismo y la pared, aumenta la absorción a 250 Hz y algo a 125 Hz. Existe también una disminución característica de absorción a 500 Hz en todos los montajes con espacio de aire, pero no existe o es muy pequeño el cambio a frecuencias más altas. La mayoría de los materiales presentan cambios insignificantes en la absorción a medida que el espacio de aire se incrementa de 20 a 40 cm.

Las propiedades de resistencia al fuego de los materiales acústicos, son un aspecto importante.

b) Materiales para argamasas.

Son materiales acústicos que se aplican en estado húmedo con paleta o pistola para formar superficies continuas de un espesor deseado. Estos materiales están compuestos de una mezcla de ingredientes secos, a los cuales se les agrega un aglutinante líquido.

Los morteros acústicos se aplican a una capa de cemento o sobre cualquier otro material. La aplicación puede ser en dos o más capas empleando métodos normales de fratasado, aunque se está utilizando cada vez más el método de pistola.

c) Sistema de paneles metálicos perforados.

Son de aluminio o acero perforado, con un relleno de fibra mineral, siendo este relleno el elemento absorbente del sonido, de unos 3 cms. de espesor.

El relleno se coloca en el panel durante la instalación y se mantiene separado del mismo con una rejilla, con el fin de facilitar las operaciones de limpieza, conservando su absorción acústica.

El acabado de estos materiales es en esmaltes de alta calidad que facilitan un lavado frecuente. Su aplicación más general es como techos acústicos suspendidos, por su facilidad de montaje y de coordinación con los sistemas aire/luz.

Todos estos materiales tienen un alto rendimiento como absorbentes acústicos, variando sus valores, en función de la forma de perforación, de la densidad y espesor del elemento absorbente, así como el espacio de aire existente detrás de él.

d) Sistema de paneles rígidos.

Tienen ventajas artísticas y de construcción frente a los materiales porosos, como son resistencia a los golpes, duración, posibilidad de pintado, barnizado, etc.

La absorción de cada elemento del sistema, se determina mediante los datos de construcción, tales como el tipo de material, dimensiones del sistema, distancia a la que esta colocada de la pared, forma de ensamblaje, debiendo prestar gran atención, ya que todo ello repercute en los parámetros acústicos del sistema.

Los sistemas de paneles rígidos se suelen emplear para corregir la absorción a bajas frecuencias, creando un campo sonoro más difuso.

e) Absorbentes suspendidos.

Se utilizan en algunos recintos, en los que existen pocas superficies susceptibles de colocar materiales absorbentes acústicos. En este caso, se suelen emplear unidades de materiales suspendidos libremente en el recinto a cierta distancia de sus superficies límites.

Normalmente toman la forma de láminas planas o pantallas de material absorbente colgadas verticalmente en hileras continuas, la absorción de estos sistemas se calcula normalmente en función de la absorción de cada uno, por el número de unidades. Este valor aumenta con la separación entre los absorbentes y se aproxima a un valor constante con grandes separaciones.

Los elementos suspendidos en hileras continuas de hilos de acero o cables tendidos entre paredes o vigas del techo, la separación puede variar desde 0.6 a 1.8 mts. y las hileras pueden correr en una o dos direcciones.

9.3 ACONDICIONAMIENTO DE UNA SALA PARA VIDEOCONFERENCIA EN UN EDIFICIO

El edificio cuenta con un volumen de 92.24 metros cúbicos, el cual ha sido designado como sala de videoconferencia, esta sala será utilizada dentro de lo que ha sido llamado la " Red Interactiva de Educación a Distancia".

La adecuación de una sala para videoconferencia en un edificio podría llevar un tiempo aproximado de 15 días, siempre y cuando lleve las características anotadas anteriormente en este capítulo.

La figura 9.11 muestra como se encontraba un área que servía para realizar otras actividades antes de ser modificada para realizar videoconferencias.

Figura 9.11 Vista de planta del área asignada para la sala de videoconferencia.

CAPITULO 10. CONCLUSIONES Y RECOMENDACIONES


Al finalizar este trabajo, previo a la obtención de nuestro título de Tecnólogos en Sistemas, y gracias a los objetivos planteados al inicio, así como también las pruebas, análisis, observaciones y prácticas realizadas, presentamos las siguientes conclusiones, y recomendaciones frutos del trabajo de investigación efectuado en el tema de videoconferencias para nuestro instituto:

10.1. CONCLUSIONES

10.2 RECOMENDACIONES

Para mejorar esto, planteamos las siguientes soluciones (recomendaciones)

Pensamos que hemos cumplido con los objetivos planteados al inicio de nuestra tesis de grado, y esperamos que nuestro trabajo sirva de algo para ayudar al instituto a incorporarse a miles de instituciones educativas del mundo que cuentan con técnicas docentes muy avanzadas, entre las cuales están las videoconferencias y que forman parte de la imagen de las universidades e institutos superiores del siglo XXI.

Estamos seguros de que la propuesta de la implantación de un servicio de estas características, será bien acogido por las autoridades del I.S.T.I, en vista que ayudará a mejorar tanto el nivel de educación impartido como la imagen de nuestro instituto a nivel nacional e internacional y contribuirá a la eliminación de gastos, que gracias a este servicio se volverían inútiles e innecesarios, y porque no decir también que este nivel ayudaría a eliminar esta clase social mediocre que se encierra en un círculo vicioso y que hace que nuestro pobre país no pueda progresar.

BIBLIOGRAFIA.-


FOM T1 OPERATOR'S MANUAL

RAD DATA COMMUNICATIONS

PUBLICATION No. 263-20-07/94.

FCD-2 OPERATOR'S MANUAL

PUBLICATION No. 206-20-081/93.

AUDIO TELECONFERENCING

GREG HILL

ACOUSTIC ECHO CANCELLATION

JEREMY F. SKENE

TO COMPRESS OR NOT TO COMPRESS? -- THAT IS THE QUESTION

COLIN BOYD

VIDEOCONFERENCING -- TWO WAY INTERACTIVE VIDEO

MERRILL RAY BROOKSBY

VIEWS ON THE FUTURE OF VIDEO TELEPHONES

JOHN WALSH

TRANSMISSION

GAYLE D. GORDON

STANDARD RELATED TO AUDIOVISUAL COMMUNICATIONS

RICHARD A. SCHAPHORST

ftp://havefun.stanford.edu/pub/p64/p64v1.2.tar.Z

http://www.videoserver.com

http://www.picturetel.com

http://www.timetool.com/distlear.htm

http://www.timetool.com/dlwhite4.htm

http://www.servinet.com.pe/manuales/index.html

Trabajo realizado por:

Fernando Pazmiño

[email protected]

Volver Arriba

 
Hosted by www.Geocities.ws

1