Televisores

3.481947942913 (1191)
Publicado por astro 29/04/2009 @ 18:14

Tags : televisores, electrónica, tecnología

últimas noticias
No se quede sin poder ver la tele - Diario Vasco
Para conectar un sintonizador y un televisor lo mejor es usar un cable euroconector (ese cable con una clavija gorda y muchas patillas que también se usa para unir el video y la tele). Sólo los televisores muy viejos no tienen euroconector y entonces...
El 'apagón' ya está aquí - Ideal Digital
«Pero hay muchos prejubilados con buenos sueldos, aunque aquí siempre ha habido dinero, por eso en cuanto los primeros comenzaron a comprar televisores, todos se lanzaron a comprar también», apostilla. El proceso de transición de la televisión...
Demasiados aparatos - El Correo Digital (Vizcaya)
Las nuevas tecnologías hicieron posibles televisores más grandes, ya mayor tamaño, más consumo. En el mundo había, a finales de 2005, unos 1.900 millones de televisores, a razón de 1,3 por vivienda, pero la cifra va camino de explotar porque,...
La tecnología 3D, protagonista en los nuevos televisores y 'webcams' - elmundo.es
"Cada vez es mayor la demanda por consumir contenido en tres dimensiones, y realmente no es difícil conseguir que los nuevos televisores puedan leer en 3D un juego o una película diseñada en sólo dos dimensiones", señaló el director de mercadotecnia de...
Sustitutos de televisor de alta definición - La Opinión
[Foto: AP] La economía de muchas familias del país no está para gastos extravagantes como un televisor de pantalla líquida, así que gran parte de los consumidores con televisores analógicos se han conformado con adquirir una caja convertidora....
La TDT puede apagar millones de televisores en EEUU - elmundo.es
En ese momento dejarán de funcionar todos los aparatos con una antena de techo o una antena fijada al aparato análogo a menos que sus propietarios hayan conseguido un sintonizador, comprado un televisor con TDT integrada o estén conectados a un...
Con un televisor como éste está vacunado contra el apagón analógico... - elmundo.es
No le pasa nada a su televisor, no intente ajustar la imagen.». Con esa frase daba comienzo el programa de la década de los 70 'Rumbo a lo Desconocido' -'The Twilight Zone'-, un compendio de historias de terror y misterios que mantuvo a una generación...
Industria abona el camino para impulsar la TDT en alta definición - tuexperto.com
De momento, España cuenta con siete millones de televisores preparados para este tipo de emisiones. Aun así, solo disfrutan de esta modalidad los telespectadores abonados a Digital Plus mediante un decodificador iPlus. Los más optimistas aseguran que a...
La TDT de pago obligará ahora a comprar otro descodificador - elmundo.es
La gran mayoría de ellos ya ha hecho los deberes con la compra de televisores y DVD nuevos con TDT integrada o en su defecto, sintonizadores, pero en agosto tendrán que hacer una nueva inversión en equipos electrónicos si quieren ver el contenido...
La alta definición se extiende - El País (España)
Para impulsar este sistema, a partir del 1 de abril de 2010, todos los televisores de más de 21 pulgadas deberán estar preparados para sintonizar la HD. Televisión Española ha ensayado el sistema en Valladolid con la serie documental Ciudades para el...

Televisión

Cámaras en un plató de TV.

La televisión, TV y popularmente tele, es un sistema de telecomunicación para la transmisión y recepción de imágenes en movimiento y sonido a distancia.

Esta transmisión puede ser efectuada mediante ondas de radio o por redes especializadas de televisión por cable. El receptor de las señales es el televisor.

La palabra "televisión" es un híbrido de la voz griega "Tele" (distancia) y la latina "visio" (visión). El término televisión se refiere a todos los aspectos de transmisión y programación de televisión. A veces se abrevia como TV. Este término fue utilizado por primera vez en 1900 por Constantin Perski en el Congreso Internacional de Electricidad de París (CIEP).

El Día Mundial de la Televisión se celebra el 21 de noviembre en conmemoración de la fecha en que se celebró en 1996 el primer Foro Mundial de Televisión en las Naciones Unidas.

Los primeros intentos de transmitir imágenes a distancia se realizan mediante la electricidad y sistemas mecánicos. La electricidad ejercía como medio de unión entre los puntos y servía para realizar la captación y recepción de la imagen, los medios mecánicos efectuaban las tareas de movimientos para realizar los barridos y descomposición secuencial de la imagen a transmitir. Para 1884 aparecieron los primeros sistemas de transmisión de dibujos, mapas escritos y fotografías llamados telefotos. En estos primeros aparatos se utilizaba la diferencia de resistencia para realizar la captación.

El desarrollo de las células fotosensibles de selenio, en las que su resistividad varía según la luz que incida en ellas, el sistema se perfeccionó hasta tal punto que en 1927 se estableció un servicio regular de transmisión de telefotografía entre Londres y Nueva York. Las ondas de radio pronto sustituyeron a los cables de cobre, aunque nunca llegaron a eliminarlos por completo, sobre todo en los servicios punto a punto.

El desarrollo de la telefotografía alcanzó su cumbre con los teleinscriptores, y su sistema de transmisión. Estos aparatos permitían recibir el periódico diario en casa del cliente, mediante la impresión del mismo que se hacia desde una emisora especializada.

Hasta la década de los años 80 del siglo XX se vinieron utilizando sistemas de telefoto para la transmisión de fotografías destinados a los medios de comunicación.

La imagen en movimiento es lo que caracteriza a la televisión. Los primeros desarrollos los realizaron los franceses Rionoux y Fournier en 1906. Estos desarrollaron una matriz de células fotosensibles que conectaban, al principio una a una, con otra matriz de lamparillas. A cada célula del emisor le correspondía una lamparilla en el receptor.

Pronto se sustituyeron los numerosos cables por un único par. Para ello se utilizó un sistema de conmutación que iba poniendo cada célula en cada instante en contacto con cada lámpara. El problema fue la sincronización de ambos conmutadores, así como la velocidad a la que debían de girar para lograr una imagen completa que fuera percibida por el ojo como tal.

La necesidad de enviar la información de la imagen en serie, es decir utilizando solamente una vía como en el caso de la matriz fotosensible, se aceptó rápidamente. En seguida se desarrollaron sistemas de exploración, también llamados de desintegración, de la imagen. Se desarrollaron sistemas mecánicos y eléctricos.

En 1884 Paul Nipkow diseña y patenta el llamado disco de Nipkow, un proyecto de televisión que no podría llevarse a la práctica. En 1910, el disco de Nipkow fue utilizado en el desarrollo de los sistemas de televisión de los inicios del siglo XX y en 1925, el 25 de marzo, el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando dos discos, uno en el emisor y otro en el receptor, que estaban unidos al mismo eje para que su giro fuera síncrono y separados 2m. Se transmitió una cabeza de un maniquí con una definición de 28 líneas y una frecuencia de cuadro de 14 cuadros por segundo.

Baird ofreció la primera demostración pública del funcionamiento de un sistema de televisión a los miembros de la Royal Institution y a un periodista el 26 de enero de 1926 en su laboratorio de Londres. En 1927, Baird transmitió una señal a 438 millas a través de una línea de teléfono entre Londres y Glasgow.

Este disco permite la realización de un barrido secuencial de la imagen mediante una serie de orificios realizados en el mismo. Cada orificio, que en teoría debiera tener un tamaño infinitesimal y en la practica era de 1mm, barría una línea de la imagen y como éstos, los agujeros, estaban ligeramente desplazados, acababan realizando el barrido total de la misma. El número de líneas que se adoptaron fue de 30 pero esto no dio los resultados deseados, la calidad de la imagen no resultaba satisfactoria.

En 1928 Baird funda la compañía Baird TV Development Co para explotar comercialmente la TV. Esta empresa consiguió la primera señal de televisión transatlántica entre Londres y Nueva York. Ese mismo año Paul Nipkow ve en la Exposición de radio de Berlín un sistema de televisión funcionando perfectamente basado en su invento con su nombre al pie del mismo. En 1929 se comienzan las emisiones regulares en Londres y Berlín basadas en el sistema Nipkow Baird y que se emitía en banda media de radio.

Se desarrollaron otros exploradores mecánicos como el que realizó la casa Telefunken, que dio buenos resultados, pero que era muy complejo y constaba de un cilindro con agujeros que tenían una lente cada uno de ellos.

La formación de la imagen en la recepción se realizaba mediante el mismo principio que utilizaba en la captación. Otro disco similar, girando síncronamente, era utilizado para mirar a través de él una lámpara de neón cuya luminosidad correspondía a la luz captada en ese punto de la imagen. Este sistema, por el minúsculo tamaño del área de formación de la imagen, no tuvo mucho éxito, ya que únicamente permitía que ésta fuera vista por una persona, aun cuando se intentó agrandar la imagen mediante la utilización de lentes. Se desarrollaron sistemas basados en cinta en vez de discos y también se desarrolló, que fue lo que logró resolver el problema del tamaño de la imagen, un sistema de espejos montados en un tambor que realizaban la presentación en una pantalla. Para ello el tambor tenía los espejos ligeramente inclinados, colocados helicoidalmente. Este tambor es conocido como la rueda de Weiller. Para el desarrollo práctico de estos televisores fue necesaria la sustitución de la lámpara de neón, que no daba la luminosidad suficiente, por otros métodos, y entre ellos se utilizó el de poner una lampara de descarga de gas y hacer pasar la luz de la misma por una célula de Kerr que regulaba el flujo luminoso en relación a la tensión que se le aplicaba en sus bornes. El desarrollo completo del sistema se obtuvo con la utilización de la rueda fónica para realizar el sincronismo entre el emisor y el receptor.

La exploración de la imagen, que se había desarrollado de forma progresiva por la experiencias de Senlecq y Nipkow se cuestiona por la exposición del principio de la exploración entrelazada desarrollado por Belin y Toulón. La exploración entrelazada solventaba el problema de la persistencia de la imagen, las primeras líneas trazadas se perdían cuando todavía no se habían trazado las últimas produciendo el conocido como efecto ola. En la exploración entrelazada se exploran primero las líneas impares y luego las pares y se realiza lo mismo en la presentación de la imagen. Brillounin perfecciona el disco de Nipkow para que realice la exploración entrelazada colocándole unas lentes en los agujeros aumentando así el brillo captado.

En 1932 se realizan las primeras emisiones en París. Estas emisiones tienen una definición de 60 líneas pero tres años después se estaría emitiendo con 180. La precariedad de las células empleadas para la captación hacía que se debiera iluminar muy intensamente las escenas produciendo muchísimo calor que impedía el desarrollo del trabajo en los platós.

La rueda fónica fue el sistema de sincronización mecánico que mejores resultados dio. Consistía en una rueda de hierro que tenia tantos dientes como agujeros había en el tambor o disco. La rueda y el disco estaban unidos por el mismo eje. La rueda estaba en medio de dos bobinas que eran recorridas por la señal que llegaba del emisor. En el centro emisor se daba, al comienzo de cada agujero, principio de cada línea, un pulso mucho más intenso y amplio que las variaciones habituales de las células captadoras, que cuando era recibido en el receptor al pasar por las bobinas hace que la rueda dé un paso posicionando el agujero que corresponde.

En 1937 comenzaron las transmisiones regulares de TV electrónica en Francia y en el Reino Unido. Esto llevó a un rápido desarrollo de la industria televisiva y a un rápido aumento de telespectadores aunque los televisores eran de pantalla pequeña y muy caros. Estas emisiones fueron posibles por el desarrollo de los siguientes elementos en cada extremo de la cadena.

La implementación del llamado tubo de rayos catódicos o tubo de Braum, por S. Thomson en 1895 fue un precedente que tendría gran transcendencia en la televisión, si bien no se pudo integrar, debido a las deficiencias tecnológicas, hasta entrado el siglo XX y que perdura en la primera mitad del XXI.

Desde los comienzos de los experimentos sobre los rayos catódicos hasta que el tubo se desarrolló lo suficiente para su uso en la televisión fueron necesarios muchos avances en esa investigación. Las investigaciones de Wehnelt, que añadió su cilindro, los perfeccionamientos de los controles electrostático y electromagnéticos del haz, con el desarrollo de las llamadas "lentes electrónicas" de Vichert y los sistemas de deflexión permitieron que el investigador Holweck desarrollara el primer tubo de Braum destinado a la televisión. Para que este sistema trabajase correctamente se tuvo que construir un emisor especial, este emisor lo realizó Belin que estaba basado en un espejo móvil y un sistema mecánico para el barrido.

La primera imagen sobre un tubo de rayos catódicos se formó en 1911 en el Instituto Tecnológico de San Petersburgo y consistía en unas rayas blancas sobre fondo negro y fueron obtenidas por Boris Rosing en colaboración con Zworrykin. La captación se realizaba mediante dos tambores de espejos (sistema Weiller) y generaba una exploración entrelazada de 30 líneas y 12,5 cuadros por segundo.

Las señales de sincronismo eran generadas por potenciómetros unidos a los tambores de espejos que se aplicaban a las bobinas deflexoras del TRC, cuya intensidad de haz era proporcional a la iluminación que recibía la célula fotoeléctrica.

En 1931 Vladimir Kosma Zworykin desarrolló el captador electrónico que tanto se esperaba, el iconoscopio. Este tubo electrónico permitió el abandono de todos los demás sistemas que se venían utilizando y perduró, con sus modificaciones, hasta la irrupción de los captadores de CCD's a finales el siglo XX.

El iconoscopio está basado en un mosaico electrónico compuesto por miles de pequeñas células fotoeléctricas independientes que se creaban mediante la construcción de un sandwich de tres capas, una muy fina de mica que se recubría en una de sus caras de una sustancia conductora (grafito en polvo impalpable o plata) y en la otra cara una sustancia fotosensible compuesta de millares de pequeños globulitos de plata y óxido de cesio. Este mosaico, que era también conocido con el nombre de mosaico electrónico de Zworykin se colocaba dentro de un tubo de vacío y sobre el mismo se proyectaba, mediante un sistema de lentes, la imagen a captar. La lectura de la "imagen electrónica" generada en el mosaico se realizaba con un haz electrónico que proporcionaba a los pequeños condensadores fotoeléctricos los electrones necesarios para su neutralización. Para ello se proyecta un haz de electrones sobre el mosaico, las intensidades generadas en cada descarga, proporcionales a la carga de cada célula y ésta a la intensidad de luz de ese punto de la imagen pasan a los circuitos amplificadores y de allí a la cadena de transmisión, después de los diferentes procesados precisos para el óptimo rendimiento del sistema de TV.

La exploración del mosaico por el haz de electrones se realizaba mediante un sistema de deflexión electromagnético, al igual que el utilizado en el tubo del receptor.

Se desarrollaron otro tipo de tubos de cámara como el disector de imagen de Philo Taylor Farnsworth y luego el Icotrón y el superemitrón, que era un híbrido de iconoscopio y disector, y al final apareció el orticón, desarrollado por la casa RCA y que era mucho menor, en tamaño, que el iconoscopio y mucho más sensible. Este tubo fue el que se desarrolló y perduró hasta su desaparición.

Vladimir Zworykin realizó sus estudios y experimentos del iconoscopio en la RCA, después de dejar San Petersburgo y trabajando con Philo Taylor Farnsworth quien lo acusó de copiar sus trabajos sobre el disector de imagen.

Los transductores diseñados fueron la base para las cámaras de televisión. Estos equipos integraban, e integran, todo lo necesario para captar una imagen y transformarla en una señal eléctrica. La señal, que contiene la información de la imagen más los pulsos necesarios para el sincronismo de los receptores, se denomina señal de vídeo. Una vez que se haya producido dicha señal, ésta puede ser manipulada de diferentes formas, hasta su emisión por la antena, el sistema de difusión deseado.

La señal transducida de la imagen contiene la información de ésta, pero como hemos visto, es necesario, para su recomposición, que haya un perfecto sincronismo entre la deflexión de exploración y la deflexión en la representación.

La exploración de una imagen se realiza mediante su descomposición, primero en fotogramas a los que se llaman cuadros y luego en líneas, leyendo cada cuadro. Para determinar el número de cuadros necesarios para que se pueda recomponer una imagen en movimiento así como el número de líneas para obtener una óptima calidad en la reproducción y la óptima percepción del color (en la TV en color) se realizaron numerosos estudios empíricos y científicos del ojo humano y su forma de percibir. Se obtuvo que el número de cuadros debía de ser al menos de 24 al segundo (luego se emplearon por otras razones 25 y 30) y que el número de líneas debía de ser superior a las 300.

La señal de vídeo la componen la propia información de la imagen correspondiente a cada línea (en el sistema PAL 625 líneas y en el NTSC 525 por cada cuadro) agrupadas en dos grupos, las líneas impares y las pares de cada campo, a cada un de estos grupos de líneas se les denomina campo (en el sistema PAL se usan 25 cuadros por segundo mientras que en el sistema NTSC 30). A esta información hay que añadir la de sincronismo, tanto de cuadro como de línea, esto es, tanto vertical como horizontal. Al estar el cuadro dividido en dos campos tenemos por cada cuadro un sincronismo vertical que nos señala el comienzo y el tipo de campo, es decir cuando empieza el campo impar y cuando empieza el campo par. Al comienzo de cada línea se añade el pulso de sincronismo de línea u horizontal (modernamente con la TV en color también se añade información sobre la sincronía del color).

La codificación de la imagen se realiza entre 0V para el negro y 0,7V para el blanco. Para los sincronismos se incorporan pulsos de -0,3V, lo que da una amplitud total de la forma de onda de vídeo de 1V. Los sincronismos verticales están constituidos por una serie de pulsos de -0,3V que proporcionan información sobre el tipo de campo e igualan los tiempos de cada uno de ellos.

El sonido, llamado audio, es tratado por separado en toda la cadena de producción y luego se emite junto al vídeo en una portadora situada al lado de la encargada de transportar la imagen.

En 1945 se establecen las normas CCIR que regulan la exploración, modulación y transmisión de la señal de TV. Había multitud de sistemas que tenían resoluciones muy diferentes, desde 400 líneas a hasta más de 1.000. Esto producía diferentes anchos de banda en las transiciones. Poco a poco se fueron concentrando en dos sistemas, el de 512 líneas, adoptado por EE.UU. y el de 625 líneas, adoptado por Europa (España adoptó las 625 líneas en 1951). También se adoptó muy pronto el formato de 4/3 para la relación de aspecto de la imagen.

Es a mediados del siglo XX donde la televisión se convierte en bandera tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados. En 1953 se crea Eurovisión que asocia a varios países de Europa conectando sus sistemas de TV mediante enlaces de microondas. Unos años más tarde, en 1960, se crea Mundovisión que comienza a realizar enlaces con satélites geoestacionarios cubriendo todo el mundo.

La producción de televisión se desarrolló con los avances técnicos que permitieron la grabación de las señales de vídeo y audio. Esto permitió la realización de programas grabados que podrían ser almacenados y emitidos posteriormente. A finales de los años 50 del siglo XX se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción.

En los años 70 se implementaron las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que permitían la grabación de las noticias en el campo. Nacieron los equipos periodismo electrónico o ENG. Poco después se comenzó a desarrollar equipos basados en la digitalización de la señal de vídeo y en la generación digital de señales, nacieron de esos desarrollos los efectos digitales y las paletas gráficas. A la vez que el control de las máquinas permitía el montaje de salas de postproducción que, combinando varios elementos, podían realizar programas complejos.

El desarrollo de la televisión no se paró con la transmisión de la imagen y el sonido. Pronto se vio la ventaja de utilizar el canal para dar otros servicios. En esta filosofía se implementó, a finales de los años 80 del siglo XX el teletexto que transmite noticias e información en formato de texto utilizando los espacios libres de información de la señal de vídeo. También se implementaron sistemas de sonido mejorado, naciendo la televisión en estéreo o dual y dotando al sonido de una calidad excepcional, el sistema que logró imponerse en el mercado fue el NICAM.

Ya en 1928 se desarrollaron experimentos de la transmisión de imágenes en color. Baird, basándose en la teoría tricromática de Young, realizó experimentos con discos de Nipkow a los que cubría los agujeros con filtros rojos, verdes y azules logrando emitir las primeras imágenes en color el 3 de julio de 1928. El 17 de agosto de 1940 Guillermo González Camarena patenta, en México y E.U.A, un Sistema Tricromático Secuencial de Campos. Ocho años más tarde, 1948, Goldmark, basándose en la idea de Baird y Camarena, desarrolló un sistema similar, llamado sistema secuencial de campos el cual estaba compuesto por una serie de filtros de colores rojo, verde y azul que giran anteponiéndose al captador y, de igual forma, en el receptor, se anteponen a la imagen formada en la pantalla del tubo de rayos catódicos. El éxito fue tal que la Columbia Broadcasting System lo adquirió para sus transmisiones de TV.

El siguiente paso fue la transmisión simultánea de las imágenes de cada color con el denominado trinoscopio. El trinoscopio ocupaba tres veces más espectro radioeléctrico que las emisiones monocromáticas y, encima, era incompatible con ellas a la vez que muy costoso.

El elevado número de televisores en blanco y negro exigió que el sistema de color que se desarrollara fuera compatible con las emisiones monocromas. Esta compatibilidad debía realizarse en ambos sentidos, de emisiones en color a recepciones en blanco y negro y de emisiones en monocromo a recepciones en color.

En búsqueda de la compatibilidad nace el concepto de luminancia y de crominancia. La luminancia porta la información del brillo, la luz, de la imagen, lo que corresponde al blanco y negro, mientras que la crominancia porta la información del color. Estos conceptos fueron expuestos por Valensi en 1937.

En 1950 la Radio Corporation of America, (RCA) desarrolla un tubo de imagen que portaba tres cañones electrónicos, los tres haces eran capaces de impactar en pequeños puntos de fósforo de colores, llamados luminóforos, mediante la utilización de una máscara, la Shadow Mask o Trimask. Esto permitía prescindir de los tubos trinoscópicos tan abultados y engorrosos. Los electrones de los haces al impactar con los luminóforos emiten una luz del color primario correspondiente que mediante la mezcla aditiva genera el color original.

Mientras en el receptor se implementaban los tres cañones correspondientes a los tres colores primarios en un solo elemento, en el emisor, en la cámara, se mantenían los tubos separados, uno por cada color primario. Para la separación se hace pasar la la luz que conforma la imagen por un prisma dicroico que filtra cada color primario a su correspondiente captador.

El primer sistema de televisión en color ideado que respetaba la doble compatibilidad con la televisión monocroma se desarrolló en 1951 por un grupo de ingenieros dirigidos por Hirsh en los laboratorios de la Hazeltime Corporation en los EE.UU. Este sistema fue adoptado por la Federal Communication Commission de USA (FCC) y era el NTSC que son las siglas de National Television System Commission. El sistema tuvo éxito y se extendió por toda América del Norte y Japón.

Las señales básicas que utiliza son la luminancia (Y), que nos da el brillo y es lo que se muestra en los receptores monocromos, y las componentes de color, las dos señales diferencia de color, la R-Y y B-Y (el rojo menos la luminancia y el azul menos la luminancia). Esta doble selección permite dar un tratamiento diferenciado al color y al brillo. El ojo humano es mucho más sensible a las variaciones y definición del brillo que a las del color, esto hace que los anchos de banda de ambas señales sean diferentes, lo cual facilita su transmisión ya que ambas señales se deben de implementar en la misma banda cuyo ancho es ajustado.

El sistema NTSC modula en amplitud a dos portadoras de la misma frecuencia desfasadas 90º que luego se suman, modulación QAM o en cuadratura. En cada una de las portadoras se modula una de las diferencias de color, la amplitud de la señal resultante indica la saturación del color y la fase el tinte o tono del mismo. Esta señal se llama de crominancia. Los ejes de modulación están situados de tal forma que se cuida la circunstancia de que el ojo es más sensible al color carne, esto es que el eje I se orienta hacia el naranja y el Q hacia los magentas. Al ser la modulación con portadora suprimida hace falta mandar una salva de la misma para que los generadores del receptor puedan sincronizarse con ella. Esta salva o burst suele ir en el pórtico anterior del pulso de sincronismo de línea. La señal de crominancia se suma a la de luminancia componiendo la señal total de la imagen.

Las modificaciones en la fase de la señal de vídeo cuando ésta es transmitida producen errores de tinte, es decir de color (cambia el color de la imagen).

El NTSC fue la base de la que partieron otros investigadores, principalmente europeos. En Alemania se desarrolló, por un equipo dirigido por Walter Bruch un sistema que subsanaba los erres de fase, este sistema es el PAL, Phase Altenating Line.

Para ello la fase de la subportadora se altena en cada línea. La subportadora que modula la componente R-Y, que en PAL se llama V, tiene una fase de 90º en una línea y de 270º en la siguiente, esto hace que los errores de fase que se produzcan en la transmisión (y que afectan igual y en el mismo sentido a ambas líneas) se compensen a la representación de la imagen al verse una línea junto a la otra, Si la integración de la imagen para la corrección del color la realiza el propio ojo humano tenemos el denominado PAL S (PAL Simple) y si se realiza mediante un circuito electrónico el PAL D (PAL Delay, retardado). El PAL fue propuesto como sistema de color paneuropeo en la Conferencia de Oslo de 1966 pero no se llegó a un acuerdo y como resultado los países de Europa Occidental, con la excepción de Francia, adoptaron el PAL mientras que los de Europa Oriental y Francia el SECAM.

En Francia se desarrolló por el investigador Henri de France un sistema diferente, el SECAM, « SÉquentiel Couleur À Mémoire » que basa su actuación en la trasmisión secuencial de cada componente de color moduladas en FM de tal forma que en una línea se manda una componente y en la siguiente la otra componente. Luego el receptor las combina para deducir el color de la imagen.

Todos los sistemas tenían ventajas e inconvenientes. Mientras que el NTSC y el PAL dificultaban la edición de la señal de vídeo por su secuencia de color en cuatro y ocho campos, respectivamente, el sistema SECAM hacía imposible el trabajo de mezcla de señales de vídeo.

El sistema de televisión de definición estándar, conocido por la siglas "SD", tiene, en PAL, una definición de 720x576 pixeles (720 puntos horizontales en cada línea y 576 puntos verticales que corresponden a las líneas activas del PAL) esto hace que una imagen en PAL tenga un total de 414.720 pixeles. En NSTC se mantienen los puntos por línea pero el número de líneas activas es solo de 525 lo que da un total de pixeles de 388.800 siendo los pixeles levemente anchos en PAL y levemente altos en NSTC.

Se han desarrollaro 28 sistemas diferentes de televisión de alta definición. Hay diferencias en cuanto a relación de cuadros, número de líneas y pixeles y forma de barrido. Todos ellos se pueden agrupar en cuatro grandes grupos de los cuales dos ya han quedado obsoletos (los referentes a las normas de la SMPTE 295M, 240M y 260M) manteniéndose otros dos que difieren, fundamentalmente en el número de líneas activas, uno de 1080 líneas activas (SMPT 274M) y el otro de 720 líneas activas (SMPT 269M).

En el primero de los grupos, con 1080 líneas activas, se dan diferencias de frecuencia de cuadro y de muestras por línea (aunque el número de muestras por tiempo activo de línea se mantiene en 1.920) también la forma de barrido cambia, hay barrido progresivo o entrelazado. De la misma forma ocurre en el segundo grupo, donde las líneas activas son 720 teniendo 1.280 muestras por tiempo de línea activo. En este caso la forma de barrido es siempre progresiva.

En el sistema de HD de 1080 líneas y 1.920 muestras por línea tenemos 2.073.600 pixeles en la imagen y en el sistema de HD de 720 líneas y 1.280 muestras por líneas tenemos 921.600 pixeles en la pantalla. En relación con los sistemas convencionales tenemos que la resolución del sistema de 1.800 líneas es 5 veces mayor que el del PAL y cinco veces y media que el del NTSC. Con el sistema de HD de 720 líneas es un 50% mayor que en PAL y un 66% mayor que en NTSC.

La alta resolución requiere también una redifinición del espacio de color cambiando el triangulo de gamut.

En la década de los 90 del siglo XX se empezaron a desarrollar sistemas de televisión de alta definición todos estos sistemas, en principio analógicos, aumentaban el número de líneas de la imagen y cambiaban la relación de aspecto pasando del formato utilizado hasta entonces, relación de aspecto 4/3, al un formato más apaisado de 16/9. Este nuevo formato, más agradable a la vista se estableció como estándar incluso en emisiones de definición estándar.

La relación de aspecto se expresa por la anchura de la pantalla en relación a la altura. El formato estándar hasta ese momento tenía una relación de aspecto de 4/3. El adoptado es de 16/9. La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.

En Europa Occidental, donde el sistema de televisión de la mayoría de los países es el PAL, se desarrollo, con apoyo de la Unión Europea, un formato a caballo entre la alta definición y la definición estándar. Este formato recibió el nombre de PALplus y aunque fue apoyado por la administración no logró cuajar.

El PALplus fue una extensión del PAL para transmitir imágenes de 16:9 sin tener que perder resolución vertical. En un televisor normal se recibe una imagen de apaisada con franjas negras arriba y abajo de la misma (letterbox) de 432 líneas activas. El PALplus mandaba información adicional para rellenar las franjas negras llegando a 576 líneas de resolución vertical. Mediante señales auxiliares que iban en las líneas del intervalo de sincronismo vertical se comandaba al receptor PALplus indicándole si la captación había sido realizada en barrido progresivo o entrelazado. El sistema se amplió con el llamado "Colorplus" que mejoraba la decodificación del color.

A finales de los años 80 del siglo XX se empezaron a desarrollar sistemas de digitalización. La digitalización en la televisión tiene dos partes bien diferenciadas. Por un lado está la digitalización de la producción y por el otro la de la transmisión.

En cuanto a la producción se desarrollaron varios sistemas de digitalización. Los primeros de ellos estaban basados en la digitalización de la señal compuesta de vídeo que no tuvieron éxito. El planteamiento de digitalizar las componentes de la señal de vídeo, es decir la luminancia y las diferencias de color, fue el que resultó más idóneo. En un principio se desarrollaron los sistemas de señales en paralelo, con gruesos cables que precisaban de un hilo para cada bit, pronto se sustituyó ese cable por la transmisión multiplexada en tiempo de las palabras correspondientes a cada una de las componentes de la señal, además este sistema permitió incluir el audio, embebiéndolo en la información transmitida, y otra serie de utilidades.

Para el mantenimiento de la calidad necesaria para la producción de TV se desarrolló la norma de Calidad Estudio CCIR-601. Mientras que se permitió el desarrollo de otras normas menos exigentes para el campo de las producciones ligeras (EFP) y el periodismo electrónico (ENG).

La diferencia entre ambos campos, el de la producción en calidad de estudio y la de en calidad de ENG estriba en la magnitud el flujo binario generado en la digitalización de las señales.

La reducción del flujo binario de la señal de vídeo digital dio lugar a una serie de algoritmos, basados todos ellos en la transformada discreta del coseno tanto en el dominio espacial como en el temporal, que permitieron reducir dicho flujo posibilitando la construcción de equipos más accesibles. Esto permitió el acceso a los mismos a pequeñas empresas de producción y emisión de TV dando lugar al auge de las televisiones locales.

En cuanto a la transmisión, la digitalización de la misma fue posible gracias a las técnicas de compresión que lograron reducir el flujo a menos de 5 Mbit/s, hay que recordar que el flujo original de una señal de calidad de estudio tiene 270 Mbit/s. Esta compresión es la llamada MPEG-2 que produce flujos de entre 4 y 6 Mbit/s sin pérdidas apreciables de calidad subjetiva.

Las transmisiones de TV digital tienen tres grandes áreas dependiendo de la forma de la misma aun cuando son similares en cuanto a tecnología. La transmisión se realiza por satélite, cable y vía radiofrecuencia terrestre, ésta es la conocida como TDT.

El avance de la informática, tanto a nivel del hardware como del software, llevaron a sistemas de producción basados en el tratamiento informático de las señal de televisión. Los sistemas de almacenamiento, como los magnetoscopios, pasaron a ser sustituidos por servidores informáticos de vídeo y los archivos pasaron a guardar sus informaciones en discos duros y cintas de datos. Los ficheros de vídeo incluyen los metadatas que son información referente a su contenido. El acceso a la información se realiza desde los propios ordenadores donde corren programas de edición de vídeo de tal forma que la información residente en el archivo es accesible en tiempo real por el usuario. En realidad los archivos se estructuran en tres niveles, el on line, para aquella información de uso muy frecuente que reside en servidores de discos duros, el near line, información de uso frecuente que reside en cintas de datos y éstas están en grandes librerías automatizadas, y el archivo profundo donde se encuentra la información que está fuera de línea y precisa de su incorporación manual al sistema. Todo ello está controlado por una base de datos en donde figuran los asientos de la información residente en el sistema.

La incorporación de información al sistema se realiza mediante la denominada función de ingesta. Las fuentes pueden ser generadas ya en formatos informáticos o son convertidas mediante conversores de vídeo a ficheros informáticos. Las captaciones realizadas en el campo por equipos de ENG o EFP se graban en formatos compatibles con el del almacenamiento utilizando soportes diferentes a la cinta magnética, las tecnologías existentes son DVD de rayo azul (de Sony), grabación en memorias ram (de Panasonic) y grabación en disco duro (de Ikegami).

La existencia de los servidores de vídeo posibilita la automatización de las emisiones y de los programas de informativos mediante la realización de listas de emisión, los llamados play out.

La televisión hasta tiempos recientes, principios del siglo XXI, fue analógica totalmente y su modo de llegar a los televidentes era mediante el aire con ondas de radio en las bandas de VHF y UHF. Pronto salieron las redes de cable que distribuían canales por las ciudades. Esta distribución también se realizaba con señal analógica, las redes de cable tener una banda asignada, más que nada para poder realizar la sintonía de los canales que llegan por el aire junto con los que llegan por cable. Su desarrollo depende de la legislación de cada país, mientras que en algunos de ellos se desarrollaron rápidamente, como en Inglaterra y Estados Unidos, en otros como España no han tenido casi importancia hasta que a finales del siglo XX la legislación permitió su instalación.

El satélite, que permite la llegada de la señal a zonas muy remotas y de difícil acceso, su desarrollo, a partir de la tecnología de los lanzamientos espaciales, permitió la explotación comercial para la distribución de las señales de televisión. El satélite realiza dos funciones fundamentales, la de permitir los enlaces de las señales de un punto al otro del orbe, mediante enlaces de microondas, y la distribución de la señal en difusión.

Cada uno de estos tipos de emisión tiene sus ventajas e inconvenientes, mientras que el cable garantiza la llegada en estado óptimo de la señal, sin interferencias de ningún tipo, precisa de una instalación costosa y de un centro que realice el embebido de las señales, conocido con el nombre de cabecera. Solo se puede entender un tendido de cable en núcleos urbanos donde la aglomeración de habitantes haga rentable la inversión de la infraestructura necesaria. Otra ventaja del cable es la de disponer de un camino de retorno que permite crear servicios interactivos independientes de otros sistemas (normalmente para otros sistemas de emisión se utiliza la línea telefónica para realizar el retorno). El satélite, de elevado costo en su construcción y puesta en órbita permite llegar a lugares inaccesibles y remotos. También tiene la ventaja de servicios disponibles para los televidentes, que posibilitan la explotación comercial y la rentabilidad del sistema. La comunicación vía satélite es una de las más importantes en la logística militar y muchos sistemas utilizados en la explotación civil tienen un trasfondo estratégico que justifican la inversión económica realizada. La transmisión vía radio es la más popular y la más extendida. La inversión de la red de distribución de la señal no es muy costosa y permite, mediante la red de reemisores necesaria, llegar a lugares remotos, de índole rural. La señal es mucho menos inmune al ruido y en muchos caso la recepción se resiente. Pero es la forma normal de la difusión de las señales de TV.

Estas formas de difusión se han mantenido con el nacimiento de la televisión digital con la ventaja de que el tipo de señal es muy robusta a las interferencias y la norma de emisión está concebida para una buena recepción. También hay que decir que acompaña a la señal de televisión una serie de servicios extras que dan un valor añadido a la programación y que en la normativa se ha incluido todo un campo para la realización de la televisión de pago en sus diferentes modalidades.

La difusión de la televisión digital se basa en el sistema DVB Digital Video Broadcasting y es el sistema utilizado en Europa. Este sistema tiene una parte común para la difusión de satélite, cable y terrestre. Esta parte común corresponde a la ordenación del flujo de la señal y la parte no común es la que lo adapta a cada modo de transmisión. Los canales de transmisión son diferentes, mientras que el ancho de banda del satélite es grande el cable y la vía terrestre lo tienen moderado, los ecos son muy altos en la difusión vía terrestre mientas que en satélite prácticamente no existen y en el cable se pueden controlar, las potencias de recepción son muy bajas para el satélite (llega una señal muy débil) mientras que en el cable son altas y por vía terrestre son medias, la misma forma tiene la relación señal-ruido.

Los sistemas utilizados según el tipo de canal son los siguientes, para satélite el DVB-S, para cable el DVB-C y para terrestre (también llamando terrenal) DVB-T. Muchas veces se realizan captaciones de señales de satélite que luego son metidas en cable, para ello es normal que las señales sufran una ligera modificación para su adecuación la norma del cable.

En EE.UU. se ha desarrollado un sistema diferente de televisión digital, el ATSC Advanced Television System Committee que mientras que en las emisiones por satélite y cable no difiere mucho del europeo, en la TDT es totalmente diferente. La deficiencia del NTSC ha hecho que se unifique lo que es televisión digital y alta definición y el peso de las compañías audiovisuales y cinematográficas han llevado a un sistema de TDT característico en el que no se ha prestado atención alguna a la inmunidad contra los ecos.

La difusión analógica por vía terrestre, por radio, está constituida de la siguiente forma; del centro emisor se hacen llegar las señales de vídeo y audio hasta los transmisores principales situados en lugares estratégicos, normalmente en lo alto de alguna montaña dominante. Estos enlaces se realizan mediante enlaces de microondas punto a punto. Los transmisores principales cubren una amplia zona que se va rellenando, en aquellos casos que haya sombras, con reemisores. La transmisión se realiza en las bandas de UHF y VHF, aunque esta última está prácticamente extinguida ya que en Europa se ha designado a la aeronáutica y a otros servicios como la radio digital.

La difusión de la televisión digital vía terrestre, conocida como TDT se realiza en la misma banda de la difusión analógica. Los flujos de transmisión se han reducido hasta menos de 6Mb/s lo que permite la incorporación de varios canales. Lo normal es realizar una agrupación de cuatro canales en un Mux el cual ocupa un canal de la banda (en analógico un canal es ocupado por un programa). La característica principal es la forma de modulación. La televisión terrestre digital dentro del sistema DVB-T utiliza para su transmisión la modulación OFDM Orthogonal Frecuency Division Multiplex que le confiere una alta inmunidad a los ecos, aún a costa de un complicado sistema técnico. La OFDM utiliza miles de portadoras para repartir la energía de radiación, las portadoras mantienen la ortogonalidad en el dominio de la frecuencia. Se emite durante un tiempo útil al que sigue una interrupción llamada tiempo de guarda. Para ello todos los transmisores deben estar síncronos y emitir en paralelo un bit del flujo de la señal. El receptor recibe la señal y espera el tiempo de guarda para procesarla, en esa espera se desprecian los ecos que se pudieran haber producido. La sincronía en los transmisores se realiza mediante un sistema de GPS.

La televisión digital terrestre en los EE.UU., utiliza la norma ATSC Advanced Television System Committee que deja sentir la diferente concepción respecto al servicio que debe tener la televisión y el peso de la industria audiovisual y cinematográfica estadounidense. La televisión norteamericana se ha desarrollado a base de pequeñas emisoras locales que se unían a una retransmisión general para ciertos programas y eventos, al contrario que en Europa donde han primado las grandes cadenas nacionales. Esto hace que la ventaja del sistema europeo que puede crear redes de frecuencia única para cubrir un territorio con un solo canal no sea apreciada por los norteamericanos. El sistema americano no ha prestado atención a la eliminación del eco. La deficiencia del NTSC es una de las causas de la ansias para el desarrollo de un sistema de TV digital que ha sido asociado con el de alta definición.

EL ATSC estaba integrado por empresas privadas, asociaciones e instituciones educativas. La FCC Federal Communication Commission aprobó la norma resultante de este comité como estándar de TDT en EE.UU. el 24 de diciembre de 1996. Plantea una convergencia con los ordenadores poniendo énfasis en el barrido progresivo y en el píxel cuadrado. Han desarrollado dos jerarquías de calidad, la estándar (se han definido dos formatos, uno entrelazado y otro progresivo, para el entrelazado usan 480 líneas activas a 720 pixeles por línea y el progresivo 480 líneas con 640 pixeles por línea, la frecuencia de cuadro es la de 59,94 y 60 Hz y el formato es de 16/9 y 3/4) y la de alta definición (en AD tienen dos tipos diferentes uno progresivo y otro entrelazado, para el primero se usan 720 líneas de 1280 pixeles, para el segundo 1080 líneas y 1920 pixeles por línea a 59,94 y 60 cuadros segundo y un formato de 16/9 para ambos). Han desarrollado dos jerarquías de calidad, la estándar y la de alta definición. Utiliza el ancho de banda de un canal de NTSC para la emisión de televisión de alta definición o cuatro en calidad estándar.

Los sistemas de difusión digitales están llamados a sustituir a los analógicos, se prevé que se dejen de realizar emisiones en analógico, en Europa esta previsto el Apagón analógico para el 2012 y en EE.UU se ha decretado el 17 de febrero de 2009 como la fecha límite en la que todas las estaciones de televisión dejen de transmitir en sistema analógico y pasen a transmitir exclusivamente en sistema digital. El día 8 de Septiembre de 2008 al mediodía se realizó la primera transición entre sistemas en el poblado de Wilmington Carolina del Norte.

La televisión por cable surge por la necesidad de llevar señales de televisión y radio, de índole diversa, hasta el domicilio de los abonados, sin necesidad de que éstos deban disponer de diferentes equipos receptores, reproductores y sobre todo de antenas.

Precisa de una red de cable que parte de una cabecera en donde se van embebiendo, en multiplicación de frecuencias, los diferentes canales que tienen orígenes diversos. Muchos de ellos provienen de satélites y otros son creados ex profeso para la emisión por cable.

La ventaja del cable es la de disponer de un canal de retorno, que lo forma el propio cable, que permite el poder realizar una serie de servicios sin tener que utilizar otra infraestructura.

La dificultad de tender la red de cable en lugares de poca población hace que solamente los núcleos urbanos tengan acceso a estos servicios.

La transmisión digital por cable esta basada en la norma DVB-C, muy similar a la de satélite, y utiliza la modulación QAM.

La difusión vía satélite se inició con el desarrollo de la industria espacial que permitió poner en órbita geoestacionaria satélites con transductores que emiten señales de televisión que son recogidas por antenas parabólicas.

El alto coste de la construcción y puesta en órbita de los satélites, así como la vida limitada de los mismos, se ve aliviado por la posibilidad de la explotación de otras serie de servicios como son los enlaces punto a punto para cualquier tipo de comunicación de datos. No es desdeñable el uso militar de los mismos, aunque parte de ellos sean de aplicaciones civiles, ya que buena parte de la inversión esta realizada con presupuesto militar.

La ventaja de llegar a toda la superficie de un territorio concreto, facilita el acceso a zonas muy remotas y aisladas. Esto hace que los programas de televisión lleguen a todas partes.

La transmisión vía satélite digital se realiza bajo la norma DVB-S, la energía de las señales que llegan a las antenas es muy pequeña aunque el ancho de banda suele ser muy grande.

El desarrolo de redes IP, basadas en accesos de los clientes a las mismas mediante ADSL o fibra óptica, que proporcionan gran ancho de banda, así como el aumento de las capacidades de compresión de datos de los algoritmos tipo MPEG, ha hecho posible la distribución de la señal de televisión de forma digital encapsulada en mediante protocolos IP.

Han surgido asi, a partir del año 2003, plataformas de distribución de televisión IP (IPTV) soportadas tanto en redes del tipo ADSL, VDSL o de fibra óptica para visualización en televisor, como para visualización en ordenadores y teléfonos móviles.

Se conoce como televisor al aparato electrodoméstico destinado a la recepción de la señal de televisión. Suele constar de un sintonizador y de los mandos y circuitos necesarios para la conversión de las señales eléctricas, bien sean analógicas o digitales, en representación de las imágenes en movimiento en la pantalla y el sonido por los altavoces. Muchas veces hay servicios asociados a la señal de televisión que el televisor debe procesar, como el teletexto o el sistema NICAM de audio.

Desde los receptores mecánicos hasta los modernos televisores planos ha habido todo un mundo de diferentes tecnologìas. El tubo de rayos catódicos, que fue el que proporcionó el gran paso en el desarrollo de la televisión, se resiste a desaparecer al no encontrarse, todavía, quien lo sustituya, manteniendo la calidad de imagen y el precio de producción que éste proporciona. Las pantallas planas de cristal líquido o de plasma no han logrado sustituirlo al dar una imagen de inferior calidad y tener un elevado precio, su gran ventaja es la línea moderna de su diseño. Los televisores preparados para la alta definición tampoco están abriéndose paso al carecer de horas de programación en esa calidad y al contentarse el usuario con la calidad de la emisión estándar.

A poco tiempo del llamado apagón analógico todavía son escasos los televisores y otros electrodomésticos que se usan en televisión, como grabadores, que incluyen el sintonizador TDT o los decodificadores para la recepción de cable y satélite.

Al principio



Pantalla de plasma

Pantalla de plasma.

Una pantalla de plasma (Plasma Display Panel – PDP) es un tipo de pantalla plana habitualmente usada para grandes TV (alrededor de 37 pulgadas o 940 mm.). Consta de muchas celdas diminutas situadas entre dos paneles de cristal que contienen una mezcla de gases nobles (neón y xenón). El gas en las celdas se convierte eléctricamente en plasma el cual provoca que una substancia fosforescente (que no es fósforo) emita luz.

La pantalla de plasma fue inventada en 1964 en la Universidad de Illinois por Donald L. Bitzer, Gene Slottow y el estudiante Robert Willson para poder comer, el PLATO Computer System. eran monocromas (naranja, verde y amarillo) y fueron muy populares al comienzo de los 70 por su dureza y porque no necesitaban ni memoria ni circuitos para actualizar la imagen. A finales de los 70 tuvo lugar un largo periodo de caída en las ventas debido a que las memorias de semiconductores hicieron a las pantallas CRT más baratas que las pantallas de plasma. No obstante, su tamaño de pantalla relativamente grande y la poca profundidad de su cuerpo las hicieron aptas para su colocación en vestíbulos y bolsas de valores.

En 1973, IBM introdujo una pantalla monocroma de 11 pulgadas (483 mm) que era capaz de mostrar simultáneamente cuatro sesiones de terminal de la máquina virtual del IBM 3270. Esta fábrica fue trasladada en 1987 a una compañía llamada Plasmaco que había sido fundada recientemente por el doctor Larry F. Weber (uno de los estudiantes del doctor Bitzer), Stephen Globus y James Kehoe (que era el encargado de planta de IBM).

En 1992, Fujitsu creó la primera pantalla de 15 pulgadas (233 mm) en blanco y negro.

En 1996, Matsushita Electrical Industries (Panasonic) compró Plasmaco, su tecnología y su fábrica estadounidense.

En 1997, Pioneer empezó a vender el primer televisor de plasma al público. Las pantallas de plasma actuales se pueden ver habitualmente en los hogares y son más finas y grandes que sus predecesoras. Su pequeño grosor les permite competir con otros aparatos como los proyectores.

El tamaño de las pantallas ha crecido desde aquella pantalla de 15 pulgadas de 1992. La pantalla de plasma más grande del mundo ha sido mostrada en el Consumer Electronics Show del año 2008 en Las Vegas (.U.S.A.) y es una pantalla de 150 pulgadas creada por Panasonic.

Hasta hace poco, su brillo superior, su tiempo de respuesta más rápido, su gran espectro de colores y su mayor ángulo de visión (comparándolas con las pantallas LCD) hicieron de las pantallas de plasma una de las tecnologías de visión para HDTV más populares. Durante mucho tiempo se creyó que la tecnología LCD era conveniente tan sólo para pequeños televisores y que no podía competir con la tecnología del plasma en las pantallas más grandes (particularmente de 42 pulgadas en adelante).

Sin embargo, tras esto, los cambios y mejoras en la tecnología LCD han hecho más pequeña esta diferencia. Su poco peso, bajos precios, mayor resolución disponible (lo que es importante para HDTV) y a menudo bajo consumo eléctrico convirtieron a las pantallas LCD en duras competidoras en el mercado de los televisores. A finales del año 2006 los analistas observaron que las pantallas LCD estaban alcanzando a las de plasma, particularmente en el importante segmento de las pantallas de 40 pulgadas o más dónde los plasmas habían disfrutado de un fuerte dominio un par de años antes. Hoy en día las LCD ya compiten con las de plasma en los segmentos de 50 y 60 pulgadas donde existe casi tanta variedad en ambas tecnologías. Por otro lado el precio al publico se ha invertido ya que la demanda de LCD es alta y la tecnología basada en plasma está viendo bajar su precio por debajo del de su competidor. Otra tendencia de la industria es la consolidación de los fabricantes de pantallas de plasma con alrededor de cincuenta marcas disponibles pero sólo cinco fabricantes.

Las pantallas de plasma son brillantes (1000 lux o más por módulo), tienen un amplia gama de colores y pueden fabricarse en tamaños bastante grandes, hasta 262 cm de diagonal. Tienen una luminancia muy baja a nivel de negros, creando un negro que resulta más deseable para ver películas. Esta pantalla sólo tiene cerca de 6 cm de grosor y su tamaño total (incluyendo la electrónica) es menor de 10 cm. Los plasmas usan tanta energía por metro cuadrado como los televisores CRT o AMLCD. El consumo eléctrico puede variar en gran medida dependiendo de qué se esté viendo en él. Las escenas brillantes (como un partido de fútbol) necesitarán una mayor energía que las escenas oscuras (como una escena nocturna de una película). Las medidas nominales indican 400 vatios para una pantalla de 50 pulgadas. Los modelos relativamente recientes consumen entre 220 y 310 vatios para televisores de 50 pulgadas cuando se está utilizando en modo cine. La mayoría de las pantallas están configuradas con el modo “tienda” por defecto y consumen como mínimo el doble de energía que con una configuración más cómoda para el hogar.

El tiempo de vida de la última generación de pantallas de plasma está estimado en unas 100.000 horas (o 30 años a 8 horas de uso por día) de tiempo real de visionado. En concreto, éste es el tiempo de vida medio estimado para la pantalla, el momento en el que la imagen se ha degradado hasta la mitad de su brillo original. Se puede seguir usando pero se considera el final de la vida funcional del aparato.

Los competidores incluyen a LCD, CRT, OLED, AMLCD, DLP, SED-tv, etc. La principal ventaja de la tecnología del plasma es que pantallas muy grandes pueden ser fabricadas usando materiales extremadamente delgados. Ya que cada píxel es iluminado individualmente, la imagen es muy brillante y posee un gran ángulo de visión.

Los gases xenon y neon en un televisor de plasma están contenidos en cientos de miles de celdas diminutas entre dos pantallas de cristal. Los electrodos también se encuentran “emparedados” entre los dos cristales, en la parte frontal y posterior de las celdas. Ciertos electrodos se ubican detrás de las celdas, a lo largo del panel de cristal trasero y otros electrodos, que están rodeados por un material aislante dieléctrico y cubiertos por una capa protectora de óxido de magnesio, están ubicados en frente de la celda, a lo largo del panel de cristal frontal. El circuito carga los electrodos que se cruzan en cada celda creando diferencia de voltaje entre la parte trasera y la frontal y provocan que el gas se ionice y forme el plasma. Posteriormente, los iones del gas corren hacia los electrodos donde colisionan emitiendo fotones.

El porcentaje de contraste es la diferencia entre la parte más brillante de la imagen y la más oscura, medida en pasos discretos, en un momento dado. Generalmente, cuanto más alto es el porcentaje de contraste más realista es la imagen. Los porcentajes de contraste para pantallas de plasma se suelen anunciar de 15.000:1 a 30.000:1. Ésta es una ventaja importante del plasma sobre otras tecnologías de visualización. Aunque no hay ningún tipo de directriz en la industria acerca de cómo informar sobre el porcentaje de contraste, la mayoría de los fabricantes siguen el estándar ANSI o bien realizan pruebas “full-on-full-off”. El estándar ANSI usa un patrón para la prueba de comprobación por medio de la cual se miden simultáneamente los negros más oscuros y los blancos más luminosos y se logra una clasificación más realista y exacta. Por otro lado, una prueba “full-on-full-off” mide el porcentaje usando una pantalla de negro puro y otra de blanco puro, lo que consigue los valores más altos pero no representa un escenario de visualización típico. Los fabricantes pueden mejorar artificialmente el porcentaje de contraste obtenido incrementando el contraste y el brillo para lograr los valores más altos en las pruebas. Sin embargo, un porcentaje de contraste generado mediante este método sería engañoso ya que la imagen sería esencialmente imposible de ver con esa configuración.

Se suele decir a menudo que las pantallas de plasma tienen mejores niveles de negros (y porcentajes de contraste), aunque tanto las pantallas de plasma como las LCD tienen sus propios desafíos tecnológicos. Cada celda de una pantalla de plasma debe ser precargada para iluminarla (de otra forma la celda no respondería lo suficientemente rápido) y esa precarga conlleva la posibilidad de que las celdas no logren el negro verdadero. Algunos fabricantes han trabajado mucho para reducir la precarga y el brillo de fondo asociado hasta el punto en el que los niveles de negro de los plasmas modernos comienzan a rivalizar con los CRT. Con la tecnología LCD, los pixeles negros son generados por un método de polarización de la luz y son incapaces de ocultar completamente la luz de fondo subyacente.

Un defecto de la tecnología de plasma es que si se utiliza habitualmente la pantalla al nivel máximo de brillo se reduce significativamente el tiempo de vida del aparato. Por este motivo, muchos consumidores usan una configuración de brillo por debajo del máximo, pero que todavía sigue siendo más brillante que las pantallas CRT.

Las pantallas LCD por el contrario no suelen sufrir el denominado “efecto fantasma” típico de las pantallas CRT y plasma.

Al principio



Zenith Electronics

La última logotipo utilizado durante el período de propiedad, al margen de la impresionante Zenith sede en Glenview, IL en 1995.

Zenith Electronics Corporation es una empresa estadounidense dedicada a la fabricación de televisores. Su sede está en Lincolnshire, Illinois. Fue la inventora del mando a distancia moderna y la introductora de la HDTV en el norte de América. Forma parte del grupo LG desde que fuera adquirida por la empresa de Corea del Sur en una operación que se inició en 1995.

La empresa se inició en Chicago, Illinois, en 1918 como un pequeño productor de radioaficionados equipo. El nombre "Zenith" provienen de sus fundadores "llamada, 9ZN, y 'Zenith Radio' fue incorporado oficialmente en 1923. Zenith presentó el primer radio portátil no mucho después de esto, y que a la larga pasará a inventar cosas tales como la inalámbrica control remoto, FM multiplex estéreo, de alto contraste y la cara plana tubo de imagen s, y la MTS utiliza en sistema estéreo analógico de televisión en los EE.UU. y Canadá. Zenith fue también una de las primeras empresas en introducir un digitales HDTV la aplicación del sistema, algunas de cuyas partes se incluyeron en el estándar ATSC a partir de 1993 Gran Alianza.

En la década de 1980, Zenith cayó en tiempos difíciles ya que cada vez más de su cuota de mercado se establece con el japonés a precios más bajos. En 1979, tienen en la computadora de negocio con la compra de Empresa Heath y su H-8 kit de ordenador; Zenith Heath renombrado equipo de división de datos' Zenith sistemas , y finalmente vendidos ZDS y Heath en Grupo Bol. en 1989 para recaudar fondos para sus esfuerzos de investigación de alta definición. Zenith cambiado su nombre por el de 'Zenith Electronics Corporation en 1984, para reflejar sus intereses en los ordenadores y CATV, y, puesto que había abandonado el negocio de radio, dos años antes.

En 1990, Zenith estaba en problemas, y buscando más y más atractivo para una adquisición hostil. Para evitar esto, Zenith vendido el 5% del mismo a LG Electronics, como parte de un acuerdo de reparto de la tecnología. Con el envejecimiento de su línea analógica (la última gran actualización de la línea ha sido elSistemachasis ³ en 1978), y la adopción de la HDTV en los EE.UU. años, Zenith las perspectivas eran sombrías. Finalmente, LG aumentaría su participación en el Zenith el 55%, suficiente para asumir una participación de control. Zenith finalmente se declaró en Capítulo 11 de quiebra en 1999, y en cambio de sus deudas, LG ofreció comprar la parte de Zenith no ya propia. Durante esta época, algunos de los productos de Zenith se OEMed en virtud de la 'Almirante' nombre.

Hoy en día, LG produce el Zenith TDT-900 y Zenith TDT-901. LG también ofrece la marca Zenith de plasma, LCD y televisores de visión directa a través de determinados puntos de venta.

Zenith Entre los primeros productos son los famosos' Trans-Oceánica "y" Real "serie de radios portátiles de onda corta, que se encontraban en producción a partir de 1942 a 1981.

Cenit fue la primera empresa a experimentar con la suscripción de TV, el lanzamiento de su Phonevision en la estación KS2XBS concepto (inicialmente la radiodifusión en el canal 2, antes de la Comisión Federal de Comunicaciones los obligó a renunciar a WBBM-TV ). Su experimento descrambler en una caja montada en la televisión, y conectado al teléfono plomo. Cuando una emisión anunciado estaba listo para comenzar, los televidentes se llama a un operador en Zenith que enviar una señal con el teléfono lleva a descifrar la señal.

Mientras que el Teatro de Propietarios de América reivindica el concepto fue un fracaso, Zenith se reivindica el experimento fue un éxito. Como Phonevision emisión de películas, fue visto como un competidor potencial de los teatros tradicionales. A pesar del hecho de que las tres películas disponibles inicialmente a la primera prueba de 300 hogares fueron más de dos años, aproximadamente el 18 por ciento de los televidentes Phonevision los había visto en el cine, y 92 por ciento de los hogares Phonevision informaron de que preferiría que películas en casa.

Zenith es, tal vez, mejor conocido por la primera práctica inalámbrica TV control remoto, el Comando Espacial, elaborado en 1956.

El original de TV de control remoto es una versión con cable, publicado en 1950, que pronto atrajo a quejas sobre una longitud de cable antiestéticos de la silla del espectador a la televisión. CMdR. Eugene F. McDonald, presidente y fundador Zenith, ordenó a sus ingenieros para desarrollar una versión inalámbrica, pero el uso de las ondas de radio pronto se descuentos debido a la escasa injerencia rechazo inherentes a 1950 receptores de radio. De 1955 Flash-Matic sistema remoto utiliza un tubo de flash direccional foto en la unidad de mano que tenía por objeto sensible photoreceivers frente en las cuatro esquinas de la televisión gabinete. Sin embargo, la luz brillante del sol cayendo en el televisor se encontró para activar los controles.

Llevar Ingeniero Robert Adler y sugirió que el sonido ultrasónico ser utilizado como un mecanismo de activación. Esto se produjo en la mano mecánicamente por unidad-golpeó las barras de aluminio de dimensiones cuidadosamente - un receptor de TV en la respuesta a las diferentes frecuencias de esta acción produce. La miniaturización de la electrónica significa que, eventualmente, los sonidos son producidos en la unidad de mando a distancia por vía electrónica, pero el principio de funcionamiento se mantuvo en uso hasta la década de 1980, cuando fue sustituida por la luz infrarroja sistema.

La foto de la derecha es un Mando Espacial de 600, y fue el control remoto diseñado para su uso con receptores de televisión en color. El espacio de comando 600 se introdujo en 1965 y este diseño fue en uso hasta el final del 1972 el año del modelo. El espacio de comandos de control remoto 600 había una característica adicional que establece el mando a distancia, aparte de todos los demás. Es decir, este mando a distancia también podría ajustar tonos de color. Al pulsar el botón MUTE en el mando a distancia, un relé que se activen a la televisión en el que la transferencia de la unidad de motor VHF circuito sintonizador a la tonalidad de control motorizado. Esto permitiría al usuario ajustar el tono deprimente en incrementos por el canal hacia arriba o hacia abajo los botones del mando a distancia, la televisión y restaurar a la normalidad cuando la operación de sintonización silenciar botón se pulsa de nuevo (mudo fuera).

Algunos modelos de Zenith del Sistema 3'línea de televisores fabricados con los finales de los 70 a mediados de los años 80 había una característica que se hace referencia a la tecnología espacial como Zenith Teléfono. Es básicamente un manos libres altavoz incorporado en el televisor. Se utiliza el conjunto de altavoces y mando a distancia, además de un micrófono incorporado. Un espacio de teléfono habilitado para televisión de conectarse a una toma de teléfono (con un built-in cable de teléfono), y la colocación de una llamada se realiza pulsando un botón del mando a distancia para activar el espacio de teléfono (que se mudo y asumir el programa de audio ir al orador). El número de teléfono se marca utilizando las teclas numéricas en el mando a distancia, que a continuación, muestra los dígitos están marcados en la pantalla (utilizando la visualización en pantalla las características de la línea Sistema 3). El usuario podrá conversar con otro de llamadas manos libres, como un altavoz.

Una característica que se incluye en algunos de Zenith del Chromacolor'y luego'Sistema 3 líneas de juegos de los finales de los años 70 fue la función de zoom. Esta característica permite a la imagen que se muestra en la pantalla del televisor para hacer zoom en, por overscanning la trama de CRT para que el centro de la imagen que se mostrará.

En el muy principios de 1950 entró en el Zenith de mercado de la televisión. Estos conjuntos fueron en todos los conjuntos de tubo. La característica principal es que toda la ronda de pantalla fue expuesto. Ellos estaban disponibles en 12 ", 16" y 19 ". Todos los modelos tenían un interruptor que muestran la imagen en la ratio de 4:3, o tener la pantalla toda la ronda expuestos. Estos conjuntos son muy conveniente entre los coleccionistas de TV. Portillo Muchos conjuntos metal utilizado cono-CRT, que son ahora muy difíciles de encontrar. No es raro para los coleccionistas para sustituir un mal cono-tubo de metal con un tubo de vidrio. Zenith portillo se establece en los modelos de mesa, independiente de consolas y TV / radio / fono combos.

A fines de 1950, muchos fabricantes de electrónica tales como RCA, General Electric y el Almirante de la transición fueron a mano con cable de metal del chasis en sus radios y televisores para placas de circuitos impresos. Mientras que las placas de circuitos ahorrar tiempo y errores en el montaje, que no están bien adaptados para su uso en equipos de tubo, en el que se generan altas temperaturas que pueden romper tablas, llevando las tablas a desmoronarse si se intenta eliminar un tubo. Zenith, y en menor medida, Motorola, evitar este problema mediante la utilización mano con cable en todos los chasis de tubo de su equipo. Zenith mantienen las placas de circuitos de su televisor hasta que la línea Chromacolor en la década de 1970, e incluso entonces sólo se utilizan con componentes de estado sólido, montaje de los cuatro tubos utilizados en la Chromacolor "4 tubo híbrido" en el chasis de acero. Zenith sólo se trasladó a las placas de circuitos en sus radios, hasta que se trasladó a estado sólido en finales del decenio de 1960, y Zenith incluso las primeras radios de transistores son completamente a mano por cable socketed con transistores. Debido a la utilización de este chasis de la construcción (y los componentes de alta calidad), Zenith televisiones y radios de la 1950's-1970 se encuentra hoy en muchos casos no funciona bien, que requieren poco o ningún trabajo para restaurar a nuevas condiciones de funcionamiento.

Al principio



Acelerador de partículas

Acelerador lineal de Van de Graaf de una sola etapa de 2 MeV.

Los aceleradores de partículas son instrumentos que utilizan campos electromagnéticos para acelerar las partículas cargadas eléctricamente hasta alcanzar velocidades (y por tanto energías) muy altas, pudiendo ser cercanas a la de la luz. Además, estos instrumentos son capaces de contener estas partículas. Un acelerador puede ser, desde un tubo de rayos catódicos ordinario, de los que forman parte de los televisores domésticos comunes o los monitores de los ordenadores, hasta grandes instrumentos que permiten explorar el mundo de lo infinitamente pequeño, en búsqueda de los elementos fundamentales de la materia.

Existen dos tipos básicos de aceleradores: por un lado los lineales y por otro los circulares. En este artículo se describirán los tipos más comunes de aceleradores de partículas.

Al contrario de la creencia popular, los aceleradores de partículas no son aparatos exclusivos de laboratorios sofisticados, sino que también se encuentran muy presentes en la vida cotidiana de las personas, en forma de aceleradores de bajas energías. Ejemplos muy sencillos de estos aceleradores, de electrones principalmente, son los televisores o monitores de ordenador (los modelos antiguos que utilizan tubos de rayos catódicos, los cuales pueden considerarse aceleradores lineales de una sola etapa) o los aparatos de rayos X que pueden encontrarse en las clínicas dentales o en los hospitales. Estos aceleradores de bajas energías utilizan un único par de electrodos a los que se les aplica una diferencia de potencial, directamente, de algunos miles de voltios. En un aparato de rayos X se calienta un filamento metálico que se encuentra entre ambos electrodos mediante el paso de una corriente eléctrica, emitiendo de este modo electrones. Esos electrones son acelerados en el campo eléctrico generado entre ambos electrodos hasta alcanzar el electrodo que se utiliza como productor de rayos X, fabricado con un metal de alto Z (por ejemplo el tungsteno). También se utilizan aceleradores de partículas de bajas energías, llamados implantadores de iones, para la fabricación de circuitos integrados.

Los aceleradores lineales (muchas veces se usa el acrónimo en inglés linac) de altas energías utilizan un conjunto de placas o tubos situados en línea a los que se les aplica un campo eléctrico alterno. Cuando las partículas se aproximan a una placa se aceleran hacia ella al aplicar una polaridad opuesta a la suya. Justo cuando la traspasan, a través de un agujero practicado en la placa, la polaridad se invierte, de forma que en ese momento la placa repele la partícula, acelerándola por tanto hacia la siguiente placa. Generalmente no se acelera una sola partícula, sino un continuo de haces de partículas, de forma que se aplica a cada placa un potencial alterno cuidadosamente controlado de forma que se repita de forma continua el proceso para cada haz.

A medida que las partículas se acercan a la velocidad de la luz, la velocidad de inversión de los campos eléctricos se hace tan alta que deben operar a frecuencias de microondas, y por eso, en muy altas energías, se utilizan cavidades resonantes de frecuencias de radio en lugar de placas.

Los tipos de aceleradores de corriente continua capaces de acelerar a las partículas hasta velocidades suficientemente altas como para causar reacciones nucleares son los generadores Cockcroft-Walton o los multiplicadores de potencial, que convierten una corriente alterna a continua de alto voltaje, o bien generadores Van de Graaf que utilizan electricidad estática transportada mediante cintas.

Estos aceleradores se usan en muchas ocasiones como primera etapa antes de introducir las partículas en los aceleradores circulares. El acelerador lineal más largo del mundo es el colisionador electrón-positrón Stanford Linear Accelerator (SLAC), de 3 km de longitud.

Estos aceleradores son los que se usan en radioterapia y radiocirugía. Estos aceleradores utilizan válvulas klistrón y una determinada configuración de campos magnéticos, produciendo haces de electrones de una energía de 6 a 30 millones de electronvoltios (MeV). En ciertas técnicas se utilizan directamente esos electrones, mientras que en otras se les hace colisionar contra un blanco de número atómico alto para producir haces de rayos X. La seguridad y fiabilidad de estos aparatos está haciendo retroceder a las antiguas unidades de cobaltoterapia.

Dos aplicaciones tecnológicas de importancia en las que se usan este tipo de aceleradores son la espalación para la generación de neutrones aplicables a los amplificadores de potencia para la transmutación de los isótopos radiactivos más peligrosos generados en la fisión.

Estos tipos de aceleradores poseen una ventaja añadida a los aceleradores lineales al usar campos magnéticos en combinación con los eléctricos, pudiendo conseguir aceleraciones mayores en espacios más reducidos. Además las partículas pueden permanecer confinadas en determinadas configuraciones teóricamente de forma indefinida.

Sin embargo poseen un límite a la energía que puede alcanzarse debido a la radiación sincrotrón que emiten las partículas cargadas al ser aceleradas. La emisión de esta radiación supone una pérdida de energía, que es mayor cuanto más grande es la aceleración impartida a la partícula. Al obligar a la partícula a describir una trayectoria circular realmente lo que se hace es acelerar la partícula, ya que la velocidad cambia su sentido, y de este modo es inevitable que pierda energía hasta igualar la que se le suministra, alcanzando una velocidad máxima.

Algunos aceleradores poseen instalaciones especiales que aprovechan esa radiación, a veces llamada luz sincrotrón. Esta radiación se utiliza como fuentes de Rayos X de alta energía, principalmente en estudios de materiales o de proteínas por espectroscopia de rayos X o por absorción de rayos X por la estructura fina (o espectrometría XAS).

Esta radiación es mayor cuando las partículas son más ligeras, por lo que se utilizan partículas muy ligeras (principalmente electrones) cuando se pretenden generar grandes cantidades de esta radiación, pero generalmente se aceleran partículas pesadas, protones o núcleos ionizados más pesados, que hacen que estos aceleradores puedan alcanzar mayores energías. Este es el caso del gran acelerador circular del CERN, donde el LEP, colisionador de electrones y positrones, se ha sustituido por el LHC, colisionador de hadrones.

Los aceleradores de partículas más grandes y potentes, como el RHIC, el LHC (está programada su puesta en marcha en el día 10 de septiembre de 2008) o el Tevatrón se utilizan en experimentos de física de partículas.

El primer ciclotrón fue desarrollado por Ernest Orlando Lawrence en 1929 en la Universidad de California. En ellos las partículas se inyectan en el centro de dos pares de imanes en forma de "D". Cada par forma un dipolo magnético y además se les carga de forma que exista una diferencia de potencial alterna entre cada par de imanes. Esta combinación provoca la aceleración, circular cuando la partícula se encuentra dentro de uno de los pares, y lineal cuando está entre los dos pares.

Estos aceleradores tienen un límite de velocidad bajo en comparación con los sincrotrones debido a los efectos explicados anteriormente. Aun así las velocidades que se alcanzan son muy altas, llamadas relativistas por ser cercanas a la velocidad de la luz. Por este motivo se suelen utilizar unidades de energía (electronvoltios y sus submúltiplos habitualmente) en lugar de unidades de velocidad. Por ejemplo, para protones, el límite se encuentra en unos 10 MeV. Por este motivo los ciclotrones solo se pueden usar en aplicaciones de bajas energías. Existen algunas mejoras técnicas como el sincrociclotrón o el ciclotrón síncrono, pero el problema no desaparece. Algunas máquinas utilizan varias fases acopladas para utilizar mayores frecuencias (por ejemplo el rodotrón ).

Estos aceleradores se utilizan por ejemplo para la producción de radioisótopos de uso médico (como por ejemplo la producción de 18F para su uso en los PET), para la esterilización de instrumental médico o de algunos alimentos, para algunos tratamientos oncológicos y en la investigación. También se usan para análisis químicos, formando parte de los llamados espectrómetros de masas.

Para alcanzar energías superiores, del orden de los GeV y superiores, es necesario utilizar sincrotrones.

Uno de los primeros sincrotrones, que aceleraba protones, fue el Bevatron construido en el Laboratorio nacional Brookhaven (Nueva York), que comenzó a operar en 1952, alcanzando una energía de 3 GeV.

El sincrotrón presenta algunas ventajas con respecto a los aceleradores lineales y los ciclotrones. Principalmente que son capaces de conseguir mayores energías en las partículas aceleradas. Sin embargo necesitan configuraciones de campos electromagnéticos mucho más complejos, pasando de los simples dipolos eléctricos y magnéticos que usan el resto de aceleradores a configuraciones de cuadrupolos, sextupolos, octupolos y mayores.

Al igual que en otras áreas de la tecnología de punta, existen múltiples desarrollos que se realizaron para su aplicación en estos aceleradores que forman parte de la vida cotidiana de las personas. Quizá el más conocido fue el desarrollo de la World Wide Web (comúnmente llamada web), desarrollado para su aplicación en el LEP.

La única forma de elevar la energía de las partículas con estos aceleradores es incrementar su tamaño. Generalmente se toma como referencia la longitud del perímetro de la circunferencia (realmente no forman una circunferencia perfecta, sino un polígono lo más aproximado posible a esta). Por ejemplo tendríamos el LEP con 26.6 km, capaz de alcanzar los 45 GeV (91 GeV para una colisión de dos haces en sentidos opuestos), actualmente reconvertido en el LHC del que se prevén energías superiores a los 7 TeV.

Existen varios proyectos para superar las energías que alcanzan los nuevos aceleradores. Estos aceleradores se espera que sirvan para confirmar teorías como la Teoría de la gran unificación e incluso para la creación de agujeros negros que confirmarían la teoría de supercuerdas.

Para 2015-2020 se espera que se construya el Colisionador lineal internacional, un enorme linac de 40 km de longitud, inicialmente de 500 GeV que se ampliarían hasta 1 TeV. Este acelerador utilizará un laser enfocado en un fotocátodo para la generación de electrones. En 2007 no se había decidido aun qué nación lo albergaría.

El Supercolisionador superconductor (SSC en inglés) era un proyecto de un sincrotrón de 87 km de longitud en Texas que alcanzaría los 20 TeV. Se abortó el proyecto en 1993.

Se cree que la aceleración de plasmas mediante láseres conseguirán un incremento espectacular en las eficiencias que se alcancen. Estas técnicas han alcanzado ya aceleraciones de 200 GeV por metro, si bien en distancias de algunos centímetros, en comparación con los 0.1 GeV por metro que se consiguen con las radiofrecuencias.

Una versión sencilla de conjunto acelerador-blanco-detector sería el aparato de televisión. En este caso el tubo de rayos catódicos es el acelerador, que impulsa los electrones hacia la pantalla revestida de fósforo interiormente que actuaría de blanco, transformando los electrones en fotones (con energía en el rango del visible) que, si estuviéramos mirando la televisión, impactarían en los conos y bastoncillos de nuestras retinas (detectores), enviando señales eléctricas a nuestro cerebro (el supercomputador) que interpreta los resultados.

Para crear y poder ver las partículas generadas en los grandes aceleradores se necesitan por un lado blancos, donde las partículas impactan, generando una enorme cantidad de partículas secundarias, y por otro lado detectores que actuarían como los ojos de los científicos.

Los blancos se pueden distinguir entre fijos o móviles. En los fijos se engloban todos aquellos de los aparatos de rayos X o los utilizados en la espalación, sobre los cuales impactan las partículas aceleradas. En los móviles se encuentran las propias partículas que impactan entre ellas, por ejemplo en los colisionadores, duplicando de este modo de forma sencilla la energía que pueden alcanzar los aceleradores.

Uno de los detectores más impresionantes construidos para detectar las partículas creadas en las es el ATLAS, construido en el LHC.

Las partículas cargadas (las únicas que pueden acelerar los campos electromagnéticos presentes en los aceleradores) se generan de diversas formas. La forma más sencilla es utilizar el propio movimiento que se genera al calentar un material. Esto se hace habitualmente calentando un filamento hasta su incandescencia haciendo pasar por él una corriente eléctrica, aunque también se puede hacer enfocando un láser en él. Al aumentar la temperatura también aumenta la probabilidad de que un electrón de la corteza atómica la abandone momentáneamente. Si no existe un campo electromagnético cerca que lo acelere en dirección contraria este electrón (cargado negativamente) regresaría al poco tiempo al átomo ionizado (positivamente) al atraerse las cargas opuestas. Sin embargo, si colocamos cerca del filamento una segunda placa, creando una diferencia de potencial entre el filamento y ella, conseguiremos acelerar el electrón.

Si en esa placa efectuamos un pequeño agujero, y tras él un conducto al que se le haya extraído el aire, conseguiremos extraer electrones. Sin embargo, si no existe ese agujero el electrón impactará contra la placa generando rayos X.

Cuando se pretenden generar protones, sin embargo, es necesario ionizar átomos de hidrógeno (compuestos únicamente por 1 protón y 1 electrón). Para ello puede utilizarse como primera fase el sencillo acelerador de electrones descrito haciendo incidir el haz de electrones o de rayos X sobre una válvula rellena de gas hidrógeno. Si en esa válvula situamos de nuevo un par de placas sobre las que aplicamos un potencial se obtendrán por un lado electrones acelerados y por el opuesto, protones acelerados. Un ejemplo de este tipo de aceleradores es el LANSCE en el Laboratorio Nacional de Los Alamos (Estados Unidos).

Los positrones se generan de forma similar, solo que necesitaremos hacer incidir fotones de energías superiores a los 1.1 MeV sobre un blanco (de oro, tungsteno o cualquier otro material pesado). Esa energía es la mínima necesaria para crear un par electrón-positrón. La eficiencia de esta generación es muy pequeña, con lo que en los colisionadores electrón-positrón se gasta gran parte de la energía consumida en este proceso.

Actualmente existe también interés en generar neutrones para utilizarlos en máquinas transmutadoras. Para ello se utilizan protones generados como se ha descrito, que impactan sobre blancos cuya sección eficaz o probabilidad de generación de neutrones sea alta. Al no poder acelerar más los neutrones (como se dijo, solo las partículas cargadas pueden acelerarse), su velocidad (o energía) final dependerá exclusivamente de la energía inicial del protón.

Prácticamente todas las partículas descritas se utilizan para tratamientos médicos, ya sea en diagnóstico (rayos X, TAC, PET), como en el tratamiento de tumores sólidos (el uso de protones y neutrones se está generalizando cada vez más para el tratamiento de tumores de difícil tratamiento).

La ecuación se traduce en que la partícula recibe una aceleración que es proporcional a su carga e inversamente proporcional a su masa. Además, los campos eléctricos empujan a la partícula en la dirección del movimiento (el sentido dependerá del signo de la carga y del sentido del propio campo eléctrico), mientras que los campos magnéticos curvan la trayectoria de la partícula (solo cuando el campo magnético es perpendicular a la trayectoria), empujándola hacia el centro de una circunferencia cuyo radio dependerá de la magnitud del campo magnético, de la velocidad que posea la partícula en ese momento y de su carga y masa.

En resumen, los campos eléctricos aportan cambios en el módulo de la velocidad de la partícula, acelerándola o desacelerándola, mientras que los campos magnéticos la hacen describir trayectorias curvas sin modificar su módulo (esto no es exactamente así, ya que las partículas perderán energía por la radiación sincrotrón, pero sirve como primera aproximación).

Al principio



Grundig

Grundig es una empresa alemana fabricante de equipamiento de audio, TV y radio, surgida después de la Segunda Guerra Mundial con el nombre de Radio Vertrieb Fürth. Debe su nombre a Max Grundig (1908-1989), que en 1945 creó sus primeros aparatos de radio. Solo diez años después de haber creado la empresa ya trabajaban más de 10.000 personas en varias fábricas. En 1955 Grundig se convierte en el mayor fabricante europeo de receptores de radio.

En 1972 Grundig se convierte en sociedad anónima con la participación del grupo holandés Philips, que asume la dirección empresarial desde 1984 y cesa su dirección industrial en 1996.

Grundig recupera su independencia en 1997 y pone en funcionamiento un amplio programa de reestructuración de la empresa.

Actualmente fabrica TVs, radios, reproductores portátiles de música, electrodomésticos, DVD y otros.

Entre sus productos ,destacaron el televisor Zauberspiegel (1952) el primer televisor fabricado en serie en el mundo. En 1953 Grundig era el mayor fabricante del mundo en grabadoras y cajas de música. En 1968 Max Grundig construye la mayor y más moderna fabrica de televisores del mundo, (con su propia producción de plásticos) situada en Nuremberg. En 1979 se presenta un proyecto conjunto con Phillips, el "Video 2000", con casete de doble pletina y capacidad de grabación de 8 horas. En 1979 se presenta un reproductor de vídeo profesional de 1 pulgada, con 10MHz de ancho de banda y la resolución más alta del mundo. En 1986 Grundig fabrica el primer televisor del mundo con tecnología de 100Hz sin destellos en la pantalla, en 1988 se presenta la segunda generación de televisores a 100Hz.Grundig contribuye al proyecto "Eureka 95", dentro de la comunidad europea, con el fin de desarrollar un sistema de televisión de Alta Definición europeo con un vídeo de 12 MHz utilizando un vídeo VHS como base y un conversor de 100Hz alta definición.16 de las 24 invenciones que forman el Palplus (1992) pertenecen a Grundig. En 1995 Grundig Presenta el Grundig Space Fidelity, una nueva era en el sonido espacial, patentado por Grundig y galardonado con el premio EISA a la innovación tecnológica.En el año 1996 se presentan los primeros televisores de plasma denominados Planatron y sale al mercado el más pequeño receptor de satélite del Mundo, el STR 100 microSAT mide solo 12 x 22 x 5 centímetros.En 1997 Grundig participa en pruebas piloto de la radio digital (DAB) siendo la primera en construir un receptor.En el 2000 Grundig abre un nuevo campo para la televisión con el primer grabador digital del mundo llamado Selexx.El equipo combina las características de un receptor digital con las de un grabador digital de vídeo gracias a su disco duro interno.En la feria IFA de este mismo año, grundig recibe el premio EISA al mejor equipo A/V, denominado Grundig FineArts, formado por un televisor de exclusivo diseño, con dvd incorporado y un sistema de sonido inalámbrico con la innovadora radio digital DAB, con una potencia de 200W nominales por canal.En el año 2001, sale al mercado el chasis digital para televisores de tubo (CRT), "digi100" considerado hoy día el mejor chasis jamas fabricado para este tipo de televisor(lo que hizo que varias empresas de la competencia, lo incorporasen en sus productos),incorporando numerosas nuevas tecnologías, como la posible actualizacion/reparacion del software a través de un ordenador con conexión a internet. En la ifa de 2004 se presenta el sistema de sonido Magic Fidelity, desarrollado y patentado por Grundig, garantiza un rendimiento óptimo y un excelente sonido, incluso a volúmenes bajos de sonido, gracias a un sistema especial de alineamiento de los altavoces activos. En la IFA de 2005 presenta el primer prototipo mundial de televisión en 3D en tiempo real, grabado en directo, transmitido en directo y sin necesidad de utilizar incómodas gafas. En el reciente año 2006 Grundig presenta los primeros televisores lcd con chasis digi200 y con "compensación de movimientos" la primera y única tecnología patentada por grundig que elimina definitivamente el problema de los paneles lcd en imágenes en movimiento.

Al principio



Source : Wikipedia