Toshiba

3.3505154639022 (873)
Publicado por roy 28/02/2009 @ 21:02

Tags : toshiba, informatica e internet, economía, pda, informática nómada, tecnología, smartphone, pantalla lcd, informática, lector dvd, mp3 y multimedia

últimas noticias
La réplica de Toshiba al iPhone hace su debut mundial en España ... - Cinco Días
España y Japón serán los países que estrenen el primer móvil que Toshiba lanza globalmente en todo el mundo, el TG01, un nuevo iPhone killer que vendrá de la mano de Telefónica y NTT DoCoMo. El gigante japonés de la electrónica quiere con este terminal...
Toshiba reducirá en 2010 a la mitad su impacto medioambiental - La Flecha
Toshiba ha convertido su compromiso con el medio ambiente y su contribución al sostenimiento del planeta, como un aspecto estratégico dentro de su negocio. Para ello, la compañía, ha revisado e incrementado todos sus objetivos de eficiencia...
Toshiba dejará la producción de móviles en Japón - Telcommunity
Toshiba, el mayor fabricante japonés de equipos electrónicos con sede en Tokio (Japón), ha anunciado que a partir del próximo octubre del presente año va a finalizar la producción de teléfonos móviles en Japón. Toshiba busca con esta medida reducir...
Toshiba abandona la producción de teléfonos móviles en Japón - La Vanguardia
Toshiba abandonará la producción de teléfonos móviles en Japón en octubre y externalizará parte de la producción exterior a través de EMS Manufactures, informó la compañía nipona. Asimismo, el productor de telefonía móvil del grupo Toshiba para el...
TG01, The Windows Mobile Strikes Back - Expansión.com
Después de una semana sometido a un férreo embargo por parte de Telefónica, es el momento de comentar algunas de las ventajas del nuevo TG01 de Toshiba, un terminal Windows Mobile que dispone de 1 Ghz de potencia y que la compañía española lanza en...
Toshiba reducirá a la mitad su impacto medioambiental en 2010 ... - Europa Press
Toshiba reducirá a la mitad el impacto medioambiental de sus productos y procesos productivos en 2010, respecto a los niveles registrados hace diez años, según anunció hoy la compañía. En concreto, este año disminuirá la emisión de gases de efecto...
Toshiba y Orange lanzan el internet anticrisis - Cinco Días
Dentro de esta estrategia, Orange anunció ayer un acuerdo con Toshiba para impulsar el uso de la red en el ámbito de la movilidad destinada a particulares, autónomos y empresas. En este caso, ambas firmas van a ofrecer ordenadores portátiles de la...
Japonesa Toshiba prevé reducir costes por USD 3.500 millones - Info7
AFP - Toshiba, que presentó unas pérdidas operativas de 2.500 millones de dólares en el ejercicio fiscal de 2008, es una de las mayores compañías japonesas de electrónica y sufre de la caída de la demanda mundial como consecuencia de la crisis global....
Fujitsu podrá comprar la unidad de discos duros de Toshiba - Vnunet.es
La UE da luz verde a la compra de la unidad de discos duros de Fujitsu por parte de Toshiba, una transacción que se completará el próximo 1 de julio. La Comisión Europea ha indicado que no existen riesgos que afecten a las compañías rivales ni al...
Toshiba cierra su año fiscal con pérdidas récord de 2.578 millones ... - Europa Press
La compañía tecnológica japonesa Toshiba registró pérdidas por un importe neto récord de 343.600 millones de yenes (2.578 millones de euros) en su ejercicio fiscal 2008/09, que concluyó el pasado 31 de marzo, en contraste con el beneficio de 127.400...

Toshiba

Vista nocturna de las instalaciones de Toshiba

Toshiba (Tōshiba, 東芝?) es una compañía japonesa dedicada a la manufactura de aparatos eléctricos y electrónicos cuya sede está en Tokio. Ocupa el 7º puesto en la lista de grandes compañías mundiales de su campo.

Durante el año comercial 2000-01 la empresa facturó por 5.951.357 millones de yenes y obtuvo un beneficio neto de 96.168.000.000 ¥. Trabajan para Toshiba 188.042 empleados (2001).

La primera, Tanaka Seizosho (Obras de ingeniería Tanaka), era la empresa de equipos telegráficos más importante de Japón y fue fundada por Hisashige Tanaka en 1875. En 1904, la empresa cambió su nombre por el de Shibaura Seisakusho (Obras de ingeniería Shibaura). A lo largo de la primera mitad del siglo XX, Shibaura Seisakusho se convirtió en la principal fabricante de maquinaria pesada eléctrica, mientras Japón, modernizado durante la Era Meiji, se convertía en una potencia industrial a nivel mundial.

La segunda empresa, cuyo primer nombre era Hakunetsusha, se fundó en 1890 y era la principal fábricante de lámparas eléctricas incandescentes de Japón. La empresa amplió su oferta a otros productos eléctricos y ya en 1899 tomó el nombre de Tokyo Denki (Eléctrica de Tokio).

La fusión en 1939 de Shibaura Seisakusho y Tokyo Denki creó una nueva empresa llamada Tokyo Shibaura Denki. No tardó mucho en ser conocida con el alias de Toshiba, pero no fue hasta 1978 cuando la empresa cambió su nombre oficialmente por el de Toshiba Corporation.

El grupo se expandió con fuerza, tanto por el crecimiento interno como por adquisiciones, absorbiendo compañías de ingeniería e industria primaria en los años 1940 y 1950, dando lugar a empresas subsidiarias a partir de los 1970s como Toshiba EMI (1960), Toshiba Electrical Equipment (Equipos eléctricos Toshiba) (1974), Toshiba Chemical (Química de Toshiba) (1974), Toshiba Lighting and Technology (Iluminación y Tecnología Toshiba) (1989) y la Toshiba Carrier Corporation (Corporación de Transportes Toshiba) (1999).

La empresa en el año 1957 al 1962 vendió 356 coches eléctricos para los ferrocariles Mitre y Sarmiento de Argentina para reemplazar la vieja flota de coches de origen inglés. La empresa fue resposable de algunas primicias japonesas, como el rádar (1942), la TAC (1954), televisor de transistores y horno microondas (1959), videófono en color (1971), el vocablo en japonés procesador (1978), el sistema MRI (1982), computadora portátil (1986), NAND EEPROM (1991), DVD (1995), y el Libretto (1996).

En 1987 fue acusada de los cargos de venta ilegal de fresadoras computarizadas usadas para producir submarinos extremadamente silenciosos a la Unión Soviética, violando así el tratado CoCom (Coordinating Committee for Multilateral Export Controls, Comité Coordinador para el Control de la Exportación Multilateral) aprobado durante la Guerra fría. Este incidente enfrío las relaciones comerciales entre los Estados Unidos y Japón, y terminó con la detención de dos importantes ejecutivos de la empresa, así como la imposición de sanciones por parte de ambos países.

Antes de la Segunda Guerra Mundial, Toshiba era miembro del grupo Mitsui zaibatsu (lit. conglomerado). A día de hoy, Toshiba forma parte del keiretsu Mitsui (multinacional), y aún mantiene acuerdos preferentes con el Banco Mitsui y otros miembros del keiretsu. Pertenecer a un keiretsu implica lealtad, tanto corporativa como privada, a los otros miembros del keiretsu o sus aliados. Esta lealtad se extiende incluso hasta la cerveza que los obreros toman, que en el caso de Toshiba es la Asahi.

Toshiba, ofrece una variedad de productos dentro del mercado de almacenamiento de datos.

Al principio



Alta definición

Raster graphic fish 40X46squares hdtv-example.png

El HD video o vídeo de alta definición es un sistema de vídeo con una mayor resolución que la definición estándar, alcanzando resoluciones de 1280×720 y 1920×1080.

Llegaron a salir dos formatos de alta definición: D2 Mac y HD Mac. Pero el grave problema que tenían estos formatos era que el ancho de banda que necesitaban para emitir la señal de televisión era mucho mayor que el que permitía la televisión analógica. En Europa se intentó a toda costa que fuera compatible con el PAL. En Japón, en cambio, obviaron la compatibilidad e intentaron acercar el PAL y el NTSC. En Japón se desarrolló más, pero en los dos sitios terminó siendo un fracaso.

HDTV, cuatro veces la resolución estándar.

Resolución estándar.

La tecnología digital revitaliza la vieja aspiración de subir la calidad del estándar. Permite, gracias a la compresión, bajar el ancho de banda necesario para la emisión. Hoy en día se hace sobre todo por satélite, pero el cable y la Televisión Digital Terrestre son una opción asequible para el futuro.

En Estados Unidos cien cadenas ya emiten en Alta Definición, especialmente eventos deportivos en Pay Per View (PPV o Pago por Visión).

En Europa, hace dos años que empezó la emisión de Euro 1080, un nuevo canal de HD. Es el primero que aparece con 1920 × 1080 pixels, cumpliendo la normativa europea de compresión estándar. Éste se emite por el satélite europeo ASTRA y tiene un canal convencional y otro de eventos para Pay Per View. Actualmente en España, emiten Canal+HD, Canal+Deportes HD y Canal+Cine HD, canales de pago que se pueden ver con el IPLUS. También algunas televisiones autonomicas emiten o han emitido en este formato como Aragón Televisión (Aragón Televisión 2HD) o TV3 en Cataluña (TV3 HD).

Los fabricantes hacen líneas especiales de cámaras, controladores de colorimetría y ediciones para sustituir la película. El HD, respecto al viejo 35 mm, ofrece presupuestos más bajos, facilidad de manipulación en el montaje, agilidad en el tratamiento y facilidad de introducción de técnicas de síntesis.

George Lucas, James Cameron, Robert Rodriguez y Bryan Singer, por ejemplo, han utilizado estos sistemas de HD que logran la máxima calidad, de tal manera que el resultado final es casi idéntico en algunos casos.

Una vez terminada la película puede pasarse a un filme para exhibirse con los proyectores tradicionales, que es lo que se hace actualmente. Pero es un contrasentido volver a los métodos antiguos. El triunfo absoluto de la tecnología digital será cuando la exhibición se haga también a través de reproductores y proyectores de formato HD. El transporte de la película puede hacerse directamente empleando tecnología vía satélite y por ello una película puede estrenarse simultáneamente en todo el mundo.

La estrategia de implantación de la Televisión Digital Terrestre (TDT), seguida de los broadcasters norteamericanos, se apoya mayoritariamente en las emisiones de Alta Definición, lo que la convierte en un arma estratégica para la era digital. Aplazan para el futuro el empleo de las otras ventajas que ofrece la TDT. Un síntoma de la fuerza competitiva de la televisión de Alta Definición es que los operadores de satélite y cable se han lanzado a la oferta de emisiones y canales de Alta Definición.

Los macrogéneros dominantes en la oferta de Televisión de Alta Definición de satélite y cable son la ficción y el deporte, aunque hay una considerable presencia de la información e incluso alguna incursión en los servicios avanzados y de carácter interactivo.

La opción de tomar como motor la Televisión de Alta Definición ha actuado como elemento dinamizador y ha promovido la apuesta por competir en este terreno. Esto actúa como un elemento unificador de fondo que podrá favorecer la convergencia final de intereses entre operadores de Televisión Digital Terrestre, de cable y de satélite, aunque deja en segundo plano la apuesta por los servicios innovadores de carácter interactivo.

En los primeros años de este siglo XXI, han aparecido dos formatos de audio (no de sonido para televisión y cine, sino sólo de audio) que han sido etiquetados como formatos de Alta definición. Son el DVD-Audio y el SACD.

El sonido en Alta Definición se caracteriza principalmente por ser un estándar de calidad que puede llegar a admitir hasta 8 canales de audio, en el caso del DVD-Audio cada uno codificado con 24 bits y una frecuencia máxima de muestreo de 192 KHz, con una respuesta en frecuencia de 96 KHz y una relación señal a ruido de 144 dB máximos en toda la banda de frecuencias. En el caso del SACD (Super Audio CD) se usa una frecuencia de muestreo de 2.8 Mhz pero un solo bit, dando lugar a una respuesta en frecuencia de 100 KHz, con una relación señal a ruido de 120 dB hasta 20 KHz. En ambos sistemas el ancho de banda de frecuencias reproducibles (si los altavoces lo permiten) supera ámpliamente al de respuesta del oido humano (desde 20 Hz aproximadamente hasta los 20 KHz).

Dos estándares comerciales de audio en HD son: DTS-HD Digital Theater System - High Definition (usado en cines y también en películas y videojuegos en formato DVD, HD DVD y Blu-Ray). Y el TrueHD de Dolby Digital (competencia directa del DTS-HD).

Se libraba una «batalla» de formatos entre el HD DVD y el Blu-ray. La primera apoyada por compañías como Toshiba y Microsoft, y el segundo por otras compañías multinacionales entre las cuales está Sony o Philips. Así Microsoft vendía de forma opcional reproductores HD DVD como accesorio a su consola Xbox 360, mientras que Sony incluyó de serie un reproductor de Blu-Ray en su PlayStation 3.

El 19 de febrero de 2008, después de la pérdida del apoyo de algunos de los principales estudios productores de material cinematográfico, Toshiba anunció en rueda de prensa que dejaría de impulsar el formato HD DVD, otorgando la victoria al Blu-Ray en la llamada "Guerra de Formatos". La razón principal alegada por Toshiba sería "diversos cambios producidos en el mercado".

El Blu-ray tiene una capacidad de 25 GB (capa simple y a una cara), lo que supone alrededor de seis horas de vídeo y audio en alta definición. También los hay con capacidad de 50 GB (doble capa, una cara) y TDK ya anuncia prototipos de cuatro capas y capacidad de hasta 100 GB.

Este formato obtiene su nombre del color azulado del láser que lo lee («blue ray» se traduce como «rayo azul»).

La desventaja de este formato es que su precio es más elevado que el de HD DVD, siendo así el costo poco mayor al doble de su competidor.

El HD DVD (High Density Digital Versatile Disc) poseía una capacidad de almacenaje inferior que Blu-ray, siendo ésta de unos 15 GB (capa simple, una cara) unas cuatro horas de vídeo en alta definición. Toshiba anunció un HD DVD de 51GB.

La gran ventaja de este formato era que es mucho más barato de producir y vender debido a su semenjanza con el DVD convencional.

Al principio



Disco duro

Cabezal del disco duro

La Unidad de Disco Duro o Disco Rígido ("Hard Disc Drive" o HDD) es llamada simplemente "disco duro" o "disco rígido", aunque en su interior contenga uno o varios discos magnéticos apilados en su interior.

Un disco duro (o rígido) es un dispositivo de almacenamiento no volátil, que conserva la información aun con la pérdida de energía, que emplea un sistema de grabación magnética digital; es donde en la mayoría de los casos se encuentra almacenado el sistema operativo de la computadora. Dentro de la carcasa hay una serie de platos metálicos apilados girando a gran velocidad. Sobre los platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares para comunicar un disco duro con la computadora; los interfaces más comunes son Integrated Drive Electronics (IDE, también llamado ATA) , SCSI generalmente usado en servidores, SATA, este último estandarizado en el año 2004 y FC exclusivo para servidores.

Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes se deben definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema.

También existe otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya se puede encontrar en el mercado unidades mucho más económicas de baja capacidad (hasta 128 GB) para el uso en computadoras personales (sobre todo portátiles). Así, el caché de pista es una memoria de estado sólido, tipo memoria RAM, dentro de un disco duro de estado sólido.

Dentro de un disco duro hay uno o varios platos (entre 2 y 4 normalmente, aunque hay hasta de 6 ó 7 platos), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez. El cabezal (dispositivo de lectura y escritura) es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco.

Cada plato tiene dos caras, y es necesaria una cabeza de lectura/escritura para cada cara (no es una cabeza por plato, sino una por cara). Si se mira el esquema Cilindro-Cabeza-Sector (más abajo), a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros) ó 3 millonésimas de milímetro. Si alguna llega a tocarlo, causaría muchos daños en el disco, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.500 revoluciones por minuto se mueve a 120 km/h en el borde).

El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Este es el que actualmente se usa.

Si hablamos de disco rígido podemos citar a los distintos tipos de conexión que poseen los mismos con la placa madre, es decir pueden ser SATA, IDE o SCSI.

IDE: Integrated Device Electronics ("Dispositivo con electrónica integrada") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta hace poco, el estándar principal por su versatilidad y relación calidad/precio.

SCSI: Son discos duros de gran capacidad de almacenamiento (desde 5 GB hasta 23 GB). Se presentan bajo tres especificaciones: SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 mseg y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2).

Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que los vuelve más rápidos.

SATA (Serial ATA): Nuevo estándar de conexión que utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. En la actualidad hay dos versiones, SATA 1 de hasta 1,5 Gigabits por segundo (150 MB/s) y SATA 2 de hasta 3,0 Gb/s (300 MB/s) de velocidad de transferencia.

El más temprano "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos FDD "floppy-disk drives" (en inglés).

La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado otros tipos de disquetes con unas dimensiones más pequeñas.

Los principales fabricantes suspendienron la investigación de nuevos productos para 1 pulgada (1,3 pulgadas) y 0,85 pulgadas en 2007, debido a la caída de precios de las memorias flash, aunque Samsung introdujo en el 2008 con el SpidPoint A1 otra unidad de 1,3 pulgadas.

En el 2008, dominaban los discos duros de 3,5" y 2,5".

El nombre de "pulgada" para los factores de forma normalmente no identifica ningún producto actual (son especificadas en milímetros para los factores de forma más recientes), pero estos indican el tamaño relativo del disco, para interés de la continuidad histórica.

Debido al extremadamente cerrado espacio entre los cabezales y la superficie del disco, alguna contaminación de los cabezales de lectura/escritura o las fuentes puede dar lugar a un accidente en los cabezales, un fallo del disco en el que el cabezal raya la superficie de la fuente, a menudo moliendo la fina película magnética y causando la perdida de datos. Estos accidentes pueden ser causados por un fallo electrónico, un repentino corte en el suministro eléctrico, golpes físicos, el desgaste, la corrosión o debido a que los cabezales o las fuentes sean de pobre fabricación.

El eje del sistema del HDD depende de la presión del aire dentro del recinto para sostener los cabezales y su correcta altura mientras el disco gira. Un HDD requiere una cierta línea de presiones de aire para funcionar correctamente. La conexión al entorno exterior y la presión se produce a través de un pequeño agujero en el recinto (cerca de 0,5mm de diámetro) normalmente con un filtro en su interior (filtro de respiración, ver abajo). Si la presión del aire es demasiado baja, entonces no hay suficiente impulso para el cabezal, que se acerca demasiado al disco, y se da el riesgo de fallos y perdidas de datos. Los discos fabricados especialmente son necesarios para operaciones de gran altitud, sobre 3000 m (10000 pies). A tener en cuenta que los aviones modernos tienen una cabina presurizada cuya altitud de presión no excede normalmente los 2600 m (8500 pies). Por lo tanto los discos duros ordinarios pueden ser usados de manera segura en los vuelos. Los discos modernos incluyen sensores de temperatura y se ajustan a las condiciones del entorno. Los agujeros de ventilación se pueden ver en todos los discos (normalmente tienen una pegatina a su lado que advierte al usuario de no cubrir el agujero. El aire dentro del disco operativo esta en constante movimiento siendo barrido por la fricción del plato. Este aire pasa a través de un filtro de recirculación interna para quitar algún contaminante que se hubiera quedado de su fabricación, alguna partícula o componente químico que de alguna forma hubiera entrado en el recinto, y cualquier partícula generada en una operación normal. Una humedad muy alta durante un periodo largo puede corroer los cabezales y los platos.

Para los cabezales resistentes al magnetismo grandes (GMR) en particular, un incidente minoritario debido a la contaminación (que no se disipa la superficie magnética del disco) llega a dar lugar a un sobrecalentamiento temporal en el cabezal, debido a la fricción con la superficie del disco, y puede hacer que los datos no se puedan leer durante un periodo corto de tiempo hasta que la temperatura del cabezal se estabilice (también conocido como “aspereza térmica”, un problema que en parte puede ser tratado con el filtro electrónico apropiado de la señal de lectura).

Los componentes electrónicos del disco duro controlan el movimiento del accionador y la rotación del disco, y realiza lecturas y escrituras necesitadas por el controlador de disco. El firmware de los discos modernos es capaz de programar lecturas y escrituras de forma eficiente en la superficie de los discos y de reasignar sectores que hayan fallado.

A principios los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción, de un hueco de ventilación para filtrar e igualar la presión del aire).

El primer disco duro 1956 fue el IBM 350 modelo 1, presentado con la computadora Ramac I: pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas al vacío y requería una consola separada para su manejo.

Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente diferente entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición.

La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos por años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta.

El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física, por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magnetorresistencia gigante, permitió construir cabezales de lectura y grabación más sensitivos, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento vigoroso en la capacidad de almacenamiento en los discos duros, que se elevó a 60% anual en la década de 1990.

En 1992, los discos duros de 3,5 pulgadas alojaban 250 MB, mientras que 10 años después habían superado los 40.000 MB o 40 gigabytes (GB). En la actualidad, ya nos acercamos al uso cotidiano de los discos duros con más de un terabyte (TB) o millón de megabytes.

En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia.

Actualmente la nueva generación de discos duros utilizan la tecnología de grabación perpendicular (PMR), la cual permite mayor densidad de almacenamiento. También existen discos llamados "Ecológicos" (GP - Green Power), los cuales hacen un uso más eficiente de la energía. Se está empezando a observar que la Unidad de estado sólido es posible que termine sustituyendo al disco duro a largo plazo. También hay que añadir los nuevos discos duros basados en el tipo de memorias Flash. Que algunas empresas como ASUS ,incorporo recientemente en sus modelos. Los mismos arrancan en 4 Gb a 256 Gb. Otros como Toshiba ya prometen SSD's de 512 Gb para el año 2009.

Estos son muy rápidos ya que no tienen partes móviles y consumen menos energía. Todos estos lo hacen muy fiables, confiables y casi indestructibles. Un nuevo formato de discos duros basados en tarjetas de memorias. Sin embargo su costo es muy elevado por Gb ya que con el mismo dinero que compraríamos un HD de 160 Gb solo nos alcanzaría un SSD de 8 Gb.

Los recursos tecnológicos y el saber hacer requeridos para el desarrollo y la producción de discos modernos implica que desde 2007, más del 98% de los discos duros del mundo son fabricados por un conjunto de grandes empresas: Seagate (que ahora es propietaria de Maxtor), Western Digital, Samsung e Hitachi (que es propietaria de la antigua división de fabricación de discos de IBM). Fujitsu sigue haciendo Discos portátiles y discos de servidores, pero dejó de hacer discos para ordenadores de escritorio en 2001, y el resto lo vendió a Western Digital. Toshiba es uno de los principales fabricantes de discos duros para portátiles de 2,5 pulgadas y 1,8 pulgadas. ExcelStor es un pequeño fabricante de HDD.

Decenas de ex fabricantes de HDD han terminado con sus empresas fusionadas o han cerrado sus divisiones de HDD, a medida que la capacidad de los dispositivos y la demanda de los productor aumento, los beneficios eran menores y el mercado sufrió un significativa consolidación a finales de los 80 y finales de los 90. La primera víctima en el mercado de los PC fue Computer Memories Inc. o CMI; después de un incidente con 20 MB defectuoso en discos en 1985, La reputación de CMI nunca se recupero, y ellos salieron del mercado de los HDD en 1987. Otro notable fallo fue de MiniScribe, quien quebró en 1990 después se descubrió que tenían en marcha un fraude e inflaban el número ventas durante varios años. Otras muchas pequeñas compañías (como Kalok, Microscience, LaPine, Areal, Priam y PrairieTek) tampoco sobrevivieron a la expulsión, y habían desaparecido para 1993; Micropolis fue capaz de aguantar hasta 1997, y JTS, un recién llegado a escena, duro solo unos años y desapareció para 1999,después intentó fabricar HDD en India. Su vuelta a la fama fue con la creación de un nuevo formato de tamaño de 3” para portátiles. Quantum and Integral también investigaron el formato de 3"; pero finalmente se dieron por vencidos. Rodime fue también un importante fabricante durante la década de los 80, pero dejó de hacer discos en la década de los 90 en medio de la reestructuración y ahora se concentra en la tecnología de la concesión de licencias; tienen varias patentes relacionadas con el formato de 3.5“.

Al principio



Extended Detail Enhancement

La tecnología XDE - eXtended Detail Enhancement, elaborada por Toshiba y presentada en agosto del 2008, asociada al procesador Cell, permite mejorar la calidad de imagen durante la reproducción de cualquier DVD efectuando un upscaling de 480p a 1080p con interpolación, se caracterizaría por una notable mejora de la nitidez en pantalla, centrándose en 3 criterios : optimización de los detalles, del color y del contraste.

XDE es una apuesta comercial de Toshiba, sobre la perennidad del soporte DVD, frente al Blu-Ray que no logra convencer al público, único formato representante de la Alta definición en el mercado, desde el abandono del HD DVD en febrero del 2008.

El primer reproductor DVD comercializado con el XDE es el Toshiba XD-E500, aunque la tecnología también se incorporará a productos de otros fabricantes.

Al principio



DVD

DVD

El DVD o Disco Versátil Digital, del inglés Digital Versatile Disc (aunque conocido en un principio como Digital Video Disc o “Disco de Video Digital” debido a su popular uso para almacenar películas), es un formato y soporte de almacenamiento óptico que puede ser usado para guardar datos, incluyendo películas con alta calidad de audio y video. Se asemeja a los discos compactos en cuanto a sus dimensiones físicas (diámetro de 12cm, u 8cm en los mini-CD), pero están codificados en un formato distinto y a una densidad mucho mayor. A diferencia de los CD, todos los DVD deben guardar los datos utilizando un sistema de archivos denominado UDF (Universal Disk Format), el cual es una extensión del estándar ISO 9660, usado para CD de datos.

El DVD Forum (un consorcio formado por todas las organizaciones que han participado en la elaboración del formato) se encarga de mantener al día sus especificaciones técnicas. Además existe otro grupo de empresas denominada Alianza DVD que crearon los estándares DVD+R y DVD+RW para evitar pagar la licencia al DVD Forum, por lo que no forman parte de los estándares oficiales DVD y no muestran el logotipo DVD.

A comienzo de los años 90 dos estándares de almacenamiento óptico de alta densidad estaban desarrollándose; uno era el Multimedia Compact Disc (MMCD) apoyado por Philips y Sony, el otro era el Super Density disc (SD), apoyado por Toshiba, Time-Warner, Matsushita Electric, Hitachi, Mitsubishi Electric, Pioneer, Thomson y JVC. El presidente de IBM, Lou Gerstner, actuando de casamentero lideró los esfuerzos por unificar los dos proyectos bajo un único estándar, en previsión de que sucediera otra costosa guerra entre formatos como la que ocurrió entre VHS y Betamax en los años 80.

Philips y Sony abandonaron su formato MMCD y acordaron con Toshiba el Super Density disc (SD) con dos modificaciones. La modificación fue la adopción del EFM Plus de Philips, creado por Kees Immink, que es un 6% menos eficiente que el sistema de codificación de Toshiba, de aquí que la capacidad sea de 4,7 GB en lugar del los 5 GB del SD original. La gran ventaja de EFMPlus es su gran resistencia a los daños físicos en el disco, como arañazos o huellas. El resultado fue la especificación de la versión 1.5 del DVD, anunciada en 1995 y finalizada en septiembre de 1996. En mayo de 1997, el consorcio DVD (DVD Consortium) fue reemplazado por el foro DVD (DVD Forum), que estaba abierto a todas las demás compañías.

Un DVD de capa simple puede guardar hasta 4,7 gigabytes según los fabricantes en base decimal y aproximadamente 4,377 gigabytes reales en base binaria o gibibytes (se le conoce como DVD-5), alrededor de siete veces más que un CD estándar. Emplea un láser de lectura con una longitud de onda de 650 nm (en el caso de los CD, es de 780 nm) y una apertura numérica de 0,6 (frente a los 0,45 del CD), la resolución de lectura se incrementa en un factor de 1,65. Esto es aplicable en dos dimensiones, así que la densidad de datos física real se incrementa en un factor de 3,3.

El DVD usa un método de codificación más eficiente en la capa física: los sistemas de detección y corrección de errores utilizados en el CD, como la comprobación de redundancia cíclica CRC, la codificación Reed Solomon - Product Code, (RS-PC), así como la codificación de línea Eight-to-Fourteen Modulation, la cual fue reemplazada por una versión más eficiente, EFMPlus, con las mismas características que el EFM clásico. El subcódigo de CD fue eliminado. Como resultado, el formato DVD es un 47% más eficiente que el CD-ROM, que usa una tercera capa de corrección de errores.

A diferencia de los discos compactos, donde el sonido (CDDA) se guarda de manera fundamentalmente distinta que los datos, un DVD correctamente creado siempre contendrá datos siguiendo los sistemas de archivos UDF e ISO 9660.

También existen DVD de 8 cm (no confundir con miniDVD, que son CD conteniendo información de tipo DVD video) que tienen una capacidad de 1.5 GB.

La capacidad de un DVD-ROM puede ser determinada visualmente observando el número de caras de datos, y observando cada una de ellas. Las capas dobles normalmente son de color dorado, mientras que las capas simples son plateadas, como la de un CD. Otra manera de saber si un DVD contiene una o dos capas es observar el anillo central del disco, el cual contendrá un código de barras por cada capa que tenga.

Todos los discos pueden contener cualquier contenido y tener cualquier distribución de capas y caras.

El DVD Forum creó los estándares oficiales DVD-ROM/R/RW/RAM, y Alliance creó los estándares DVD+R/RW para evitar pagar la licencia al DVD Forum. Dado que los discos DVD+R/RW no forman parte de los estándares oficiales, no muestran el logotipo DVD. En lugar de ello, llevan el logotipo "RW" incluso aunque sean discos que solo puedan grabarse una vez, lo que ha suscitado cierta polémica en algunos sectores que lo consideran publicidad engañosa. Y desde luego que confunde a los usuarios.

El "+" y el "-" son estándares técnicos similares, parcialmente compatibles. Ya en 2005, ambos formatos eran igualmente populares: la mitad de la industria apoya "+" y la otra mitad "-", aunque actualmente soportan ambos. Parece ser que ambos formatos coexistirán indefinidamente. Todos los lectores DVD deberían poder leer ambos formatos, aunque la compatibilidad real es alrededor de 90% para ambos formatos, con mejores resultados de compatibilidad en los DVD-R en pruebas independientes.

La mayoría de grabadoras de DVD nuevas pueden grabar en ambos formatos y llevan ambos logotipos +RW y DVD-R/RW.

La diferencia entre los tipos +R y -R radica en la forma de grabación y de codificación de la información. En los +R los agujeros son 1 mientras que en los –R los agujeros son 0.

La velocidad de transferencia de datos de una unidad DVD está dada en múltiplos de 1.350 kB/s, lo que significa que una unidad lectora de 16× permite una transferencia de datos de 16 × 1.350 = 21.600 kB/s (21.09 MB/s). Como las velocidades de las unidades de CD se dan en múltiplos de 150 kB/s, cada múltiplo de velocidad en DVD equivale a nueve múltiplos de velocidad en CD. En términos de rotación física (revoluciones por minuto), un múltiplo de velocidad en DVD equivale a tres múltiplos de velocidad en CD, así que la superfície de disco leída durante una rotación es tres veces mayor para el DVD que para el CD, y la unidad de DVD 8× tiene la misma velocidad rotacional que la unidad de CD 24×.

Las primeras unidades lectoras CD y DVD leían datos a velocidad constante (Velocidad Lineal Constante, o CLV). Los datos en el disco pasaban bajo el láser de lectura a velocidad constante. Como la velocidad lineal (metros/segundo) de la pista es tanto mayor cuanto más alejados esté del centro del disco (de manera proporcional al radio), la velocidad rotacional del disco se ajustaba de acuerdo a qué porción del disco se estaba leyendo. Actualmente, la mayor parte de unidades de CD y DVD tienen una velocidad de rotación constante (Velocidad Angular Constante, o CAV). La máxima velocidad de transferencia de datos especificada para una cierta unidad y disco se alcanza solamente en los extremos del disco. Por tanto, la velocidad media de la unidad lectora equivale al 50-70% de la velocidad máxima para la unidad y el disco. Aunque esto puede parecer una desventaja, tales unidades tienen un menor tiempo de búsqueda, pues nunca deben cambiar la velocidad de rotación del disco.

La grabación de doble capa permite a los discos DVD-R y los DVD+RW almacenar significativamente más datos, hasta 8.5 Gigabytes por disco, comparado con los 4.7 GB que permiten los discos de una capa. Los DVD-R DL (dual layer) fueron desarrollados para DVD Forum por Pioneer Corporation. DVD+R DL fue desarrollado para el DVD+R Alliance por Philips y Mitsubishi Kagaku Media.

Un disco de doble capa difiere de un DVD convencional en que emplea una segunda capa física ubicada en el interior del disco. Una unidad lectora con capacidad de doble capa accede a la segunda capa proyectando el láser a través de la primera capa semi-transparente. El mecanismo de cambio de capa en algunos DVD puede conllevar una pausa de hasta un par de segundos Los discos grabables soportan esta tecnología manteniendo compatibilidad con algunos reproductores de DVD y unidades DVD-ROM. Muchos grabadores de DVD soportan la tecnología de doble capa, y su precio es comparable con las unidades de una capa, aunque el medio continúa siendo considerablemente más caro.

En la copia de DVD+R DL originales a DVD comunes DVD+R DL, es un problema por que después algunos reproductores de DVD, no son compatibles.

Los dispositivos ópticos deben cuidarse del polvo y su superficie debe protegerse para que no sufran daños, por eso generalmente poseen fundas protectoras. En este sentido, los DVD son más sensibles, sus capas protectoras son más finas, por lo tanto están más expuestas a rayaduras. Como se leen con luz, su desgaste físico no es un problema. La persistencia de la información almacenada en ellos depende de las propiedades del material que la soporta y de las condiciones de su almacenamiento.

Varias empresas aplican distintos métodos para estimar las expectativas de vida de sus propias marcas. Debido a que aún no existen estándares internacionales para estimar la durabilidad de estos materiales sus resultados no son muy fiables. Algunos estudios de los CD-R aseguran que los tintes de phthalocianina y cianina estabilizada con metal son bastante duraderos. Si se emplea una unidad (re) grabadora compatible con estos tintes y se graba a una velocidad de 2× o 4×, es posible crear discos que duren más de 100 años. Los CD-R con tinte de phthalocianina o cianina, y capa reflectante de oro, son más resistentes que los CD-R con tinte de azo y capa reflectante de plata.

Contrariamente a lo que muchos piensan, la humedad y la temperatura son parámetros a considerar en el almacenamiento de los soportes ópticos. Los cambios bruscos pueden causar deterioros importantes, porque los componentes de las diferentes capas que los componen tienen diferentes coeficientes térmicos de expansión. Actualmente, existen normas internacionales para el almacenamiento de CD-R. Estas indican que para asegurar su permanencia a largo plazo, se deberán mantener a una temperatura máxima de 23 grados centígrados y un 50% de humedad relativa. Recientemente, se ha identificado un nuevo tipo de hongo que, en condiciones climatológicas tropicales (30°C de temperatura y 90% de humedad relativa), destruye los CD. Se trata del Geotrichum, se reproduce sobre el soporte y destruye la información almacenada, primero degradando el borde externo del soporte. Esto ocurre porque el hongo se alimenta del carbono y el nitrógeno de la capa plástica de policarbonato, destruyendo así las pistas de información. Este hongo crece y se reproduce con facilidad dentro de la estructura de un CD en las condiciones expuestas. Se caracteriza por formar largas cadenas de esporas viscosas e incoloras.

DVD-Video Los discos DVD-Video requieren una unidad DVD con decodificador MPEG-1/MPEG-2 (por ejemplo, un reproductor DVD o una unidad DVD de computadora con software reproductor de DVD). Las películas DVD comerciales se codifican combinando vídeo codificado en MPEG-2 y audio MPEG, Dolby Digital, DTS o LPCM (normalmente, multicanal 5.1 para Dolby Digital y DTS, y 2.0 para audio MPEG y LPCM).

Los datos de audio en una película DVD puede tener el formato Linear PCM, DTS, MPEG, o Dolby Digital (AC-3). En países que usan el estándar NTSC, cualquier película debería contener una pista de sonido en formato PCM o Dolby AC-3, y cualquier reproductor NTSC debe soportar ambos; todos los demás formatos son opcionales. Esto asegura que cualquier disco compatible con el estándar puede ser reproducido en cualquier reproductor compatible con el estándar. La vasta mayoría de lanzamientos NTSC comerciales utilizan audio AC-3.

Inicialmente, en países con el estándar PAL (la mayor parte de Europa) el sonido DVD era estándar en audio PCM y MPEG-2, pero aparentemente contra los deseos de Philips, bajo presión pública el 5 de diciembre de 1997, el DVD Forum aceptó la adición de Dolby AC-3 a los formatos opcionales en discos y a los formatos obligatorios en reproductores. La vasta mayoría de lanzamientos PAL comerciales utilizan ahora audio AC-3.

Los DVD pueden contener más de una pista de audio junto con el contenido de vídeo. En muchos casos, se encuentran pistas de sonido en más de un idioma (por ejemplo, el idioma original de la película y el idioma del país en el que se vende).

Con varios canales de audio en el DVD, el cableado requerido para llevar la señal a un amplificador o a una televisión puede ser, en ocasiones, algo frustrante. Muchos sistemas incluyen un conector digital opcional para esta tarea, que se conecta a una entrada similar en el amplificador. La señal elegida de audio se envía sobre la conexión, típicamente RCA o TOSLINK, en su formato original, para decodificarse por el equipo de audio. Al reproducir CD, la señal se envía en formato S/PDIF.

El vídeo es otro asunto que continúa presentando problemas. Los reproductores actuales normalmente sacan solamente vídeo analógico, el vídeo compuesto en un RCA y el S-Video en el conector estándar. Sin embargo, ninguno de estos conectores fue diseñado para usar vídeo progresivo, así que ha empezado a surgir otro conjunto de conectores en la forma de vídeo de componentes, que mantiene los tres componentes del vídeo, una señal de luminosidad y dos de diferencias de color, como se guarda en el mismo DVD, en cables completamente separados. El tema de los conectores es confuso ya que se utiliza un gran número de diferentes conectores físicos en diferentes modelos de reproductores, RCA o BNC (el típico conector usado con cable coaxial), cables VGA. No existe ninguna estandarización al respecto. En Europa, el sistema de conexión más extendido es la utilización de Euroconectores, que transportan una señal compuesta Y/C (S-Video), y/o señal de video analógica RGB entrelazada, así como dos canales de sonido analógico, todo ello en un único y cómodo cable. La señal analógica por componentes ofrece una calidad de video muy superior al S-Video, idéntica al video por componentes YPbPr sin problemas de conversión o de ruido. Sin embargo, las señales de RGB analógico y S-Video no se pueden transportar simultáneamente por el mismo cable debido a que ambas utilizan los mismos pines con propósitos diferentes, y normalmente es necesario configurar manualmente los conectores.

HDMI (High Definition Multimedia Interface). Algunos reproductores más recientes disponen de una salida HDMI, que es una interfaz para habilitar la transmisión digital de video y audio sin compresión (LPCM o Bit Stream) con solamente un cable, mostrando una imagen vívida en un televisor que tenga entrada HDMI. Las resoluciones disponibles para el video son 480p,720p,768p ó 1080i.

Escalado de imagen. En la actualidad, los dispositivos visualizadores con entradas HDMI permiten disfrutar de resoluciones de hasta 1080p (conocida como HD Full) o a partir de 720p (conocida como HD Ready). Un DVD puede ser reproducido en la resolución de su fuente original (normalmente 576p)pero también puede ser escalado a resoluciones superiores, y para eso algunos de los reproductores actuales de DVD contienen chips dedicados a tal efecto. El resultado final depende de la calidad del escalado, pero en muchos casos las diferencias con respecto a la visión por video compuesto son abismales, permitiendo deesta manera acercarse a la Alta Definición.

Los DVD-Video también pueden incluir una o más pistas de subtítulos en diversos idiomas, incluyendo aquellas creadas para personas con deficiencias auditivas parciales o totales. Los subtítulos son almacenados como imágenes de mapa de bits con fondo transparente, sobreimpresas al vídeo durante la reproducción. Están contenidos en el archivo VOB del DVD, y restringidos a usar sólo cuatro colores (incluyendo la transparencia) y por ende suelen lucir mucho menos estilizados que los grabados en la película.

Los DVD-Video pueden contener capítulos para facilitar la navegación, pudiéndose acceder a ellos sin necesidad de pasar previamente por todas las escenas anteriores. Y, si el espacio lo permite, pueden contener distintas versiones de una misma escena llamadas ángulos. Esto se utiliza en ocasiones en una escena en la que aparece un texto escrito para que el texto pueda verse en diferentes idiomas sin tener que recurrir a los subtítulos.

Una de las mayores ventajas de los DVD-Video es que su gran capacidad permite incluir una amplia gama de extras además de la película, como por ejemplo documentales sobre el rodaje, entrevistas, pistas de audio con comentarios sobre la película que se sincronizan con ella, material descartado...

AUDIO_TS: Se usa para el sonido del DVD.

VIDEO_TS: Se usa para almacenar la información de video.

VOBs (Video Objects): Contiene varias cadenas multiplexadas todas juntas: Video, Audio y Subtítulos.

IFOs – Información: Los archivos IFO dan al reproductor información importante para la navegación en el DVD, como donde empiezan los capítulos, donde se localiza una cadena de audio o subtítulos, etc. Estos archivos no están cifrados.

BUPs – BackUP: Son copias de seguridad de los archivos IFO.

El DVD-Video dispone actualmente de cuatro sistemas diseñados para restringir su uso: Macrovision (que impide la duplicación de la película), Content Scrambling System (CSS), los códigos de región y la inhabilitación de las operaciones de usuario.

Cada disco de DVD contiene uno o más códigos de región, los cuales denotan el lugar o las áreas del mundo a la que cada distribución está dirigida. En ocasiones, los códigos de región son llamados "Zonas". Las especificaciones de cada equipo reproductor indican qué zona pueden reproducir.

En teoría, esto permite que los estudios cinematográficos controlen varios aspectos del lanzamiento del DVD, los cuales incluyen el contenido, la fecha y el precio, basados en la adquisición por regiones. En la práctica, varios reproductores de DVD permiten reproducir cualquier disco, o pueden ser modificados para dicho propósito. Distinto al cifrado de datos, los códigos de región permiten el bloqueo regional, que fue originado en la industria de los videojuegos.

La región europea (Región 2) puede tener 4 subcódigos: "D1" hasta "D4". "D1" identifica un lanzamiento únicamente del Inglaterra. "D2" y "D3" identifican a los DVD europeos que no son vendidos en Reino Unido o Irlanda. "D4" identifica los DVD que son distribuidos a través de Europa.

Un disco marcado como "Región 0" (codificado como Región 1/2/3/4/5/6) significa que puede ser reproducido en cualquier lugar del mundo. Este término también describe los reproductores de DVD que son modificados para incorporar las regiones de la 1 a la 6 simultáneamente, proveyendo así, compatibilidad con virtualmente cualquier disco, cualesquiera que sean sus regiones. Esta solución, en apariencia, fue popular en los primeros días del formato DVD, pero los estudios cinematográficos respondieron rápidamente, ajustando los discos para rechazar la reproducción en dichos aparatos. Este sistema es conocido como Regional Coding Enhancement o RCE.

Hoy en día, muchos reproductores "multi-región" logran desbloquear el "bloqueo regional" y el RCE, por medio de la identificación y selección de la región compatible por el DVD o permitiendo al usuario seleccionar una región en particular. Otros simplemente se saltan el chequeo de la región por completo. Algunos manufacturadores de reproductores de DVD ahora proveen información libremente sobre cómo deshabilitar el bloqueo regional y, en algunos modelos recientes, aparece que ha sido deshabilitado por defecto.

Esta práctica, para muchas personas, es una violación a los acuerdos comerciales de la Organización Mundial del Comercio, aunque no hay leyes que hayan sido definidas en esta área.

Están apareciendo distintas tecnologías para etiquetar los CD, Lightscribe y Labelflash, por ejemplo.

Al principio



Cell

El procesador Cell

Cell es una arquitectura de microprocesador desarrollada conjuntamente por Sony Computer Entertainment, Toshiba, e IBM, en una alianza conocida con el nombre de “STI”. El diseño de arquitectura y su primera implementación se llevaron a cabo en el STI Design Center de Austin, Texas, durante un periodo total de cuatro años que comenzó en marzo de 2001, empleando un presupuesto de 400 millones de dólares según IBM.

Cell es la abreviatura de Cell Broadband Engine Architecture (“arquitectura de motor Cell de banda ancha”), conocida también como CBEA por sus siglas al completo o Cell BE. Cell emplea una combinación de la arquitectura de núcleo PowerPC, de propósito general y medianas prestaciones, con elementos coprocesadores en cascada, los cuales aceleran notablemente aplicaciones de procesado de vectores y multimedia, así como otras formas de computación dedicada.

La primera gran aplicación comercial del Cell fue la videoconsola PlayStation 3 de Sony. También podemos encontrar este procesador en servidores duales Cell, blade (tipo de servidor autocontenido) Cell en configuración dual, tarjetas aceleradoras PCI Express y adaptadores de televisión de alta definición.

Características únicas como el subsistema de memoria XDR de RAMBUS y el bus de interconexión de elementos (Element Interconnect Bus, EIB) parece que posicionan el Cell de manera ventajosa en el empleo de aplicaciones futuras en el campo de la supercomputación, donde se sacaría provecho de la habilidad del procesador para manejar núcleos de coma flotante. IBM ha anunciado planes para incorporar procesadores Cell como tarjetas de expansión en sus mainframes IBM System z9, para que de este modo puedan ser empleados como servidores en juegos de rol multijugador online masivos(MMORPGs).

En noviembre de 2006, David A. Bader, del Instituto Tecnológico de Georgia fue escogido por Sony, Toshiba e IBM de entre más de una docena de universidades para dirigir el primer Centro STI de expertos para el procesador Cell (STI Center of Competence for the Cell Processor). Esta alianza tiene por objetivo crear una comunidad de programadores y ampliar el apoyo de la industria al procesador Cell. Existe un vídeo tutorial sobre cómo programar el Cell a disposición del público.

En el año 2000, Sony Computer Entertainment, Toshiba Corporation, e IBM formaron una alianza (STI) para diseñar y manufacturar el procesador. El centro de diseño STI (STI Design Center) abrió sus puertas en marzo de 2001. El Cell estuvo en fase de diseño durante cuatro años, empleando versiones mejoradas de las herramientas de diseño usadas con el procesador POWER4. Alrededor de 400 ingenieros de las tres compañías trabajaron en Austin, con el estrecho apoyo de once de los centros de diseño de IBM.

Durante este periodo, IBM registró diversas patentes relacionadas con la arquitectura Cell, el proceso de fabricación y el entorno software. La primera versión de la patente del Broadband Engine mostraba un encapsulado de chip conteniendo cuatro “elementos de procesamiento” (Processing Elements), lo cual era la descripción en la patente de lo que ahora se conoce como “elementos power de proceso” (Power Processing Element). Cada elemento del proceso contenía 8 procesadores aritméticos, designados como SPE’s en el actual chip Broadband Engine. Dicho encapsulamiento se especula que habitualmente poseía una velocidad de reloj de 4 GHz, con 32 unidades de procesamiento aritmético que proporcionaban un total de 32 GFLOPS cada una. De este modo, el Broadband Engine mostraba un Teraflop de potencia de computación bruta.

En marzo de 2007, IBM hizo público que la versión en 65 nm del Cell BE se encontraba en producción en su planta de East Fishkill, Nueva York.

Nuevamente, durante el mes de febrero de 2008, IBM anunció su intención de comenzar la fabricación de procesadores Cell con tecnología de 45nm.

El 17 de mayo de 2005, Sony Computer Entertainment confirmó algunas de las especificaciones del procesador Cell que sería incluido dentro de la futura videoconsola PlayStation 3. En esta configuración del Cell, se incluiría un elemento power de proceso (PPE) en el núcleo, junto con 8 unidades sinergísticas de proceso (SPE’s) en la oblea de silicio. En la PlayStation 3, una de las SPE’s se bloquea durante el proceso de testeo, práctica que ayuda a mejorar el rendimiento de fabricación, y otra se reserva para el sistema operativo, dejando con ello 6 SPE’s libres para ejecutar el código de los juegos. La velocidad de reloj objetivo durante su lanzamiento son 3,2 GHz El primer diseño se fabricó usando tecnología de fabricación SOI de 90 nm, de cuya producción inicial se encargó la factoría de IBM en East Fishkill.

La relación existente entre núcleos e hilos es una fuente usual de confusiones. El PPE es capaz de manejar dos hilos de ejecución y se muestra en software como tal, mientras que cada SPE activa se muestra como uno sólo. En la configuración de la PlayStation 3, tal y como la describe Sony, el procesador Cell proporciona nueve hilos de ejecución.

El 28 de junio de 2005, IBM y Mercury Computer Systems hicieron público un acuerdo para producir sistemas basados en Cell para aplicaciones embebidas tales como producción de imágenes médicas, inspección industrial, procesamiento aeroespacial, aplicaciones de defensa y de detección de seísmos; y también para telecomunicaciones. Mercury ha comercializado desde entonces blades, servidores convencionales en armario y aceleradoras PCI Express con procesadores Cell.

En el otoño de 2006, IBM lanzó el módulo blade QS20, empleando procesadores Cell BE dobles que proporcionaba un tremendo rendimiento en cierto tipo de aplicaciones, alcanzando un máximo de 410 GFLOPS por módulo. Se espera que estos módulos pasen a formar parte del supercomputador IBM Roadrunner, que estará operativo en 2008. Mercury e IBM hacen uso del procesador Cell al completo, con sus 8 SPE’s activas.

El procesador de banda ancha Cell (Cell Broadband Engine) –o más comúnmente Cell– es un microprocesador diseñado para cubrir el hueco existente entre procesadores convencionales de sistemas de escritorio (tales como las familias Athlon, Pentium y PowerPC) y los procesadores especializados de alto rendimiento, como los procesadores gráficos (GPU’s) de NVIDIA y ATI. Su nombre completo indica las especificaciones de su uso, principalmente como componente en sistemas de distribución digital presentes y futuros. Como tal, puede ser empleado en pantallas y equipo de grabación de alta definición, así como en sistemas de entretenimiento informático para la era HDTV. De manera adicional, el procesador puede ser el apropiado para sistemas digitales de obtención de imagen (médicas, científicas, etc.), así como para simulaciones físicas (por ejemplo, modelado de ingeniería estructural o científico).

Para alcanzar el alto rendimiento necesario para tareas matemáticas intensivas, tales como decodificar o codificar secuencias MPEG, generar o transformar datos 3D, o llevar a cabo análisis Fourier de datos, el procesador Cell aúna las SPE y el PPE por medio del EIB para proporcionarles acceso tanto a la memoria principal como a dispositivos externos de almacenamiento.

El PPE, que es capaz de ejecutar un sistema operativo convencional, posee el control sobre las SPE’s y puede comenzar, interrumpir y programar procesos para que se ejecuten en las mismas. Tiene para este fin instrucciones adicionales relativas al control de las SPE. A pesar de presentar arquitecturas Turing completas, las SPE no son completamente autónomas y requieren que el PPE les envíe órdenes antes de poder ejecutar ninguna tarea de utilidad. Sin embargo, la mayor parte del “caballaje” proviene de las unidades sinergísticas de proceso.

El PPE y la arquitectura de bus incluyen varios modos de operación que proporcionan diferentes niveles de protección de memoria. Permitiendo que ciertas áreas de la memoria se protejan del acceso por parte de procesos específicos que se estén ejecutando en las SPE o en la PPE.

Tanto la arquitectura de la PPE como las de las SPE son de tipo RISC, con instrucciones de un tamaño de palabra fijo de 32 bits. El PPE contiene un juego de registros de propósito general de 64 bits (GPR), un registro de coma flotante de 64 bits (FPR) y un juego de registros de tipo Altivec de 128 bits. La SPE contiene solamente registros de 128 bits. Éstos se pueden emplear para diversos tipos de datos escalares que pueden ir desde los 8 hasta los 128 bits de tamaño o, para cálculos SIMD, en una variedad de formatos enteros o de coma flotante.

Las direcciones de memoria tanto para el PPE como para las SPE’s se expresan como valores de 64 bits, proporcionando un rango teórico de direcciones de 264 bytes (16.777.216 terabytes). En la práctica no todos esos bits se implementan por hardware. De todos modos, el espacio de direcciones es extremadamente grande. Las direcciones de almacenamiento locales de las SPE se expresan como palabras de 32 bits. En la documentación relativa al Cell, el término palabra siempre se refiere a 32 bits, doble palabra a 64 bits y cuádruple palabra a 128 bits.

En algunos aspectos el sistema Cell se asemeja a los primeros diseños de Seymour Cray, pero a la inversa. El conocido CDC6600 empleaba un único procesador, muy rápido, para manejar los cálculos matemáticos, mientras que diez sistemas de menor velocidad ejecutaban programas más pequeños para así mantener a la memoria principal alimentada con datos.

El problema ha sido invertido en el Cell: leer datos ya no constituye el problema gracias a los complejos códigos empleados en la industria. Hoy en día el problema es decodificar los datos en un formato cada vez menos y menos comprimido lo más rápido posible.

Las modernas tarjetas gráficas tienen elementos muy parecidos a los de las SPE’s, conocidos como unidades de sombreado, con una memoria de alta velocidad asociada. Unos programas, conocidos como “sombreadores” (shaders), se cargan en dichas unidades para procesar el flujo de datos de entrada que proporcionan estadios previos (posiblemente la CPU), de acuerdo con las operaciones requeridas.

Las principales diferencias se aprecian en que las SPE’s del Cell son de propósito mucho más general que las unidades de sombreado, y la habilidad de encadenar bajo el control de un programa varias SPE’s ofrece una flexibilidad mucho mayor, permitiendo que el Cell maneje gráficos, sonido o cualquier otra carga de trabajo.

Aunque el integrado Cell puede presentar diversas configuraciones, la más básica es un chip multinúcleo compuesto de un “elemento Power de proceso" (Power Processor Element, PPE), también llamado a veces “elemento de proceso” (PE); y varias “unidades sinergísticas de procesamiento” (Synergistic Processing Elements, SPE). El PPE y las SPE’s están interconectadas entre sí mediante un bus interno de alta velocidad denominado “bus de interconexión de elementos” (Element Interconnect Bus, EIB).

El PPE es un núcleo de dos vías multihilo basado en arquitectura Power que actúa como controlador para las 8 SPE’s, que se ocupan de la mayor parte de la carga de computación. El PPE trabaja con sistemas operativos convencionales debido a su similitud con otros procesadores Power PC de 64 bit, mientras que las SPE’s están diseñadas para la ejecución de código vectorizado en coma flotante.

El PPE contiene instrucciones de 32 KB y memoria caché de nivel 1 de 32 KB, así como una caché de 512 KB nivel 2. Adicionalmente, IBM ha incorporado una unidad Altivec, la cual se encuentra configurada para procesar datos de coma flotante en doble precisión mediante pipelines.

Cada PPU puede completar dos operaciones de doble precisión por ciclo de reloj, lo cual se traduce en un rendimiento de 6,4 GFLOPS a 3,2 GHZ.

Cada SPE se compone de una “unidad sinergística de proceso” (Synergistic Processing Unit, SPU) y una “controladora de flujo de memoria” (Memory Flow Controller, MFC, DMA, MMU, o bus interface). Una SPE es un procesador RISC con una organización SIMD de 128 bits preparada para ejecutar instrucciones de precisión doble o sencilla. En la generación actual de Cell, cada SPE contiene 256 KB de SRAM embebida, para almacenamiento de instrucciones y datos, denominada “almacenamiento local” (no confundir con “memoria local”, que en la documentación de Sony se corresponde con la VRAM), visible para la PPE y que puede ser direccionada directamente por software. Cada SPE soporta hasta 4 GB de memoria de almacenamiento local.

El almacenamiento local no opera como la caché de una CPU convencional, ya que no es ni transparente al software ni contiene estructuras para la predicción de los datos a cargar. Las SPE’s contienen una línea de registros de 128 bits con 128 entradas que mide 14,5 mm² con la tecnología de fabricación de 90 nm. La SPE puede realizar operaciones con 16 enteros de 8 bits, 8 de 16 bits, 4 de 32 bits o bien 4 números de coma flotante en precisión simple en un solo ciclo de reloj, así como realizar una operación de memoria. Obsérvese que la SPU no puede direccionar memoria del sistema directamente: las direcciones virtuales de 64 bits formadas en la SPU han de ser transmitidas a la unidad de control de flujo de memoria (MFC) para ejecutar una operación DMS dentro del espacio de memoria del sistema.

En un escenario de uso típico, el sistema cargará pequeños programas en las SPE’s (parecidos a hilos), encadenándolas juntas de manera que cada una se haga cargo de un pequeño paso en una operación compleja. Por ejemplo, un decodificador de sobremesa podría cargar programas para leer un DVD, decodificar audio y vídeo y control de pantalla; y los datos serían transmitidos de SPE a SPE hasta que finalmente alcanzaran la televisión. Otra posibilidad consiste en dividir los datos de entrada y poner a operar a las SPE’s en la misma tarea en paralelo. A 3,2 GHZ, cada SPE proporciona un rendimiento teórico de 25,6 GFLOPS en datos de precisión simple.

Comparado con un computador personal moderno, el mayor rendimiento relativo de un procesador Cell en coma flotante parece dejar en ridículo las capacidades de unidades SIMD en procesadores de sobremesa como el Pentium 4 y el Athlon 64. Sin embargo, comparar tan sólo las capacidades en coma flotante de un sistema es una manera de efectuar mediciones unidimensional y fuertemente ligado a ciertas aplicaciones. A diferencia de un procesador Cell, las CPU’s de escritorio están mejor capacitadas para ejecutar software de propósito general ejecutado habitualmente en computadores personales. Además de ejecutar varias instrucciones por ciclo de reloj, los procesadores de Intel y AMD proveen predicción de bifurcaciones. El Cell se diseñó para compensar esto con la ayuda de su compilador, en el que se crean instrucciones para la preparación de bifurcaciones. Para datos en precisión doble, usualmente empleados en computadores personales, el rendimiento del Cell decrece considerablemente, pero aún alcanza los 14 GFLOPS.

Pruebas recientes realizadas por IBM muestran que las SPE’s pueden alcanzar el 98% de su máximo teórico empleando multiplicación de matrices paralelas.

Toshiba ha desarrollado un coprocesador operado por cuatro SPE’s y ningún PPE, llamado SpursEngine, que está diseñado para acelerar 3D y efectos de películas en electrónica de consumo.

El EIB es un bus de comunicaciones interno del procesador Cell que interconecta los diversos elementos de sistema integrados en el chip: el procesador PPE, el controlador de memoria (MIC), los ocho coprocesadores SPE y las dos interfaces externas I/O del chip, formando un total de 12 participantes. El EIB incluye una unidad de asignación que funciona como un conjunto de semáforos. En algunos de los documentos de IBM los participantes del EIB son denominados “unidades”.

Actualmente, el EIB se implementa como un anillo circular compuesto de 4 canales unidireccionales de 16 Bytes que rotan en sentido contrario a las agujas del reloj por parejas. Cuando los patrones del tráfico los permiten, cada canal puede transmitir hasta un máximo de 3 transacciones de forma concurrente. Dado que el EIB funciona a la mitad de velocidad del reloj del sistema, el rendimiento efectivo son 16 bytes cada dos ciclos de reloj. Con tres transacciones activas en cada uno de los cuatro anillos, esto es, con una concurrencia máxima, el pico máximo instantáneo en ancho de banda del EIB es de 96 bytes por ciclo de reloj (12 transacciones simultáneas*16 bytes/2 ciclos de reloj). Aún cuando este valor es normalmente citado por IBM resulta irreal escalar este número por la velocidad del procesador. La unidad de asignación impone restricciones adicionales, las cuales se discuten más abajo en la sección asignación de ancho de banda.

Cada uno de los participantes en el EIB posee un puerto de lectura de 16 bytes y otro de escritura de 16 bytes. El límite para cada participante individual es el de leer y escribir a una velocidad de 16 bytes por ciclo de reloj (por simplicidad muchas veces se indican 8 bytes por ciclo de reloj). Téngase en cuenta que cada SPU contiene una cola de administración DMA dedicada capaz de de planificar grandes secuencias de transacciones hacia diversos puntos de destino sin interferir con los cálculos que la SPU esté llevando a cabo. Estas colas DMA pueden ser manejadas tanto de manera local como remota, proporcionando una flexibilidad adicional en el modelo de control.

Los datos circulan por un canal EIB en el sentido de las agujas del reloj alrededor del anillo. Dado que existen doce participantes, el número total de pasos alrededor del canal de vuelta al origen son doce. Seis pasos es la distancia máxima entre cualquier par de participantes. A un canal EIB no se le permite comunicar datos que requieran más de seis pasos. Este tipo de datos habrá de tomar la ruta más corta en la otra dirección. El número de pasos implicados en enviar un paquete tiene poco impacto en la latencia de transferencia: la velocidad de reloj que controla todos los pasos es muy rápida con relación a cualquier otra consideración. Sin embargo, distancias de comunicación más largas sí que son perjudiciales para el rendimiento general del EIB, dado que reducen la concurrencia disponible.

A pesar del deseo original de IBM de implementar el EIB como un conmutador (crossbar) más potente, la configuración circular que adoptaron para economizar recursos en muy raras ocasiones representa un factor limitador en el rendimiento del chip Cell como un todo. En el peor de los casos, el programador ha de tener un cuidado extra a la hora de planificar patrones de comunicación allí donde el EIB es capaz de funcionar con altos niveles de participación.

A la hora de citar cifras de rendimiento, asumiremos un procesador Cell corriendo a 3,2 GHz, la más frecuentemente citada. A esta frecuencia de reloj cada canal transmite a un ritmo de 25,6 GB/s. Contemplando el EIB aisladamente de los elementos que interconecta, alcanzar doce transacciones simultáneas con este ratio de transferencia arrojaría un ancho de banda teórico de 207,2 GB/s. Basándose en esta perspectiva muchas de las publicaciones de IBM describen el ancho de banda disponible en el EIB como “mayor de 300 GB/s”. Este número refleja el pico instantáneo de ancho de banda del EIB escalado por la frecuencia del procesador.

Esta cita representa aparentemente la mayor revelación pública por parte de IBM de este mecanismo y su impacto. La unidad de arbitraje del EIB, el mecanismo de vigilancia y la generación de interrupciones en segmentos o los fallos de traducción de página no están bien descritos en los juegos de documentación pública de IBM.

En la práctica el ancho de banda efectivo del EIB puede también estar limitado por los participantes involucrados en el anillo. Mientras que cada uno de los nueve núcleos de proceso puede mantener una velocidad de lectura y escritura de 25,6 GB/s de manera simultánea, el adaptador de controladora de memoria (memory interface controller ,MIC) está sujeto a un par de canales de memoria XDR que permiten un tráfico máximo de 25,6 GB/s para escrituras y lecturas combinadas; y las dos controladoras de E/S, según aparece en la documentación, soportan una velocidad máxima combinada de entrada de 25,6 GB/s y una velocidad máxima combinada de salida de 35 GB/s.

Para aumentar aún más la confusión, algunas publicaciones antiguas hablan del ancho de banda del EIB asumiendo un reloj de sistema de 4 GHz Este marco de referencia resulta en una cifra de ancho de anda instantáneo de 384 GB/s y en un valor de ancho de banda limitado por arbitraje de 256 Gb/s. El valor teórico de 204,8 GB/s, el más citado, es el mejor a tener en cuenta, considerando cualesquiera otros aspectos. El IBM Systems Performance Group ha realizado demostraciones donde se alcanzaban flujos de datos de 197 GB/s alrededor de las SPU’s en un procesador Cell corriendo a 3,2 GHz, así que esta cifra es un indicador fiable también en la práctica.

Sony está actualmente trabajando en el desarrollo de una tecnología de interconexión óptica para su empleo como adaptador interno o entre dispositivos externos para varios tipos de sistemas de electrónica de consumo y de entretenimiento basados en Cell.

El procesador Cell contiene un macro XIO Rambus doble canal de nueva generación, que interconecta con memoria XDR Rambus. La controladora adaptadora de memoria (MIC) está separada del macro XIO y ha sido diseñada por IBM. El enlace XIO-XDR corre a 3,2 GB/s en cada pin. Dos canales de 32 bits pueden proporcionar un máximo teórico de 25,6 GB/s.

El adaptador de sistema empleado en Cell, también un diseño Rambus, es conocido como FlexIO. La interface FlexIO está organizada en 12 carriles, siendo cada carril un canal de 8 bits punto a punto. Cinco caminos de 8 bits de ancho punto a punto son carriles de entrada al Cell, mientras que los siete restantes son de salida. Esto proporciona un ancho de banda máximo teórico de 62,4GB/s (36,5GB/s salida, 26GB/s entrada).

La interface FlexIO puede poseer una frecuencia de reloj independiente (típicamente, a 3,2 GHz). Cuatro canales de entrada y cuatro de salida se encargan de implementar la coherencia de memoria.

El 29 de agosto de 2007, IBM presentó el BladeCenter QS21. Generando unos 1,05 GFLOPS (Giga Floating Point Operations Per Second) medidos por vatio, con un rendimiento máximo de aproximadamente 460 GFLOPS, es una de las plataformas de computación más eficientes en consumo hasta el día de hoy. Un chasis de BladeCenter puede alcanzar 6,4 TFLOPS y alrededor de 25,8 TFLOPS en un armario 42U estándar.

La consola de videojuegos PlayStation3 de Sony contiene la primera aplicación fabricada del procesador Cell, a una velocidad de reloj de 3,2 GHz, con siete de los ocho SPE’s operacionales, lo que permite a Sony incrementar la producción en la fabricación del procesador. Solo seis de los siete SPE’s son accesibles para los desarrolladores, mientras que el séptimo se reserva para el sistema operativo.

Se ha dicho que Toshiba está considerando la posibilidad de producir televisores de alta definición (HDTV’s) haciendo uso del Cell. Ya han presentado un sistema que decodifica 48 flujos de MPEG-2 en definición estándar simultáneamente en una pantalla de 1920x1080. Esto permitiría al usuario elegir un canal de entre docenas de vídeos en miniatura presentados simultáneamente en pantalla.

La nueva supercomputadora planeada por IBM, el IBM Roadrunner, será un híbrido entre procesadores de propósito general CISC y procesadores Cell. Se dice que esta combinación producirá el primer computador capaz de operar a la velocidad del petaflop. Usará una versión actualizada del procesador Cell, fabricada con tecnología de 65 nm y con SPU’s mejoradas que puedan manejar cálculos en doble precisión en los registros de 128 bits, alcanzando los 100 GFLOPS en doble precisión.

Los clústeres de consolas PlayStation 3 son una atractiva alternativa a los sistemas de gama alta basados en Blades Cell. El Innovative Computing Laboratory, cuyo grupo lidera Jack Dongarra, dentro del departamento de ciencia computacional de la Universidad de Tenesse, investigó dicha aplicación en profundidad. Terrasoft Solutions, implementando las investigaciones de Dongarra, vende clústeres de PlayStation 3 de 8 o 32 nodos, con Yellow Dog Linux preinstalado. Como publicó la revista Wired el 17 de octubre de 2007, una aplicación interesante del uso de PlayStation 3 en configuración de clúster fue implementada por el astrofísico Dr. Gaurav Khanna, que sustituyó el tiempo empleado en supercomputadores por ocho PlayStation 3. El laboratorio de computación bioquímica y biofísica de la Universidad de Pompeu Fabra en Barcelona construyó un sistema BOINC basado en el software CellMD (el primero diseñado específicamente para el Cell) llamado PS3GRID para computación compartida.

Con la ayuda del poder de cálculo de alrededor de medio millón de consolas PlayStation 3, el proyecto de computación distribuida Folding@Home ha sido reconocido por el libro Guiness de los Records como la más poderosa red de computación distribuida del mundo. El primer record se obtuvo el 16 de septiembre de 2007, cuando el proyecto sobrepasaba un PETAFLOPS, lo que nunca había sido alcanzado antes por ninguna red de computación distribuida. Los esfuerzos colectivos permitieron que sólo las PS3 alcanzaran la marca del PETAFLOPS el 23 de septiembre de 2007. En comparación, la supercomputadora más potente del mundo, el IBM "Roadrunner", tiene una potencia de alrededor de 1,105 PETAFLOPS. Esto significa que la potencia de cálculo de Folding@Home es aproximadamente la misma que la de Roadrunner (aunque la interconexión entre CPU’s en Roadrunner es mucho más rápida, hablamos del orden de millones de veces, que la media de velocidad en la red Folding@Home).

El 25 de abril de 2007 IBM anunció que comenzaría a integrar sus microprocesadores con arquitectura Cell Broadband Engine en su línea de mainframes.

La arquitectura Cell implanta novedades como son la estructura de coherencia de memoria, por la que IBM ha recibido varias patentes. Esta arquitectura enfatiza la relación rendimiento por vatio, da prioridad al ancho de banda sobre la latencia y favorece la máxima salida de cálculo sobre la simplicidad del código de programación. Debido a ello, Cell es considerado normalmente como un entorno difícil de desarrollo de software. IBM proporciona una plataforma de desarrollo completa basada en Linux para ayudar a los programadores a afrontar esta tarea. El factor principal para comprobar si Cell llega a desarrollar su potencial de rendimiento es la adaptación del software. A pesar de estas dificultades, los estudios indican que Cell sobresale en diversos tipos de computación científica.

Dada la naturaleza flexible del Cell, existen diversas posibilidades para el empleo de sus recursos, que no se limitan simplemente a diferentes paradigmas de computación.

El PPE mantiene una cola de trabajo, planifica trabajos en las SPE’s y monitoriza los progresos. Cada SPE ejecuta un mini núcleo cuyo trabajo consiste en recoger un trabajo, ejecutarlo y sincronizarlo con el PPE.

El núcleo y la planificación se distribuye entre los SPE’s. Las tareas se sincronizan empleando semáforos o multitexes tal y como ocurre en sistemas operativos convencionales. Las tareas listas para su ejecución esperan en una cola a que las SPE las ejecute. Las SPE emplean memoria compartida para todas las tareas en esta configuración.

Cada SPE ejecuta un programa determinado. Los datos provienen de un flujo de entrada y son enviados a las SPE’s. Cuando una SPE ha concluido el procesado, los datos de salida son enviados a un flujo de salida. Esto proporciona una arquitectura flexible y potente para el procesado de flujos y permite planificar explícitamente cada SPE por separado. Otros procesadores son también capaces de ejecutar tareas de procesado de flujos (streaming), pero se ven limitados por el tipo de núcleo cargado.

Una estrategia basada en el software Open Source fue asumida para acelerar el desarrollo de un “ecosistema” Cell BE y para proporcionar un entorno en el que desarrollar aplicaciones Cell. En 2005, los desarrolladores de IBM enviaron parches habilitando el soporte de Cell para su inclusión en el núcleo de Linux. Anrd Bergmann (uno de los desarrolladores de estos parches) también describió la arquitectura Cell basada en Linux en el LinuxTag de 2005.

Tanto el PPE como las SPE’s se pueden programar en C/C++ empleando una API común que proporcionan librerías.

Terra Soft Solutions suministra Yellow Dog Linux tanto para sistemas Cell IBM como para Mercury, así como para la PlayStation3. Terra Soft se ha aliado estratégicamente con Mercury para suministrar el paquete de soporte LinuxBoard para Cell, además de apoyo y desarrollo de aplicaciones software en varias otras plataformas Cell, incluyendo el IBM BladeCenter JS21, el Cell QSQ20 y las soluciones de Mercury. Terra Soft mantiene asimismo la suite de construcción y administración de clústeres Y-HPC (High Performance Computing) y las herramientas de secuenciación de genes Y-Bio. Y-Bio está construida sobre el estándar de administración de paquetes Linux RPM y ofrece herramientas que ayudan a los investigadores bioinformáticos a llevar a cabo su trabajo con mayor eficiencia. IBM ha desarrollado un pseudo sistema de archives para Linux denominado “SPufs”, el cual simplifica el acceso y uso de los recursos de las SPE’s. IBM mantiene actualmente un núcleo Linux y adaptaciones GDB, mientras que Sony mantiene la cadena de herramientas GNU (GCC, binutils...).

En noviembre de 2005 IBM lanzó en su sitio web el kit de desarrollo de software para CBE versión 1.0 (Cell Broadband Engine (CBE) Software Development Kit Version 1.0), consistente en un simulador y herramientas varias. Versiones de desarrollo del último núcleo y herramientas para Fedora Core 5 se pueden encontrar en el sitio web del Centro de Supercomputación de Barcelona.

En agosto de 2007, Mercury Computer Systems lanzó un kit de desarrollo de software para computación de alto rendimiento destinado a la PlayStation 3.

Con la salida de la versión 2.6.16 del núcleo el 20 de marzo de 2006 el kernel de Linux proporcionaba soporte oficial para el procesador Cell.

Al principio



HD DVD

Dos discos HD DVD y un reproductor.

HD DVD (High Density Digital Versatile Disc) traducido al español (Disco Versátil Digital de Alta Densidad) es un formato de almacenamiento óptico desarrollado como un estándar para el DVD de alta definición por las empresas Toshiba, Microsoft y NEC, así como por varias productoras de cine. Puede almacenar hasta 30 GB.

Este formato acabó por sucumbir ante su inmediato competidor, el Blu-ray, por convertirse en el estándar sucesor del DVD. Después de la caída de muchos apoyos de HD DVD, Toshiba decidió cesar de fabricar más reproductores y continuar con las investigaciones para mejorar su formato.

Existen HD DVD de una capa, con una capacidad de 15 GB (unas 4 horas de vídeo de alta definición) y de doble capa, con una capacidad de 30 GB. Toshiba ha anunciado que existe en desarrollo un disco con triple capa, que alcanzaría los 51 GB de capacidad (17 GB por capa). En el caso de los HD DVD-RW las capacidades son de 20 y 32 GB, respectivamente, para una o dos capas. La velocidad de transferencia del dispositivo se estima en 36,5 Mbps.

El HD DVD trabaja con un láser violeta con una longitud de onda de 405 nm.

Por lo demás, un HD DVD es muy parecido a un DVD convencional. La capa externa del disco tiene un grosor de 0,6 mm, el mismo que el DVD y la apertura numérica de la lente es de 0,65 (0,6 para el DVD).

Todos estos datos llevan a que los costos de producción de los discos HD DVD sean algo más reducidos que los del Blu-ray, dado que sus características se asemejan mucho a las del DVD actual.

Los formatos de compresión de vídeo que utiliza HD DVD son MPEG-2, Video Codec 1 (VC1, basado en el formato Windows Media Video 9) y H.264/MPEG-4 AVC.

En el aspecto de la protección anti-copia, HD DVD hace uso de una versión mejorada del CSS del DVD, el AACS, que utiliza una codificación de 128 bits. Además está la inclusión del ICT (Image Constraint Token), que es una señal que evita que los contenidos de alta definición viajen en soportes no cifrados y, por tanto, susceptibles de ser copiados. En la práctica, lo que hace es limitar la salida de video a la resolución de 960x540 si el cable que va del reproductor a la televisión es analógico, aunque la televisión soporte alta definición. El ICT no es obligatorio y cada compañía decide libremente si añadirlo o no a sus títulos. Por ejemplo, Warner está a favor de su uso mientras que Fox está en contra. La AACS exige que los títulos que usen el ICT deben señalarlo claramente en la caja.

El formato HD DVD introduce la posibilidad de acceder a menus interactivos al estilo "pop-up" lo que mejora sustancialmente la limitada capacidad de su antecesor, el DVD convencional, el cual poseía una pista especial dedicada al menú del film.

El HD DVD realiza su incursión en el mundo de los videojuegos tras el anuncio de Microsoft de la comercialización de un extensor para HD DVD para su popular consola Xbox 360.

El 19 de noviembre de 2003, los miembros de DVD Forum decidieron, con unos resultados de ocho contra seis votos, que el HD DVD sería el sucesor del DVD para la HDTV. En aquella reunión, se renombró el, hasta aquel entonces, "Advanced Optical Disc". El soporte Blu-ray Disc que es de mayor capacidad, fue desarrollado fuera del seno del DVD Forum y nunca fue sometido a votación por el mismo.

La especificación actual para el HD DVD y el HD DVD-RW se encuentra en su versión 1.0. La especificación para el HD DVD-R se encuentra en la versión 0.9.

El 19 de febrero de 2008, Toshiba, en rueda de prensa, anunció el final de la fabricación y distribución del HD DVD, dando al Blu-ray la victoria en la llamada "Guerra de los Formatos".

Ya existen lectores híbridos capaces de leer y escribir CD, DVD y HD DVD. También se ha conseguido desarrollar un disco híbrido de DVD y HD DVD, de forma que se podría comprar una película que se puede ver en los reproductores de DVD actuales y, además, tener alta definición si se introduce en un reproductor de HD DVD. Sin embargo, dichos discos necesitan de doble cara (por un lado DVD de doble capa y por el otro HD DVD de una sola capa), debido a que la capa de datos es la misma en ambos formatos. Se ha conseguido un disco híbrido de una sola cara con una capa de DVD y otra capa de HD DVD.

Entre las empresas de electrónica e informática que apoyan a HD DVD se encuentran Canon Inc., Digital Theater Systems, Hitachi Maxell Ltd., Intel, Kenwood Corporation, Microsoft, Mitsubishi Kagaku Media Co., Ltd., NEC Corporation, Onkyo Corporation, Sanyo Electric Co., Ltd., Teac Corporation.

Entre los estudios de cine que respaldan HD DVD encontramos Universal Studios, Paramount Home Entertainment, Dreamworks, The Weinstein Company, Image Entertainment, Magnolia Pictures, Brentwood Home Video, Ryko, Koch/Goldhil Entertainment. Cabe señalar que Warner Bros. aunque apoyaba inicialmente al HD DVD, ha anunciado que dejará de producir películas en este formato, y así, apoyara solamente al Blu-Ray. Vía EarthTimes nos enteramos de que en EEUU se está librando una nueva batalla en la guerra de los formatos, tal vez definitiva. Por un lado, Best Buy está comenzando a aconsejar a sus clientes la compra de reproductores BluRay en detrimento de los HD DVD. Y por otro lado, la empresa NetFix, la mayor cadena de videoclubs de EEUU, ha confirmado que retirará de las estanterías las películas en formato HD DVD antes de que termine el año 2008.

Recientemente se ha descubierto una clave que permite quitar la protección AACS de los discos HD DVD y Blu-ray y reproducir el medio en cualquier sistema operativo, como puede ser el sistema operativo Linux, y en un reproductor no necesariamente considerado como permitido.

El reclamo de la AACES Licensing Authority contra varios sitios de Internet exigiendo la remoción de la clave de los sitios donde se hallaba publicada, aduciendo violación de la DMCA, generó una gran polémica que afectó particularmente al sitio de noticias Digg.

Al principio



Source : Wikipedia