Centrales Nucleares

3.4047735022379 (2053)
Publicado por t800 08/03/2009 @ 08:12

Tags : centrales nucleares, sociedad

últimas noticias
Experto defiende que las centrales nucleares españolas son ... - Europa Press
El director de Estudios y Apoyo Técnico del Foro de la Industria Nuclear Española, Antonio González Jiménez, defendió hoy que las centrales nucleares del país son "seguras", independientemente de incidentes como la fuga de partículas radiactivas...
El imperio nuclear contraataca - soitu.es
Las centrales nucleares se diseñan de manera robusta y segura y se encuentran entre las instalaciones industriales mejor protegidas. Un organismo regulador independiente, el Consejo de Seguridad Nuclear, vela por su seguridad....
Álvarez (UGT) se muestra contrario al cierre de las centrales ... - ADN.es
El secretario general de la UGT de Cataluña, Josep Maria Álvarez, se ha mostrado hoy en Tarragona contrario al cierre de las centrales nucleares porque, a su juicio, España necesita de esta energía para ser competitiva....
“Zapatero dirá sí a las nucleares cuando Obama las apruebe” - COPE
Ningún periodista le ha sacado una sola palabra sobre ese asunto, pero hay sobre su mesa 23 licencias de centrales pendientes de apertura. Creo que todos los alcaldes estarían encantados de que en sus pueblos se instalaran centrales nucleares o...
Ecologistas en Acción muestra su decepción ante la indecisión de ... - Portal Medio Ambiente
El Presidente Zapatero presentó en su programa electoral un plan de cierre progresivo de las centrales nucleares, y en los documentos elaborados hasta ahora por las diferentes administraciones afectadas, se contemplaba una vida máxima de 40 años....
El cambio de sede de Almaraz tendrá "efectos positivos" si no ... - Hoy Digital
Barroso consideró que el consejero Navarro "engañó a todos por ansiedad" y recordó que todas las centrales nucleares tienen su domicilio social en su lugar de instalación "menos la de Valdecaballeros y Almaraz" que lo tienen en Madrid....
Más problemas en Garoña - Dminorias
Es por ello que Greenpeace pide al Gobierno de Zapatero que cumpla con su promesa electoral de acometer el cierre progresivo de las centrales nucleares, y que dicho compromiso comience a fraguarse por Garoña, cuya licencia de actividad caduca en julio....
Los empresarios piden una prórroga para la nuclear de Garoña - Dminorias
Desde Greenpeace creen que por motivos de seguridad la central de Garoña debería cerrarse cuanto antes, y piden a Zapatero que cumpla su promesa electoral de acometer el cierre progresivo de las centrales nucleares. En este sentido, el responsable de...
Foro Nuclear crea una web para promover el debate sobre la energía ... - Finanzas.com
Además, asegura que las centrales reducen la dependencia energética española del exterior, no contaminan, son seguras, son competitivas, son fuentes basadas en la tecnología y generan empleo. La web defiende que hay "un impulso nuclear mundial" porque...
España necesitará dos nucleares más y seis centrales de carbón ... - La Nueva España
Unas estimaciones elaboradas por la asociación empresarial Unesa determina que el país debería combinar en el futuro tres criterios: reforzar la aportación de las energías renovables, ir a la construcción de nuevas centrales nucleares ya la instalación...

Dioxitek S.A.

Dioxitek S.A. es una sociedad anónima estatal, perteneciendo el 99 % de sus acciones a la Comisión Nacional de Energía Atómica (CNEA) y el 1 % restante a la provincia de Mendoza. Fue creada por el Poder Ejecutivo Nacional para garantizar el suministro de dióxido de uranio que se utiliza en la fabricación de los elementos combustibles para las centrales nucleares de Embalse y Atucha I. La planta industrial que esta ubicada en la ciudad de Córdoba entró en funcionamiento en el año 1982 haciéndose cargo Dioxitek S.A. de su operación en mayo de 1997.

Produce Polvo de Dióxido de Uranio de pureza nuclear grado cerámico, empleado en la fabricación de los elementos combustibles que usan las centrales nucleares de Atucha I y Embalse y Cobalto-60, utilizado para la preservación de alimentos, la esterilización de insumos quirúrgicos para medicina, el tratamiento de residuos hospitalarios patógenicos y el tratamiento de enfermedades tumorales, entre otros.

Dioxitek S.A. incorporó en el año 2002 una nueva actividad como es el diseño, producción y comercialización de fuentes selladas de Cobalto-60, convirtiéndose en el tercer productor mundial de Fuentes Selladas, y el primero a nivel Latinoamericano y del Hemisferio Sur. El 90 % del valor incorporado a estos productos corresponde a tecnología y Know-how. El Cobalto-60 es un metal que se caracteriza por emitir energía en forma de rayos llamados Gamma, conocida también como energía ionizante y se produce en la Central Nuclear Embalse.

Al principio



Consumo y recursos energéticos a nivel mundial

Potencia empleada mundial en teravatios (TW), entre 1965 y 2005.[1]

En este artículo se emplean las unidades, los prefijos y las magnitudes del Sistema Internacional como la Potencia en vatios o Watts(W) y Energía en julios (J), cara a comparar directamente el consumo y los recursos energéticos a nivel mundial. Un vatio es un julio por segundo.

El consumo energético mundial total en 2005 fue de 500 EJ (= 5 x 1020 J) (ó 138.900 TWh) con un 86,5% derivado de la combustión de combustibles fósiles, aunque hay al menos un 10% de incertidumbre en estos datos. Esto equivale a una potencia media de 15 TW (= 1.5 x 1013 W). No todas las economías mundiales rastrean sus consumos energéticos con el mismo rigor, y el contenido energético exacto del barril de petróleo o de la tonelada de carbón varía ampliamente con la calidad. La mayor parte de los recursos energéticos mundiales provienen de la irradiación solar de la Tierra - alguna de esta energía ha sido almacenada en forma de energía fósil, otra parte de ella es utilizable en forma directa o indirecta como por ejemplo via energía eólica, hidráulica o de las olas. El término constante solar es la cantidad de radiación electromagnética solar incidente por unidad de superficie, medida en la superficie exterior de la atmósfera terrestre, en un plano perpendicular a los rayos. La constante solar incluye a todos los tipos de radiación solar, no sólo a la luz visible. Mediciones de satélites la sitúan alrededor de 1366 vatios por metro cuadrado, aunque fluctúa un 6,9% a lo largo del año - desde los 1412 W/m² a principios de enero hasta los 1321 W/m² a principios de julio, dada la variación de la distancia desde el Sol, de una cuantas partes por mil diariamente. Para la Tierra al completo, con una sección transversal de 127.400.000 km², la potencia obtenida es de 1,740×1017 vatios, más o menos un 3,5%.

Las estimaciones de los recursos energéticos mundiales restantes son variables, con un total estimado de los recursos fósiles de unos 0,4 YJ (1 YJ = 1024J) y unos combustibles nucleares disponibles tales como el uranio que sobrepasan los 2,5 YJ. El rango de los combustibles fósiles se amplía hasta 0,6-3 YJ si las estimaciones de las reservas de hidratos de metano son exactas y si se consigue que su extracción sea técnicamente posible. Debido al Sol principalmente, el mundo tiene también acceso a una energía utilizable que excede los 120 PW (8.000 veces la total utilizada en 2004), o de 3,8 YJ/año, empequeñeciendo a todos los recursos no renovables.

Desde el advenimiento de la revolución industrial, el consumo energético mundial ha crecido de forma continuada. En 1890 el consumo de combustibles fósiles alcanzó al de biomasa utilizada en la industria y en los hogares. En 1900, el consumo energético global supuso 0,7 TW (0,7×1012 vatios).

El carbón suministró la energía para la revolución industrial en los siglos XVIII y XIX. Con la llegada del automóvil, de los aviones y con la generalización del uso de la electricidad, el petróleo se convirtió en el combustible dominante durante el siglo XX. El crecimiento del petróleo como principal combustible fósil fue reforzado por el descenso continuado de su precio entre 1920 y 1973. Tras las crisis del petróleo de 1973 y 1979, en las cuales el precio del petróleo se incrementó desde los 5 hasta los 45 dólares estadounidenses por barril, se produjo un retraimiento del consumo de petróleo. El carbón y la energía nuclear pasaron a ser los combustibles elegidos para la generación de electricidad y las medidas de conservación incrementaron la eficiencia energética. En EE.UU. el automóvil medio aumentó a más del doble las millas recorridas por galón. Japón, que soportó la peor parte de las crisis del petróleo, realizó mejoras espectaculares y ahora presenta la mayor eficiencia energética del mundo. Tras los últimos cuarenta años, el uso de combustibles fósiles ha continuado creciendo y su participación en el suministro energético se ha incrementado. En los últimos tres años, el carbón, que es una de las fuentes más sucias de energía, se ha convertido en el combustible fósil de más rápido crecimiento. . Pese a ello, la energía solar fotovoltáica se está incorporando rápidamente como reemplazo de los combustibles fósiles como fuente dominante de energía. Observese la comparación anterior sobre la disponibilidad: Los recursos totales de todos los combustibles fósiles represetan 0,4 YJ en total, mientras que la disponibilidad de energía solar es de 3,8 YJ al año.

En 2005 la energía nuclear representó el 6,3% del suministro de energía primaria total. La producción energética nuclear en 2006 alcanzó los 2.658 TWh, lo que representa el 16% del total de la producción mundial de electricidad. En noviembre de 2007, estaban operativos a nivel mundial 439 reactores nucleares, con una capacidad total de 372.002 MW. En construcción habían otros 33 reactores, planeados 94 y en estado de propuesta 222. Entre las naciones que no la usan en la actualidad, 25 países están construyéndolos o se lo proponen. Algunos países han anunciado planes para suprimir la energía nuclear, pero hasta la fecha tan sólo Italia lo ha llevado a la práctica (aunque continúa importando electricidad de naciones con centrales nucleares activas). Además de esto, aunque Austria, Filipinas y Corea del Norte han construido centrales nucleares, estos países las abortaron antes de que fueran puestas en marcha.

En 2004, el suministro de energía renovable representó el 7% del consumo energético mundial. El sector de las renovables ha ido creciendo significativamente desde los últimos años del siglo XX, y en 2005 la inversión nueva total fue estimada en 38 mil millones de dólares estadounidenses. Alemania y China lideran las inversiones con alrededor de 7 mil millones de dólares estadounidenses cada una, seguidas de Estados Unidos, España, Japón e India. Esto ha resultado en 35 GW de capacidad adicional al año.

El consumo hidroeléctrico mundial alcanzó los 816 GW en 2005, consistentes en 750 GW de grandes centrales, y 66 GW de instalaciones microhidráulicas. El mayor incremento de la capacidad total anual con 10.9 GW fue aportado por China, Brasil e India, pero se dio un crecimiento mucho más rápido en la microhidráulica (8%), con el aumento de 5 GW, principalmente en China donde se encuentran en la actualidad aproximadamente el 58% de todas las plantas microhidráulicas del mundo.

En Occidente, aunque Canadá es el mayor productor hidroeléctrico mundial, la cosntrucción de grandes centrales hidroeléctricas se ha paralizado debido a sus implicaciones medioambientales. La tendencia tanto en Canadá como en Estados Unidos ha sido hacia la microhidráulica dado su insignificante impacto ambiental y la incorporación de multitud de localizaciones para la generación de energía. Tan sólo en la Columbia Británica se estima que la microhidráulica será capaz de elevar a más del doble la producción eléctrica en la provincia.

Hasta finales del siglo XIX la biomasa era el combustible predominante, en la actualidad mantiene tan sólo una pequeña participación del total del suministro energético. La electricidad producida con base a la biomasa fue estimada en 44 GW para el año 2005. La generación de electricidad por biomasa aumentó un 100% en Alemania, Hungría, Holanda, Polonia y España. Unos 220 GW adicionales fueron empleados para calefacción (en 2004), elevando la energía consumida total de biomasa a alrededor de 64 GW. El uso de las hornillas de biomasa para cocinar no ha sido considerado. La producción mundial de bioetanol aumentó en un 8% hasta alcanzar los 33 mil millones de litros, con el mayor incremento en los Estados Unidos, alcanzando así el nivel de consumo de Brasil. El biodiésel aumentó un 85% hasta los 3,9 mil millones de litros, convirtiéndose en la energía renovable de mayor crecimiento en 2005. Alrededor del 50% es producido en Alemania.

Según el Consejo Global de la Energía Eólica, la capacidad instalada de energía eólica se incrementó un 27% desde finales de 2006 hasta finales de 2007 hasta un total de 94,1 GW, con alrededor de la mitad del incremento en los Estados Unidos, España y China. Se duplica la capacidad cada tres años aproximadamente. La capacidad total instalada es aproximadamente tres veces la potencia producida de promedio actual ya que la capacidad nominal presenta picos de salida, la capacidad actual por lo general oscila entre el 25-40% de la capacidaqd nominal.

Los recursos enegéticos disponibles mediante la energía solar son de 3,8 YJ/yr (120.000 TW). Menos del 0,02% de los recursos disponibles son suficientes para reemplazar las energías fósiles y las nucleares como fuentes de energía. Considerando que las tasas actuales de uso permanecieran constantes, el petróleo se agotará en 35 años, y el carbón en 200 años. En la práctica no se llegará al agotamiento, ya que a medida que las reservas remanentes decaigan las limitaciones naturales obligarán a la producción a disminuir su ritmo.

En 2007 la electricidad fotovoltáica conectada a la red fue la fuente de energía con mayor crecimiento, con un 83% en 2007 hasta alcanzar una capacidad total instalada de 8,7 GW. Cerca de la mitad de este incremento es atribuible a Alemania, en la actualidad el mayor consumidor de electricidad fotovoltaica (seguido por Japón). La producción de células fotovoltáicas aumentó un 50% en 2007, hasta los 3.800 megavatios, y ha venido duplicandse cada dos años.

La mayor planta solar fotovoltáica con 20 megavatios es la de Beneixama (Alicante) en España, mientras que en el sur de Portugal se está construyendo una de 11 megavatios, en uno de los lugares más soleados de Europa. La mayor instalación fotovoltáica de Norte América es la de Nellis, y tiene 18 megavatios.

Desde 1991 la mayor planta de energía solar ha sido la del Desierto de Mohave en California, con 354 megavatios, que utiliza colectores cilindro-parabólicos.

El consumo de agua caliente solar y la calefacción solar ha sido estimado en 88 GWt (gigavatios de energía térmica) para 2004. El calentamiento de agua para piscinas no cubiertas no ha sido considerado.

La energía geotérmica se utiliza comercialmente en alrededor de 70 países. Para finales de 205 el uso mundial para la producción de electricidad alcanzó los 9,3 GW, con 28 GW adicionales usados para la calefacción directa. Si se incluye el calor recuperado por las bombas de calor geotermales, el uso de la energía geotérmica para fines no eléctricos es estimado en más de 100 GW.

El consumo de energía sigue ampliamente al Producto Nacional Bruto, aunque existe una diferencia significativa entre los niveles de consumo de los Estados Unidos con 11,4 kW por persona y los de Japón y Alemania con 6 kW por persona. En paises en desarrollo como la India el uso de energía por persona es cercano a los 0,7 kW. Bangladesh tiene el consumo más bajo con 0,2 kW por persona.

Estados Unidos consume el 25% de la energía mundial (cn una participación de la priductividad del 22% y con un 5% de la población mundial). El crecimiento más significativo del consumo energético está ocurriendo en China, que ha estado creciendo al 5,5% anual durante los últimos 25 años. Su población de 1.300 millones de personas consume en la actualidad a una tasa de 1,6 kW por persona.

Durante los últimos cuatro años el consumo de electricidad per capita en EE.UU. ha decrecido al 1% anual entre 2004 y 2008. El consumo de energía proyectado alcanzará los 4.333.631 millones de kilovatios houra en 2013, con un crecimiento del 1.93% durante los próximos cinco años. El consumo se incrementó desde los 3.715.949 en 2004 hasta los esperados 3.937.879 millones de kilovatios houra al año en 2008, con un incremento de alrededir del 0.36% anual. La población de los EE.UU. ha venido incrementandose en un 1,3% anual , con un total de alrededor de 6,7% en los cinco años. El descenso se debe principalmente a aumentos de la eficiencia. Las bombillas de bajo consumo, por ejemplo, usan alrededor de un tercio de la electricidad que usan las bombillas incandescentes. Las bombillas LED usan una décima parte como mucho, y a lo largo de sus de 50.000 a 100.000 horas de vida son más baratas que los tubos fluorescentes.

Una medida de la eficiencia es la intensidad energética. Ésta mide la cantidad de energía que le es necesaria a cada país para producir un dólar de producto interior bruto.

Los usos industriales (agricultura, minería, manufacturas, y construcción) consumen alrededor del 37% del total de los 15 TW. El transporte comercial y personal consume el 20%; la calefacción, la iluminación y el uso de electrodomésticos emplea el 11%; y los usos comerciales (iluminación, calefacción y climatización de edificios comerciales, así como el suministro de agua y sameamientos) alrededor del 5% del total.

El 27% restante de la energía munfial es perdido en la generación y el transporte de la energía. En 2005 el consumo eléctrico global equivalió a 2 TW. La energía empleada para generar 2 TW de electricidad es aproximadamente 5 TW, dado que la eficiencia de una central energética típica es de alrededor del 38%. La nueva generación de centrales térmicas de gas alcanzan eficiencias sustancialmente mayores, de un 55%. El carbón es el combustible más generalizado para la producción mundial de electricidad.

Hay una incertidumbre significativa para estos datos. La estimación del combustible fósil remanente en el planeta depende de la comprensión detallada de la corteza terrestre. Esta comprensión es aún imperfecta. Mientras que la tecnología de perforación moderna hace posible perforar pozos de hasta 3 km de agua para verificar la composición exacta de la geología, la mitad del océano es más profundo que 3 km, dejando fuera un tercio del planeta más allá del alcance del análisis detallado. De todas maneras, es más probable que ocurra la eventualidad de in gran cometa o asteroide chochando con la Tierra a que el planeta se quede sin combustibles fósiles. Estas ideas quizás son demasiado optimistas. Los informes del Grupo de Vigilancia Energética muestran que las demandas de petróleo no pueden ser cubiertas y que el recurso uranio estará agotado en 70 años.

El carbón es el combustible fósil más abundante. Según la Agencia Internacional de la Energía las reservas constatadas de carbón se sitúan en unos 909 mil millones de toneladas, con lo cual podrían manterer el actual ritmo de producción energética durante 155 años. Fue el combustible que alimentó la revolución industrial y su uso continúa en aumento; China, que tiene muchas de las ciudades más contaminadas del mundo, construyó durante 2007 unas dos centrales eléctricas alimentadas por carbón a la semana. El carbón es el combustible fósil de mayor crecimiento y sus grandes reservas lo harían un candidato predilecto para afrontar la demanda energética de la comunidad global, aparte de las inquietudes sobre el calentamiento global y sobre otros contaminantes. Con el proceso Fischer-Tropsch se pueden obtener combustibles líquidos como el diésel o el combustible para la aviación desde el carbón. La campaña Paremos el Carbón pide una moratoria para la construcción de nuevas centrales de carbón y el abandono de las existentes, en base a la preocupación sobre el calentamiento global. En los Estados Unidos, el 49% de la generación de electricidad proviene de la combustión del carbón.

Se estima que puede haber 57 ZJ de reservas de petróleo en la Tierra (aunque las estimaciones varían desde por lo bajo 8 ZJ, consistentes en las reservas actualmente probadas y recuperables, hasta la máxima de 110 ZJ) consistente en las reservas disponibles aunque no necesariamente recuperables, y que incluye las estimaciones optimistas para fuentes no convencionales tales como las arenas de alquitrán y las pizarras bituminosas. El consenso actual alrededor de las 18 estimaciones reconocidas de los perfiles de suministro es que el pico de la extracción tendrá lugar en 2020 a una tasa de 93 millones de barriles al día. El consumo de petróleo actual está en una tasa de 0.18 ZJ por año (31,1 mil millones de barriles), o sea de 85 millones de barriles al día.

Hay un consenso creciente en que el pico de producción de petróleo podría ser alcanzado en un futuro cercano, desembocando en un incremento de los precios del petróleo. Un informe de 2005 del Ministerio francés de Economía, Industria y Finanzas sugiere que en el peor escenario podría suceder tan pronto como en 2013. También hay teorías qze predicen que el pico podría ocurrir en tan sólo 2-3 años. Las predicciones de ASPO lo colocan en el 2010. La producción de petróleo decreció desde 84,63 millones de barriles al día en 2005 hasta 84,60 millones de barriles al día, pero creció en 2007 hasta los 84,66 millones de barriles al día, y se prevé que crezca hasta los 87,7 millones de barriles al día en 2009.

Las consideraciones políticas sobre la seguridad de los suministros, y las implicaciones medioambientales relacionadas con el calentamiento climático y con la sostenibilidad acabarán por sacar al consumo energético mundial de los combustibles fósiles. El concepto de pico del petróleo nos muestra que hemos empleado aproximadamente la mitad de los recursos de petróleo disponibles, y predice un descenso de la producción.

Un gobierno que lidere la retirada de los combustibles fósiles debería crear presión económica mediante el comercio de derechos de emisiónes de carbono y mediante ecotasas. Algunos países están desarrollando acciones a partir del Protocolo de Kioto, y hay propuestas de ir más lejos en esta dirección. Por ejemplo, la Comisión Europea ha propuesto que la Plítica Energética de la Unión Europea debería establecer unos objetivos vinculantes para elevar los niveles uso de las energías renovables desde el actual menos del 7% hasta un 20% en 2020.

El Efecto Isla de Pascua es citado como ejemplo de una cultura que fue incapaz de desarrollarse sosteniblemente que arrasó prácticamente el 100% de sus recursos naturales.

Según las estimaciones de la Organismo Internacional de Energía Atómica queda el equivalente a 2500 ZJ de uranio. Esto asumiendo el uso del reactor reproductor rápido que es capaz de generar más material fisible del que consume. El IPCC estima que los depósitos de uranio económicamente recuperables actualmente probados para los reactores de ciclo de combustible directo alcanzan sólo hasta 2 ZJ. El uranio finalmente recuperable se estima en 17 ZJ para los reactores de ciclo directo y en 1000 ZJ para los reactores reproductores rápidos que realizan el reprocesado.

Ni los recursos ni la tecnología limitan la capacidad de la energía nuclear de contribuir a satisfacer la demanda energética durante el siglo XXI. Aun así, las implicaciones políticas y medioambientales acerca de la seguridad nuclear y de los residuos radioactivos comenzaron a limitar el crecimiento de este suministro energético a finales del siglo pasado, en especial debido a ciertos accidentes nucleares. Las preocupaciones acerca de la proliferación nuclear (especialmente al respecto del Plutonio producido por los reactores reproductores) apuntan a que el desarrollo de la energía nuclear por países taes como Irán o Siria está siendo activamente desalentado por la comunidad internacional.

La fusión nuclear es el proceso que alimenta al Sol y a otras estrellas. Genera grandes cantidades de calor a base de fusionar los núcleos de isótopos de Hidrógeno. El calor puede ser teóricamente empleado para la generación de electricidad. Las temperaturas y presiones necesarias para albergar la fusión la convierten en un proceso muy difícil de controlar y por lo tanto en un reto tecnológico sin resolver. El tentador potencial de la fusión lo representa su capacidad teórica para suministrar grandes cantidades de energía, con una relaivamente pequeña contaminación asociada. Tanto los Estados Unidos de América como la Unión Europea apoyan la investigación (como por ejemplo inviertiendo en el ITER), además de otros países. Según un informe, la limitada investigación ha retrasado el progreso en la investigación sobre la fusión durante los últimos 20 años, con lo que se está a 50 años de distancia de una disponibilidad comercial.

Los recursos renovables están disponibles a lo largo del tiempo, a diferencia de los recursos no renovables. Una sencilla comparación puede ser la de una mina de carbón y un bosque. Mientras que el bosque puede ser agotado, si se lo maneja adecuadamente representa un suministro contínuo de energía, frente a la mina de carbón que una vez agotada se acabó. La mayoría de los recursos energéticos disponibles en la Tierra son recursos renovables.

Las fuentes energéticas renovables son aún mayores que los tradicionales combustibles fósiles y en teoría pueden fácilmente suministrar la energía que el mundo necesita. 89 PW de energía solar llegan a la superficie del planeta. Aunque no es posible atraparla toda, ni tan siquiera la mayor parte, aún capturando menos del 0,02% de esta energía sería suficiente para colmar las necesidades energéticas actuales. Los obstáculos al desarrollo de la producción solar incluyen el alto precio del silicio empleado para fabricar las células fotovoltáicas, la dependencia de los patrones meteorológicos y la falta de espacio para paneles solares en áreas de gran demanda como las ciudades. Además, la generación solar no produce electricidad durante la noche, lo cual es un problema destacado para los países ubicados en latitudes altas boreales y septentrionales; la demanda energética es más elevada en invierno, mientras la disponibilidad de energía solar en más baja. Globalmente, la generación solar es la fuente de energía de más rápido crecimiento, mostrando un crecimiento promedio anual del 35% durante los últimos años. Japón, Europa, China, los Estados Unidos de América e India son los países inversores de mayor crecimiento de la energía solar. Los avances en la tecnología y las economías de escala, así como la demanda de soluciones al calentamiento global, han llevado a la energía fotovoltaica a convertirse en el mejor candidato para remplazar a la energía nuclear y a los combustibles fósiles.

La energía eólica disponible se estima en un rango de entre 300 TW hasta 870 TW. Atendiendo a la estimación más baja, con tan sólo el 5% de la energía eólica disponible se podrían abastecer las necesidades energéticas mundiales actuales. La mayor parte de esta energía eólica está disponible sobre océano abierto. El océano cubre el 71% del planeta y el viento tiende a soplar con mayor intensidad sobre aguas abiertas porque encuentra menos obstáculos.

A finales de 2005 se producían 0,3 GW de electricidad por energía mareomotriz. Debido a las fuerzas gravitatorias creadas por la Luna (68%) y el Sol (32%), y a la rotación relativa de la Tierra con respecto al Sol y a la Luna, se producen las variaciones de las mareas. Éstas dan lugar a una disipación de una tasa promedio de alrededor de 3,7 TW. Como resultado, la velocidad de rotación de la tierra decrece, y la distancia de la Luna a la Tierra se incrementa, a escalas de tiempo geológicas. En varios miles de millones de años, la Tierra rotará a la misma velocidad a la que la Luna gire alrededor de ella. Debido a ello, pueden producirse muchos TW de energía mareomotriz sin afectar signicativamente a la mecánica celeste.

Otra limitación física es la energía disponible en las fluctuaciones mareales de los océanos, que se sitúa en unos 0,6 EJ (exajulios). Nótese que esto representa tan sólo una pequeña fracción del total de la energia rotacional de la Tierra. Sin forzamiento, esta energía se disiparía (a una tasa de disipación de 3,7 TW) en alrededor de cuatro periodos de marea semidiurnos. De esta manera, la disipación juega un papel significativo en la dinámica mareal de los océanos. Por ello, esto limita la energía mareomotriz disponible a alrededor de 0,8 TW (20% de tasa de disipación) en orden a no alterar demasiado la dinámica mareal.

Las olas derivan del viento, que es a su vez generado por la energía solar, y en esta conversión hay una caída de alrededor de dos órdenes de magnitud en la energía disponible. El flujo de energía de las olas que llegan a nuestras costas asciende a 3 TW.

Las estimaciones de los recursos mundiales de energía geotérmica varían considerablemente. Según un estudio de 1999, se pensaba que podrían ascender a entre 65 y 138 GW de capacidad de generación eléctrica 'usando tecnologías mejoradas'.

Un informe de 2006 realizado por el MIT que tuvo en cuenta el uso de Sistemas Geotérmicos Mejorados (EGS) concluyó que sería asequible generar 100 GWe (gigavatios de electricidad) o más para 2050, tan sólo en los Estados Unidos de América, con una inversión máxima de mil millones de dólares estadounidenses en investigación y desarrollo a lo largo de 15 años.

El informe del MIT calculó unos recursos mundiales totales de EGS de alrededor de 13 YJ, de lo cuales cerca de 200 ZJ serían extraibles, con un potencial incremento de esta proporción de unos 2 YJ a base de mejoras tecnológicas - suficiente como para satisfacer las necesidades energéticas mundiales durante bastantes milenios.

La producción de biomasa y de biocombustibles son industrias crecientes a medida que crece el interés por fuentes de combustibles sostenibles. La utilización de productos de deshecho evita el dilema entre alimentos o combustibles, mientras que la combustión del gas metano reduce las emisiones de gases de efecto invernadero, ya que aunque libere dióxido de carbono, éste tiene una capacidad de efecto invernadero 23 veces menor que el metano. Los biocombustibles representan una sustitución parcial sostenible para los combustibles fósiles, aunque su impacto neto sobre las emisiones de gases de efecto invernadero dependen de las prácticas agrícolas utilizadas para cultivar el material vegetal empleado para generar los combustibles. Aunque existe una creencia extendida de que los biocombustibles pueden ser neutros en cuanto a las emisiones de carbono, exusten evidencias de que los biocombustibles producidos por los métodos de cultivo actuales son en términos netos emisores de carbono. Las energías geotérmicas y de biomasa son solo dos fuentes de energías renovables que requieren una gestión cuidadosa para evitar el agotamiento a nivel local.

En 2005 la energía hidroeléctrica suministro el 16,4% de la electricidad mundial. Aún siguen diseñandose grandes presas. Sin embargo, la energía hidroeléctrica no es probablemente una de las mejores opciones para el futuro de la producción energética en los países desarrollados dado que los mejores lugares para ello en estos países ya están siendo explotados o son incompatibles por otras razones, entre ellas por motivos medioambientales.

Dinamarca y Alemania han comenzado a invertir en energía solar, pese a sus localizaciones geográficas desfavorables. Alemania es en la actualidad el mayor consumidor de células fotovoltáicas del mundo. Dinamarca y Alemania han instalado 3 GW y17 GW de captación eólica respectivamente. En 2005, el viento generó el 18,5% de la toda la electricidad en Dinamarca. Brasil invierte en la producción de etanol a partir de azucar de caña, y este ha pasado a ser una parte significativa del combustible para transporte empleado en el país. A partir de 1965, Francia realizó grandes inversiones en la energía nuclear y hasta la fecha las tres cuartas partes de su electricidad provienen de reactores nucleares. Suiza planea recortar su consumo energético a menos de la mitad para llegar a ser una "Sociedad de 2000 vatios" para 2050 y el Reino Unido trabaja en conseguir unas especificaciones para la construcción de viviendas nuevas según el principio de "Edificio energía cero" cada al 2020.

Debería tenerse en cuenta que cuando la Revolución Verde transformó la agricultura a lo largo de todo el planeta, entre 1950 y 1984, la producción de grano se incrementó en un 250%. La energía para esta Revolución Verde fue suministrada por los combustibles fósiles en forma de fertilizantes (gas natural), pesticidas (petróleo), e irrigación energéticamente forzada. El pico de producción mundial de hidrocarburos (Teoría del pico de Hubbert) puede poner a prueba las críticas de Malthus.

Al principio



Energías renovables en Alemania

Parque Eólico en Mecklemburgo-Pomerania Occidental

Las energías renovables en Alemania representaban en 2005 más del 8% del suministro eléctrico en del país. Los planes del Gobierno federal son que en 2010 supongan un 13% y lleguen al 20% en 2020. La importancia económica de esta industria ha aumentado notablemente. En 2004 había 130.000 personas empleadas en el sector de las energías renovables en el país, especialmente en empresas pequeñas y de mediano tamaño.

El sector de las energías renovables se vio beneficiado por la entrada de Los Verdes en el Gobierno federal entre 1998 y 2005, especialmente por la ley que obliga a las empresas a comprar prioritariamente electricidad generada por fuentes renovables. Quienes producen energía en su propia casa, tienen la garantía por parte del Estado de que pueden vender su “producto” a precios fijos durante 20 años. Ello ha creado un gran auge en la producción de energía limpia.

Para el periodo 2005-2010 el Gobierno Federal ha destinado cerca de 800 millones de euros a la investigación científica en el país. Dicha investigación va a estar enmarcada en políticas de desarrollo duradero.

Adicionalmente en 2001 se aprobó la ley que prevé que todas las centrales nucleares se cierren tras un periodo de 32 años. La idea es que en 2020 no se utilice la energía nuclear en ninguna parte del país.

La política energética alemana se enmarca dentro de la de la Unión Europea, así en el Consejo Europeo de marzo de 2007 en Bruselas aprobó un plan energético obligatorio que incluye un recorte del 20% de sus emisiones de dióxido de carbono antes del año 2020 y consumir más energías renovables para que representen el 20% del consumo total de la UE (contra el 7% en 2006). El acuerdo reconoció indirectamente el papel de la energía nuclear - que no es renovable - en la reducción de la emisión de gas de efecto invernadero, correspondiendo a cada Estado miembro decidir si recurrirá o no a esta tecnología.

Por otra parte se estableció el compromiso de lograr una cuota mínima de un 10% de biocombustibles en el consumo total de gasolina y gasóleo de transporte en 2020.

Alemania es el país líder del mundo en energía eólica (con 20.622 MW instalados a 01/01/07). Un tercio de la energía eólica del mundo se está generando en este país, que en 2005 inicio la construcción de su primera planta eólica marina alemana en el Mar del Norte en la Isla Borkum.

El crecimiento medio anual del mercado europeo de la energía eólica es de un 35%. Además Europa aporta el 75% de la energía eólica mundial, con Alemania y España como países líderes. El mercado eólico ha ayudado a generar en la Unión Europea (UE) más de 50.000 puestos de trabajo.

Según Greenpeace, la energía eólica marina podría abastecer a todos los hogares europeos en 2020. La instalación de 50.000 turbinas eólicas en los mares europeos podrían generar suficiente energía para satisfacer las necesidades de 150 millones de hogares europeos. Además, el desarrollo de todo este potencial permitiría crear tres millones de empleos en toda Europa.

Alemania iguala en energía eólica a toda la energía eléctrica convencional generada en Argentina. En el Estado federado más septentrional, Schleswig-Holstein, ubicado entre el Mar del Norte y el Báltico, la energía eólica cubre aproximadamente una cuarta parte del consumo neto de electricidad; a escala nacional, esta marca es del 3,5 por ciento.

En el 2002 la industria eólica logró un superávit del 22%. Empresas como Nordex, Plambeck o Energiekontor cotizan en bolsa, donde han logrado recaudar millones de euros para su expansión. La empresa más importante del sector es Enercon.

Las turbinas alemanas modernas son 30 veces más potentes que las de hace 20 años. En los parques eólicos se registra una ola rejuvenecedora a la que se ha bautizado como repowering.

Los terrenos para fundar nuevos parques eólicos se van acabando, por lo que en vez de crear nuevos lo que se está haciendo es modernizarlos. El subproducto de este proceso es un creciente número de molinos desplazados. Muchos tienen menos de 10 años de uso y funcionan perfectamente. A pesar de ello buena parte es desmontada.

La mayor parte de la maquinaria desmontada se vende a países de Europa del Este que aprovechan estas instalaciones para iniciarse en el campo de la generación de energía eólica. También se registran las primeras muestras de interés por parte de países del sudeste Asiático como Vietnam, China y Sri Lanka.

Alemania negocia con la India una cooperación bilateral en el área de las energías eólicas. Enercon India (filial del líder alemán en la energía eólica), alcanzó en 2004 una participación de 25 % en el mercado de las instalaciones de energía eólica en la India.

En 2004, las exportaciones alemanas de plantas eólicas fueron por primera vez mayores que las ventas en el mercado interno. Según pronósticos del Instituto Alemán de la Energía Eólica, la generación global de energía eólica se duplicará de ahora al 2012 y las inversiones en este sector alcanzarán los 130.000 millones de euros.

Alemania es desde 2004 el primer productor mundial de energía solar fotovoltaica (363 MW), superando a Japón (280 MW), con cerca de 10 millones de metros cuadrados de colectores de sol, que representa menos del 1% de su producción energética total. Las ventas de paneles fotovoltaicos han crecido en el mundo al ritmo anual del 20% en la década de los noventa. En la UE el crecimiento medio anual es del 30%, y Alemania tiene más del 80% de la potencia instalada.

La mayor central de energía solar del mundo se inauguró en julio de 2005 en Franconia, Baviera. El complejo se llama Bavaria Solarpark y sus paneles solares cubren una superficie de 250.000 m². La empresa Siemens lideró este proyecto que genera energía para un total de 3.500 hogares tras una inversión superior a los 70 millones de euros provenientes del sector privado.

La segunda central más grande del mundo también está en Alemania, cerca de Leipzig. Con 33.500 paneles solares modulares monocristalinos y una capacidad de producción de 5 megavatios, la central será suficiente para abastecer a 1.800 hogares. La inversión ascendió a 20 millones de euros, según Shell Solar y Geosol, las firmas constructoras.

Por su parte la Estación Central de Berlín que se inauguró en 2006 cubrirá más del 50 % de sus necesidades energéticas gracias a paneles fotovoltaicos instalados en su cubierta.

El mayor fabricante europeo de productos fotovoltaicos es la compañía alemana RWE SCHOTT Solar con sede en Alzenau (Baviera). Esta compañía posee la planta de producción fotovoltaica más moderna y completamente integrada del mundo. En 2003, la compañía generó unas ventas netas de 123 millones de euros y tiene más de 800 empleados.

Además Friburgo es la sede de ISES (Sociedad Internacional de Energía Solar) y cuenta con la mayor cantidad de paneles instalados del continente. Poblaciones cercanas como Schönau im Schwarzwald poseen una densidad aun mayor de instalaciones solares.

No obstante, el modelo alemán se caracteriza por la fuerte presencia de pequeñas instalaciones -con imortantes ventajas derivadas fundamentalmente de las menores pérdidas debidas al transporte- y los mayores proyectos de plantas solares en construcción se encuentran en España, Portugal, Australia y Estados Unidos. La causa de este modelo, hacia el que derivará previsiblemente también España, está en la legislación alemana, que ofrece mayores primas a las pequeñas instalaciones.

El Ministerio alemán de Protección del Consumidor, Alimentación y Agricultura (BMVEL) conjuntamente con el Instituto Worldwatch iniciaron un proyecto para investigar el potencial global de la utilización a gran escala de biocombustibles para el transporte motorizado.

En el proyecto participan también la Agencia alemana de Cooperación Técnica GTZ y la Agencia de Recursos Renovables. El proyecto que finalizará en julio de 2006 busca a través de una guía crear las bases para los responsables políticos sobre como minimizar los costos y maximizar los beneficios del desarrollo de esta fuente de energía como un primer paso para aprovechar la energía solar, eólica y biológica.

Alemania prevé que en el mediano plazo se pueda cubrir una cuarta parte de su demanda de combustibles con productos como los desechos biológicos, la paja o el álamo.

En la actualidad Brasil es el líder mundial en la implementación de esta clase de combustibles, contando con un 40% del parque automotor equipado con motores a base de alcohol de caña de azúcar. Esta medida tendente a disminuir las emisiones de CO2 se ve complementada con automóviles propulsados con gas que a pesar de las ventajas tributarias de esta clase de coche, -el impuesto al gas es menor que el de la gasolina- sigue siendo relativamente costoso. Se estima que para el 2007 sean cerca de 1.000 las estaciones distribuidoras de gas vehicular en toda Alemania.

En esta misma línea el consorcio DaimlerChrysler entregó en agosto de 2004 al ex canciller federal, Gerhard Schröder, un Necar 5 que funciona con hidrógeno. Sin embargo las nuevas tecnologías basadas en el uso de hidrógeno apenas estarán suficientemente desarrolladas hacia el año 2010.

Umweltbank es un banco especializado en proyectos ecológicos. Con sede en Núremberg, el banco logró en 2004 un superávit de cerca del 40 por ciento gracias a un crecimiento del 10 por ciento en su cartera de clientes. La entidad invierte exclusivamente en proyectos ecológicos, como la construcción de hogares ecológicos, proyectos de energía solar y eólica.

Un ejemplo de la cooperación con otros países es Ökocity, un proyecto germano-japonesa que planifica el establecimiento de una urbanización de construcción ecológica en la metrópoli industrial Kitakyushu. En 2006 se iniciaron la construcción de una urbanización con 30 a 50 casas. El proyecto se complementa mediante un intercambio científico con estancias de investigación de expertos alemanes y japoneses en ambos países. Por parte de Alemania esta la participan el Centro Ecológico de Renania del Norte-Westfalia y como coordinador del proyecto la empresa alemana ECOS Japan Consult.

Al principio



Historia de la electricidad

Un fragmento de ámbar como el que pudo utilizar Tales de Mileto en su experimentación del efecto triboeléctrico. El nombre en griego de este material (ελεκτρον, elektron) se utilizó para nombrar al fenómeno y la ciencia que lo estudia, a partir del libro De Magnete, Magneticisque Corporibus, et de Magno Magnete Tellure, de William Gilbert (1600).

La historia de la electricidad se refiere al estudio y uso humano de la electricidad, al descubrimiento de sus leyes como fenómeno físico y a la invención de artefactos para su uso práctico.

El fenómeno en sí, fuera de su relación con el observador humano, no tiene historia; y si se la considerase como parte de la historia natural, tendría tanta como el tiempo, el espacio, la materia y la energía. Como también se denomina electricidad a la rama de la ciencia que estudia el fenómeno y a la rama de la tecnología que lo aplica, la historia de la electricidad es la rama de la historia de la ciencia y de la historia de la tecnología que se ocupa de su surgimiento y evolución.

Uno de sus hitos iniciales puede situarse hacia el año 600 a. C., cuando el filósofo griego Tales de Mileto observó que frotando una varilla de ámbar con una piel o con lana, se obtenían pequeñas cargas (efecto triboeléctrico) que atraían pequeños objetos, y frotando mucho tiempo podía causar la aparición de una chispa. Cerca de la antigua ciudad griega de Magnesia se encontraban las denominadas piedras de Magnesia, que incluían magnetita. Los antiguos griegos observaron que los trozos de este material se atraían entre sí, y también a pequeños objetos de hierro. Las palabras magneto (equivalente en español a imán) y magnetismo derivan de ese topónimo.

La electricidad evolucionó históricamente desde la simple percepción del fenómeno, a su tratamiento científico, que no se haría sistemático hasta el siglo XVIII. Se registraron a lo largo de la Edad Antigua y Media otras observaciones aisladas y simples especulaciones, así como intuiciones médicas (uso de peces eléctricos en enfermedades como la gota y el dolor de cabeza) referidas por autores como Plinio el Viejo y Escribonio Largo, u objetos arqueológicos de interpretación discutible, como la Batería de Bagdad, un objeto encontrado en Iraq en 1938, fechado alrededor de 250 a. C., que se asemeja a una celda electroquímica. No se han encontrado documentos que evidencien su utilización, aunque hay otras descripciones anacrónicas de dispositivos eléctricos en muros egipcios y escritos antiguos.

Esas especulaciones y registros fragmentarios son el tratamiento casi exclusivo (con la notable excepción del uso del magnetismo para la brújula) que hay desde la Antigüedad hasta la Revolución científica del siglo XVII; aunque todavía entonces pasa a ser poco más que un espectáculo para exhibir en los salones. Las primeras aportaciones que pueden entenderse como aproximaciones sucesivas al fenómeno eléctrico fueron realizadas por investigadores sistemáticos como William Gilbert, Otto von Guericke, Du Fay, Pieter van Musschenbroek (botella de Leyden) o William Watson. Las observaciones sometidas a método científico empiezan a dar sus frutos con Luigi Galvani, Alessandro Volta, Charles-Augustin de Coulomb o Benjamin Franklin, proseguidas a comienzos del siglo XIX por André-Marie Ampère, Michael Faraday o Georg Ohm. Los nombres de estos pioneros terminaron bautizando las unidades hoy utilizadas en la medida de las distintas magnitudes del fenómeno. La comprensión final de la electricidad se logró recién con su unificación con el magnetismo en un único fenómeno electromagnético descrito por las ecuaciones de Maxwell (1861-1865).

El telégrafo eléctrico (Samuel Morse, 1833, precedido por Gauss y Weber, 1822) puede considerarse como la primera gran aplicación en el campo de las telecomunicaciones, pero no será en la primera revolución industrial, sino a partir del cuarto final del siglo XIX cuando las aplicaciones económicas de la electricidad la convertirán en una de las fuerzas motrices de la segunda revolución industrial. Más que de grandes teóricos como Lord Kelvin, fue el momento de ingenieros, como Zénobe Gramme, Nikola Tesla, Frank Sprague, George Westinghouse, Ernst Werner von Siemens, Alexander Graham Bell y sobre todo Thomas Alva Edison y su revolucionaria manera de entender la relación entre investigación científico-técnica y mercado capitalista. Los sucesivos cambios de paradigma de la primera mitad del siglo XX (relativista y cuántico) estudiarán la función de la electricidad en una nueva dimensión: atómica y subatómica.

La electrificación no sólo fue un proceso técnico, sino un verdadero cambio social de implicaciones extraordinarias, comenzando por el alumbrado y siguiendo por todo tipo de procesos industriales (motor eléctrico, metalurgia, refrigeración...) y de comunicaciones (telefonía, radio). Lenin, durante la Revolución bolchevique, definió el socialismo como la suma de la electrificación y el poder de los soviets, pero fue sobre todo la sociedad de consumo que nació en los países capitalistas, la que dependió en mayor medida de la utilización doméstica de la electricidad en los electrodomésticos, y fue en estos países donde la retroalimentación entre ciencia, tecnología y sociedad desarrolló las complejas estructuras que permitieron los actuales sistemas de I+D e I+D+I, en que la iniciativa pública y privada se interpenetran, y las figuras individuales se difuminan en los equipos de investigación.

La energía eléctrica es esencial para la sociedad de la información de la tercera revolución industrial que se viene produciendo desde la segunda mitad del siglo XX (transistor, televisión, computación, robótica, internet...). Únicamente puede comparársele en importancia la motorización dependiente del petróleo (que también es ampliamente utilizado, como los demás combustibles fósiles, en la generación de electricidad). Ambos procesos exigieron cantidades cada vez mayores de energía, lo que está en el origen de la crisis energética y medioambiental y de la búsqueda de nuevas fuentes de energía, la mayoría con inmediata utilización eléctrica (energía nuclear y energías alternativas, dadas las limitaciones de la tradicional hidroelectricidad). Los problemas que tiene la electricidad para su almacenamiento y transporte a largas distancias, y para la autonomía de los aparatos móviles, son retos técnicos aún no resueltos de forma suficientemente eficaz.

El impacto cultural de lo que Marshall McLuhan denominó Edad de la Electricidad, que seguiría a la Edad de la Mecanización (por comparación a cómo la Edad de los Metales siguió a la Edad de Piedra), radica en la altísima velocidad de propagación de la radiación electromagnética (300.000 km/s) que hace que se perciba de forma casi instantánea. Este hecho conlleva posibilidades antes inimaginables, como la simultaneidad y la división de cada proceso en una secuencia. Se impuso un cambio cultural que provenía del enfoque en "segmentos especializados de atención" (la adopción de una perspectiva particular) y la idea de la "conciencia sensitiva instantánea de la totalidad", una atención al "campo total", un "sentido de la estructura total". Se hizo evidente y prevalente el sentido de "forma y función como una unidad", una "idea integral de la estructura y configuración". Estas nuevas concepciones mentales tuvieron gran impacto en todo tipo de ámbitos científicos, educativos e incluso artísticos (por ejemplo, el cubismo). En el ámbito de lo espacial y político, "la electricidad no centraliza, sino que descentraliza... mientras que el ferrocarril requiere un espacio político uniforme, el avión y la radio permiten la mayor discontinuidad y diversidad en la organización espacial".

La Revolución científica que se venía produciendo desde Copérnico en la astronomía y Galileo en la física no va a encontrar aplicaciones muy tempranas al campo de la electricidad, limitándose la actividad de los pocos autores que tratan sobre ella a la recopilación baconiana de datos experimentales, que por el momento no alcanzan a inducir modelos explicativos.

El científico inglés William Gilbert (1544-1603) publicó su libro De Magnete, en donde utiliza la palabra latina electricus, derivada del griego elektron, que significa ámbar, para describir los fenómenos descubiertos por los griegos. Previamente, el italiano Gerolamo Cardano había ya distinguido, quizá por primera vez, entre las fuerzas magnéticas y las eléctricas (De Subtilitate 1550). Gilbert estableció las diferencias entre ambos fenómenos a raíz de que la reina Elizabeth I le ordenara estudiar los imanes para mejorar la exactitud de las brújulas usadas en la navegación, consiguiendo con este trabajo la base principal para la definición de los fundamentos de la electrostática y magnetismo. A través de sus experiencias clasificó los materiales en eléctricos (aislantes) y aneléctricos (conductores) e ideó el primer electroscopio. Descubrió la imantación por influencia, y observó que la imantación del hierro se pierde cuando se calienta al rojo. Estudió la inclinación de una aguja magnética concluyendo que la Tierra se comporta como un gran imán. El Gilbert es la unidad de medida de la fuerza magnetomotriz.

Las investigaciones de Gilbert fueron continuadas por el físico alemán Otto von Guericke (1602-1686). En las investigaciones que realizó sobre electrostática observó que se producía una repulsión entre cuerpos electrizados luego de haber sido atraídos. Ideó la primera máquina electrostática y sacó chispas de un globo hecho de azufre, lo cual le llevó a especular sobre la naturaleza eléctrica de los relámpagos. Fue la primera persona que estudió la luminiscencia.

La crisis de la conciencia europea renueva el panorama intelectual de finales del siglo XVII a principios del siglo XVIII y abre las puertas al llamado Siglo de las luces o de la Ilustración. Instituciones científicas de nuevo cuño, como la Royal Academy inglesa, y el espíritu crítico que los enciclopedistas franceses extienden por todo el continente, conviven con el inicio de la Revolución industrial. No obstante, la retroalimentación entre ciencia, tecnología y sociedad, aún no se había producido. Aparte del pararrayos, ninguna de las innovaciones técnicas del siglo tuvo que ver con las investigaciones científicas sobre la electricidad, hecho que no es exclusivo de este campo: la mismísima máquina de vapor precedió en cien años a la definición de la termodinámica por Sadi Carnot.

El físico inglés Stephen Gray (1666-1736) estudió principalmente la conductividad eléctrica de los cuerpos y, después de muchos experimentos, fue el primero en 1729 en transmitir electricidad a través de un conductor. En sus experimentos descubrió que para que la electricidad, o los "efluvios" o "virtud eléctrica", como él la llamó, pudiera circular por el conductor, éste tenia que estar aislado de tierra. Posteriormente estudió otras formas de transmisión y, junto con los científicos G. Wheler y J. Godfrey, clasificó los materiales en conductores y aislantes de la electricidad. Inventó una lámpara eléctrica e ideó enchufes, interruptores y sistemas de instalaciones eléctricas.

El científico francés Charles François de Cisternay Du Fay (1698-1739) al enterarse de los trabajos de Stephen Gray, dedicó su vida al estudio de los fenómenos eléctricos. Du Fay, entre otros muchos experimentos, observó que una lámina de oro siempre era repelida por una barra de vidrio electrificada. Publicó sus trabajos en 1733 siendo el primero en identificar la existencia de dos tipos de cargas eléctricas (denominadas hoy en día positiva y negativa), que él denominó carga vítrea y carga resinosa, debido a que ambas se manifestaban de una forma al frotar, con un paño de seda, el vidrio (carga positiva) y de forma distinta al frotar, con una piel, algunas substancias resinosas como el ámbar o la goma (carga negativa).

El físico holandés Pieter van Musschenbroek (1692-1761), que trabajaba en la Universidad de Leiden, efectuó una experiencia para comprobar si una botella llena de agua podía conservar cargas eléctricas. Esta botella consistía en un recipiente con un tapón al cual se le atraviesa una varilla metálica sumergida en el líquido. La varilla tiene una forma de gancho en la parte superior al cual se le acerca un conductor cargado eléctricamente. Durante la experiencia un asistente separó el conductor y recibió una fuerte descarga al aproximar su mano a la varilla, debida a la electricidad estática que se había almacenado en la botella. De esta manera fue descubierta la botella de Leyden y la base de los actuales capacitores o condensadores eléctricos.

Sir William Watson (1715-1787), médico y físico inglés, estudió los fenómenos eléctricos. Realizó reformas en la botella de Leyden agregándole una cobertura de metal, descubriendo que de esta forma se incrementaba la descarga eléctrica. En 1747 demostró que una descarga de electricidad estática es una corriente eléctrica. Fue el primero en estudiar la propagación de corrientes en gases enrarecidos.

1752 El polifacético estadounidense Benjamin Franklin (1706-1790) investigó los fenómenos eléctricos naturales. Es particularmente famoso su experimento en el que, haciendo volar una cometa durante una tormenta, demostró que los rayos eran descargas eléctricas de tipo electrostático. Como consecuencia de estas experimentaciones inventó el pararrayos. También formuló una teoría según la cual la electricidad era un fluido único existente en toda materia y calificó a las substancias en eléctricamente positivas y eléctricamente negativas, de acuerdo con el exceso o defecto de ese fluido.

El físico e ingeniero francés Charles-Augustin de Coulomb (1736 - 1806) fue el primero en establecer las leyes cuantitativas de la electrostática, además de realizar muchas investigaciones sobre magnetismo, rozamiento y electricidad. Sus investigaciones científicas están recogidas en siete memorias, en las que expone teóricamente los fundamentos del magnetismo y de la electrostática. En 1777 inventó la balanza de torsión para medir la fuerza de atracción o repulsión que ejercen entre sí dos cargas eléctricas y estableció la función que liga esta fuerza con la distancia. Con este invento, culminado en 1785, Coulomb pudo establecer la expresión de la fuerza entre dos cargas eléctricas q y Q en función de la distancia d que las separa, actualmente conocida como Ley de Coulomb: F = k (q Q) / d2. Coulomb también estudió la electrización por frotamiento y la polarización e introdujo el concepto de momento magnético. El Coulomb (símbolo C), castellanizado a Culombio, es la unidad del SI para la medida de la cantidad de carga eléctrica.

El médico y físico italiano Luigi Galvani (1737-1798) se hizo famoso por sus investigaciones sobre los efectos de la electricidad en los músculos de los animales. Mientras disecaba una rana halló accidentalmente que sus patas se contraían al tocarlas con un objeto cargado de electricidad. Por ello se le considera el iniciador de los estudios del papel que desempeña la electricidad en el funcionamiento de los organismos animales. De sus discusiones con otro gran científico italiano de su época, Alessandro Volta, sobre la naturaleza de los fenómenos observados, surgió la construcción de la primera pila, o aparato para producir corriente eléctrica continua, llamado pila de Volta. El nombre de Luigi Galvani sigue hoy asociado con la electricidad a través de términos como galvanismo y galvanización. Sus estudios preludiaron una ciencia que surgiría mucho después: la neurofisiología, estudio del funcionamiento del sistema nervioso en la que se basa la neurología.

El físico italiano Alessandro Volta (1745-1827) inventa la pila, precursora de la batería eléctrica. Con un apilamiento de discos de cinc y cobre, separados por discos de cartón humedecidos con un electrólito, y unidos en sus extremos por un circuito exterior, Volta logró, por primera vez, producir corriente eléctrica continua a voluntad. Dedicó la mayor parte de su vida al estudio de los fenómenos eléctricos, inventó el electrómetro y el eudiómetro y escribió numerosos tratados científicos. Por su trabajo en el campo de la electricidad, Napoleón le nombró conde en 1801. La unidad de tensión eléctrica o fuerza electromotriz, el Volt (símbolo V), castellanizado como Voltio, recibió ese nombre en su honor.

El propósito de la ciencia optimista surgida de la Ilustración era la comprensión total de la realidad. En el ámbito de la electricidad la clave sería describir estas fuerzas a distancia como en las ecuaciones de la mecánica newtoniana. Pero la realidad era mucho más compleja como para dar fácil cumplimiento a este programa. La capacidad de desviar agujas imantadas, descubierta por Oersted (1820), y la inducción electromagnética descubierta por Faraday (1821), acabaron por interrelacionar la electricidad con el magnetismo y los movimientos mecánicos. La teoría completa del campo electromagnético tuvo que esperar a Maxwell, e incluso entonces (1864), al comprobarse que una de las constantes que aparecían en su teoría tenía el mismo valor que la velocidad de la luz, se apuntó la necesidad de englobar también la óptica en el electromagnetismo.

El romanticismo, con su gusto por lo tétrico y su desconfianza en la razón, añadió un lado oscuro a la consideración de la electricidad, que excitaba la imaginación de la forma más morbosa: ¿el dominio humano de tal fuerza de la naturaleza le pondría al nivel creador que hasta entonces sólo se imaginaba al alcance de seres divinos? Con cadáveres y electricidad Mary Wollstonecraft Shelley compuso la trama de Frankenstein o el moderno Prometeo (1818), novela precursora tanto del género de terror como de la ciencia ficción.

1807 Sir Humphry Davy (1778-1829). Químico británico. Se le considera el fundador de la electroquímica, junto con Volta y Faraday. Davy contribuyó a identificar experimentalmente por primera vez varios elementos químicos mediante la electrólisis y estudió la energía involucrada en el proceso. Entre 1806 y 1808 publica el resultado de sus investigaciones sobre la electrólisis, donde logra la separación del magnesio, bario, estroncio, calcio, sodio, potasio y boro. En 1807 fabrica una pila con más de 2.000 placas dobles con la que descubre el cloro y demuestra que se trata de un elemento químico, dándole ese nombre debido a su color amarillo verdoso. Junto a W.T. Brande consigue aislar al litio de sus sales mediante electrólisis del óxido de litio (1818). Fue jefe y mentor de Michael Faraday. Creó además una lámpara de seguridad para las minas que lleva su nombre (1815) y fue pionero en el control de la corrosión mediante la protección catódica. En 1805 le fue concedida la Medalla Copley.

El físico y químico danés Hans Christian Ørsted (1777-1851) fue un gran estudioso del electromagnetismo. En 1813 predijo la existencia de los fenómenos electromagnéticos y en 1819 logró demostrar su teoría empíricamente al descubrir, junto con Ampère, que una aguja imantada se desvía al ser colocada en dirección perpendicular a un conductor por el que circula una corriente eléctrica. Este descubrimiento fue crucial en el desarrollo de la electricidad, ya que puso en evidencia la relación existente entre la electricidad y el magnetismo. En homenaje a sus contribuciones se denominó Oersted (símbolo Oe) a la unidad de intensidad de campo magnético en el sistema Gauss. Se cree que también fue el primero en aislar el aluminio, por electrólisis, en 1825. En 1844 publicó su Manual de Física Mecánica.

El médico e investigador físico natural de Estonia, Thomas Johann Seebeck (1770-1831) descubrió el efecto termoeléctrico. En 1806 descubrió también los efectos de radiación visible e invisible sobre sustancias químicas como el cloruro de plata. En 1808, obtuvo la primera combinación química de amoníaco con óxido mercúrico. A principios de 1820, Seebeck realizó variados experimentos en la búsqueda de una relación entre la electricidad y calor. En 1821, soldando dos alambres de metales diferentes (cobre y bismuto) en un lazo, descubrió accidentalmente que al calentar uno a alta temperatura y mientras el otro se mantenía a baja temperatura, se producía un campo magnético. Seebeck no creyó, o no divulgó que una corriente eléctrica era generada cuando el calor se aplicaba a la soldadura de los dos metales. En cambio, utilizó el término termomagnetismo para referirse a su descubrimiento. Actualmente se lo conoce como efecto Peltier-Seebeck o efecto termoeléctrico y es la base del funcionamiento de los termopares.

El físico y matemático francés André-Marie Ampère (1775-1836) está considerado como uno de los descubridores del electromagnetismo. Es conocido por sus importantes aportaciones al estudio de la corriente eléctrica y el magnetismo que constituyeron, junto con los trabajos del danés Hans Chistian Oesterd, el desarrollo del electromagnetismo. Sus teorías e interpretaciones sobre la relación entre electricidad y magnetismo se publicaron en 1822, en su Colección de observaciones sobre electrodinámica y en 1826, en su Teoría de los fenómenos electrodinámicos. Ampère descubrió las leyes que determinan el desvío de una aguja magnética por una corriente eléctrica, lo que hizo posible el funcionamiento de los actuales aparatos de medida. Descubrió las acciones mutuas entre corrientes eléctricas, al demostrar que dos conductores paralelos por los que circula una corriente en el mismo sentido, se atraen, mientras que si los sentidos de la corriente son opuestos, se repelen. La unidad de intensidad de corriente eléctrica, el Ampère (símbolo A), castellanizada como Amperio, recibe este nombre en su honor.

El físico británico William Sturgeon (1783-1850) inventó en 1825 el primer electroimán. Era un trozo de hierro con forma de herradura envuelto por una bobina enrollada sobre él mismo. Sturgeon demostró su potencia levantando 4 kg con un trozo de hierro de 200 g envuelto en cables por los que hizo circular la corriente de una batería. Sturgeon podía regular su electroimán, lo que supuso el principio del uso de la energía eléctrica en máquinas útiles y controlables, estableciendo los cimientos para las comunicaciones electrónicas a gran escala. Este dispositivo condujo a la invención del telégrafo, el motor eléctrico y muchos otros dispositivos que fueron base de la tecnología moderna. En 1832 inventó el conmutador para motores eléctricos y en 1836 inventó el primer galvanómetro de bobina giratoria.

Georg Simon Ohm (1789-1854) fue un físico y matemático alemán que estudió la relación entre el voltaje V aplicado a una resistencia R y la intensidad de corriente I que circula por ella. En 1827 formuló la ley que lleva su nombre (la ley de Ohm), cuya expresión matemática es V = I · R. También se interesó por la acústica, la polarización de las pilas y las interferencias luminosas. En su honor se ha bautizado a la unidad de resistencia eléctrica con el nombre de Ohm (símbolo Ω), castellanizado a Ohmio.

El estadounidense Joseph Henry (1797-1878) fue un físico que investigó el electromagnetismo y sus aplicaciones en electroimanes y relés. Descubrió la inducción electromagnética, simultánea e independientemente de Faraday, cuando observó que un campo magnético variable puede inducir una fuerza electromotriz en un circuito cerrado. En su versión más simple, el experimento de Henry consiste en desplazar un segmento de conductor perpendicularmente a un campo magnético, lo que produce una diferencia de potencial entre sus extremos. Esta fuerza electromotriz inducida se explica por la fuerza de Lorentz que ejerce el campo magnético sobre los electrones libres del conductor. En su honor se denominó Henry (símbolo H) a la unidad de inductancia, castellanizada como Henrio.

En su honor se dio el nombre de Gauss (símbolo G) a la unidad de intensidad de campo magnético del Sistema Cegesimal de Unidades (CGS). Su relación con la correspondiente unidad del Sistema Internacional de Unidades (SI), el Tesla (símbolo T), es 1 G = 10-4 T.

El físico y químico inglés Michael Faraday (1791-1867), discípulo de Humphry Davy, es conocido principalmente por su descubrimiento de la inducción electromagnética, que ha permitido la construcción de generadores y motores eléctricos, y de las leyes de la electrólisis por lo que es considerado como el verdadero fundador del electromagnetismo y de la electroquímica. En 1831 trazó el campo magnético alrededor de un conductor por el que circula una corriente eléctrica, ya descubierto por Oersted, y ese mismo año descubrió la inducción electromagnética, demostró la inducción de una corriente eléctrica por otra, e introdujo el concepto de líneas de fuerza para representar los campos magnéticos. Durante este mismo periodo, investigó sobre la electrólisis y descubrió las dos leyes fundamentales que llevan su nombre: 1ª). La masa de sustancia liberada en una electrólisis es directamente proporcional a la cantidad de electricidad que ha pasado a través del electrólito ; 2ª) Las masas de distintas sustancia liberadas por la misma cantidad de electricidad son directamente proporcionales a sus pesos equivalentes. Con sus investigaciones se dio un paso fundamental en el desarrollo de la electricidad al establecer que el magnetismo produce electricidad a través del movimiento. En su honor se denominó Farad (símbolo F), castellanizado como Faradio, a la unidad de capacidad eléctrica del SI de unidades. El Faradio se define como la capacidad de un condensador tal que cuando su carga es un Culombio, adquiere una diferencia de potencial electrostático de un voltio.

El físico estonio Heinrich Friedrich Lenz (1804-1865) formuló en 1834 la ley de la oposición de las corrientes inducidas, conocida como Ley de Lenz, cuyo enunciado es el siguiente: El sentido de las corrientes, o fuerza electromotriz inducida, es tal que siempre se opone a la variación del flujo que la produce. También realizó investigaciones significativas sobre la conductividad de los cuerpos, en relación con su temperatura, descubriendo en 1843 la relación entre ambas; lo que luego fue ampliado y desarrollado por James Prescott Joule, por lo que pasaría a llamarse Ley de Joule.

El físico francés y relojero de profesión Jean Peltier (1785-1845) descubrió en 1834 que cuando circula una corriente eléctrica por un conductor formado por dos metales distintos, unidos por una soldadura, ésta se calienta o enfría según el sentido de la corriente (efecto Peltier). Dicho efecto ha revestido gran importancia en el desarrollo reciente de mecanismos de refrigeración no contaminantes. A Peltier se le debe también la introducción del concepto de inducción electrostática en 1840, referido a la modificación de la distribución de la carga eléctrica en un material, bajo la influencia de un segundo objeto próximo a él y que tenga una carga eléctrica.

El inventor estadounidense Samuel Finley Breese Morse (1791-1872) es principalmente conocido por la invención del telégrafo eléctrico y la invención del código Morse. Su interés por los asuntos de la electricidad se concretó durante el regreso de un viaje por Europa. Cuando estudiaba en Yale aprendió que si se interrumpía un circuito se veía un fulgor y se le ocurrió que esas interrupciones podían llegar a usarse como un medio de comunicación. Al desembarcar de aquel viaje en 1832, ya había diseñado un incipiente telégrafo y comenzaba a desarrollar la idea de un sistema telegráfico de alambres con un electromagneto incorporado. El 6 de enero de 1833, Morse realizó su primera demostración pública con su telégrafo mecánico óptico y efectuó con éxito las primeras pruebas en febrero de 1837 en un concurso convocado por el Congreso de los Estados Unidos. También inventó un alfabeto, que representa las letras y números por una serie de puntos y rayas, conocido actualmente como código Morse, para poder utilizar su telégrafo. En el año 1843, el Congreso de los Estados Unidos le asignó 30.000 dólares para que construyera la primera línea de telégrafo entre Washington y Baltimore, en colaboración con Joseph Henry. El 24 de mayo de 1844 Morse envió su famoso primer mensaje: «¿Que nos ha traído Dios?». Fue objeto de muchos honores y en sus últimos años se dedicó a experimentar con la telegrafía submarina por cable.

El ingeniero alemán, Ernst Werner von Siemens (1816-1892) construyó en 1847 un nuevo tipo de telégrafo, poniendo así la primera piedra en la construcción de la empresa Siemens AG junto a Johann Georg Halske. En 1841 desarrolló un proceso de galvanización, en 1846 un telégrafo de aguja y presión y un sistema de aislamiento de cables eléctricos mediante gutapercha, lo que permitió, en la práctica, la construcción y tendido de cables submarinos. Fue uno de los pioneros de las grandes líneas telegráficas transoceánicas, responsable de la línea Irlanda-EE.UU (comenzada en 1874 a bordo del buque Faraday) y Gran Bretaña-India (1870). Aunque probablemente no fue el inventor de la dínamo, la perfeccionó hasta hacerla confiable y la base de la generación de la corriente alterna en las primeras grandes usinas. Fue pionero en otras invenciones, como el telégrafo con puntero/teclado para hacer transparente al usuario el código Morse o la primera locomotora eléctrica, presentada por su empresa en 1879. Dentro de sus muchos inventos y descubrimientos eléctricos se destacan la dinamo y el uso de la gutapercha, sustancia plástica extraída del látex, usada como aislador eléctrico en el recubrimiento de cables conductores. En homenaje a sus contribuciones en el SI se denomina siemens (símbolo S) a la unidad de conductancia eléctrica (inversa de la resistencia), previamente llamada mho.

El físico e inventor inglés Charles Wheatstone (1802-1875) es especialmente conocido por ser el primero en aplicar el circuito eléctrico que lleva su nombre (puente de Wheatstone) para medir resistencias eléctricas. En realidad había sido diseñado previamente por Samuel Hunter Christie en 1832, con lo que el papel de Wheatstone fue la mejora y popularización, a partir de 1843. Se utiliza para medir resistencia resistencias desconocidas mediante el equilibrio de los brazos de un puente en H formado por cuatro resistencias, una de las cuales es la resistencia a medir. Wheatstone fue un autodidacta que llegó a convertirse en profesor de filosofía experimental de la Universidad de Londres, en 1834. En colaboración con el ingeniero William Fothergill Cooke, patentó en 1837 el primer telégrafo eléctrico británico, simultáneamente con el inventado por Morse. Charles Wheatstone inventó también un instrumento óptico para la fotografía en tres dimensiones (estereoscopio), un telégrafo automático y un péndulo electromagnético.

James Prescott Joule (1818-1889), físico inglés, es conocido por sus estudios sobre la energía y sus aplicaciones técnicas. Su principal contribución a la electricidad es la cuantificación de la generación de calor producido por una corriente eléctrica que atraviesa una resistencia, ley que lleva su nombre (Ley de Joule): Todo cuerpo conductor recorrido por una corriente eléctrica, desprende una cantidad de calor equivalente al trabajo realizado por el campo eléctrico para transportar las cargas de un extremo a otro del conductor durante ese tiempo, formulada como: Q = 0,24·R·I 2·t. También descubrió la equivalencia entre el trabajo mecánico y la cantidad de calor (cuya unidad histórica es la caloría). Junto con su compatriota, el físico William Thomson (conocido posteriormente como lord Kelvin), Joule descubrió que la temperatura de un gas desciende cuando se expande sin realizar trabajo. Este fenómeno, que se conoce como efecto Joule-Thomson, es el principio constructivo de los refrigeradores. Alrededor de 1841, junto con el científico alemán Hermann von Helmholtz, demostró que la electricidad es una forma de energía y que los circuitos eléctricos cumplen la ley de la conservación de la energía. El Joule (símbolo J), castellanizado a Julio, es la unidad del Sistema Internacional para la energía y el trabajo mecánico. Se define como el trabajo realizado por una fuerza de 1 Newton cuando se desplaza paralelamente a sí misma en un 1 metro.

Las principales contribuciones a la ciencia del físico alemán Gustav Robert Kirchhoff (1824-1887), estuvieron en el campo de los circuitos eléctricos, la teoría de placas, la óptica, la espectroscopía y la emisión de radiación de cuerpo negro. Kirchhoff propuso el nombre de radiación de cuerpo negro en 1862. Es responsable de dos conjuntos de leyes fundamentales en la teoría clásica de circuitos eléctricos y en la emisión térmica. Aunque ambas se denominan Leyes de Kirchhoff, probablemente esta denominación es más común en el caso de las Leyes de Kirchhoff de la ingeniería eléctrica. Estas leyes permiten calcular la distribución de corrientes y tensiones en las redes eléctricas con derivaciones y establecen lo siguiente: 1ª) La suma algebraica de las intensidades que concurren en un punto es igual a cero. 2ª) La suma algebraica de los productos parciales de intensidad por resistencia, en una malla, es igual a la suma algebraica de las fuerzas electromotrices en ella existentes, cuando la intensidad de corriente es constante. Junto con los químicos alemanes Robert Wilhelm Bunsen y Joseph von Fraunhofer, fue de los primeros en desarrollar las bases teóricas y experimentales de la espectroscopia, desarrollando el espectroscopio moderno para el análisis químico. En 1860 Kirchhoff y Bunsen descubrieron el cesio y el rubidio mediante la espectroscopia. Kirchhoff también estudio el espectro solar y realizó importantes investigaciones sobre la transferencia de calor.

El matemático inglés William Thomson (Lord Kelvin) (1824-1907), realizó muchos trabajos de investigación física, por ejemplo, el análisis teórico sobre transmisión por cable, que hizo posible el desarrollo del cable transatlántico. En 1851 definió la Segunda Ley de la Termodinámica. En 1858 inventó el cable flexible. Kelvin destacó por sus importantes trabajos en el campo de la termodinámica y la electrónica gracias a sus profundos conocimientos de análisis matemático. Es uno de los científicos que más hizo por llevar a la física a su forma moderna. Es especialmente famoso por haber desarrollado la escala de temperatura Kelvin. También descubrió en 1851 el llamado efecto Thomson, por el que logró demostrar que el efecto Seebeck y el efecto Peltier están relacionados. Así, un material sometido a un gradiente térmico y recorrido por una intensidad intercambia calor con el medio exterior. Recíprocamente, una corriente eléctrica es generada por el material sometido a un gradiente térmico y recorrido por un flujo de calor. La diferencia fundamental entre los efectos Seebeck y Peltier con respecto al efecto Thomson es que éste último existe para un solo material y no necesita la existencia de una soldadura. Recibió el título de barón Kelvin en honor a los logros alcanzados a lo largo de su carrera. El Kelvin es la unidad de medida de temperatura absoluta.

El físico alemán Heinrich Daniel Ruhmkorff o Rühmkorff (1803-1877) se dedicó principalmente a la construcción de aparatos e instrumentos eléctricos de gran calidad y precisión. Ideó en 1851 la bobina de inducción o bobina de Ruhmkorff, popular instrumento del siglo XIX. De invención anterior a la de los transformadores de corriente alterna, es un verdadero transformador polimorfo y elevador en el que se obtiene, a partir de una corriente primaria continua y de poca fuerza electromotriz suministrada por una pila o batería, otra de alta tensión y alterna. Las elevadas diferentes de potencial producidas podían ser aplicadas sobre los extremos de un tubo de Crookes para provocar la emisión de unos rayos que, por su carácter desconocido, fueron denominados rayos X y que empezaron a ser empleados para realizar fotografías a través de los cuerpos opacos. Estas bobinas fueron las precursoras de las que se instalan en los automóviles para elevar la tensión en la bujía de los motores de gasolina para realizar el encendido de la mezcla de combustible.

El físico francés Léon Foucault (1819-1868) inventó el giroscopio, demostró la rotación de la tierra mediante un péndulo que creó al efecto y midió la velocidad de la luz mediante espejos giratorios. En el campo de la electricidad, se dedicó al estudio del electromagnetismo y descubrió las corrientes que llevan su nombre. En septiembre de 1855 descubrió que la fuerza requerida para la rotación de un disco de cobre aumenta cuando se lo hace rotar entre los polos de un imán. Al mismo tiempo el disco comienza a calentarse por las corrientes (llamadas "de Foucault") inducidas en el metal.

El científico belga Zénobe-Théophile Gramme (1826-1901) construyó la primera máquina de corriente continua denominada dinamo que fue un punto de partida de la nueva industria eléctrica. Una dinamo es una máquina destinada a la transformación de energía mecánica en eléctrica mediante el fenómeno de la inducción electromagnética. La corriente generada es producida cuando el campo magnético creado por un imán o un electroimán fijo (inductor) atraviesa una bobina rotatoria (inducido) colocada en su seno. La corriente inducida en esta bobina giratoria, en principio alterna es transformada en continua mediante la acción de un conmutador giratorio, solidario con el inducido, denominado colector, constituido por unos electrodos denominados delgas. De aquí es conducida al exterior mediante otros contactos fijos llamados escobillas que hacen contacto por frotamiento con las delgas del colector. La dinamo fue el primer generador eléctrico apto para uso industrial. Zénobe Gramme perfeccionó los inventos de dinamos que existían y reinventó el diseño al proyectar los primeros generadores comerciales a gran escala, que operaban en París en torno a 1870. Su diseño se conoce como la dinamo de Gramme.

El catedrático de física y química alemán Johann Wilhelm Hittorf (1824-1914) contribuyó poderosamente al desarrollo de la electroquímica con innumerables inventos. Por uno de sus trabajos (tubo de Hittorf, 1872) es considerado precursor del tubo de Crookes con el que William Crookes dedujo la existencia de los rayos catódicos (1878). Estudió también las variaciones del espectro al variar la atmósfera. Determinó la íntima dependencia entre la conductividad eléctrica y la acción química y la división de las sales complejas por la vía de la corriente. Estudió la alotropía del selenio y del fósforo, describió el comportamiento electroquímico del cromo y registró la velocidad de emigración de los iones sometidos a la acción de la corriente eléctrica. Es autor de Über die Wanderung der Ionen während der Elektrolyse.

El físico y matemático escocés James Clerk Maxwell (1831-1879) es conocido principalmente por haber desarrollado un conjunto de ecuaciones que expresan las leyes fundamentales de la electricidad y el magnetismo así como por la estadística de Maxwell-Boltzmann en la teoría cinética de gases. También se dedicó a la investigación de la visión de los colores y los principios de la termodinámica y formuló, teóricamente, que los anillos de Saturno estaban formados por materia disgregada. Maxwell amplió las investigaciones que Michael Faraday había realizado sobre los campos electromagnéticos, formulando la relación matemática entre los campos eléctricos y magnéticos por medio de cuatro ecuaciones diferenciales (llamadas hoy "las ecuaciones de Maxwell") que relacionan el campo eléctrico y el magnético para una distribución espacial de cargas y corrientes. También demostró que la naturaleza de los fenómenos luminosos y electromagnéticos era la misma y que ambos se propagan a la velocidad de la luz. Su obra más importante es el Treatise on Electricity and Magnetism (Tratado de electricidad y magnetismo, 1873), en el que publicó sus famosas ecuaciones. También escribió: Matter and motion (Materia y movimiento, 1876) y Theory of Heat (Teoría del calor, 1877). La teoría de Maxwell obtuvo su comprobación definitiva cuando Heinrich Rudolf Hertz obtuvo en 1888 las ondas electromagnéticas de radio. Sus investigaciones posibilitaron la invención del telégrafo sin cables y la radio. La unidad de flujo magnético en el sistema cegesimal, el maxwell, recibe este nombre en su honor.

Los años centrales del siglo XIX habían presenciado extraordinarios avances en la aplicación de la electricidad a las comunicaciones y en 1881 se organizó en París una Exposición Internacional de Electricidad y un Congrès international des électriciens (Congreso internacional de electricistas). Aunque para todo ello el conocimiento científico de la electricidad y el magnetismo había sido imprescindible, los técnicos o inventores adquirieron un sentimiento de superioridad, e incluso de reticencia hacia los científicos puros. Incluso la teoría de Maxwell era ignorada por la mayoría de los ingenieros eléctricos, que en su práctica tecnológica no la necesitaban. Esto no pudo mantenerse a partir de la demostración experimental de la radiación electromagnética (Heinrich Hertz, 1888), y en la década de los noventa las nuevas generaciones de ingenieros incorporaron con mayor confianza las aportaciones teóricas y estuvieron mejor preparados para las nuevas tecnologías eléctricas que aplicaban los efectos del campo electromagnético, como la corriente alterna.

Dos invenciones que aplicaban el motor eléctrico a la tracción de vehículos revolucionaron particularmente la vida urbana, permitiendo una movilidad en el espacio que se convirtió en movilidad social: el ascensor eléctrico y el tranvía eléctrico (ambas con participación de Frank J. Sprague). Hasta entonces era habitual que pobres y ricos compartieran la misma casa en los ensanches burgueses (unos en la planta principal y otros en las buhardillas), con alturas que no solían superar las cinco o seis plantas. El urbanismo del siglo XX permitió el crecimiento de megaciudades, con nítidas diferencias entre barrios de ricos y pobres, y con desplazamientos horizontales kilométricos y de decenas de plantas en vertical (los rascacielos). El Metro de Londres, que funcionaba con locomotoras de vapor desde 1863, aplicó la tracción eléctrica para permitir líneas a más profundidad sin tantos requisitos de ventilación (llamadas deep-level) desde 1890, y el sistema se difundió por otras ciudades europeas y americanas (Budapest y Glasgow, 1886; Boston, 1897; subte de Buenos Aires, 1913; metro de Madrid, 1919). La electrificación de los ferrocarriles fue posterior (véase sección Electrificación de los ferrocarriles).

El escocés-estadounidense Alexander Graham Bell, científico, inventor y logopeda (1847-1922), se disputó con otros investigadores la invención del teléfono y consiguió la patente oficial en los Estados Unidos en 1876. Previamente habían sido desarrollados dispositivos similares por otros investigadores, entre quienes destacó Antonio Meucci (1871), que entabló pleitos fallidos con Bell hasta su muerte, y a quien suele reconocerse actualmente la prelación en el invento.

Bell contribuyó de un modo decisivo al desarrollo de las telecomunicaciones a través de su empresa comercial (Bell Telephone Company, 1877, posteriormente AT&T). También fundó en la ciudad de Washington el Laboratorio Volta, donde, junto con sus socios, inventó un aparato que transmitía sonidos mediante rayos de luz (el fotófono, 1880); y desarrolló el primer cilindro de cera para grabar (1886), lo que sentó las bases del gramófono. Participó en la fundación de la National Geographic Society y de la revista Science.

El inventor norteamericano Thomas Alva Edison (1847-1931) ha sido considerado como el mayor inventor de todos los tiempos. Aunque se le atribuye la invención de la lámpara incandescente, su intervención es más bien el perfeccionamiento de modelos anteriores (Heinrich Göbel, relojero alemán, había fabricado lámparas funcionales tres décadas antes). Edison logró, tras muchos intentos, un filamento que alcanzaba la incandescencia sin fundirse: no era de metal, sino de bambú carbonizado. El 21 de octubre de 1879 consiguió que su primera bombilla luciera durante 48 horas ininterrumpidas, con 1,7 lúmenes por vatio. La primera lámpara incandescente con un filamento de algodón carbonizado construida por Edison fue presentada, con mucho éxito, en la Primera Exposición de Electricidad de Paris (1881) como una instalación completa de iluminación eléctrica de corriente continua; sistema que inmediatamente fue adoptado tanto en Europa como en Estados Unidos. En 1882 desarrolló e instaló la primera gran central eléctrica del mundo en Nueva York. Sin embargo, más tarde, su uso de la corriente continua se vio desplazado por el sistema de corriente alterna desarrollado por Nikola Tesla y George Westinghouse.

Su visión comercial de la investigación científico-técnica le llevó a fundar el laboratorio de Menlo Park, donde consiguió un eficaz trabajo en equipo de un gran número de colaboradores. Gracias a ello llegó a registrar 1093 patentes de inventos desarrollados por él y sus ayudantes, inventos cuyo desarrollo y mejora posterior han marcado profundamente la evolución de la sociedad moderna, entre ellos: el fonógrafo, un sistema generador de electricidad, un aparato para grabar sonidos y un proyector de películas (el kinetoscopio), uno de los primeros ferrocarriles eléctricos, unas máquinas que hacían posible la transmisión simultánea de diversos mensajes telegráficos por una misma línea (lo que aumentó enormemente la utilidad de las líneas telegráficas existentes), el emisor telefónico de carbón (muy importante para el desarrollo del teléfono, que había sido inventado recientemente por Alexander Graham Bell), etc. Al sincronizar el fonógrafo con el kinetoscopio, produjo en 1913 la primera película sonora.

En el ámbito científico descubrió el efecto Edison, patentado en 1883, que consistía en el paso de electricidad desde un filamento a una placa metálica dentro de un globo de lámpara incandescente. Aunque ni él ni los científicos de su época le dieron importancia, este efecto sería uno de los fundamentos de la válvula de la radio y de la electrónica. En 1880 se asoció con el empresario J. P. Morgan para fundar la General Electric.

El ingeniero y físico inglés John Hopkinson (1849-1898) contribuyó al desarrollo de la electricidad con el descubrimiento del sistema trifásico para la generación y distribución de la corriente eléctrica, sistema que patentó en 1882. Un sistema de corrientes trifásicas es el conjunto de tres corrientes alternas monofásicas de igual frecuencia y amplitud (y por consiguiente, valor eficaz) que presentan un desfase entre ellas de 120° (un tercio de ciclo). Cada una de las corrientes monofásicas que forman el sistema se designa con el nombre de fase. También trabajó en muchas áreas del electromagnetismo y la electrostática. De sus investigaciones estableció que "el flujo de inducción magnética es directamente proporcional a la fuerza magnetomotriz e inversamente proporcional a la reluctancia", expresión muy parecida a la establecida en la Ley de Ohm para la electricidad, y que se conoce con el nombre de Ley de Hopkinson También se dedicó al estudio de los sistemas de iluminación, mejorando su eficiencia, así como al estudio de los condensadores. Profundizó en los problemas de la teoría electromagnética, propuestos por James Clerk Maxwell. En 1883 dio a conocer el principio de los motores síncronos.

El físico alemán Heinrich Rudolf Hertz (1857-1894) demostró la existencia de las ondas electromagnéticas predichas por las ecuaciones de Maxwell. Hizo numerosos experimentos sobre su modo y velocidad de propagación (hoy conocida como velocidad de la luz), en los que se fundamentan la radio y la telegrafía sin hilos, que él mismo descubrió. En 1887 descubrió el efecto fotoeléctrico. La unidad de medida de la frecuencia fue llamada Hertz (símbolo Hz) en su honor, castellanizada como Hercio.

El inventor e industrial norteamericano George Westinghouse (1846-1914) se interesó inicialmente por los ferrocarriles (freno automático de aire, sistema de señales ferroviarias, aguja de cruce). Posteriormente dedicó sus investigaciones hacia la electricidad, siendo el principal responsable de la adopción de la corriente alterna para el suministro de energía eléctrica en Estados Unidos. En ese empeño tecnológico y comercial hubo de vencer la oposición del popular inventor Thomas Alva Edison, que basaba sus investigaciones y expansión comercial en la corriente continua y llegaría a sugerir la invención de la silla eléctrica de corriente alterna como estrategia en esa competencia.

Westinghouse compró al científico croata Nikola Tesla su patente para la producción y transporte de corriente alterna, que impulsó y desarrolló. Posteriormente perfeccionó el transformador, desarrolló un alternador y adaptó para su utilización práctica el motor de corriente alterna inventado por Tesla. En 1886 fundó la compañía eléctrica Westinghouse Electric & Manufacturing Company, que contó en los primeros años con la decisiva colaboración de Tesla, con quien logró desarrollar la tecnología necesaria para desarrollar un sistema de suministro de corriente alterna. Westinghouse también desarrolló un sistema para transportar gas natural, y a lo largo de su vida obtuvo más de 400 patentes, muchas de ellas de maquinaria de corriente alterna.

El ingeniero e inventor de origen croata Nikola Tesla (1856-1943) emigró en 1884 a los Estados Unidos. Es reconocido como uno de los investigadores más destacados en el campo de la energía eléctrica. El Gobierno de Estados Unidos lo consideró una amenaza por sus opiniones pacifistas y sufrió el maltrato de otros investigadores mejor reconocidos como Marconi o Edison.

Desarrolló la teoría de campos rotantes, base de los generadores y motores polifásicos de corriente alterna. En 1887 logra construir el motor de inducción de corriente alterna y trabaja en los laboratorios Westinghouse, donde concibe el sistema polifásico para trasladar la electricidad a largas distancias. En 1893 consigue transmitir energía electromagnética sin cables, construyendo el primer radiotransmisor (adelantándose a Guglielmo Marconi). Ese mismo año en Chicago hizo una exhibición pública de la corriente alterna, demostrando su superioridad sobre la corriente continua de Edison. Los derechos de estos inventos le fueron comprados por George Westinghouse, que mostró el sistema de generación y transmisión por primera vez en la World's Columbian Exposition de Chicago de 1893. Dos años más tarde los generadores de corriente alterna de Tesla se instalaron en la central experimental de energía eléctrica de las cataratas del Niágara. Entre los muchos inventos de Tesla se encuentran los generadores de alta frecuencia y la llamada bobina de Tesla, utilizada en el campo de las comunicaciones por radio.

La unidad de inducción magnética del sistema MKS recibe el nombre de Tesla en su honor.

El ingeniero e inventor de origen alemán Charles Proteus Steinmetz (1865-1923) es conocido principalmente por sus investigaciones sobre la corriente alterna y por el desarrollo del sistema trifásico de corrientes alternas. También inventó la lámpara de arco con electrodo metálico. En 1892 descubrió la histéresis magnética, un fenómeno en virtud del cual los electroimanes cuyo núcleo es un material ferromagnético (como el hierro) no se magnetizan al mismo ritmo que la corriente variable que pasa por sus espiras, sino que existe un retardo. En 1893 desarrolló una teoría matemática aplicable al cálculo de circuitos en corriente alterna (para lo que introdujo el uso de números complejos) lo que facilitó el cambio de las nuevas líneas de energía eléctrica, que inicialmente eran de corriente continua. Sus trabajos contribuyeron en gran medida al impulso y utilización de la electricidad como fuente de energía en la industria. En 1902 fue designado profesor de la Universidad de Schenectady, Nueva York, donde permaneció hasta su muerte. Trabajó para la empresa General Electric.

El físico alemán Wilhelm Conrad Röntgen (1845-1923). Utilizando un tubo de Crookes, fue quien produjo en 1895 la primera radiación electromagnética en las longitudes de onda correspondientes a los actualmente llamados Rayos X. Gracias a su descubrimiento fue galardonado con el primer Premio Nobel de Física en 1901. El premio se concedió oficialmente: "en reconocimiento de los extraordinarios servicios que ha brindado para el descubrimiento de los notables rayos que llevan su nombre." Sin embargo, Röntgen no quiso que los rayos llevaran su nombre aunque en Alemania el procedimiento de la radiografía se llama "röntgen" debido al hecho de que los verbos alemanes tienen la desinencia "en". Los rayos X se comienzan a aplicar en todos los campos de la medicina entre ellos el urológico. Posteriormente otros investigadores utilizaron la radiología para el diagnóstico de la enfermedad litiásica. Es uno de los puntos culminantes de la medicina de finales del siglo XIX, sobre el cual se basaron numerosos diagnósticos de entidades nosológicas, hasta ese momento difíciles de diagnosticar, y siguieron dándose desarrollos posteriores en el siglo XX y hasta nuestros días (Véase la sección Electromedicina).

En su honor recibe su nombre la unidad de medida de la exposición a la radiación, establecida en 1928: Roentgen (unidad).

El físico y electrotécnico serbio Michael Idvorsky Pupin (1854-1935) desarrolló en 1896 un procedimiento para obtener la fotografía rápida de una imagen obtenida mediante rayos X, que solamente requería una exposición de una fracción de segundo en lugar de una hora o más que se empleaba anteriormente. Entre sus numerosos inventos destaca la pantalla fluorescente que facilitaba la exploración y registro de las imágenes radiológicas obtenidas con los rayos X. También desarrolló en 1894 un sistema para aumentar en gran medida el alcance de las comunicaciones telefónicas a través de líneas de hilo de cobre, mediante la inserción a intervalos regulares a lo largo de la línea de transmisión de unas denominadas bobinas de carga. Estas bobinas reciben en su honor el nombre de bobina de Pupin y el método también se denomina pupinización.

El físico inglés Joseph John Thomson (1856-1940) descubrió que los rayos catódicos podían desviarse aplicando un campo magnético perpendicular a su dirección de propagación y calculó las leyes de dicha desviación. Demostró que estos rayos estaban constituidos por partículas atómicas de carga negativa que llamó corpúsculos y hoy en día conocemos como electrones. Demostró que la nueva partícula que había descubierto era aproximadamente mil veces más ligera que el hidrógeno. Esta fue la primera identificación de partículas subatómicas, con las grandes consecuencias que esto tuvo en el consiguiente desarrollo de la ciencia y de la técnica. Posteriormente, midiendo la desviación en campos magnéticos, obtuvo la relación entre la carga y la masa del electrón. También examinó los rayos positivos y, en 1912, descubrió la manera de utilizarlos para separar átomos de diferente masa. El objetivo se consiguió desviando los rayos positivos con campos electromagnéticos (espectrometría de masa). Así descubrió que el neón tiene dos isótopos (el neón-20 y el neón-22). Todos estos trabajos sirvieron a Thomson para proponer una estructura del átomo, que más tarde se demostró incorrecta, ya que suponía que las partículas positivas estaban mezcladas homogéneamente con las negativas. Thomson también estudió y experimentó sobre las propiedades eléctricas de los gases y la conducción eléctrica a través de los mismos, y fue justamente por esa investigación que recibió el Premio Nobel de Física en 1906.

A finales del siglo XIX varios inventores estuvieron trabajando en varios sistemas que tenían un objetivo común: el visionado y proyección de imágenes en movimiento. Entre 1890 y 1895, son numerosas las patentes que se registran con el fin de ofrecer al público las primeras "tomas de vistas" animadas. Entre los pioneros se encuentran los alemanes Max y Emil Skladanowski, los estadounidenses Charles F. Jenkins, Thomas Armat y Thomas Alva Edison (kinetoscopio), y los franceses hermanos Lumière (cinematógrafo). Sin embargo, aunque ya existían películas no era posible proyectarlas en una sala cinematográfica. El cine fue oficialmente inaugurado con la primera exhibición pública, en París, el 28 de diciembre de 1895. La conexión del nuevo invento con la electricidad no fue inmediata, porque los movimientos mecánicos se producían manualmente (lo que producía problemas de variación de la velocidad, pero también era utilizado como parte de los efectos especiales); mientras que la luz de las primeras linternas provenía de una llama generada por la combustión de éter y oxígeno. Pero usar una llama junto al celuloide (que era empleado como soporte para las películas, y que es muy inflamable) constituía una fuente constante de graves peligros para proyeccionistas y espectadores, por lo que se buscaron sustitutos a la fuente luminosa. Al extenderse las redes eléctricas se empleó el arco eléctrico incandescente. Inicialmente se usaban dos electrodos de carbón alimentados con una corriente continua, uno con carga positiva y otra con carga negativa. En la actualidad se realiza el paso de la corriente continua a través de dos conductores, encerrados en una cápsula de gas, normalmente xenón. Estas lámparas de xenón llevan en su interior dos electrodos entre los que salta el arco voltaico que produce la luz. En cuanto a la motorización eléctrica del funcionamiento de la cámara y del proyector se hizo ineludible con el tiempo, sobre todo tras el paso al cine sonoro (primera proyección experimental en París, 1900, y de un modo eficaz en Nueva York, 1923, siendo la primera película El cantante de jazz, 1927), lo que implicaba también a las tecnologías del registro y reproducción del sonido, inicialmente obtenido a partir de una banda lateral de opacidad variable detectada por una celda fotoeléctrica (la banda sonora). A partir de entonces surgió el concepto de medio audiovisual.

La tecnología del cine ha evolucionado mucho hasta el cine digital del siglo XXI y simultáneamente ha evolucionado el lenguaje cinematográfico, incluyendo las convenciones del género y los géneros cinematográficos. Más trascendente aún ha sido la evolución conjunta de cine y sociedad, y el surgimiento de distintos movimientos cinematográficos, cinematografías nacionales, etc. En Estados Unidos, Edison fue el máximo impulsor del cine, consolidando una industria en la que deseaba ser el protagonista indiscutible al considerarse como el único inventor y propietario del nuevo espectáculo. En España, la primera proyección la ofreció un enviado de los Lumière a Madrid, el 15 de mayo de 1896.

El ingeniero y físico italiano Guglielmo Marconi (1874-1937), es conocido, principalmente, como el inventor del primer sistema práctico de señales telegráficas sin hilos, que dio origen a la radio actual. En 1899 logró establecer comunicación telegráfica sin hilos a través del canal de la Mancha entre Inglaterra y Francia, y en 1903 a través del océano Atlántico entre Cornualles, y Saint John's en Terranova, Canadá. En 1903 estableció en los Estados Unidos la estación WCC, en cuya inauguración cruzaron mensajes de salutación el presidente Theodore Roosevelt y el rey Eduardo VIII de Inglaterra. En 1904 llegó a un acuerdo con el Servicio de Correos británico para la transmisión comercial de mensajes por radio. Las marinas italiana y británica pronto adoptaron su sistema y hacia 1907 había alcanzado tal perfeccionamiento que se estableció un servicio trasatlántico de telegrafía sin hilos para uso público. Para la telegrafía fue un gran impulso el poder usar el código Morse sin necesidad de cables conductores.

Aunque se le atribuyó la invención de la radio, la patente regresó al verdadero inventor, el austro-húngaro Nikola Tesla, en 1943. También inventó la antena Marconi. En 1909 Marconi recibió, junto con el físico alemán Karl Ferdinand Braun, el Premio Nóbel de Física por su trabajo.

El ingeniero eléctrico e inventor estadounidense Peter Cooper Hewitt (1861-1921) se hizo célebre por la introducción de la lámpara de vapor de mercurio, uno de los más importantes avances en iluminación eléctrica. En la década de 1890 trabajó sobre las experimentaciones realizadas por los alemanes Julius Plücker y Heinrich Geissler sobre el fenómeno fluorescente, es decir, las radiaciones visibles producidas por una corriente eléctrica que pasa a través de un tubo de cristal relleno de gas. Los esfuerzos de Hewitt se encaminaron a hallar el gas que resultase más apropiado para la producción de luz, y lo encontró en el mercurio. La luz obtenida, por este método, no era apta para uso doméstico, pero encontró aplicación en otros campos de la industria, como en medicina, en la esterilización de agua potable y en el revelado de películas. En 1901 inventó el primer modelo de lámpara de mercurio (aunque no registró la patente hasta 1912). En 1903 fabricó un modelo mejorado que emitía una luz de mejor calidad y que encontró mayor utilidad en el mercado. El desarrollo de las lámparas incandescentes de filamento de tungsteno, a partir de la década de 1910, supuso una dura competencia para la lámpara de Hewitt, ya que, a pesar de ser ocho veces menos eficientes que esta, poseían una luminosidad mucho más atractiva.

El ingeniero alemán Gottlob Honold (1876-1923), que trabajaba en la empresa Robert Bosch, fue el primero que fabricó una bujía económicamente viable que, conectada a una magneto de alta tensión, hizo posible el desarrollo de los motores de combustión interna de ciclo Otto con velocidades de giro de varios miles de revoluciones por minuto y potencias específicas. Una bujía es el elemento donde se produce una chispa provocando el encendido de la mezcla de combustible y aire en los cilindros de un motor de ciclo Otto. Las primeras patentes para la bujía datan de Nikola Tesla (Patente USPTO nº 609,250 en el que se diseña un sistema temporizado de ignición repetida, en el año 1898), casi al mismo tiempo que Frederik Richard Simms (GB 24859/1898, 1898) y Robert Bosch (GB 26907/1898). Karl Benz también inventó su propia versión de bujía. Sin embargo, la bujía de Honold de 1902 era comercialmente viable, de alta tensión y podía realizar un mayor número de chispas por minuto, razón por la que Daimler. La bujía tiene dos funciones primarias: producir la ignición de la mezcla de aire y combustible y disipar parte del calor de la cámara de combustión hacia el bloque motor por conducción térmica. Las bujías se clasifican por lo que se conoce como rango térmico en función de su conductancia térmica. Las bujías transmiten energía eléctrica que convierten al combustible en un sistema de energía. Una cantidad suficiente de voltaje se debe de proveer al sistema de ignición para que pueda generar la chispa a través de la calibración de la bujía.

En 1913, Honold participó en el desarrollo de los faros parabólicos. Aunque se habían utilizado anteriormente algunos sistemas de alumbrado para la conducción nocturna, los primeros faros apenas alumbraban y servían poco más que como sistema de señalización. Honold concibió la idea de colocar espejos parabólicos detrás de las lámparas para concentrar el haz luminoso, lo que mejoraba la iluminación del camino sin necesidad de usar un sistema eléctrico más potente.

El efecto fotoeléctrico ya había sido descubierto y descrito por Heinrich Hertz en 1887. No obstante, carecía de explicación teórica y parecía ser incompatible con las concepciones de la física clásica. Esa explicación teórica solo fue posible con la obra de Albert Einstein (entre los famosos artículos de 1905) quien basó su formulación de la fotoelectricidad en una extensión del trabajo sobre los cuantos de Max Planck. Más tarde Robert Andrews Millikan pasó diez años experimentando para demostrar que la teoría de Einstein no era correcta pero terminó demostrando que sí lo era. Eso permitió que tanto Einstein como Millikan recibiesen el premio Nobel en 1921 y 1923 respectivamente.

En 1893 Wilhelm Weber logró combinar la formulación de Maxwell con las leyes de la termodinámica para tratar de explicar la emisividad del llamado cuerpo negro, un modelo de estudio de la radiación electromagnética que tendrá importantes aplicaciones en astronomía y cosmología.

En 1911 se prueba experimentalmente el modelo atómico de Ernest Rutherford (núcleo con masa y carga positiva y corona de carga negativa), aunque tal configuración había sido predicha en 1904 por el japonés Hantaro Nagaoka, cuya contribución había pasado desapercibida.

La llamada Gran Ciencia ligada a la investigación atómica necesitó superar retos tecnológicos cuantitativamente impresionantes, pues era necesario hacer chocar partículas con el núcleo atómico con cada vez mayor energía. Esta fue una de las primeras carreras tecnológicas del siglo XX y que, independientemente del origen nacional de las ideas o procesos puestos en práctica (muchos de ellos europeos: alemanes, austrohúngaros, italianos, franceses , belgas o británicos), fueron ganadas por el eficaz e inquietante complejo científico-técnico-productivo-militar de los Estados Unidos. En 1928 Merle Tuve utilizó un transformador Tesla para alcanzar los tres millones de voltios. En 1932 John Cockcroft y Ernest Walton observaron la desintegración de átomos de litio con un multiplicador voltaico que alcanzaba los 125.000 voltios. En 1937 Robert van de Graaff construyó generadores de cinco metros de altura para generar corrientes de 5 millones de voltios. Ernest Lawrence, inspirado por el noruego Rolf Wideröe, construyó entre 1932 y 1940 sucesivos y cada vez mayores ciclotrones, confinadores magnéticos circulares, para averiguar la estructura de las partículas elementales a base de someterlas a choques a enormes velocidades.

Los quarks (bautizados así en 1963 y descubiertos sucesivamente en los años 1970 y hasta fechas tan próximas como 1996), así como las particularidades de su carga eléctrica aún son una incógnita de la física de hoy en día.

La industria eléctrica crece con la sociedad de consumo de masas y pasa a la fase del capitalismo monopolista de las grandes corporaciones multinacionales de tipo holding, como las norteamericanas General Electric (derivada de la compañía de Edison) y Westinghouse Electric (derivada de la de Westinghouse y Tesla), la Marconi Company (más puramente multinacional que italiana), las alemanas AEG, Telefunken, Siemens AG y Braun (esta última, más tardía, debe su nombre a Max Braun, no al físico Carl Ferdinand Braun) o las japonesas Mitsubishi, Matsushita (Panasonic) Sanyo o Sony (éstas últimas posteriores a la segunda guerra mundial). Incluso en países pequeños, pero desarrollados, el sector eléctrico y la electrónica de consumo tuvo presencia temprana y destacada en los procesos de concentración industrial, como son los casos de la holandesa Philips y la finlandesa Nokia.

Al alemán nacionalizado norteamericano Albert Einstein (1879 – 1955) se le considera el científico más conocido e importante del siglo XX. El resultado de sus investigaciones sobre la electricidad llegó en 1905 (fecha trascendental que se conmemoró en el Año mundial de la física 2005), cuando escribió cuatro artículos fundamentales sobre la física de pequeña y gran escala. En ellos explicaba el movimiento browniano, el efecto fotoeléctrico y desarrollaba la relatividad especial y la equivalencia entre masa y energía.

El efecto fotoeléctrico consiste en la emisión de electrones por un material cuando se le ilumina con radiación electromagnética (luz visible o ultravioleta, en general). Ya había sido descubierto y descrito por Heinrich Hertz en 1887, pero la explicación teórica no llegó hasta que Albert Einstein le aplicó una extensión del trabajo sobre los cuantos de Max Planck. En el artículo dedicado a explicar el efecto fotoeléctrico, Einstein exponía un punto de vista heurístico sobre la producción y transformación de luz, donde proponía la idea de quanto de radiación (ahora llamados fotones) y mostraba cómo se podía utilizar este concepto para explicar el efecto fotoeléctrico. Una explicación completa del efecto fotoeléctrico solamente pudo ser elaborada cuando la teoría cuántica estuvo más avanzada. A Albert Einstein se le concedió el Premio Nobel de Física en 1921.

El efecto fotoeléctrico es la base de la producción de energía eléctrica por radiación solar y de su aprovechamiento energético. Se aplica también para la fabricación de células utilizadas en los detectores de llama de las calderas de las grandes usinas termoeléctricas. También se utiliza en diodos fotosensibles tales como los que se utilizan en las células fotovoltaicas y en electroscopios o electrómetros. En la actualidad (2008) los materiales fotosensibles más utilizados son, aparte de los derivados del cobre (ahora en menor uso), el silicio, que produce corrientes eléctricas mayores.

El físico estadounidense Robert Andrews Millikan (1868-1953) es conocido principalmente por haber medido la carga del electrón, ya descubierta por J. J. Thomson. Estudió en un principio la radioactividad de los minerales de uranio y la descarga en los gases. Luego realizó investigaciones sobre radiaciones ultravioletas.

Mediante su experimento de la gota de aceite, también conocido como experimento de Millikan, determinó la carga del electrón: 1,602 × 10-19 coulomb. La carga del electrón es la unidad básica de cantidad de electricidad y se considera la carga elemental porque todos los cuerpos cargados contienen un múltiplo entero de la misma. El electrón y el protón tienen la misma carga absoluta, pero de signos opuestos. Convencionalmente, la carga del protón se considera positiva y la del electrón negativa. Entre sus otras aportaciones a la ciencia destacan su importante investigación sobre los rayos cósmicos, como él los denominó, y sobre los rayos X, así como la determinación experimental de la constante de Planck, midiendo la frecuencia de la luz y la energía de los electrones liberados en el efecto fotoeléctrico. En 1923 fue galardonado con el Premio Nobel de Física por sus trabajos para determinar el valor de carga del electrón y el efecto fotoeléctrico.

El físico holandés Heike Kamerlingh Onnes (1853-1926) se dedicó principalmente al estudio de la física a bajas temperaturas, realizando importantes descubrimientos en el campo de la superconductividad eléctrica, fenómeno que sucede cuando algunos materiales están a temperaturas cercanas al cero absoluto. Ya en el siglo XIX se llevaron a cabo diversos experimentos para medir la resistencia eléctrica a bajas temperaturas, siendo James Dewar el primer pionero en este campo. Sin embargo, la superconductividad como tal no se descubriría hasta 1911, año en que Onnes observó que la resistencia eléctrica del mercurio desaparecía bruscamente al enfriarse a 4K (-269°C), cuando lo que se esperaba era que disminuyera gradualmente. En 1913 fue galardonado con el Premio Nobel de Física por, en palabras del comité, "sus investigaciones en las características de la materia a bajas temperaturas que permitieron la producción del helio líquido".

El ingeniero ruso Vladimir Zworykin (1889-1982) dedicó su vida al desarrollo de la televisión, la electrónica y la óptica. Desde muy joven estaba persuadido de que la solución práctica de la televisión no sería aportada por un sistema mecánico, sino por la puesta a punto de un procedimiento que utilizara los tubos de rayos catódicos. Emigró a Estados Unidos y empezó a trabajar en los laboratorios de la Westinghouse Electric and Manufacturing Company, en Pittsburg. En la Westinghouse tuvo libertad para continuar con sus proyectos personales, es decir, sus trabajos sobre la televisión, especialmente sobre el iconoscopio (1923), un dispositivo que convertía imágenes ópticas en señales eléctricas. Otro de sus inventos, que posibilitó una televisión enteramente electrónica, fue el kinescopio que transformaba las señales eléctricas del iconoscopio en imágenes visibles, aunque de baja resolución. Los trabajos de investigación de Zworykin y de su grupo de colaboradores no se limitaron sólo a la televisión, abarcaron muchos otros aspectos de la electrónica, sobre todo los relacionados con la óptica. Su actividad en este campo permitió el desarrollo de dispositivos tan importantes como los tubos de imágenes y multiplicadores secundarios de emisión de distintos tipos. Un gran número de aparatos electrónicos militares utilizados en la segunda guerra mundial son resultado directo de las investigaciones de Zworykin y de sus colaboradores, quien también participó en la invención del microscopio electrónico.

El ingeniero eléctrico estadounidense Edwin Howard Armstrong (1890-1954) fue uno de los inventores más prolíficos de la era de la radio, al desarrollar una serie de circuitos y sistemas fundamentales para el avance de este sistema de comunicaciones. En 1912 desarrolló el circuito regenerativo, que permitía la amplificación de las débiles señales de radio con poca distorsión, mejorando mucho la eficiencia de los circuitos empleados hasta el momento. En 1918 desarrolló el circuito superheterodino, que dio un gran impulso a los receptores de amplitud modulada (AM). En 1920 desarrolló el circuito super-regenerador, muy importante en las comunicaciones con dos canales. En 1935 desarrolló el sistema de radiodifusión de frecuencia modulada (FM) que, además de mejorar la calidad de sonido, disminuyó el efecto de las interferencias externas sobre las emisiones de radio, haciéndolo muy inferior al del sistema de amplitud modulada (AM). El sistema de frecuencia modulada (FM), que es hoy el más empleado en radio y televisión, no se empezó a emplear comercialmente hasta después de su muerte. Muchas invenciones de Armstrong fueron reclamadas por otros en pleitos de patente.

El radar (acrónimo de radio detection and ranging, detección y medición de distancias por radio) fue creado en 1935 y desarrollado principalmente en Inglaterra durante la Segunda Guerra Mundial. Su mayor impulsor fue el físico Robert Watson-Watt (1892-1973), director del Laboratorio de Investigación de Radio. Ya en 1932, la Oficina Postal Británica publicó un informe en el que sus científicos documentaron fenómenos naturales que afectaban la intensidad de la señal electromagnética recibida: tormentas eléctricas, vientos, lluvia y el paso de un aeroplano en la vecindad del laboratorio. Arnold Wilkins (1907-1985), físico ayudante de Watson-Watts, conoció este informe de manera accidental, conversando con la gente de la Oficina Postal, que se quejaba por la interferencia. Cuando Wilkins sugirió la posibilidad de utilizar el fenómeno de interferencia de ondas de radio para detectar aviones enemigos, Watson-Watt lo comisionó inmediatamente para trabajar en el cálculo de los aspectos cuantitativos.

El radar dio a la aviación británica una notable ventaja táctica sobre la alemana durante la Batalla de Inglaterra, cuando aún era denominado RDF (Radio Direction Finding). En la actualidad es una de las principales ayudas a la navegación con que cuenta el control de tráfico aéreo de todo tipo, militar y civil.

Después de la segunda guerra mundial, el mundo bipolar enfrentado a la guerra fría entre los Estados Unidos y la Unión Soviética presenció la frenética carrera de armamentos y la carrera espacial que impulsó de modo extraordinario la competencia científica y tecnológica entre ambos países- En la sociedad de consumo capitalista, orientada al mercado, algunos de estos logros encontraron aplicación a la vida cotidiana como retorno tecnológico de lo invertido en las áreas de investigación puntera; caso de algunos rubros de la industria ligera y los servicios (terciarización), mientras que en el bloque soviético la planificación estatal privilegiaba la industria pesada. La reconstrucción de Europa Occidental y Japón permitió que en ambos espacios se pudiera continuar a la vanguardia de la ciencia y la tecnología, además de contribuir con la fuga de cerebros a los espacios centrales.

Al científico y el inventor individual, ahora reemplazados en prestigio por el empresario schumpeteriano, le sucedieron los equipos científicos vinculados a instituciones públicas o privadas, cada vez más interconectadas y retroalimentadas en lo que se denomina investigación y desarrollo (I+D) o incluso I+D+I (investigación, desarrollo e innovación). Los programas de investigación se han hecho tan costosos, con tantas implicaciones y a tan largo plazo que las decisiones que les afectan han de ser tomadas por instancias políticas y empresariales de alto nivel, y su publicidad o su mantenimiento en secreto (con fines estratégicos o económicos) constituyen un problema serio de control social (con principios democráticos o sin ellos).

La segunda mitad del siglo XX se caracterizó, entre otras cosas, por la denominada Revolución científico-técnica de la tercera revolución industrial, con avances de las tecnologías (especialmente la electrónica y la medicina) y las ciencias, que ha dado lugar al desarrollo de una numerosísima serie de inventos -dependientes de la electricidad y la electrónica en su diseño y funcionamiento- que transformaron la vida social, primero en las clases medias de los países desarrollados, y posteriormente en todo el mundo con el proceso de globalización. El desarrollo de las telecomunicaciones e internet permite hablar de una sociedad de la información en la que, en los países industrialmente más desarrollados las decisiones económicas (como consumir, producir y distribuir), sociales (como el establecimiento de todo tipo de relaciones personales, redes sociales y redes ciudadanas) y políticas (como informarse y opinar, aunque la democracia electrónica sólo está esbozada) se transmiten instantáneamente, lo que permitió a Marshall McLuhan hablar de la Edad de la Electricidad.

La automatización (en estadios más avanzados la robótica, que aún no se ha desarrollado plenamente) transformó radicalmente los procesos de trabajo industrial. Es posible hablar ya no de una sociedad industrial opuesta a la sociedad preindustrial, sino incluso una sociedad postindustrial basada en parámetros completamente nuevos. Entre los inventos que han contribuido a la base material de esa nueva forma de vida caben destacar: electrodomésticos, electrónica digital, ordenadores, robótica, satélites artificiales de comunicación, energía nuclear, trenes eléctricos, refrigeración y congelación de alimentos, electromedicina,etc.

1923: El tubo de rayos catódicos era conocido desde finales del siglo XIX, pero su uso debía esperar al diseño de un emisor eficaz, que se logró con el iconoscopio de Vladimir Zworykin, un ingeniero ruso que venía diseñando tubos perfeccionados desde 1923. Se basaba en miles de pequeñas células fotoeléctricas independientes cada una con tres capas: una intermedia muy fina de mica, otra de una sustancia conductora (grafito en polvo impalpable o plata) y otra fotosensible compuesta de millares de pequeños globulitos de plata y óxido de cesio. Este mosaico, conocido con el nombre de mosaico electrónico de Zworykin, se colocaba dentro de un tubo de vacío y sobre el mismo se proyectaba, mediante un sistema de lentes, la imagen a captar. La parte relativa a la recepción y reproducción fueron tubos catódicos derivados del disector de imagen de Philo Farnsworth (1927).

La primera imagen sobre un tubo de rayos catódicos se había formado en 1911 en el Instituto Tecnológico de San Petersburgo y consistió en unas rayas blancas sobre fondo negro, obtenidas por Boris Rosing en colaboración con Zworykin. La captación se realizó mediante dos tambores de espejos (sistema Weiller) y generaba una exploración entrelazada de 30 líneas y 12,5 cuadros por segundo. Las señales de sincronismo eran generadas por potenciómetros unidos a los tambores de espejos que se aplicaban a las bobinas deflexoras del TRC, cuya intensidad de haz era proporcional a la iluminación que recibía la célula fotoeléctrica.

Hay muchos países (Alemania, Inglaterra, Francia, Estados Unidos) que se disputan la primacía en las primeras emisiones públicas de televisión, con un procedimiento u otro. Desde finales de los años veinte se hicieron por procedimientos mecánicos anteriores al iconoscopio, a cargo de empresas públicas (BBC en Inglaterra) o privadas (CBS o NBC en Estados Unidos). En los primeros años treinta ya utilizaban el iconoscopio, como las que tuvieron lugar en París en 1932 con una definición de 60 líneas. La precariedad de las células empleadas para la captación hacía que se debiera iluminar muy intensamente las escenas, produciendo tanto calor que sólo era posible el desarrollo del trabajo en los platós por tiempos breves. Tres años después se emitía con 180 líneas.

Desde finales de los años treinta, culminando en la Feria Mundial de Nueva York de 1939, se emitían programaciones regulares de televisión que fueron interrumpidas durante la segunda guerra mundial. Para 1948, la naturaleza futura del invento todavía permitía imaginaciones ucrónicas como la de George Orwell (1984 (novela)), en que aparece encarnando la omnipresencia totalitaria del Big Brother (Gran Hermano).

A finales de los años cincuenta se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción. En los años setenta se implementaron las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que permitían la grabación de las noticias en el lugar donde se producían, con lo que nace el periodismo electrónico o ENG. La implantación de sucesivas mejoras como la televisión en color y la televisión digital se ve frenado no tanto por el desarrollo científico-tecnológico, sino por factores comerciales y por la dispersión y el coste de sustitución de los equipos.

1941 La primera computadora electrónica funcional de que se tiene noticia fue la alemana Z3 de Konrad Zuse, construida en 1941 y destruida en los bombardeos aliados de 1943. La utilización comercial de este tipo de aparatos, que revolucionaron la gestión de la información y toda la vida social, económica y científica, tuvo que esperar a los años cincuenta, tras su desarrollo en Estados Unidos.

La británica Colossus (diseñada por Tommy Flowers en la Estación de Investigación de la Oficina Postal) y la estadounidense Harvard Mark I (construida por Howard H. Aiken en la Universidad de Harvard con subvención de IBM entre 1939 y 1943), llegaron a tiempo de usarse en la fase final de la segunda guerra mundial (1944-1945), la primera en el descifrado de mensajes alemanes y la segunda para el cálculo de tablas de balística .

Inmediatamente después de la guerra, el Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico, ENIAC) utilizado por el Laboratorio de Investigación Balística del Ejército de los Estados Unidos fue construido en 1946 en la Universidad de Pennsylvania por John Presper Eckert y John William Mauchly. Consumía una potencia eléctrica suficiente para abastecer una pequeña ciudad, ocupaba una superficie de 167 m² y operaba con un total de 17.468 válvulas electrónicas o tubos de vacío, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de soldaduras. Pesaba 27 tn, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500 conmutadores electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su programa o software, cuando requería modificaciones, tardaba semanas de instalación manual. La ENIAC podía resolver 5.000 sumas y 360 multiplicaciones en 1 segundo. Se desactivó en 1955.

Le sustituyó en la misma institución la Electronic Discrete Variable Automatic Computer (EDVAC), en 1949. A diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado. Este diseño se convirtió en el estándar de arquitectura para la mayoría de las computadoras modernas y un hito en la historia de la informática. A los diseñadores anteriores se les había unido el gran matemático John von Neumann. La EDVAC recibió varias actualizaciones, incluyendo un dispositivo de entrada/salida de tarjetas perforadas en 1953, memoria adicional en un tambor magnético en 1954 y una unidad de aritmética de punto flotante en 1958. Dejó de estar en activo en 1961.

La UNIVAC I (UNIVersal Automatic Computer I, computadora automática universal I), también debida a J. Presper Eckert y John William Mauchly, fue la primera computadora comercial y la primera diseñada desde el principio para su uso en administración y negocios. El primer UNIVAC fue entregado a la Oficina de Censos de los Estados Unidos (United States Census Bureau) en 1951 y fue puesto en servicio ese mismo año. Competía directamente con las máquinas de tarjeta perforada hechas principalmente por IBM. Para facilitar la compatibilidad de ambos tipos de máquina se construyó un equipo de procesamiento de tarjetas fuera de línea, el convertidor UNIVAC de tarjeta a cinta y el convertidor UNIVAC de cinta a tarjeta, para la transferencia de datos entre las tarjetas y las cintas magnéticas que empleaba alternativamente.

IBM anunció en 1953 la primera producción a gran escala de una computadora, el IBM 650: 2000 unidades desde 1954 hasta 1962. Era un diseño orientado hacia los usuarios de máquinas contables anteriores, como las tabuladoras electromecánicas (con tarjetas perforadas) o el modelo IBM 604. Pesaba alrededor de 900 kg, y su unidad de alimentación unos 1350. Cada unidad estaba en un armario separado, de 1,5 x 0,9 x 1,8 metros. Costaba 500.000 dólares, pero podía alquilarse por 3.500 al mes.

La tercera generación de este tipo de máquinas se inició con IBM 360, la primera en la historia en ser atacada con un virus informático. Comercializada a partir de 1964, fue la primera que usaba el término byte para referirse a 8 bits (con cuatro bytes creaba una palabra de 32-bits). Su arquitectura de computación fue la que a partir de este modelo siguieron todos los ordenadores de IBM. El sistema también hizo popular la computación remota, con terminales conectadas a un servidor, por medio de una línea telefónica. Fue una de las primeras computadoras comerciales que usó circuitos integrados, y podía realizar tanto análisis numéricos como administración o procesamiento de archivos.

El Intel 4004 (i4004, primero de Intel), un CPU de 4bits, fue lanzado en un paquete de 16 pines CERDIP en 1971, siendo el primer microprocesador en un simple chip, así como el primero disponible comercialmente. Daría paso a la construcción de los ordenadores personales. El circuito 4004 fue construido con 2.300 transistores, y fue seguido el año siguiente por el primer microprocesador de 8 bits, el 8008, que contenía 3.300 transistores, y el 4040, versión revisada del 4004. El CPU que comenzó la revolución del microcomputador, sería el 8080, usado en el Altair 880. El microprocesador es un circuito integrado que contiene todos los elementos necesarios para conformar una "unidad central de procesamiento" (UCP o CPU: Central Process Unit). En la actualidad este tipo de componente electrónico se compone de millones de transistores, integrados en una misma placa de silicio.

1948 La electrónica, que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo microscópico de los electrones u otras partículas cargadas eléctricamente, comenzó con el diodo de vacío inventado por John Ambrose Fleming en 1904, dispositivo basado en el efecto Edison. Con el tiempo las válvulas de vacío se fueron perfeccionando y mejorando, apareciendo otros tipos y miniaturizándose. El paso esencial lo dio el físico estadounidense Walter Houser Brattain (1902-1987), incorporado en 1929 a los laboratorios Bell, donde fue partícipe junto con John Bardeen (1908-1991) -incorporado en 1945- y William Bradford Shockley del invento de un pequeño dispositivo electrónico semiconductor que cumplía funciones de amplificador, oscilador, conmutador o rectificador: el transistor. La palabra elegida para denominarlo es la contracción en inglés de transfer resistor ("resistencia de transferencia"). Sustituto de la válvula termoiónica de tres electrodos o triodo, el primer transistor de puntas de contacto funcionó en diciembre de 1947; se anunció por primera vez en 1948 pero no se terminó de fabricar hasta 1952, tras lograr construir un dispositivo con germanio el 4 de julio de 1951, culminando así su desarrollo. El transistor de unión bipolar apareció algo más tarde, en 1949, y es el dispositivo utilizado actualmente para la mayoría de las aplicaciones electrónicas. Sus ventajas respecto a las válvulas son entre otras menor tamaño y fragilidad, mayor rendimiento energético, menores tensiones de alimentación y consumo de energía. El transistor no funciona en vacío como las válvulas, sino en un estado sólido semiconductor (silicio), razón por la que no necesitan centenares de voltios de tensión para funcionar.

El transistor ha contribuido, como ninguna otra invención, al gran desarrollo actual de la electrónica y la informática, empleándose comercialmente en todo tipo de aparatos electrónicos, tanto domésticos como industriales. La primera aplicación de estos dispositivos se hizo en los audífonos. Por su trabajo con los semiconductores y por el descubrimiento del transistor, Walter Houser Brattain compartió con Shockley y Bardeen en 1956 el Premio Nóbel de Física.

La construcción de circuitos electrónicos permitió resolver muchos problemas prácticos (control, procesado y distribución de información, conversión y distribución de la energía eléctrica, etc.). En 1958 se desarrolló el primer circuito integrado, que integraba seis transistores en un único chip, y en 1970 se desarrolló el primer microprocesador (Intel 4004).

En la actualidad, los campos de desarrollo de la electrónica son tan vastos que se ha dividido en varias ciencias especializadas, partiendo de la distinción entre electrónica analógica y electrónica digital; y en los campos de la ingeniería electrónica, la electromecánica, la informática (diseño de software para su control), la electrónica de control, las telecomunicaciones y la electrónica de potencia.

En 1951 Bardeen, uno de los diseñadores del transistor, ingresó en la Universidad de Illinois, nombrando asistente personal al físico Nick Holonyak, el cual posteriormente diseñaría el primer Diodo LED en 1962. Trabajó junto a Leon N. Cooper y John Robert Schrieffer para crear la teoría estándar de la superconductividad, es decir, la desaparición de la resistencia eléctrica en ciertos metales y aleaciones a temperaturas cercanas al cero absoluto. Por estos trabajos compartió nuevamente, en 1972, el Premio Nobel de Física con los físicos estadounidenses Leon N. Cooper y John R. Schrieffer. Esto hizo que él fuera el primer científico que ganó dos premios Nobel en la misma disciplina. Las aplicaciones de la superconductividad están todavía en las primeras fases de su desarrollo, pero ya han permitido los electroimanes más poderosos (que se usan en los trenes maglev, resonancia magnética nuclear y aceleradores de partículas); circuitos digitales y filtros de radiofrecuencia y microondas para estaciones base de telefonía móvil; o los magnetómetros más sensibles (uniones Josephson, de los SQUIDs -dispositivos superconductores de interferencia cuántica-).

1951 Una central nuclear es una instalación industrial empleada para la generación de energía eléctrica a partir de energía nuclear, que se caracteriza por el empleo de materiales fisionables que mediante reacciones nucleares proporcionan calor. Este calor es empleado por un ciclo termodinámico convencional para mover un alternador y producir energía eléctrica. Las centrales nucleares constan de uno o varios reactores.

Se llama energía nuclear a aquella que se obtiene al aprovechar las reacciones nucleares espontáneas o provocadas por el hombre. Estas reacciones se dan en algunos isótopos de ciertos elementos químicos, siendo el más conocido de este tipo de energía la fisión del uranio-235 (235U), con la que funcionan los reactores nucleares. Sin embargo, para producir este tipo de energía aprovechando reacciones nucleares pueden ser utilizados muchos otros isótopos de varios elementos químicos, como el torio, el plutonio, el estroncio o el polonio. Los dos sistemas con los que puede obtenerse energía nuclear de forma masiva son la fisión nuclear y la fusión nuclear.

El 2 de diciembre de 1942, como parte del proyecto Manhattan dirigido por J. Robert Oppenheimer, se construyó el Chicago Pile-1 (CP-1), primer reactor nuclear hecho por el hombre (existió un reactor natural en Oklo). El Departamento de Defensa de los Estados Unidos propuso el diseño y construcción de un reactor nuclear utilizable para la generación eléctrica y propulsión en los submarinos a dos empresas distintas norteamericanas: General Electric y Westinghouse. Estas empresas desarrollaron los reactores de agua ligera tipo BWR y PWR respectivamente. Los mismos diseños de reactores de fisión se trasladaron a diseños comerciales para la generación de electricidad. Los únicos cambios producidos en el diseño con el transcurso del tiempo fueron un aumento de las medidas de seguridad, una mayor eficiencia termodinámica, un aumento de potencia y el uso de las nuevas tecnologías que fueron apareciendo.

El 20 de diciembre de 1951 fue el primer día que se consiguió generar electricidad con un reactor nuclear (en el reactor americano EBR-I, con una potencia de unos 100 kW), pero no fue hasta 1954 cuando se conectó a la red eléctrica una central nuclear (fue la central nuclear rusa Obninsk, generando 5 MW con solo un 17% de rendimiento térmico). La primera central nuclear con un rendimiento comercial fue la británica de Calder Hall, en Sellafield, abierta en 1956 con una capacidad de 50 MW (ampliada posteriormente a 200 MW). El desarrollo de la energía nuclear en todo el mundo experimentó a partir de ese momento un gran crecimiento, de forma muy particular en Francia y Japón, donde la crisis del petróleo de 1973 influyó definitivamente, ya que su dependencia en el petróleo para la generación eléctrica era muy marcada. En 1986 el accidente de Chernóbil, en un reactor RBMK de diseño ruso que no cumplía los requisitos de seguridad que se exigían en occidente, acabó radicalmente con ese crecimiento. A partir de entonces, con la caída del bloque del este desde 1989, el movimiento antinuclear, que se opone por un lado al arma nuclear y por otra parte a la utilización de la energía nuclear, se ha visto desplazado de la vanguardia del movimiento ecologista por otras cuestiones, como el cambio climático.

En octubre de 2007 existían 439 centrales nucleares en todo el mundo que generaron 2,7 millones de MWh en 2006. La potencia instalada en 2007 era de 370.721 MWe. Aunque solo 30 países en el mundo poseen centrales nucleares, aproximadamente el 15% de la energía eléctrica generada en el mundo se produce a partir de energía nuclear, aunque el porcentaje está actualmente en disminución. La mayoría de los países con centrales nucleares han suspendido nuevas construcciones debido a los problemas de disposición final de los combustibles nucleares, cuya actividad (y riesgos para la vida humana) perdura durante muchos miles de años. Algunos científicos, como el galardonado físico Freeman Dyson, sostienen que la exageración de los beneficios de la energía nuclear provienen de una combinación de factores económicos y del sentido de culpa por los bombardeos atómicos sobre Hiroshima y Nagasaki.

El primer uso industrial de la energía hidráulica para la generación de electricidad alimentaba mediante una turbina dieciséis lámparas de arco de la fábrica Wolverine en Grand Rapids (Estados Unidos, 1880). La primera central hidroeléctrica entró en funcionamiento ese mismo año en Northumberland, Gran Bretaña, y la primera ciudad en tener un suministro eléctrico fue Godalming, en Surrey (Inglaterra), ese mismo año, a corriente alterna con un alternador Siemens y una dinamo conectada a una rueda hidráulica, que funcionó sólo tres años.

Dos años más tarde se abrió la primera central hidráulica estadounidense (río Fox, Appleton, Wisconsin). El mismo año (1882), Edison abría la primera central eléctrica urbana comercial. No utilizaba fuentes renovables, sino la generación térmica a petróleo (con tres veces mayor eficiencia que los modelos anteriores, no comerciales), en Pearl Street (Nueva York), de 30 kW de potencia a 220-110 V de corriente continua. En 1895, su competidor, Westinghouse, abre la primera central de corriente alterna en el Niágara. La desconfianza de Edison hacia la corriente alterna se mantuvo hasta 1892 y hasta finales del siglo XIX se usaba principalmente corriente continua para la iluminación. El desarrollo del generador eléctrico y el perfeccionamiento de la turbina hidráulica respondieron al aumento de la demanda de electricidad del siglo XX, de modo que desde 1920 el porcentaje la hidroelectricidad en la producción total de electricidad era ya muy significativo. Desde entonces la tecnología de las principales instalaciones no ha variado sustancialmente. Una central hidroeléctrica es aquella que se utiliza para la generación de energía eléctrica mediante el aprovechamiento de la energía potencial del agua embalsada en una presa situada a más alto nivel que la central. El agua se lleva por una tubería de descarga a la sala de máquinas de la central, donde mediante enormes turbinas hidráulicas se produce la generación de energía eléctrica en alternadores.

Esta forma de obtener energía eléctrica no está libre problemas medioambientales al necesitar la construcción de grandes embalses en los que acumular el agua, modificando el paisaje y los anteriores usos, tanto naturales como humanos, del agua y el entorno afectado. Proyectos gigantescos (presa de Asuán en Egipto, de Itaipú entre Brasil y Paraguay, o de las Tres Gargantas en China) tienen repercusiones de todo tipo, e incluso su viabilidad a largo plazo es cuestionada. Las minicentrales hidráulicas suelen ser mejor consideradas desde ese punto de vista, aunque su capacidad de generación es mucho más limitada.

Actualmente se encuentra en desarrollo la explotación comercial de la conversión en electricidad del potencial energético que tiene el oleaje del mar, en las llamadas Centrales mareomotrices. Estas utilizan el flujo y reflujo de las mareas. En general pueden ser útiles en zonas costeras donde la amplitud de la marea sea amplia, y las condiciones morfológicas de la costa permitan la construcción de una presa que corte la entrada y salida de la marea en una bahía. Se genera energía tanto en el momento del llenado como en el momento del vaciado de la bahía.

Otras energías renovables, como la energía solar; tienen una historia muy anterior a su utilización como generadoras de electricidad, e incluso en este campo surgieron tecnologías ya en el siglo XIX: solar con Edmund Becquerel en 1839 y Augustin Mouchet en 1861; eólica desde 1881, aunque el desarrollo de rotores verticales eficaces llegó con Klemin, Savoius y Darrieus, diseñados en 1925, 1929 y 1931).

El impulso actual de las energías renovables proviene de las necesidades energéticas de la crisis del petróleo de 1973 y, más recientemente, del hecho de que no emitan gases causantes de efecto invernadero, contrariamente a los combustibles fósiles (carbón, petróleo o gas natural). La producción de electricidad solar y, sobre todo, eólica está en fuerte auge aunque aún no ha desarrollado todo su potencial.

Las tecnologías utilizadas en las centrales termoeléctricas que utilizan combustibles fósiles se han perfeccionado, tanto para obtener una mayor eficiencia energética (ciclo combinado) como para reducir su impacto contaminante (lluvia ácida), lo que incluye las emisiones de gases de efecto invernadero (captura y almacenamiento de carbono).

La pila de combustible ligada a las tecnologías del hidrógeno es uno de las últimos diseños propuestos para la sustitución de las energías tradicionales.

1952 Una de las innovaciones más importantes y trascendentales en la producción de todo tipo de objetos en la segunda mitad del siglo XX ha sido la incorporación de robots, autómatas programables y máquinas guiadas por control numérico por computadora (CNC) en las cadenas y máquinas de producción, principalmente en tareas relacionadas con la manipulación, trasiego de objetos, procesos de mecanizado y soldadura. Estas innovaciones tecnológicas han sido viables entre otras cosas por el diseño y construcción de nuevas generaciones de motores eléctricos de corriente continua controlados mediante señales electrónicas de entrada y salida, y el giro que pueden tener en ambos sentidos, así como la variación de su velocidad de acuerdo con las instrucciones contenidas en el programa de ordenador que los controla. En estas máquinas se utilizan tres tipos de motores eléctricos: motores paso a paso, servomotores o motores encoder y motores lineales. El primer desarrollo en el área del control numérico por computadora (CNC) lo realizó el inventor norteamericano John T. Parsons (Detroit 1913-2007) junto con su empleado Frank L. Stulen, en la década de 1940, realizando la primera demostración práctica de herramienta con movimiento programado en 1952.

La robótica es una rama de la tecnología (y que integra el álgebra, los autómatas programables, las máquinas de estados, la mecánica, la electrónica y la informática), que estudia el diseño y construcción de máquinas capaces de desempeñar tareas repetitivas, tareas en las que se necesita una alta precisión, tareas peligrosas para el ser humano o tareas irrealizables sin intervención de una máquina. Esas máquinas, los robots mantienen la conexión de retroalimentación inteligente entre el sentido y la acción directa bajo el control de un ordenador previamente programado con las tareas que tiene que realizar. Las acciones de este tipo de robots son generalmente llevadas a cabo por motores o actuadores que mueven extremidades o impulsan al robot. Hacia 1942, Isaac Asimov da una versión humanizada a través de su conocida serie de relatos, en los que introduce por primera vez el término robótica con el sentido de disciplina científica encargada de construir y programar robots. Además, este autor plantea que las acciones que desarrolla un robot deben ser dirigidas por una serie de reglas morales, llamadas las Tres leyes de la robótica.

Los robots son usados hoy en día (2008) para llevar a cabo tareas sucias, peligrosas, difíciles, repetitivas o embotadas para los humanos. Esto usualmente toma la forma de un robot industrial usado en las líneas de producción. Otras aplicaciones incluyen la limpieza de residuos tóxicos, exploración espacial, minería, búsqueda y rescate de personas y localización de minas terrestres. La manufactura continúa siendo el principal mercado donde los robots son utilizados. En particular, robots articulados (similares en capacidad de movimiento a un brazo humano) son los más usados comúnmente. Las aplicaciones incluyen soldado, pintado y carga de maquinaria. La industria automotriz ha tomado gran ventaja de esta nueva tecnología donde los robots han sido programados para reemplazar el trabajo de los humanos en muchas tareas repetitivas. Recientemente, se ha logrado un gran avance en los robots dedicados a la medicina que utiliza robots de última generación en procedimientos de cirugía invasiva mínima. La automatización de laboratorios también es un área en crecimiento. Los robots parecen estar abaratándose y empequeñeciéndose en tamaño, todo relacionado con la miniaturización de los componentes electrónicos que se utilizan para controlarlos. También, muchos robots son diseñados en simuladores mucho antes de que sean construidos e interactúen con ambientes físicos reales.

En 1960 el físico norteamericano Charles Townes (1915 -) realizó en la Universidad de Columbia el descubrimiento que le proporcionaría su salto a la fama científica: fue descrito como Microwave Amplification by Stimulated Emission of Radiation (máser). Sin embargo fue el físico norteamericano Gordon Gould (1920-2005) quien patentó los primeros láseres para usos industriales y militares, a pesar de que hubo muchos pleitos porque varios científicos estaban estudiando la posibilidad de tecnologías similares a partir de las teorías desarrolladas por Einstein sobre la emisión estimulada de radiación. Ello fue así porque Gould fue el científico que primero lo fabricó y le puso el nombre: Light Amplification by Stimulated Emission of Radiation (Amplificación de Luz por Emisión Estimulada de Radiación, LASER) No obstante, fue a Charles Townes a quien le fue concedido el premio Nobel de Física en 1964.

Un láser es un dispositivo que utiliza un efecto de la mecánica cuántica, la emisión inducida o estimulada, para generar un haz de luz coherente de un medio adecuado y con el tamaño, la forma y la pureza controlados. El tamaño de los láseres varía ampliamente, desde diodos láser microscópicos con numerosas aplicaciones, al láser de cristales dopados con neodimio con un tamaño similar al de un campo de fútbol, usado para la fusión de confinamiento inercial, la investigación sobre armamento nuclear u otros experimentos físicos en los que se presenten altas densidades de energía. Desde su invención en 1960 se han vuelto omnipresentes y se pueden encontrar en miles de variadas aplicaciones en cualquier sector de la sociedad actual, incluyendo campos tan dispares como la electrónica de consumo y las tecnologías de la información (sistemas de lectura digital de los discos duros, los CD y los DVD y del código de barras), hasta análisis científicos y métodos de diagnóstico en medicina, así como el mecanizado, soldadura o sistemas de corte en sectores industriales y militares.

Una de las aplicaciones más significativas de la electricidad fue la casi total electrificación de los ferrocarriles en los países más industrializados. La primera fase de este proceso, más generalizada que la segunda, fue la sustitución de las locomotoras que utilizaban carbón, por las locomotoras llamadas diésel que usan combustible obtenido del petróleo. Las locomotoras diésel-eléctricas consisten básicamente en dos componentes: un motor diésel que mueve un generador eléctrico y varios motores eléctricos (conocidos como motores de tracción) que comunican a las ruedas (pares) la fuerza tractiva que mueve a la locomotora. Generalmente hay un motor de tracción por cada eje, siendo generalmente 4 o 6 en una locomotora típica. Los motores de tracción se alimentan con corriente eléctrica y luego, por medio de engranajes , mueven las ruedas. En el caso de las locomotoras diésel no hace falta que las vías estén electrificadas, y ya se usan en casi todas las vías del mundo estén las vías electrificadas o no.

1964 El Shinkansen o tren bala japonés fue el primer tren de alta velocidad en utilizar un trazado propio, y se inauguró para los Juegos Olímpicos de Tokio 1964. 1979 Un tren de levitación magnética se instaló por primera vez en Hamburgo para la Exhibición Internacional del Transporte (IVA 79), desarrollando patentes anteriores. Hubo pruebas posteriores de trenes similares en Inglaterra y actualmente operan comercialmente líneas en Japón y China. Se combinan con el sistema de monorraíl. 1981 El Tren de Gran Velocidad (en francés: Train à Grande Vitesse), conocido como TGV, es un tipo de tren eléctrico de alta velocidad desarrollado por la empresa francesa Alstom para hacer inicialmente el recorrido entre París y Lyon. El TGV es uno de los trenes más veloces del mundo, operando en algunos tramos a velocidades de hasta 320 km/h teniendo el récord de mayor velocidad media en un servicio de pasajeros y el de mayor velocidad en condiciones especiales de prueba. En 1990 alcanzó la velocidad de 515,3 km/h, y en el 2007 superó su propio registro al llegar a los 574,8 km/h en la línea París-Estrasburgo.

1895. Los rayos X fueron descubiertos en 1895 por el físico alemán Wilhelm Röntgen, quien descubrió que el bombardeo de átomos metálicos con electrones de alta velocidad produce la emisión de radiaciones de gran energía. Combinados con las tecnologías de la fotografía, los rayos X permitieron obtener imágenes de partes interiores del cuerpo humano antes inaccesibles sin mediar cirugía. A partir de ese momento se convirtieron en imprescindibles medios de diagnóstico, formando parte esencial del campo denominado electromedicina.

Su uso principal en diagnóstico médico, por ser las más fáciles de visualizar, fue la observación de las estructuras óseas. A partir de la generalización de esta práctica se desarrolló la radiología como especialidad médica que emplea la radiografía como medio de diagnóstico, que sigue siendo el uso más extendido de los rayos X. En desarrollos posteriores se añadieron la tomografía axial computarizada (TAC, en 1967, por un equipo dirigido por los ingenieros Godfrey Newbold Hounsfield y Allan M. Cormack, premios Nobel de Medicina en 1979), la resonancia magnética (descubierta como principio en 1938 y aplicada a la imagen de diagnóstico por Paul Lauterbur y Peter Mansfield, premios Nóbel de 2003) y la angiografía (utilizada desde 1927 por el portugués Egas Moniz, ganador del premio Nobel en 1949, y desarrollada de forma más segura por la técnica Seldinger desde 1953); así como la utilización terapéutica de la radioterapia.

Los ultrasonidos fueron utilizados por primera vez en medicina por el estadounidense George Ludwig, a finales de los años 1940, mientras que la ecografía fue desarrollada en Suecia por los cardiólogos Inge Edler y Carl Hellmuth Hertz (hijo y sobrino nieto de los famosos físicos), y en el Reino Unido por Ian Donald y el equipo de ginecología del hospital de Glasgow.

Se aplican otras tecnologías electromédicas en la cardiología, tanto en diagnóstico (electrocardiograma, utilizado desde 1911, que valió el premio Nobel de 1924 a Augustus Waller) como en tratamientos (desfibrilador) y prótesis: (los marcapasos y el corazón artificial). También en áreas como los problemas de audición (mediante los audífonos) o el diagnóstico y tratamiento de problemas neurológicos y neurofisiológicos.

Se han equipado los quirófanos y unidades de rehabilitación y cuidados intensivos (UVI) o (UCI) con equipos electrónicos e informáticos de alta tecnología. Se han mejorado los equipamientos que realizan análisis clínicos y se han desarrollado microscopios electrónicos de gran resolución.

1969 El auge de las telecomunicaciones empieza cuando se sitúan en el espacio exterior los primeros satélites de comunicaciones, satélites artificiales situados en órbita alrededor de la Tierra que transmiten ondas electromagnéticas; pero este punto culminante tuvo su prehistoria: El término telecomunicación fue definido oficialmente por primera vez en 1932 durante una conferencia internacional que tuvo lugar en Madrid ("toda transmisión, emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos"). La base matemática sobre la que se desarrollan las telecomunicaciones dependientes de la electricidad es muy anterior: fue desarrollada por Maxwell, quien ya predijo que era posible propagar ondas por el espacio libre utilizando descargas eléctricas (prefacio de Treatise on Electricity and Magnetism, 1873), hecho que corroboró Heinrich Hertz con el primer transmisor de radio generando radiofrecuencias entre 31 MHz y 1.25 GHz (1887). No obstante, el inicio de la era de la comunicación rápida a distancia ya había comenzado en la primera mitad del siglo XIX con el telégrafo eléctrico, al que se añadieron más tarde el teléfono y la revolución de la comunicación inalámbrica con las ondas de radio. A principios del siglo XX apareció el teletipo que, utilizando el código Baudot, permitía enviar y recibir texto en algo parecido a una máquina de escribir. En 1921 la wirephoto o telefoto permitió transmitir imágenes por teléfono (ya se había hecho telegráficamente desde la Exposición Universal de Londres de 1851 y comercialmente desde 1863), y a partir de entonces se comercializó el fax por AT&T. Esta misma compañía norteamericana desarrolló desde 1958 distintos tipos de aparatos digitales precedentes del módem para las comunicaciones telefónicas, que más tarde se aplicaron a la transmisión de datos entre computadoras y otros dispositivos. En los años 1960 comienza a ser utilizada la telecomunicación en el campo de la informática con el uso de satélites de comunicación y las redes de conmutación de paquetes.

Un satélite actúa básicamente como un repetidor situado en el espacio: recibe las señales enviadas desde la estación terrestre y las reemite a otro satélite o de vuelta a los receptores terrestres. Los satélites son puestos en órbita mediante cohetes espaciales que los sitúan circundando la Tierra a distancias relativamente cercanas fuera de la atmósfera. Las antenas utilizadas preferentemente en las comunicaciones vía satélites son las antenas parabólicas, cada vez más frecuentes en las terrazas y tejados de nuestras ciudades. Tienen forma de parábola y la particularidad de que las señales que inciden sobre su superficie se reflejan e inciden sobre el foco de la parábola, donde se encuentra el elemento receptor.

Con la puesta en marcha de los satélites de comunicaciones ha sido posible disponer de muchos canales de televisión, el impresionante desarrollo de la telefonía móvil y de Internet. Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU..

El siglo XXI está viviendo los comienzos de la interconexión total a la que convergen las telecomunicaciones, a través de todo tipo de dispositivos cada vez más rápidos, más compactos, más poderosos y multifuncionales. Ya no es necesario establecer enlaces físicos entre dos puntos para transmitir la información de un punto a otro. Debido a la gran velocidad de propagación de las ondas electromagnéticas, los mensajes enviados desde cualquier punto de la superficie terrestre o de su atmósfera se reciben casi simultáneamente en cualquier otro.

Al principio



Abandono de la energía nuclear

Estado de la política nuclear actual en el mundo.      Países con reactores nucleares en funcionamiento y otros en construcción.Verde claro: países construyendo su primer reactor.      Países que están considerando hoy en día la construcción de nuevos reactores.      Países que están considerando construir su primer reactor.      Países que poseen reactores pero no están considerando cambios en su política actual.      Países que están considerando en la actualidad el desmantelamiento.      Países que han desmantelado todos sus reactores.

El abandono de la energía nuclear es una opción política consistente en dejar de usar la energía nuclear para la generación de electricidad. La idea incluye en algunos países el cierre de las centrales nucleares existentes. Suecia fue el primer país donde se propuso (1980) (este país es el 9º país que más energía nuclear consume del mundo ). Siguieron Italia (1987), Bélgica (1999), Alemania (2000) (Alemania es el 4º consumidor mundial de energía nuclear ) y se ha discutido en otros países europeos. Austria, Holanda, Polonia, y España promulgaron leyes que paralizaron la construcción de nuevos reactores nucleares, aunque en algunos de ellos esta opción se está debatiendo en la actualidad (véase imagen). Nueva Zelanda no utiliza reactores nucleares para la generación de energía desde 1984.

Teóricamente el abandono de la energía nuclear debería promover el uso de fuentes de energía renovables.

Según los grupos antinucleares, el uso de energía nuclear contribuye a la proliferación de armas nucleares. Israel, India, Corea del Norte y Sudáfrica iniciaron programas "pacíficos" de energía nuclear con reactores para investigación que posteriormente fueron empleados para hacer armas atómicas, y existe la sospecha (apoyada en el hecho de la negativa a una inspección del OIEA) de que el programa de Irán tenga un objetivo similar.

La energía nuclear puede ayudar a cumplir los acuerdos del Protocolo de Kyoto ya que no provoca emisiones de CO2. Sin embargo sí se emite cierta cantidad de CO2 durante el ciclo de obtención de combustible nuclear y durante la construcción y desmantelamiento de las centrales nucleares. Un estudio del Instituto Öko de Alemania muestra que, teniendo en cuenta el ciclo completo de generación de energía (incluyendo la construcción y desmantelamiento de las centrales eléctricas), la energía nuclear emite unos 34 gramos de CO2 por cada kWh de electricidad producido. Esto es mucho menos de lo que emite una central térmica de carbón (que emite alrededor de 1000 g/kWh). La energía eólica, por ejemplo, emite alrededor de 20 g/kWh, y la hidroeléctrica alrededor de 33 g/kWh. Otros estudios estiman las emisiones de CO2 debidas a la energía nuclear entre 30 y 60 g/kWh.

A nivel mundial, el CO2 emitido en la producción de energía eléctrica no es más que el 9% del total anual de emisiones de gases de efecto invernadero de origen humano, siendo el transporte el gran productor de estos gases.

Para producir un efecto notable en la reducción de emisiones de CO2 se requeriría construir 2000 nuevos reactores de gran tamaño (1000 MW) en todo el mundo. En EE.UU. serían necesarios entre 300 y 400 nuevos reactores en los próximos 30-50 años, incluyendo los necesarios para reemplazar aquellos que se retiren del servicio durante ese periodo. El uranio no es un recurso renovable y esta opción exigiría consumir las reservas mundiales mucho más rápidamente. Las reservas actuales son suficientes para 50 años de producción de energía nuclear mediante el consumo de uranio 235, al ritmo de consumo actual; si se reemplazase todo el combustible fósil en la producción de energía eléctrica por energía nuclear, las reservas de uranio se agotarían en tres o cuatro años. Sin embargo existen alternativas nucleares en desarrollo, como el uso del isótopo más abundante del uranio (el 238, unas 1400 veces más abundante que el 235), el torio (su isótopo 232), 20000 veces más abundante o la fusión.

La legislación Belga de abandono fue aprobada en julio de 1999 por los partidos liberales (VLD y MR), los socialistas (SP.A y PS)y los partidos verdes (Groen! y Ecolo). La ley prevé que los siete reactores nucleares del país cierren después de 40 años de operación (que es la vida de diseño de una central nuclear), y prohíbe la construcción de nuevas centrales. Cuando la ley fue aprobada, se especuló acerca del futuro de la misma bajo un gobierno no asociado al partido verde.

En 2003 resultó elegido un nuevo gobierno sin los verdes. En septiembre de 2005 se revocó parcialmente la decisión alargando en 20 años adicionales el periodo de abandono, con la posibilidad de nuevas prórrogas posteriores. Aún se desconoce si se construirán nuevas instalaciones nucleares. La razón que se planteó para revocar la decisión de la parada de los reactores belgas fue la imposibilidad del reemplazo de la electricidad que en este momento se genera mediante centrales nucleares con energías alternativas, siendo las únicas alternativas prácticas el empleo masivo de nuevas centrales térmicas de petróleo o carbón o la compra de electricidad a otros países. La primera de las opciones no parece factible debido a las restricciones que impone el protocolo de Kyoto, mientras que la segunda tiene unos costes asociados mayores que la continuación del uso de las propias centrales nucleares belgas.

En julio de 2005 el Bureau Nacional de Planificación publicó un informe que señala que el petróleo y otros combustibles fósiles generan el 90% de la energía utilizada en el país, mientras que la energía nuclear genera el 9% y la energía renovable el 1%. Debe notarse que sólo el 19% de la energía total consumida es eléctrica (el resto se consume en el transporte), y que en ciertas zonas de Bélgica como Flandes la energía nuclear proporciona hasta más del 50% de la energía eléctrica a los hogares y empresas. Esta fue la principal razón planteada para la extensión del plazo para el abandono de la energía nuclear, ya que era imposible alcanzar el 50% de la generación de electricidad mediante el uso de energías renovables, y el uso de combustibles fósiles acarrearía la imposibilidad del cumplimiento del protocolo de Kyoto.

Se estima que en un lapso de 25 años la energía renovable se incrementará como máximo en un 5%, debido a los altos costes asociados. El plan actual del gobierno belga prevé el cierre de las plantas nucleares para el 2025. Ese informe creó cierta preocupación en relación con los gases que causan el efecto invernadero y la sostenibilidad del sistema.

En agosto de 2005, el Grupo Suez de Francia ofreció comprar Electrabel de Bélgica, que opera los reactores nucleares. A finales del 2005 Suez poseía el 98.5% de las acciones de Electrabel. A comienzos del 2006 Suez y Gas de Francia anunciaron su fusión.

En 2000 el gobierno alemán, formado por el SPD y la alianza '90/los verdes, anunció oficialmente sus intenciones de abandonar la energía nuclear. Jürgen Trittin (de los verdes alemanes) como Ministro de Medio Ambiente, Conservación de la Naturaleza y Seguridad Nuclear, alcanzó un acuerdo con las compañías de energía para la parada gradual de los 19 reactores nucleares que posee el país, y el cese del uso civil de la energía nuclear para el año 2020. Basado en los cálculos de 32 años del tiempo habitual de operación de los reactores, el acuerdo estipula de forma precisa cuánta energía se permite generar a una planta antes de su cierre.

Los reactores en Stade y Obrigheim fueron cerrados el 14 de noviembre de 2003 y el 11 de mayo de 2005 respectivamente. El comienzo de su desmantelamiento está programado para 2007. No se descarta que los reactores pudieran ser puestos de nuevo en funcionamiento por el recientemente elegido gobierno liderado por el partido Unión Democristiana.

Los activistas anti-nucleares critican el acuerdo puesto que creen que es más una garantía de operación que un abandono de la energía nuclear. También argumentan que el tiempo límite para el abandono de la energía nuclear es demasiado extenso, y que el acuerdo prohíbe solamente la construcción de plantas nucleares comerciales, y no es aplicable a las centrales nucleares de uso científico, que desde entonces han comenzado su operación, ni a las instalaciones para el enriquecimiento de uranio. Más aún, no se prohibió inmediatamente el reprocesado de combustible nuclear, sino que se permitió hasta mediados del 2005.

Una nueva ley para las fuentes de energía renovable creó un nuevo impuesto de apoyo a las energías renovables. El gobierno alemán, que declara que la protección del clima es un asunto clave de su política, anunció un objetivo de reducción de las emisiones de CO2 en un 25% en comparación con las de 1990. En 1998 el uso de energías renovables alcanzó los 284 PJ de demanda energética primaria, que corresponde a un 5% de la demanda eléctrica total. Para 2010 el gobierno plantea alcanzar el 10%.

Los activistas anti-nucleares argumentan que el gobierno alemán ha apoyado el uso de la energía nuclear dando garantías financieras a los suministradores. También plantean que hasta el momento no existen planes para el almacenamiento final de los residuos nucleares. Y opinan que endureciendo las regulaciones en seguridad e incrementando los impuestos podría haberse forzado un abandono más rápido de la energía nuclear. También se plantea que el cierre se ha realizado a costa de concesiones en cuestiones de seguridad al deber transportar los residuos nucleares a lo largo de toda Alemania. Este punto ha sido desmentido por el ministro de Medio Ambiente, Conservación de la Naturaleza y Seguridad Nuclear.

Los críticos de los planes de abandono de la energía nuclear en Alemania argumentan que las centrales nucleares no podrán ser compensadas, y predicen una crisis energética, o aducen que solo el carbón o el petróleo podrían compensar la energía nuclear, incrementando de forma tremenda las emisiones de CO2. Además deberían crecer las importaciones de electricidad, que se realizarían de forma irónica de energía nuclear generada en Francia o de gas natural ruso, que algunos no perciben como un suministrador seguro.

Debido a los crecientes precios de los combustibles fósiles florecieron discusiones acerca de un abandono del abandono. En las elecciones federales de 2002 el candidato para canciller de la CDU/CSU, Edmund Stoiber, prometió cancelar los planes de abandono de la energía nuclear, en caso de ganar. En las elecciones federales de 2005 ganó Angela Merkel, candidata de la CDU y actual canciller, que ha anunciado negociar con las compañías de energía el tiempo límite para el cierre de los reactores nucleares. La batalla sobre la energía nuclear que fue planteada como un elemento clave en la colición entre el CDU y el SPD se decidió a favor del abandono.

El abandono de la energía nuclear en Italia comenzó un año después del accidente de Chernobyl en 1986. Tras un referéndum en 1987 se decidió cerrar las cuatro centrales nucleares de producción eléctrica, cerrándose la última en 1990. Además, la moratoria de construcción de nuevas centrales nucleares, que originalmente tenía efecto de 1987 a 1993, se extendió finalmente de forma indefinida.

Italia es un importador neto de energía primaria, importando todo el petróleo, gas, carbón y electricidad de países extranjeros.

En 2006 Italia es importador de electricidad de generación nuclear, y su mayor empresa eléctrica ENEL SPA invierte en reactores nucleares en Francia y Eslovaquia para que puedan proveerle de electricidad en el futuro, además de que forman parte del desarrollo de la tecnología del EPR.

El abandono continúa siendo un asunto vivo en la política italiana. El Ministro Italiano de Medio Ambiente, Altero Matteoli, anunció en octubre de 2005 el interés del uso de la energía nuclear como fuente principal de energía en unos 10-15 años.

En 1994 el Parlamento votó su abandono tras una discusión sobre la gestión de los residuos nucleares. La planta eléctrica en Dodewaard fue apagada en 1997. En 1997 el gobierno decidió finalizar la licencia de operación de la central nuclear de Borssele a finales del 2003.

En 2003 el apagado fue pospuesto por el gobierno conservador hasta 2013.

En 2005 la decisión fue revocada y se inició una investigación sobre la expansión del uso de la energía atómica. Esta revocación fue precedida por la publicación de un reportaje sobre energía sostenible de la CDA (principal partido de la coalición de gobierno, democristiano). Otros partidos políticos la apoyaron en ese momento.

En el 2006 el gobierno decidió que Borssele permanecería abierta hasta el 2033, mientras pueda cumplir con normas de seguridad incrementadas. Los propietarios, Essent y Delta invertirán junto al gobierno 500 millones de euros en energía sostenible, dinero que el gobierno dice que de todos modos deberían haber pagado a los propietarios de las centrales como compensación.

En Filipinas, en 2004, la Presidenta Gloria Macapagal-Arroyo definió su política energética. Quería incrementar las reservas nacionales de petróleo y gas mediante exploraciones, el desarrollo de las fuentes de energía alternativas, reforzar el desarrollo del gas natural como combustible y el coco diesel como combustible alternativo. También el establecimiento de colaboraciones con Arabia Saudí, los países asiáticos, China y Rusia. También hizo públicos sus planes para convertir la Planta de Energía Nuclear de Bataan en una planta alimentada por gas.

Después de la fusión parcial del núcleo de la planta de generación nuclear de Three Mile Island en Estados Unidos en el año 1979, se realizó un referéndum en Suecia en que la gente sólo podía votar "No a lo nuclear". Aunque existían 3 soluciones, todas eran básicamente un suave o un duro "No". Después el parlamento sueco decidió en 1980 que no se iba a continuar con las plantas nucleares que debían construirse, y que la retirada progresiva de la energía nuclear debería terminarse para el 2010. Después del Accidente de Chernóbil de 1986 (en la actual Ucrania) el tema de la seguridad de la energía nuclear fue puesto en duda de nuevo. En 1997 el Riksdag, el parlamento sueco, decidió parar uno de los reactores nucleares de Barsebäck el 1 de julio, de 1998 y el segundo antes del primero de julio de 2001, aunque bajo la condición de que su producción de energía fuera compensada. El siguiente gobierno conservador trató de cancelar el proceso de parada de las centrales nucleares, pero su decisión fue revocada debido a las protestas. En cambio decidieron alargar el límite de tiempo de vida de las centrales hasta el 2010. En Barsebäck el grupo 1 fue apagado el 30 de noviembre de 1999, y el grupo 2 el 1 de junio, de 2005.

El proceso de abandono de la energía nuclear en Suecia ha sido controvertido. Algunas personas temen que Suecia pierda su competitividad internacional. La producción de energía de las restantes plantas nucleares se ha aumentado considerablemente en los últimos años para compensar el cierre de Barsebäck. En 1998, el gobierno decidió no construir más plantas hidroeléctricas para proteger los recursos de agua.

El 25 de julio de 2006 se produjo un fallo eléctrico en el reactor número 1 de la central de Forsmark, incidente clasificado preliminarmente de nivel 2 en la escala INES (escala de 7 niveles) por la autoridad reguladora sueca SKI. Lars-Olov Höglund, ex-director de la central, afirmó que "fue pura suerte que no ocurriese una fusión del núcleo". Otros tres reactores nucleares de idéntico diseño (Forsmark II, Oskarshamns I y Oskarshamns II) fueron apagados el 4 de agosto de 2006 para llevar a cabo una investigación por el organismo regulador. La investigación dio como resultado que eran necesarios cambios en la instalación eléctrica de Forsmark-I, II y Oskarhamns-II. A fecha de 14 de septiembre de 2006 era inminente el rearranque de Oskarshamns-II, y aún no se había sido solicitado permiso para el rearranque de Oskarshamns-I.

En Suiza han realizado muchos referendums en cuanto al tema de la energía nuclear, empezando en 1979 con una iniciativa ciudadana a favor de la seguridad nuclear, la cual fue rechazada. En este país las centrales nucleares no tienen un límite de vida establecido como se ha hecho en otros países con energía nuclear.

En España en 1983 el gobierno socialista promulgó una moratoria nuclear (aún vigente) y se inició la discusión (como en el resto de Europa) sobre qué debía hacerse con la energía nuclear. En 2005 con un gobierno socialista y ante la subida imparable de los precios de los combustibles fósiles importados se reabrió el debate sobre la necesidad de la energía nuclear.

En el Debate sobre el Estado de la Nación de 2006 el Gobierno español confirmó la decisión de abandonar la energía nuclear.

En 1990 se cerró la central nuclear de Vandellós-I debido a los daños ocasionados por un incendio que se había producido el año anterior. El 30 de abril de 2006 se cerró la central nuclear de Zorita, la más antigua del país. En España quedan 8 centrales nucleares en funcionamiento.

El gobierno anunció el cierre de la central nuclear de Garoña en 2009. Su vida útil inicialmente finalizaba en el 2011, siendo esta la de construcción más antigua en España tras Zorita.

España busca ahora una ubicación para un Almacén Temporal Centralizado (ATC) de residuos radiactivos de alta actividad, que deberá estar en funcionamiento en el año 2011 (año en que deberá comenzar a albergar el combustible gastado procedente del desmantelamiento de las centrales de Vandellós, Garoña y Zorita). El municipio que acepte albergarlo recibirá 700 millones de euros, 300 puestos de trabajo en construcción y 110 durante su mantenimiento (previsto de 60 años), aparte de las compensaciones contempladas en la legislación vigente (11,5 millones de euros anuales). La fecha de presentación de solicitudes de los municipios comenzó la tercera semana de septiembre. Los 69 municipios integrados en la AMAC (Asociación de Municipios en Áreas de Centrales Nucleares) solicitaron información sobre el ATC. Una noticia del diario gratuito "20 minutos" afirma que de los 9 municipios que se interesaron por la propuesta casi todos han desistido ya tras pulsar la opinión vecinal.

En 1968 se propuso construir por primera vez una planta nuclear. Debía haberse construido durante los años 70 en Carnsore Point en el Condado de Wexford. El plan preveía inicialmente una sola planta, que posteriormente fueron ampliadas hasta cuatro en el mismo lugar, pero se desistió debido a la fuerte oposición de los grupos medioambientales, e Irlanda ha continuado desde entonces sin energía nuclear. A pesar de la oposición a la energía nuclear (y al reprocesado de combustible nuclear en Sellafield) Irlanda estableció una conexión con Gran Bretaña para comprarle electricidad, la cual es en parte producto de la energía nuclear.

El 9 de julio de 1997, el Parlamento Austríaco votó por unanimidad mantener su política nacional antinuclear.

Con cifras de 2002, EDF - la mayor compañía francesa de generación y distribución de electricidad, estatal- produce alrededor del 78% de su electricidad con 58 plantas de energía nuclear. Los sectores críticos han destacado la desproporción de medios suministrados por la energía nuclear con relación a la procedente de la de otros medios - carbón y petróleo importados básicamente -, sin embargo el conjunto de la sociedad francesa acepta la energía nuclear.

La Central nuclear de Kozloduy posee seis reactores de agua presurizada con una potencia total de 3760 MWe actualmente. Cuatro son viejos reactores VVER-440 V230, considerados peligrosos, y que de acuerdo con un acuerdo de 1993 entre el Banco Europeo para la Reconstrucción y el Desarrollo (BERD) y el gobierno búlgaro debían ser cerrados a finales de 1998. Las Unidades 5 y 6 son reactores VVER-1000 más nuevos.

A principios de los 90, creció la preocupación acerca de los efectos de las plantas de energía nuclear sobre el feto humano, cuando se detectó una mayor incidencia de casos de leucemia en las proximidades de alguna de estas plantas. El efecto fue especulativo dado que otros incrementos fueron también encontrados en lugares donde no habían plantas nucleares y tampoco todas las plantas registraban incrementos en sus alrededores. Los estudios llevados a cabo por COMARE, Compete on Medical Aspects of Radiation in the Environment (Comisión sobre Aspectos Médicos de la Radiación en el Ambiente) en 2003, no encontraron ninguna evidencia de relación entre la energía nuclear y la leucemia infantil. Una encuesta de opinión llevada a cabo en 2003 en Gran Bretaña por MORI por cuenta de Greenpeace mostró un respaldo amplio a la energía eólica, con una mayoría a favor de poner fin a la energía nuclear en igualdad de costos. Recientemente, se ha producido una acalorada discusión acerca del despilfarro nuclear. Como reacción se creó en abril de 2005, bajo la Energy Act 2004, la Autoridad para el Desmantelamiento Nuclear (Nuclear Decommissioning Authority) (NDA) para garantizar que 20 emplazamientos nucleares británicos del sector público fueran desmantelados y descontaminados con seguridad y de forma que se protegiera el medio ambiente para las futuras generaciones.

En abril de 2005, los consejeros del Primer Ministro Británico Tony Blair sugirieron que la construcción de nuevas plantas de energía nuclear sería el mejor modo para cumplir con los objetivos nacionales de reducción de las emisiones de gases responsables del calentamiento global. El gobierno tiene un objetivo a corto plazo para recortar por debajo del 20% los niveles de 1997 y un recorte más ambicioso del 60% para 2050. Los críticos a la energía nuclear dicen que esta medida no ayudará a cumplir el objetivo de 2010, debido al largo periodo de tiempo necesario para planificar, construir e instalar tales plantas de energía. No obstante, los que respaldan la idea dicen que la energía nuclear ayudará a cumplir el recorte del 60% para el 2050.

En 2003 se cierra su única planta nuclear, ubicada en Krško, decidiéndose no construir nuevas plantas.

El Parlamento de Finlandia votó el 24 de mayo de 2002 construir su quinta planta de energía nuclear. Como razones se dieron motivaciones económicas, de seguridad energética y ambientales (política climática). Mientras que la generación de energía hidroeléctrica se ve recortada en años de sequía, la energía nuclear suminista volúmenes de energía constantes. Con una demanda creciente (las proyecciones apuntan a la necesidad de 7500 MW de capacidad adicional para 2030) y la necesidad de asegurar un suministro económico fiable para el largo plazo, varios estudios muestran que la energía nuclear es la opción más barata para Finlandia.

Los Verdes abandonaron el gobierno como reacción a esta decisión, con la dimisión del Ministro de Medio Ambiente, Satu Hassi. Otras fuentes ven en la construcción un subsidio encubierto para la poderosa industria papelera finesa, que es una voraz consumidora de energía eléctrica.

El voto se consideró muy significativo en lo que supone la construcción, después de más de una década, de una nueva central nuclear en Europa Occidental. La compañía eléctrica TVO, que pretende explotar el nuevo reactor, consiguió imponer condiciones extremadamente favorables en la construcción del reactor, debido a su importancia estratégica para la industria nuclear: la feroz competencia entre los fabricantes hizo que el precio del proyecto descendiera a 3200 millones de euros (aunque este precio todavía excedía en 700 millones de euros el coste máximo previsto durante el debate político). Areva, la compañía pública francesa que construirá el nuevo reactor, planea actualmente construir uno similar en Francia, aunque su coste será un 25% más alto que el acordado para Finlandia. Otro hecho a tener en cuenta es que TVO y Areva establecieron un contrato de precio fijo, lo cual implica que si los costes totales exceden los 3200 millones de euros (algo bastante probable dado el nuevo diseño, los ambiciosos plazos y el retraso ya acumulado de 18 meses), Areva deberá cubrir los costes adicionales. Esta y otras razones han llevado a que la Comisión Europea esté investigando la existencia de ayudas estatales ilegales en la financiación del nuevo reactor, según la denuncia de la Federación Europea de Energías Renovables.

A pesar de todas estas ventajas para la compañía TVO, Standard & Poor's modificó la calificación crediticia de TVO de "estable" a "negativa", después de que se anunciara la decisión de construir el nuevo reactor. Según el analista crediticio Andreas Zsiga, de Standard & Poor's, esto "refleja el creciente riesgo financiero y comercial que puede producirse si TVO decide seguir adelante".

Los grupos ecologistas fineses han establecido una página web para suministrar información sobre la construcción de este reactor nuclear: (en inglés)www.olkiluoto.info.

Se han hecho planes para incrementar el número de reactores en funcionamiento de veintinueve a cincuenta y nueve, financiados con la ayuda de préstamos de la Unión Europea. Los viejos reactores serán mantenidos y actualizados, incluidas las unidades RBMK similares al reactor de Chernobyl. En agosto de 2005, Rusia y Finlandia, acordaron la exportación de energía nuclear desde Finlandia hacia Rusia. China y Rusia acordaron estrechar la cooperación en la construcción de plantas nucleares en octubre de 2005.

Nueva Zelanda promulgó en 1987 la New Zealand Nuclear Free Zone, Disarmament, and Arms Control Act (Acta de 1987 de Zona Libre Nuclear, Desarme y Control de Armas), que prohíbe el estacinamiento de armamento nuclear en el territorio de Nueva Zelanda y la entrada en aguas de Nueva Zelanda de embarcaciones con armamento o propulsión nuclear. Esta Acta del Parlamento, no obstante, no prohíbe la construcción de plantas de energía nuclear.

En Australia no hay ninguna planta nuclear. Australia tiene unas reservas de carbón muy extensas y de bajo costo de extracción, y considerables reservas de gas natural. La mayoría de la opinión política se opone a la energía nuclear doméstica tanto por motivos medioambientales como económicos. Sin embargo, un número de destacados políticos ha empezado a invocar la energía nuclear como un medio asequible de reducir las emisiones contaminantes y tal vez facilitar la instalación de plantas desalinizadoras a gran escala.

China e India están actualmente construyendo nuevas plantas de energía nuclear.

En Taiwán, el petróleo supone el 48% del total de consumo energético. Le sigue el carbón con un 34%, y, a continuación, la energía nuclear con un 9%, el gas natural con un 8% y la energía hidráulica (por debajo del 2%). La energía nuclear es objeto de controversia y la privatización del mercado energético (con Taipower que es una compañía estatal), que fue inicialmente prevista para 2001, fue pospuesta en el 2002 hasta el 2006. Taipower tiene una capacidad instalada de 31.915 MW, de los cuales el 69% correspondían a térmicas, 16% a nucleares y 14% a hidráulicas. A principios del 2000, fue elegido el gobierno del Partido Progresista Democrático, con las promesas de aprobar para el futuro únicamente proyectos de energía de gas natural licuado, y de incrementar la participación del gas natural licuado en la generación de la energía de Taiwan hasta alcanzar alrededor de la tercera parte del total para 2010. Se intentó detener la construcción en marcha de la planta nuclear de Kungliao de 2.700 MW, pero un tribunal falló que la construcción no podía ser interrumpida.

En Japón, según la situación al año 2005, 55 reactores generan el 30% de su electricidad. El 80% de su energía procede de la importación. Desde 1973 la energía nuclear ha constituido una prioridad estratégica nacional.

Con datos al año 2005, Corea del Sur tiene 18 reactores de energía nuclear operativos, y dos más en construcción y previstos para su inaugración en el 2004. Lentamente, la energía renovable, principalmente hidroeléctrica, va ganando cuota de participación.

En Corea del Norte, dos reactores de agua presurizada, en Kumho, estaban en construcción, la cual fue suspendida en noviembre de 2003. El 19 de septiembre de 2005 se comprometió a suspender la construcción de armas nucleares y a permitir las inspecciones internacionales a cambio de ayudas en el sector energético, las cuales incluirían uno o más reactores de agua ligera (El acuerdo decía: "Las otras partes expresaron su respeto y acordaron debatir en el momento adecuado los temas para el suministro de reactor/es de agua ligera").

Irán tiene dos plantas de energía nuclear en construcción y, como cualquier otro país, el derecho legal al enriquecer uranio con fines pacíficos de acuerdo con el Tratado para la No Proliferación de Armas Nucleares. A partir de 2005 los Estados Unidos y la Unión Europea comenzaron a denunciar que el Tratado había sido vulnerado por el programa nuclear secreto que fue descubierto en 2002. Irán afirma que la energía nuclear es necesaria para una población en expansión que ha más que duplicado su número en los últimos veinte años, así como para su creciente industrialización. El país importa de forma habitual gasolina y electricidad, y la combustión en grandes cantidades de petróleo fósil daña de forma drástica el medio ambiente iraní. Irán cuestiona que no se le permita la diversificación de sus fuentes de energía, especialmente cuando existe el temor de que sus campos petrolíferos pudieran estar agotándose. Además, reivindica que su petróleo debiera utilizarse para obtener productos de alto valor, y no simplemente en la conversión en electricidad. Irán también expone cuestiones financieras, reclamando que el desarrollo del exceso de capacidad en su industria petrolera podría costar 40 mil millones de dólares, sólo para el pago de las plantas energéticas. La dotación de elementos para energía nuclear costaría sólo una parte de esta cifra, si se tiene en consideración sus abundantes recursos accesibles de mineral de uranio.

En julio de 2000, el gobierno de Turquía decidió no construir una controvertida planta nuclear en Akkuyu.

En los Estados Unidos, la explotación se inició cuando el Presidente Dwight D. Eisenhower inauguró la central nuclear de Shippingport el 26 de mayo de 1958 como parte de su programa Átomos para la Paz. El Reactor de Shippingport fue la primera planta de energía nuclear construida en los Estados Unidos.

En 2004 en los Estados Unidos, había 69 reactores comerciales de agua presurizada y 35 de vapor de agua con unidades autorizadas a funcionar en total, 104 produciendo un total de 97.400 MW, que, aproximadamente, representa el 20% del total de consumo eléctrico nacional. Los Estados Unidos son el mayor proveedor mundial comercial de energía nuclear.

Varias plantas nucleares de Estados Unidos se han cerrado con antelación a sus vidas previstas de funcionamiento, incluyendo las plantas de Rancho Seco en 1989 en California, San Onofre Unit 1 en 1992 en California (las unidades 2 y 3 siguen funcionando), Zion en 1998 en Illinois y Trojan en 1992 en Oregon. No obstante, un gran número de plantas han recibido recientemente una prórroga de 20 años para sus períodos de vigencia autorizados.

En los EE.UU., con datos de 2005, ninguna planta nuclear ha sido encargada sin la subsiguiente cancelación durante veinte años. Sin embargo, el 22 de septiembre de 2005 se anunció que dos nuevos emplazamientos habían sido seleccionados para recibir nuevos reactores de energía (con exclusión del nuevo reactor programado para INL) - ver Programa de Energía Nuclear 2010, y otros dos equipamientos tenían planes para nuevos reactores. También había una instalación para un permiso anterior en Exelon's Clinton Nuclear en Clinton, Illinois para instalar otro reactor así como un rearranque de un reactor en la planta nuclear de la Tennessee Valley Authority Browns Ferry.

No se ha previsto la construcción de una nueva planta nuclear, solo ha habido propuestas de parte de la CFE (Comisión Federal de Electricidad). Lo que si se tiene previsto es que la planta nuclear en Laguna Verde en Veracruz al terminar su vida productiva sea cerrada.

En Argentina existen dos plantas de energía nuclear, en la localidades de Atucha, Provincia de Buenos Aires, y de Embalse, Provincia de Córdoba. Se encuentra en avanzado estado de construcción una tercera planta en Atucha.

En Brasil, la energía nuclear, producida por dos reactores en la Angra, proporciona alrededor del 4% de la electricidad del país - en torno a 13.000 GWh por año.

Informaciones periodísticas (I semestre 2006) señalan que ambos países están considerando concluir las centrales que estaban con su cronograma de construcción desacelerado.

En África la Unión Sudafricana es el único país con plantas de energía nuclear. Tiene una planta en Koeberg.

Varios países, en su mayoría europeos, se plantearon el abandono del uso de la energía nuclear a partir de 1987. Austria (1978), Suecia (1980) e Italia (1987) votaron en referéndum la oposición o el abandono de la energía nuclear. Entre los países que no tienen plantas nucleares y han prohibido la construcción de nuevas plantas se incluyen Australia, Austria, Dinamarca, Grecia, Irlanda y Noruega (este último tiene dos reactores de investigación). Polonia detuvo la construcción de un reactor. Bélgica, Alemania, Holanda, España y Suecia decidieron no construir nuevos reactores o tienen intenciones de abandonar la energía nuclear, aunque en su mayoría todavía dependen en mayor o menor medida de ella. Suiza tuvo una moratoria para el cese de construcción de plantas nucleares durante 10 años, pero en referéndum en 2003 se decidió no renovarla.

El parlamento de Finlandia aprobó en 2002 la construcción de una quinta central nuclear. Esta fue la primera decisión tomada en este sentido en una década en Europa Occidental.

Si los países abandonan la energía nuclear, deberán encontrar alternativas para la generación de energía, si no desean depender de la importación de combustibles fósiles (en su mayoría procedentes de países inestables políticamente). Por esta razón, las discusiones de un futuro abandono suelen estar ligadas a discusiones sobre el desarrollo de las energías renovables. Entre las alternativas a la energía nuclear más discutidas se encuentran la hidroeléctrica, la energía eólica, la energía solar y la biomasa. También los combustibles fósiles podrían ser considerados si la tecnología existente fuera mejorada para no producir efectos contaminantes.

Al principio



Source : Wikipedia