Aceleradores de partículas

3.4584342211413 (1239)
Publicado por daryl 22/04/2009 @ 10:16

Tags : aceleradores de partículas, física nuclear, física, ciencia

últimas noticias
La reparación del Acelerador de Partículas LHC superó la primera fase - Cooperativa.cl
Unos 53 grandes imanes tuvieron que ser retirados del gran Acelerador de Partículas LHC tras la grave avería que sufrió el pasado 19 de septiembre debido a un cortocircuito. Ahora, todos esos imanes, que fueron sacados a la superficie para llevarlos a...
Acelerando los aceleradores nucleares - Página 12
Uno no pensaría que los aceleradores de partículas fueran máquinas románticas, pero el jinete, quizás inspirado por el gran acelerador del CERN, trata de averiguar qué pasa con esa rama del mundo y la industria nuclear en la Argentina....
Un científico español imparte una conferencia en la UZ sobre el ... - Europa Press
El Gran Colisionador Hadrónico (LHC) es un acelerador de partículas que estudiará la naturaleza íntima de la materia a una escala hasta ahora nunca explorada y es el instrumento científico más grande y complejo construido hasta la fecha....
El profesor Javier Cuevas hablará sobre el acelerador de ... - La Nueva España
Javier Cuevas, profesor titular del Departamento de Física de la Facultad de Ciencias de la Universidad de Oviedo, pronunciará hoy, a las 20 horas, la conferencia titulada «El nuevo acelerador de partículas LHC, una nueva ventana al universo»,...
China termina la construcción de su acelerador de partículas para ... - La Opinión de Tenerife
El acelerador de partículas de Shanghai, la mayor plataforma de investigación científica de su tipo construida por China, ya está terminado. EFE El SSRF es una estructura de 432 metros de circunferencia diseñada para funcionar con una energía de 3,5...
Bilbao lleva a Canadá sus avances en el acelerador de protones - El País (España)
En el marco de la conferencia más importante a nivel mundial sobre aceleradores de partículas, celebrada en Vancouver (Canadá), la candidatura vasca ha incluido así las últimas recomendaciones que el comité de expertos propuso a ESS-Bilbao durante las...
Ginés Martínez García habla en el aulario sobre el acelerador de ... - La Verdad (Murcia)
La Universidad de Murcia, dentro del ciclo Los lunes de Ciencia, ha organizado una conferencia sobre el acelerador de partículas más grande del mundo que fue ofrecida el lunes por el investigador de la Universidad de Nantes (Francia) Ginés Martínez...
Un investigador ofrece hoy una conferencia en la UC sobre "la ... - Europa Press
Los científicos creen que, convenientemente explicada, 'Ángeles y demonios' puede servirles para divulgar al gran público su trabajo, a pocos meses de que se retomen los primeros experimentos de la gran instalación del CERN, el acelerador de partículas...
INVESTIGADORES DE LA HISPALENSE DESARROLLAN PRUEBAS PARA CIRCUITOS ... - Andalucía Investiga
Un grupo de la Escuela Superior de Ingenieros de la Universidad de Sevilla, dirigido por Miguel Ángel Aguirre, se encuentra inmenso en tres proyectos en los que desarrolla test basados en hardware, en láser y en aceleradores de partículas,...

Física

Si he logrado ver más lejos, ha sido porque he subido a hombros de gigantes.Sir Isaac Newton.

La física (del lat. physĭca, y este del gr. τὰ φυσικά, neutro plural de φυσικός) es una ciencia natural que estudia las propiedades del espacio, el tiempo, la materia, la energía y sus interacciones.

La física no es sólo una ciencia teórica, es también una ciencia experimental. Como toda ciencia, busca que sus conclusiones puedan ser verificables mediante experimentos y que la teoría pueda realizar predicciones de experimentos futuros. Dada la amplitud del campo de estudio de la física, así como su desarrollo histórico en relación a otras ciencias, se la puede considerar la ciencia fundamental o central, ya que incluye dentro de su campo de estudio a la química y a la biología, además de explicar sus fenómenos.

La física en su intento de describir los fenómenos naturales con exactitud y veracidad ha llegado a límites impensables, el conocimiento actual abarca desde la descripción de partículas fundamentales microscópicas, el nacimiento de las estrellas en el universo e incluso conocer con una gran probabilidad lo que aconteció los primeros instantes del nacimiento de nuestro universo, por citar unos pocos conocimientos.

Esta tarea comenzó hace más de dos mil años con los primeros trabajos de filósofos griegos como Demócrito, Epicuro o Aristóteles, y continuada después por científicos como Galileo Galilei, Isaac Newton, James Clerk Maxwell, Albert Einstein, Niels Bohr, Werner Heisenberg, Paul Dirac, Richard Feynman, entre muchos otros.

Se conoce que la mayoría de civilizaciones de la antigüedad trataron desde un principio de explicar el funcionamiento de su entorno, miraban las estrellas y pensaban como ellas podían regir su mundo. Esto llevo a muchas interpretaciones de carácter mas filosófico que físico, no en vano en esos momentos la física se la llamaba filosofía natural. Muchos filósofos se encuentran en el desarrollo primigenio de la física, como Aristóteles, Tales de Mileto o Demócrito, por ser los primeros en tratar de buscar algún tipo de explicación a los fenómenos que los rodeaban. A pesar de que las teorías descriptivas del universo que dejaron estos pensadores eran erradas, éstas tuvieron validez por mucho tiempo, casi dos mil años, en parte por la aceptación de la iglesia católica de varios de sus preceptos como la teoría geocéntrica o las tesis de Aristóteles.

Esta etapa denominada oscurantismo en la ciencia termina cuando Nicolás Copérnico, considerado padre de la astronomía moderna, en 1543 recibe la primera copia de su De Revolutionibus Orbium Coelestium. A pesar de que Copérnico fue el primero en formular teorías plausibles, es otro personaje al cual se le considera el padre de la física como la conocemos ahora. Un catedrático de matemáticas de la Universidad de Pisa a finales del siglo XVI cambiaría la historia de la ciencia empleando por primera vez experimentos para comprobar sus aseveraciones, Galileo Galilei. Con la invención del telescopio y sus trabajos en planos inclinados, Galileo empleó por primera vez el método científico y llegó a conclusiones capaces de ser verificadas. A sus trabajos se le unieron grandes contribuciones por parte de otros científicos como Johannes Kepler, Blaise Pascal, Christian Huygens.

Posteriormente, en el siglo XVII, un científico inglés reúne las ideas de Galileo y Kepler en un solo trabajo, unifica las ideas del movimiento celeste y las de los movimientos en la tierra en lo que el llamó gravedad. En 1687, Sir Isaac Newton en su obra Philosophiae Naturalis Principia Mathematica formuló los tres principios del movimiento y una cuarta Ley de la gravitación universal que transformaron por completo el mundo físico, todos los fenómenos podían ser vistos de una manera mecánica.

El trabajo de Newton en el campo, perdura hasta la actualidad; todos los fenómenos macroscópicos pueden ser descritos de acuerdo a sus tres leyes. De ahí que durante el resto de ese siglo y el posterior siglo XVIII, todas las investigaciones se basaron en sus ideas. De ahí que otras disciplinas se desarrollaron, como la termodinámica, la óptica, la mecánica de fluidos y la mecánica estadística. Los conocidos trabajos de Daniel Bernoulli, Robert Boyle, Robert Hooke entre otros, pertenecen a esta época.

Es en el siglo XIX donde se producen avances fundamentales en la electricidad y el magnetismo principalmente de la mano de Charles-Augustin de Coulomb, Luigi Galvani, Michael Faraday y Georg Simon Ohm que culminaron en el trabajo de James Clerk Maxwell de 1855 que logró la unificación de ambas ramas en el llamado electromagnetismo. Además se producen los primeros descubrimientos sobre radiactividad y el descubrimiento del electrón por parte de Joseph John Thomson en 1897.

Durante el Siglo XX, la Física se desarrolló plenamente. En 1904 se propuso el primer modelo del átomo. En 1905, Einstein formuló la Teoría de la Relatividad especial, la cual coincide con las Leyes de Newton cuando los fenómenos se desarrollan a velocidades pequeñas comparadas con la velocidad de la luz. En 1915 extendió la Teoría de la Relatividad especial, formulando la Teoría de la Relatividad general, la cual sustituye a la Ley de gravitación de Newton y la comprende en los casos de masas pequeñas. Max Planck, Albert Einstein, Niels Bohr y otros, desarrollaron la Teoría cuántica, a fin de explicar resultados experimentales anómalos sobre la radiación de los cuerpos. En 1911, Ernest Rutherford dedujo la existencia de un núcleo atómico cargado positivamente, a partir de experiencias de dispersión de partículas. En 1925 Werner Heisenberg, y en 1926 Erwin Schrödinger y Paul Adrien Maurice Dirac, formularon la Mecánica cuántica, la cual comprende las teorías cuánticas precedentes y suministra las herramientas teóricas para la Física de la materia condensada.

Posteriormente se formuló la Teoría cuántica de campos, para extender la mecánica cuántica de manera consistente con la Teoría de la Relatividad especial, alcanzando su forma moderna a finales de los 40, gracias al trabajo de Richard Feynman, Julian Schwinger, Tomonaga y Freeman Dyson, quienes formularon la teoría de la electrodinámica cuántica. Asimismo, esta teoría suministró las bases para el desarrollo de la física de partículas. En 1954, Chen Ning Yang y Robert Mills desarrollaron las bases del modelo estándar. Este modelo se completó en los años 1970, y con él fue posible predecir las propiedades de partículas no observadas previamente, pero que fueron descubiertas sucesivamente, siendo la última de ellas el quark top.

Los intentos de unificar las cuatro interacciones fundamentales ha llevado a los físicos a nuevos campos impensables. Las dos teorías más aceptadas, la mecánica cuántica y la relatividad general, que son capaces de describir con gran exactitud el macro y el micromundo, parecen incompatibles cuando se las quiere ver desde un mismo punto de vista. Es por eso que nuevas teorías han visto la luz, como la supergravedad o la teoría de cuerdas, que es donde se centran las investigaciones a inicios del siglo XXI.

La física en su búsqueda de describir la verdad última de la naturaleza, tiene varias bifurcaciones, las cuales podría agruparse en cinco teorías principales: la mecánica clásica describe el movimiento macroscópico, el electromagnetismo describe los fenómenos electromagnéticos como la luz, la relatividad formulada por Einstein describe el espacio-tiempo y la interacción gravitatoria, la termodinámica describe los fenómenos moleculares y de intercambio de calor, y finalmente la mecánica cuántica describe el comportamiento del mundo atómico.

Como mecánica clásica se conoce a la descripción del movimiento de cuerpos macroscópicos a velocidades muy pequeñas en comparación la velocidad de la luz. Existen dos tipos de formulaciones de ésta mecánica conocidas como mecánica newtoniana y mecánica analítica.

La mecánica newtoniana, como su nombre lo indica, lleva intrínsecos los preceptos de Newton. A partir de las tres ecuaciones formuladas por Newton y mediante el cálculo diferencial e integral se llega a una muy exacta aproximación de los fenómenos físicos. Ésta formulación también es conocida como mecánica vectorial y es debido a que a varias magnitudes se les debe definir su vector en un sistema de referencia inercial privilegiado.

La mecánica analítica es una formulación matemática abstracta sobre la mecánica, nos permite desligarnos de esos sistemas de referencia privilegiados y tener conceptos más generales al momento de describir un movimiento con el uso del cálculo de variaciones. Existen dos formulaciones equivalentes, la llamada mecánica lagrangiana es una reformulación de la mecánica realizada por Joseph Louis Lagrange que se basa en la, ahora llamada, ecuación de Euler-Lagrange (ecuaciones diferenciales de segundo orden) y el principio de mínima acción; la otra llamada mecánica hamiltoniana es una reformulación máss teórica basada en una funcional llamada hamiltoniano realizada por William Rowan Hamilton. En última instancia las dos son equivalentes.

En la mecánica clásica en general se tienen tres aspectos invariantes: el tiempo es absoluto, la naturaleza de forma espontánea realiza la mínima acción y la concepción de un universo determinado.

El electromagnetismo describe la interacción de partículas cargadas con campos eléctricos y magnéticos. Se puede dividir en electrostática, el estudio de las interacciones entre cargas en reposo, y la electrodinámica, el estudio de las interacciones entre cargas en movimiento y la radiación. La teoría clásica del electromagnetismo se basa en la fuerza de Lorentz y en las ecuaciones de Maxwell.

La electrostática es el estudio de los fenómenos asociados a los cuerpos cargados en reposo. Como se describe por la ley de Coulomb, estos cuerpos ejercen fuerzas entre sí. Su comportamiento se puede analizar en términos de la idea de un campo eléctrico que rodea cualquier cuerpo cargado, de manera que otro cuerpo cargado colocado dentro del campo estará sujeto a una fuerza proporcional a la magnitud de su carga y de la magnitud del campo en su ubicación. El que la fuerza sea atractiva o repulsiva depende de la polaridad de la carga. La electrostática tiene muchas aplicaciones, que van desde el análisis de fenómenos como tormentas eléctricas hasta el estudio del comportamiento de los tubos electrónicos.

La electrodinámica es el estudio de los fenómenos asociados a los cuerpos cargados en movimiento y a los campos eléctricos y magnéticos variables. Dado que una carga en movimiento produce un campo magnético, la electrodinámica se refiere a efectos tales como el magnetismo, la radiación electromagnética, y la inducción electromagnética, incluyendo las aplicaciones prácticas, tales como el generador eléctrico y el motor eléctrico. Esta área de la electrodinámica, conocida como electrodinámica clásica, fue sistemáticamente explicada por James Clerk Maxwell, y las ecuaciones de Maxwell describen los fenómenos de esta área con gran generalidad. Una novedad desarrollada más reciente es la electrodinámica cuántica, que incorpora las leyes de la teoría cuántica a fin de explicar la interacción de la radiación electromagnética con la materia. Paul Dirac, Heisenberg, y Wolfgang Pauli fueron pioneros en la formulación de la electrodinámica cuántica. La electrodinámica relativista da unas correcciones que se introducen en la descripción de los movimientos de las partículas cargadas cuando sus velocidades se acercan a la velocidad de la luz. Se aplica a los fenómenos involucrados con aceleradores de partículas y con tubos electrónicos funcionando a altas tensiones y corrientes.

El electromagnetismo abarca diversos fenómenos del mundo real como por ejemplo, la luz. La luz es un campo electromagnético oscilante que se irradia desde partículas cargadas aceleradas. Aparte de la gravedad, la mayoría de las fuerzas en la experiencia cotidiana son consecuencia de electromagnetismo.

Los principios del electromagnetismo encuentran aplicaciones en diversas disciplinas afines, tales como las microondas, antenas, máquinas eléctricas, comunicaciones por satélite, bioelectromagnetismo, plasmas, investigación nuclear, la fibra óptica, la interferencia y la compatibilidad electromagnéticas, la conversión de energía electromecánica, la meteorología por radar, y la observación remota. Los dispositivos electromagnéticos incluyen transformadores, relés eléctricos, radio / TV, teléfonos, motores eléctricos, líneas de transmisión, guías de onda, fibras ópticas y láseres.

La relatividad es la teoría formulada principalmente por Albert Einstein a principios del siglo XX, se divide en dos cuerpos de investigación: la relatividad especial y la relatividad general.

En la teoría de la relatividad especial, Einstein, Lorentz, Minkowski entre otros, unificaron los conceptos de espacio y tiempo, en un ramado tetradimensional al que se le denominó espacio-tiempo. La relatividad especial fue una teoría revolucionaria para su época, con la que el tiempo absoluto de Newton quedo relegado y conceptos como la invariancia en la velocidad de la luz, la dilatación del tiempo, la contracción de la longitud y la equivalencia entre masa y energía fueron introducidos. Además con las formulaciones de la relatividad especial, las leyes de la física son invariantes en todos los sistemas de referencia inerciales, como consecuencia matemática se encuentra como límite superior de velocidad a la luz y se elimina la causalidad determinista que tenía la física hasta entonces. Hay que indicar que las leyes del movimiento de Newton es un caso particular de esta teoría donde la masa al viajar a velocidades muy pequeñas no experimenta variación alguna en longitud ni se transforma en energía y el tiempo se le puede considerar absoluto.

Por otro lado, la relatividad general estudia la interacción gravitatoria como una deformación en la geometría del espacio-tiempo. En esta teoría se introducen los conceptos de la curvatura del espacio-tiempo como la causa de la interacción gravitatoria, el principio de equivalencia que dice que para todos los observadores locales inerciales las leyes de la relatividad especial son invariantes y la introducción del movimiento de un partícula por líneas geodésicas. La relatividad general no es la única teoría que describe a la atracción gravitatoria pero es la que mas datos relevantes comprobables ha encontrado. Anteriormente a la interacción gravitatoria se la describía matemáticamente por medio de una distribución de masas, pero en esta teoría no solo la masa percibe esta interacción si no también la energía mediante la curvatura del espacio-tiempo y es por eso que se necesita otro lenguaje matemático para poder describirla, el cálculo tensorial. Muchos fenómenos, como la curvatura de la luz por acción de la gravedad y la desviación en la órbita de Mercurio son perfectamente predichas por esta formulación. La relatividad general también abrió otro campo de investigación en la física, conocido como cosmología y es ampliamente utilizada en la astrofísica.

La termodinámica trata los procesos de transferencia de calor, que es una de las formas de energía y como puede producir un trabajo con ella. En esta área se describe como la materia en cualquiera de sus estados (sólido, líquido, gaseoso) va transformándose. Desde un punto de vista macroscópico de la materia se estudia como ésta reacciona a cambios en su volumen, presión, temperatura entre otros. La termodinámica se basa en cuatro leyes principales: el equilibrio termodinámico (o ley cero), el principio de conservación de la energía (primera ley), el aumento temporal de la entropía (segunda ley) y la imposibilidad del cero absoluto (tercera ley).

Una consecuencia de la termodinámica es lo que hoy se conoce como mecánica estadística. Ésta rama estudia, al igual que la termodinámica, los procesos de transferencia de calor, pero contrario a la anterior desde un punto de vista molecular. La materia como se conoce esta compuesta por moléculas y el conocer el comportamiento de una sola de sus moléculas nos lleva a medidas erróneas. Es por eso que se debe tratar como un conjunto de elementos caóticos o aleatorios, y se utiliza el lenguaje estadístico y consideraciones mecánicas para describir comportamientos macroscópicos de este conjunto molecular microscópico.

La mecánica cuántica es la rama de la física que trata los sistemas atómicos y subatómicos y sus interacciones con la radiación electromagnética, en términos de cantidades observables. Se basa en la observación de que todas las formas de energía se liberan en unidades discretas o paquetes llamados cuantos. Sorprendentemente, la teoría cuántica sólo permite normalmente cálculos probabilísticos o estadísticos de las características observadas de las partículas elementales, entendidos en términos de funciones de onda. La ecuación de Schrödinger desempeña el papel en la mecánica cuántica que las leyes de Newton y la conservación de la energía hacen en la mecánica clásica. Es decir, la predicción del comportamiento futuro de un sistema dinámico, y es una ecuación de onda en términos de una función de onda la que predice analíticamente la probabilidad precisa de los eventos o resultados.

Según las teorías anteriores de la física clásica, la energía se trataba únicamente como un fenómeno continuo, en tanto que la materia se supone que ocupa una región muy concreta del espacio y que se mueve de manera continua. Según la teoría cuántica, la energía se emite y se absorbe en cantidades discretas y minúsculas. Un paquete individual de energía, llamado cuanto, en algunas situaciones se comporta como una partícula de materia. Por otro lado, se encontró que las partículas exponen algunas propiedades ondulatorias cuando están en movimiento y ya no son vistas como localizadas en una región determinada sino más bien extendidas en cierta medida. La luz u otra radiación emitida o absorbida por un átomo sólo tiene ciertas frecuencias (o longitudes de onda), como puede verse en la línea del espectro asociado al elemento químico representado por tal átomo. La teoría cuántica demuestra que tales frecuencias corresponden a niveles definidos de los cuantos de luz, o fotones, y es el resultado del hecho de que los electrones del átomo sólo pueden tener ciertos valores de energía permitidos. Cuando un electrón pasa de un nivel a permitido a otro, una cantidad de energía es emitida o absorbida cuya frecuencia es directamente proporcional a la diferencia de energía entre los dos niveles.

El formalismo de la mecánica cuántica se desarrolló durante la década de 1920. En 1924, Louis de Broglie propuso que al igual que las ondas de luz presentan propiedades de partículas, como ocurre en el efecto fotoeléctrico, las partículas a su vez también presentan propiedades ondulatorias. Dos formulaciones diferentes de la mecánica cuántica se presentaron después de la sugerencia de Broglie. En 1926, la mecánica ondulatoria de Erwin Schrödinger implica la utilización de una entidad matemática, la función de onda, que está relacionada con la probabilidad de encontrar una partícula en un punto dado en el espacio. En 1925, la mecánica matricial de Werner Heisenberg no hace mención alguna de las funciones de onda o conceptos similares, pero ha demostrado ser matemáticamente equivalente a la teoría de Schrödinger. Un descubrimiento importante de la teoría cuántica es el principio de incertidumbre, enunciado por Heisenberg en 1927, que pone un límite teórico absoluto en la precisión de ciertas mediciones. Como resultado de ello, la asunción clásica de los científicos de que el estado físico de un sistema podría medirse exactamente y utilizarse para predecir los estados futuros tuvo que ser abandonada. Esto supuso una revolución filosófica y dio pie a numerosas discusiones entre los más grandes físicos de la época.

La mecánica cuántica se combinó con la teoría de la relatividad en la formulación de Paul Dirac de 1928, lo que, además, predijo la existencia de antipartículas. Otros desarrollos de la teoría incluyen la estadística cuántica, presentada en una forma por Einstein y Bose (la estadística de Bose-Einstein) y en otra forma por Dirac y Enrico Fermi (la estadística de Fermi-Dirac), la electrodinámica cuántica, interesada en la interacción entre partículas cargadas y los campos electromagnéticos, su generalización, la teoría cuántica de campos, y la electrónica cuántica.

El descubrimiento de la mecánica cuántica a principios del siglo XX revolucionó la física, y la mecánica cuántica es fundamental para la mayoría de las áreas de la investigación actual.

La cultura de la investigación en física en los últimos tiempos se ha especializado tanto que ha dado lugar a una separación de los físicos que se dedican a la teoría y otros que se dedican a los experimentos. Los teóricos trabajan en la búsqueda de modelos matemáticos que expliquen los resultados experimentales y que ayuden a predecir resultados futuros. Así pues, teoría y experimentos están relacionados íntimamente. El progreso en física a menudo resulta de que un experimento encuentra un resultado que no se puede explicar con las teorías actuales por lo que hay que buscar un nuevo enfoque conceptual para resolver el problema.

La física teórica está muy relacionada con las matemáticas. Esta suministra el lenguaje usado en el desarrollo de las teorías físicas. Los teóricos confían en el cálculo diferencial e integral, el análisis numérico y en simulaciones por ordenador para validar y probar sus modelos físicos. Los campos de física computacional y matemática son áreas de investigación activas.

Los teóricos pueden concebir conceptos tales como universos paralelos, espacios multidimensionales o minúsculas cuerdas que vibran, y a partir de ahí, realizar hipótesis físicas.

La física de la materia condensada se ocupa de las propiedades físicas macroscópicas de la materia, tales como la densidad, la temperatura, la dureza, o el color de un material. Los materiales consisten en un gran número de átomos o moléculas que interaccionan entre ellos, por lo que están "condensados", a diferencia de estar libres sin interaccionar. La física de la materia condensada busca hacer relaciones entre las propiedades macroscópicas, que se pueden medir, y el comportamiento de sus constituyentes a nivel microscópico o atómico y así comprender mejor las propiedades de los materiales.

Las fases "condensadas" más comunes son sólidos y líquidos, que surgen del enlace químico entre los átomos, debido a la interacción electromagnética. Fases más exóticas son los superfluidos, los condensados de Bose-Einstein encontrados en ciertos sistemas atómicos a muy bajas temperaturas, la fase superconductora de los electrones de conducción de ciertos materiales, y las fases ferromagnética y antiferromagnética de los spines en las redes atómicas.

La física de la materia condensada es el campo de la física contemporánea más extenso y que involucra a un mayor número de físicos. Históricamente, la física de la materia condensada surgió de la física de estado sólido, que se considera en la actualidad uno de sus principales subcampos. La expresión física de la materia condensada aparentemente fue acuñada por Philip Anderson cuando renombró en 1967 su grupo de investigación, anteriormente llamado de teoría del estado sólido. La física de la materia condensada tiene una gran superposición con la química, la ciencia de materiales, la nanotecnología y la ingeniería.

La física atómica y molecular se centran en el estudio de las interacciones materia-materia y luz-materia en la escala de átomos individuales o estructuras que contienen unos pocos átomos. Ambas áreas se agrupan debido a su interrelación, la similitud de los métodos utilizados, así como el carácter común de la escalas de energía relevantes a sus investigaciones. A su vez, ambas incluyen tratamientos tanto clásicos y como cuánticos, ya que pueden tratar sus problemas desde puntos de vista microscópicos y macroscópicos.

La investigación actual en física atómica se centra en actividades tales como el enfriamiento y captura de átomos e iones, lo cual es interesante para eliminar "ruido" en las medidas y evitar imprecisiones a la hora de realizar otros experimentos o medidas (por ejemplo, en los relojes atómicos), aumentar la precisión de las mediciones de constantes físicas fundamentales, lo cual ayuda a validar otras teorías como la relatividad o el modelo estándar, medir los efectos de correlación electrónica en la estructura y dinámica atómica, y la medida y comprensión del comportamiento colectivo de los átomos de gases que interactúan débilmente (por ejemplo, en un condensado de Bose-Einstein de pocos átomos).

La física molecular se centra en estructuras moleculares y sus interacciones con la materia y con la luz.

La física de partículas es la rama de la física que estudia los componentes elementales de la materia y las interacciones entre ellos como si éstas fueran partículas. Se la llama también física de altas energías pues muchas de las partículas elementales no se encuentran en la naturaleza y hay que crearlas en colisiones de alta energía entre otras partículas, como se hace en los aceleradores de partículas. Los principales centros de estudio sobre partículas son el Laboratorio Nacional Fermi o Fermilab en Estados Unidos y el Centro Europeo para la Investigación Nuclear o CERN en la frontera entre Suiza y Francia. En éstos laboratorios lo que se logra es obtener energías similares a las que se cree existieron en el Big Bang y así se intenta tener cada vez más pruebas del origen del universo.

En la actualidad, las partículas elementales se clasifican siguiendo el llamado Modelo Estándar en dos grandes grupos: bosones y fermiones. Los bosones son las partículas que interactúan con la materia y los fermiones son las partículas constituyentes de la materia. En el modelo estándar se explica como las interacciones fundamentales en forma de partículas (bosones) interactúan con las partículas de materia (fermiones). Así, el electromagnetismo tiene su partícula llamada fotón, la interacción nuclear fuerte tiene al gluón, la interacción nuclear débil a los bosones W y Z y la gravedad a una partícula aún hipotética llamada gravitón. Entre los fermiones hay más variedad, se encuentran dos tipos: los leptones y los quarks. En conjunto, el modelo estándar contiene 24 partículas fundamentales que constituyen la materia (12 pares de partículas/anti-partículas) junto con 3 familias de bosones de gauge responsables de transportar las interacciones.

La astrofísica y la astronomía son ciencias que aplican las teorías y métodos de otras ramas de la física al estudio de los objetos que componen nuestro variado universo, tales como estrellas, planetas, galaxias y agujeros negros. La astronomía se centra en la comprensión de los movimientos de los objetos, mientras que a groso modo la astrofísica busca explicar su origen, su evolución y su comportamiento. Actualmente los términos astrofísica y astronomía se los suele usar indistintamente para referirse al estudio del universo.

Esta área, junto a la física de partículas, es una de las áreas más estudiadas y más apasionantes del mundo contemporáneo de la física. Desde que el telescopio espacial Hubble nos brindó detallada información de los más remotos confines del universo, los físicos pudieron tener una visión más objetiva de lo que hasta ese momento eran solo teorías.

Debido a la astrofísica es un tema muy amplio, los astrofísicos aplican normalmente muchas disciplinas de la física, incluida la mecánica, el electromagnetismo, la mecánica estadística, la termodinámica, la mecánica cuántica, la relatividad, la física nuclear y de partículas, y la física atómica y molecular. Además la astrofísica esta íntimamente vinculada con la cosmología, que es el área donde se pretende describir el origen del universo.

La biofísica es una área interdisciplinaria que estudia a la biología aplicando los principios generales de la física. Al aplicar el carácter probabilístico de la mecánica cuántica a sistemas biológicos obtenemos métodos puramente físicos para la explicación de propiedades biológicas. Se puede decir que el intercambio de conocimientos es únicamente en dirección a la biología, ya que ésta se ha ido enriqueciendo de los conceptos físicos y no viceversa.

Ésta área está en constante crecimiento, se estima que durante los inicios del siglo XXI cada vez la confluencia de físicos, biólogos y químicos a los mismos laboratorios se incremente. Los estudios en neurociencia, por ejemplo, han aumentado y cada vez ha tenido mayores frutos desde que se comenzó a implementar las leyes del electromagnetismo, la óptica y la física molecular al estudio de las neuronas.

Al principio



Física teórica

La física intenta comprender el universo elaborando un modelo matemático y conceptual de la realidad que se utiliza para racionalizar, explicar y predecir los fenómenos de la naturaleza, planteando una teoría física de la realidad. La física teórica, también denominada física matemática o física fundamental, constituye la rama de la física que, basándose fuertemente en la matemática, elabora teorías y modelos con el fin de explicar y comprender fenómenos físicos, aportando las herramientas necesarias no sólo para el análisis sino para la predicción del comportamiento de los sistemas físicos. Aunque trabajos anteriores pueden considerarse parte de esta disciplina, la física teórica cobra especial fuerza desde la formulación de la mecánica analítica (Joseph-Louis de Lagrange, William Rowan Hamilton) y adquiere una relevancia de primera línea a partir de las revoluciones cuántica y relativista de principios del siglo XX (por ejemplo la bomba atómica fue una predicción de la física teórica).

Todas las ciencias de la naturaleza poseen una característica común: son ciencias experimentales, es decir, los conocimientos acumulados han sido obtenido mediante la experimentación sistemática. Este procedimiento se denomina método científico experimental también conocido como empírico.

No obstante la física teórica basa su progreso en el uso de la matemática para predecir fenómenos que aún no han sido observados experimentalmente así como otros que nos permiten conocer el universo en formas no accesibles experimentalmente, en base a principios bien demostrados experimentalmente. Pero la demostración final de todo conocimiento en física es experimental y hasta que no se demuestra de esta forma las predicciones de la teoría no se puede estar seguro de la validez de una teoría o modelo. Un ejemplo está en los aceleradores de partículas en los que se buscan en muchas ocasiones partículas previstas por el modelo de la física de partículas y frecuentemente se encuentran otras no previstas inicialmente y que hacen cambiar el modelo. Así mismo, las predicciones de la física teórica han indicado a menudo la existencia de partículas no descubiertas y han proporcionado las técnicas adecuadas para su búsqueda experimental, siendo encontradas de forma posterior a su predicción teórica.

Al principio



Lista de aceleradores en física de partículas

Esta es la lista de los aceleradores de partículas usados para los experimentos de la física de partículas. Algunos aceleradores tempranos de la partícula hicieron correctamente la física nuclear, pero existieron antes de la separación de la física de la partícula de ese campo, también se incluyen. Aunque un complejo moderno del acelerador tiene generalmente varias etapas de aceleradores, sólo se enumeran los aceleradores de salida que se han utilizado directamente para los experimentos.

Estas son todas las vías usadas con blancos fijos. Tendieron para tener muy buenas funciones, es barato, e innovan los experimentos.

Estos son los aceleradores más funcionados en modo fijo; a menudo, también habrán sido funcionados como colisionadores.

Además de que haya aceleradores verdaderos nombrados arriba, existen aceleradores hipotéticos de uso frecuente como ejemplos hipotéticos o proyectos optimistas físicos de partículas.

Al principio



Aceleradores en física de partículas

Esta es la lista de los aceleradores de partículas usados para los experimentos de la física de partículas. Algunos aceleradores tempranos de la partícula hicieron correctamente la física nuclear, pero existieron antes de la separación de la física de la partícula de ese campo, también se incluyen. Aunque un complejo moderno del acelerador tiene generalmente varias etapas de aceleradores, sólo se enumeran los aceleradores de salida que se han utilizado directamente para los experimentos.

Estas son todas las vías usadas con blancos fijos. Tendieron para tener muy buenas funciones, es barato, e innovan los experimentos.

Estos son los aceleradores más funcionados en modo fijo; a menudo, también habrán sido funcionados como colisionadores.

Además de que haya aceleradores verdaderos nombrados arriba, existen aceleradores hipotéticos de uso frecuente como ejemplos hipotéticos o proyectos optimistas físicos de partículas.

Al principio



Antipartícula

División del universo en materia y antimateria.

A cada una de las partículas de la naturaleza le corresponde una antipartícula que posee la misma masa, el mismo spin, pero distinta carga eléctrica. Algunas partículas son idénticas a su antipartícula, como por ejemplo el fotón, que no tiene carga. Pero no todas las partículas de carga neutra son idénticas a su antipartícula. Siempre hemos tenido la impresión de que las leyes de la naturaleza parecían haber sido diseñadas para que todo fuese simétrico entre partículas y antipartículas hasta que los experimentos de la llamada violación CP (violación carga-paridad) encontraron que la simetría temporal se violaba en ciertos sucesos de la naturaleza. El exceso observado de bariones con respecto a los anti-bariones en el universo es uno de los principales problemas sin respuesta de la cosmología.

Los pares partícula-antipartícula pueden aniquilarse entre ellos si se encuentran en el estado cuántico apropiado. Estos estados pueden producirse en varios procesos. Estos procesos se usan en los aceleradores de partículas para crear nuevas partículas y probar las teorías de la física de partículas. Los procesos de altas energías en la naturaleza pueden crear antipartículas, y éstos son visibles debido a los rayos cósmicos y en ciertas reacciones nucleares. La palabra antimateria se refiere a las antipartículas elementales, los compuestos de antipartículas hechos con estas (como el antihidrógeno) y formaciones mayores que pueden hacerse con ellos.

En 1932, poco después de la predicción del positrón por Dirac, Carl D. Anderson encontró que las colisiones de los rayos cósmicos producían estas partículas dentro de una cámara de niebla— un detector de partículas donde los electrones o los positrones que se mueven a través de él dejan detrás de ellos trayectorias, marcando su movimiento por el gas. La relación entre la carga eléctrica y la masa de una partícula puede medirse observando las curvas que marcan en su camino por la cámara de niebla dentro de un campo magnético. Originalmente los positrones, debido a que sus trayectorias también se curvaban, fueron confundidos con electrones que viajaban en la dirección opuesta.

El antiprotón y el antineutrón fueron encontrados por Emilio Segrè y Owen Chamberlain en 1955 en la universidad de California. Desde entonces se han creado las antipartículas de muchas otras partículas subatómicas en los experimentos con aceleradores de partículas. En años recientes, se han conseguido generar átomos completos de antimateria compuestos por antiprotones y positrones, recolectados en trampas electromagnéticas.

Las soluciones de la ecuación de Dirac contenían estados cuánticos de energía negativa. Como resultado un electrón siempre podría radiar energía cayendo en un estado de energía negativa. Incluso peor que eso, podría estar radiando una cantidad infinita de energía porque habría disponibles infinitos estados de energía negativa. Para resolver esta situación que iba contra la física, Dirac postuló que un "mar" de electrones de energía negativa llenaban el universo, ya ocupando todos los estados de energía negativa de forma que, debido al principio de exclusión de Pauli ningún otro electrón podría caer en ellos. Sin embargo, a veces, una de estas partículas con energía negativa podría ser elevada desde este mar de Dirac a un nivel de energía mayor para convertirse en una partícula de energía positiva. Pero, cuando era elevada, esta partícula dejaba un hueco detrás en el mar, que actuaría exactamente como un electrón de energía positiva pero con carga contraria. Dirac interpretó estos electrones inversos como protones, y llamó por eso a su artículo de 1930 Una teoría de electrones y protones.

Dirac ya era consciente del problema de que esta representación implicaba una carga negativa infinita para el universo, e intentó argumentar que nosotros percibiríamos este estado como el estado normal de carga cero. Otra dificultad que esta teoría encontraba era la diferencia entre las masas del electrón y el protón. Aquí Dirac intentó solucionarlo argumentando que esto se debía a las interacciones electromagnéticas con ese "mar", hasta que Hermann Weyl probó que la teoría de huecos era completamente simétrica entre las cargas negativas y positivas. Dirac también predijo una reacción e- + p+ → γ + γ (en la que el electrón y el protón se aniquilaban para dar dos fotones). Robert Oppenheimer e Igor Tamm probaron que esto causaría que la materia ordinaria desapareciera demasiado deprisa. Un año más tarde, en 1931, Dirac modificó su teoría y postuló el positrón, una partícula nueva de la misma masa que el electrón. El descubrimiento de esa partícula el año siguiente eliminó las dos últimas objeciones a su teoría.

Sin embargo permanecía el problema de la carga infinita del universo. También, como ahora sabemos, los bosones (partículas con spin entero) también poseen antipartículas, pero éstos no obedecen el principio de exclusión de Pauli, así que la teoría de los huecos no funciona con ellos. La teoría cuántica de campos proporciona una interpretación unificada de las antipartículas, que resuelve ambos problemas.

La aniquilación de un par electrón-positrón en un solo fotón: e+  +  e-  →  γ no puede ocurrir porque es imposible que se conserven la energía y el momento a la vez en este proceso. La reacción inversa es también imposible por esta razón. Sin embargo, este fenómeno se observa en la naturaleza; se puede crear un par electrón-positrón a partir de un solo fotón con una energía de al menos la masa de ambas partículas: 1.022 MeV. Lo cierto, es que según la teoría cuántica de campos este proceso está permitido como un estado cuántico intermedio para tiempos suficientemente cortos en los que la violación de la conservación de la energía puede acomodarse al principio de incertidumbre de Heisenberg. Esto abre la vía para la producción de pares virtuales' o su aniquilación donde el estado cuántico de una sola partícula puede fluctuar en un estado cuántico de dos partículas y volver a su estado inicial. Estos procesos son importantes en el estado vacío y la renormalización de una teoría cuántica de campos. También abre el camino para una mezcla de partículas neutras a través de procesos como el mostrado aquí, que es un ejemplo complicado de la renormalización de la masa.

Esta sección utiliza las ideas, el lenguaje y la notación usada en la cuantización canónica de la teoría cuántica de campos.

Esta aproximación se la debemos a Vladimir Fock, Wendell Furry y Robert Oppenheimer. Si se cuantiza un campo escalar real, entonces se encuentra que solo hay una clase de operador de aniquilación, así pues los campos escalares describen a los bosones neutros. Como los campos escalares complejos admiten dos clases diferentes de operadores de aniquilación, que están relacionados por conjugación, esos campos describen bosones cargados.

Considerando la propagación hacia atrás en el tiempo de la mitad del campo del electrón que tiene energías positivas, Richard Feynman mostró que se violaba la causalidad a menos que se permitiera que algunas partículas viajaran más rápidas que la luz. Pero si las partículas pudieran viajar más rápido que la luz entonces, desde el punto de vista de otro observador inercial parecería como si estuviera viajando atrás en el tiempo y con carga opuesta.

De esta forma Feynman llegó a entender de forma gráfica el hecho de que la partícula y su antipartícula tuvieran la misma masa m y spin J pero cargas opuestas. Esto le permitió reescribir la teoría de perturbaciones de forma precisa en forma de diagramas, llamados diagramas de Feynman, con partículas viajando adelante y atrás en el tiempo. Esta técnica es ahora la más extendida para calcular amplitudes en la teoría cuántica de campos.

Este gráfico fue desarrollado de forma independiente por Ernst Stueckelberg, y por eso se ha dado en llamar la interpretación de Feynman y Stueckelberg de las antipartículas.

Al principio



Acelerador de partículas

En los aceleradores de partículas más antiguos se usaba un Generador de Cockcroft-Walton para la multiplicación del voltaje. Esta pieza del acelerador ayudó al desarrollo de la bomba atómica. Construido en 1937 por Philips de Eindhoven, se encuentra actualmente en el museo de ciencias naturales de Londres (Inglaterra).

Los aceleradores de partículas son instrumentos que utilizan campos electromagnéticos para acelerar las partículas cargadas eléctricamente hasta alcanzar velocidades (y por tanto energías) muy altas, pudiendo ser cercanas a la de la luz. Además, estos instrumentos son capaces de contener estas partículas. Un acelerador puede ser, desde un tubo de rayos catódicos ordinario, de los que forman parte de los televisores domésticos comunes o los monitores de los ordenadores, hasta grandes instrumentos que permiten explorar el mundo de lo infinitamente pequeño, en búsqueda de los elementos fundamentales de la materia.

Existen dos tipos básicos de aceleradores: por un lado los lineales y por otro los circulares. En este artículo se describirán los tipos más comunes de aceleradores de partículas.

Al contrario de la creencia popular, los aceleradores de partículas no son aparatos exclusivos de laboratorios sofisticados, sino que también se encuentran muy presentes en la vida cotidiana de las personas, en forma de aceleradores de bajas energías. Ejemplos muy sencillos de estos aceleradores, de electrones principalmente, son los televisores o monitores de ordenador (los modelos antiguos que utilizan tubos de rayos catódicos, los cuales pueden considerarse aceleradores lineales de una sola etapa) o los aparatos de rayos X que pueden encontrarse en las clínicas dentales o en los hospitales. Estos aceleradores de bajas energías utilizan un único par de electrodos a los que se les aplica una diferencia de potencial, directamente, de algunos miles de voltios. En un aparato de rayos X se calienta un filamento metálico que se encuentra entre ambos electrodos mediante el paso de una corriente eléctrica, emitiendo de este modo electrones. Esos electrones son acelerados en el campo eléctrico generado entre ambos electrodos hasta alcanzar el electrodo que se utiliza como productor de rayos X, fabricado con un metal de alto Z (por ejemplo el tungsteno). También se utilizan aceleradores de partículas de bajas energías, llamados implantadores de iones, para la fabricación de circuitos integrados.

Los aceleradores lineales (muchas veces se usa el acrónimo en inglés linac) de altas energías utilizan un conjunto de placas o tubos situados en línea a los que se les aplica un campo eléctrico alterno. Cuando las partículas se aproximan a una placa se aceleran hacia ella al aplicar una polaridad opuesta a la suya. Justo cuando la traspasan, a través de un agujero practicado en la placa, la polaridad se invierte, de forma que en ese momento la placa repele la partícula, acelerándola por tanto hacia la siguiente placa. Generalmente no se acelera una sola partícula, sino un continuo de haces de partículas, de forma que se aplica a cada placa un potencial alterno cuidadosamente controlado de forma que se repita de forma continua el proceso para cada haz.

A medida que las partículas se acercan a la velocidad de la luz, la velocidad de inversión de los campos eléctricos se hace tan alta que deben operar a frecuencias de microondas, y por eso, en muy altas energías, se utilizan cavidades resonantes de frecuencias de radio en lugar de placas.

Los tipos de aceleradores de corriente continua capaces de acelerar a las partículas hasta velocidades suficientemente altas como para causar reacciones nucleares son los generadores Cockcroft-Walton o los multiplicadores de potencial, que convierten una corriente alterna a continua de alto voltaje, o bien generadores Van de Graaf que utilizan electricidad estática transportada mediante cintas.

Estos aceleradores se usan en muchas ocasiones como primera etapa antes de introducir las partículas en los aceleradores circulares. El acelerador lineal más largo del mundo es el colisionador electrón-positrón Stanford Linear Accelerator (SLAC), de 3 km de longitud.

Estos aceleradores son los que se usan en radioterapia y radiocirugía. Estos aceleradores utilizan válvulas klistrón y una determinada configuración de campos magnéticos, produciendo haces de electrones de una energía de 6 a 30 millones de electronvoltios (MeV). En ciertas técnicas se utilizan directamente esos electrones, mientras que en otras se les hace colisionar contra un blanco de número atómico alto para producir haces de rayos X. La seguridad y fiabilidad de estos aparatos está haciendo retroceder a las antiguas unidades de cobaltoterapia.

Dos aplicaciones tecnológicas de importancia en las que se usan este tipo de aceleradores son la espalación para la generación de neutrones aplicables a los amplificadores de potencia para la transmutación de los isótopos radiactivos más peligrosos generados en la fisión.

Estos tipos de aceleradores poseen una ventaja añadida a los aceleradores lineales al usar campos magnéticos en combinación con los eléctricos, pudiendo conseguir aceleraciones mayores en espacios más reducidos. Además las partículas pueden permanecer confinadas en determinadas configuraciones teóricamente de forma indefinida.

Sin embargo poseen un límite a la energía que puede alcanzarse debido a la radiación sincrotrón que emiten las partículas cargadas al ser aceleradas. La emisión de esta radiación supone una pérdida de energía, que es mayor cuanto más grande es la aceleración impartida a la partícula. Al obligar a la partícula a describir una trayectoria circular realmente lo que se hace es acelerar la partícula, ya que la velocidad cambia su sentido, y de este modo es inevitable que pierda energía hasta igualar la que se le suministra, alcanzando una velocidad máxima.

Algunos aceleradores poseen instalaciones especiales que aprovechan esa radiación, a veces llamada luz sincrotrón. Esta radiación se utiliza como fuentes de Rayos X de alta energía, principalmente en estudios de materiales o de proteínas por espectroscopia de rayos X o por absorción de rayos X por la estructura fina (o espectrometría XAS).

Esta radiación es mayor cuando las partículas son más ligeras, por lo que se utilizan partículas muy ligeras (principalmente electrones) cuando se pretenden generar grandes cantidades de esta radiación, pero generalmente se aceleran partículas pesadas, protones o núcleos ionizados más pesados, que hacen que estos aceleradores puedan alcanzar mayores energías. Este es el caso del gran acelerador circular del CERN, donde el LEP, colisionador de electrones y positrones, se ha sustituido por el LHC, colisionador de hadrones.

Los aceleradores de partículas más grandes y potentes, como el RHIC, el LHC (está programada su puesta en marcha en el día 10 de septiembre de 2008) o el Tevatrón se utilizan en experimentos de física de partículas.

El primer ciclotrón fue desarrollado por Ernest Orlando Lawrence en 1929 en la Universidad de California. En ellos las partículas se inyectan en el centro de dos pares de imanes en forma de "D". Cada par forma un dipolo magnético y además se les carga de forma que exista una diferencia de potencial alterna entre cada par de imanes. Esta combinación provoca la aceleración, circular cuando la partícula se encuentra dentro de uno de los pares, y lineal cuando está entre los dos pares.

Estos aceleradores tienen un límite de velocidad bajo en comparación con los sincrotrones debido a los efectos explicados anteriormente. Aun así las velocidades que se alcanzan son muy altas, llamadas relativistas por ser cercanas a la velocidad de la luz. Por este motivo se suelen utilizar unidades de energía (electronvoltios y sus submúltiplos habitualmente) en lugar de unidades de velocidad. Por ejemplo, para protones, el límite se encuentra en unos 10 MeV. Por este motivo los ciclotrones solo se pueden usar en aplicaciones de bajas energías. Existen algunas mejoras técnicas como el sincrociclotrón o el ciclotrón síncrono, pero el problema no desaparece. Algunas máquinas utilizan varias fases acopladas para utilizar mayores frecuencias (por ejemplo el rodotrón ).

Estos aceleradores se utilizan por ejemplo para la producción de radioisótopos de uso médico (como por ejemplo la producción de 18F para su uso en los PET), para la esterilización de instrumental médico o de algunos alimentos, para algunos tratamientos oncológicos y en la investigación. También se usan para análisis químicos, formando parte de los llamados espectrómetros de masas.

Para alcanzar energías superiores, del orden de los GeV y superiores, es necesario utilizar sincrotrones.

Uno de los primeros sincrotrones, que aceleraba protones, fue el Bevatron construido en el Laboratorio nacional Brookhaven (Nueva York), que comenzó a operar en 1952, alcanzando una energía de 3 GeV.

El sincrotrón presenta algunas ventajas con respecto a los aceleradores lineales y los ciclotrones. Principalmente que son capaces de conseguir mayores energías en las partículas aceleradas. Sin embargo necesitan configuraciones de campos electromagnéticos mucho más complejos, pasando de los simples dipolos eléctricos y magnéticos que usan el resto de aceleradores a configuraciones de cuadrupolos, sextupolos, octupolos y mayores.

Al igual que en otras áreas de la tecnología de punta, existen múltiples desarrollos que se realizaron para su aplicación en estos aceleradores que forman parte de la vida cotidiana de las personas. Quizá el más conocido fue el desarrollo de la World Wide Web (comúnmente llamada web), desarrollado para su aplicación en el LEP.

La única forma de elevar la energía de las partículas con estos aceleradores es incrementar su tamaño. Generalmente se toma como referencia la longitud del perímetro de la circunferencia (realmente no forman una circunferencia perfecta, sino un polígono lo más aproximado posible a esta). Por ejemplo tendríamos el LEP con 26.6 km, capaz de alcanzar los 45 GeV (91 GeV para una colisión de dos haces en sentidos opuestos), actualmente reconvertido en el LHC del que se prevén energías superiores a los 7 TeV.

Existen varios proyectos para superar las energías que alcanzan los nuevos aceleradores. Estos aceleradores se espera que sirvan para confirmar teorías como la Teoría de la gran unificación e incluso para la creación de agujeros negros que confirmarían la teoría de supercuerdas.

Para 2015-2020 se espera que se construya el Colisionador lineal internacional, un enorme linac de 40 km de longitud, inicialmente de 500 GeV que se ampliarían hasta 1 TeV. Este acelerador utilizará un laser enfocado en un fotocátodo para la generación de electrones. En 2007 no se había decidido aun qué nación lo albergaría.

El Supercolisionador superconductor (SSC en inglés) era un proyecto de un sincrotrón de 87 km de longitud en Texas que alcanzaría los 20 TeV. Se abortó el proyecto en 1993.

Se cree que la aceleración de plasmas mediante láseres conseguirán un incremento espectacular en las eficiencias que se alcancen. Estas técnicas han alcanzado ya aceleraciones de 200 GeV por metro, si bien en distancias de algunos centímetros, en comparación con los 0.1 GeV por metro que se consiguen con las radiofrecuencias.

Una versión sencilla de conjunto acelerador-blanco-detector sería el aparato de televisión. En este caso el tubo de rayos catódicos es el acelerador, que impulsa los electrones hacia la pantalla revestida de fósforo interiormente que actuaría de blanco, transformando los electrones en fotones (con energía en el rango del visible) que, si estuviéramos mirando la televisión, impactarían en los conos y bastoncillos de nuestras retinas (detectores), enviando señales eléctricas a nuestro cerebro (el supercomputador) que interpreta los resultados.

Para crear y poder ver las partículas generadas en los grandes aceleradores se necesitan por un lado blancos, donde las partículas impactan, generando una enorme cantidad de partículas secundarias, y por otro lado detectores que actuarían como los ojos de los científicos.

Los blancos se pueden distinguir entre fijos o móviles. En los fijos se engloban todos aquellos de los aparatos de rayos X o los utilizados en la espalación, sobre los cuales impactan las partículas aceleradas. En los móviles se encuentran las propias partículas que impactan entre ellas, por ejemplo en los colisionadores, duplicando de este modo de forma sencilla la energía que pueden alcanzar los aceleradores.

Uno de los detectores más impresionantes construidos para detectar las partículas creadas en las es el ATLAS, construido en el LHC.

Las partículas cargadas (las únicas que pueden acelerar los campos electromagnéticos presentes en los aceleradores) se generan de diversas formas. La forma más sencilla es utilizar el propio movimiento que se genera al calentar un material. Esto se hace habitualmente calentando un filamento hasta su incandescencia haciendo pasar por él una corriente eléctrica, aunque también se puede hacer enfocando un láser en él. Al aumentar la temperatura también aumenta la probabilidad de que un electrón de la corteza atómica la abandone momentáneamente. Si no existe un campo electromagnético cerca que lo acelere en dirección contraria este electrón (cargado negativamente) regresaría al poco tiempo al átomo ionizado (positivamente) al atraerse las cargas opuestas. Sin embargo, si colocamos cerca del filamento una segunda placa, creando una diferencia de potencial entre el filamento y ella, conseguiremos acelerar el electrón.

Si en esa placa efectuamos un pequeño agujero, y tras él un conducto al que se le haya extraído el aire, conseguiremos extraer electrones. Sin embargo, si no existe ese agujero el electrón impactará contra la placa generando rayos X.

Cuando se pretenden generar protones, sin embargo, es necesario ionizar átomos de hidrógeno (compuestos únicamente por 1 protón y 1 electrón). Para ello puede utilizarse como primera fase el sencillo acelerador de electrones descrito haciendo incidir el haz de electrones o de rayos X sobre una válvula rellena de gas hidrógeno. Si en esa válvula situamos de nuevo un par de placas sobre las que aplicamos un potencial se obtendrán por un lado electrones acelerados y por el opuesto, protones acelerados. Un ejemplo de este tipo de aceleradores es el LANSCE en el Laboratorio Nacional de Los Alamos (Estados Unidos).

Los positrones se generan de forma similar, solo que necesitaremos hacer incidir fotones de energías superiores a los 1.1 MeV sobre un blanco (de oro, tungsteno o cualquier otro material pesado). Esa energía es la mínima necesaria para crear un par electrón-positrón. La eficiencia de esta generación es muy pequeña, con lo que en los colisionadores electrón-positrón se gasta gran parte de la energía consumida en este proceso.

Actualmente existe también interés en generar neutrones para utilizarlos en máquinas transmutadoras. Para ello se utilizan protones generados como se ha descrito, que impactan sobre blancos cuya sección eficaz o probabilidad de generación de neutrones sea alta. Al no poder acelerar más los neutrones (como se dijo, solo las partículas cargadas pueden acelerarse), su velocidad (o energía) final dependerá exclusivamente de la energía inicial del protón.

Prácticamente todas las partículas descritas se utilizan para tratamientos médicos, ya sea en diagnóstico (rayos X, TAC, PET), como en el tratamiento de tumores sólidos (el uso de protones y neutrones se está generalizando cada vez más para el tratamiento de tumores de difícil tratamiento).

La ecuación se traduce en que la partícula recibe una aceleración que es proporcional a su carga e inversamente proporcional a su masa. Además, los campos eléctricos empujan a la partícula en la dirección del movimiento (el sentido dependerá del signo de la carga y del sentido del propio campo eléctrico), mientras que los campos magnéticos curvan la trayectoria de la partícula (solo cuando el campo magnético es perpendicular a la trayectoria), empujándola hacia el centro de una circunferencia cuyo radio dependerá de la magnitud del campo magnético, de la velocidad que posea la partícula en ese momento y de su carga y masa.

En resumen, los campos eléctricos aportan cambios en el módulo de la velocidad de la partícula, acelerándola o desacelerándola, mientras que los campos magnéticos la hacen describir trayectorias curvas sin modificar su módulo (esto no es exactamente así, ya que las partículas perderán energía por la radiación sincrotrón, pero sirve como primera aproximación).

Al principio



Source : Wikipedia