Física

3.3992784124987 (1663)
Publicado por roy 28/02/2009 @ 20:37

Tags : física, ciencia

últimas noticias
Argentina alucina con el estado físico de Messi - Sport
Su fortaleza física ha generado tanto reconocimiento en su país que el cuerpo técnico de Maradona está encantado por la metodología de trabajo blaugrana y por el seguimiento permanente que recibe el crack desde hace más de un año....
Expertos recomiendan media hora de ejercicio físico y una correcta ... - ADN.es
Aproximadamente media hora de ejercicio físico al día y una adecuada nutrición e hidratación son suficientes para mantener una buena salud y proteger al organismo de nuevas patologías, según han destacado distintos expertos participantes en el XI...
Viajes Accesibles organiza vuelos en parapente para personas con ... - Europa Press
El portal de Internet Viajes Accesibles organizará este fin de semana varios vuelos en parapente con pilotos profesionales para personas con discapacidad intelectual, sensorial, física o visual en el cabo de Santa Pola (Alicante)....
El "Eros y Thanatos" de Freud toma forma física a través de una ... - ADN.es
Amor y muerte, deseo y represión, sexo y guerra: Esas son las claves de una exposición abierta en Viena en la que el arte sirve de soporte físico para mostrar el pensamiento de Sigmund Freud, padre del psicoanálisis, y de cuya muerte se cumplen 70 años...
Los chicos de 'Física o química' dejan el plató por el parque de ... - FórmulaTV
¿Qué te parece que los colegios vayan al Parque de Atracciones a realizar experimentos de Física? Andrea Duro: Yo aprobé Física y Química y esto me parece divertido porque algo pesado, que lo das en clase y lo llevas a la práctica en el Parque de...
Alberto Rincón continuará al frente de la preparación física del ... - El Norte de Castilla
El preparador físico Alberto Rincón continuará la próxima temporada en el club Fútbol Sala Zamora. Así lo ha decidido la parcela técnica del club, encabezada por el director deportivo Félix Delgado. La razón principal por la que Rincón seguirá al...
Luis Rojas Marcos señala la charla como terapia contra la adversidad - La Opinión de Zamora
En realidad, la resiliencia es una propiedad de la Física: se denomina así la capacidad de ciertos materiales para recuperarse y volver a su forma original después de ser sometidos a presiones en el exterior. En el ser humano, designa la capacidad para...
El Nobel de Física Sheldon L. Glashow participará hoy en la ... - Diario de Mallorca
Las ponencias serán: Beyond Darwin: From the elements to the univers, a cargo de Sheldon L. Glashow, Premio Nobel de Física; Darwin, neodarwinismo y postdarwinismo: una irrefrenable pasión por los escarabajos, pronunciada por Lynn Margulis (Universidad...
Presentación del congreso de Física en el rectorado de la UCLM - La Tribuna de Ciudad Real
Medio millar de expertos se darán cita del 7 al 11 de septiembre en la XXXII Bienal de Física que acogerá el campus de Ciudad Real de la UCLM con la finalidad de discutir sobre los últimos avances alcanzados en este campo....
Están organizados por los profesores de educación física de los ... - Este de Madrid
El pasado lunes finalizó la décima edición de los Encuentros de Juegos por la Coeducación Física por la que pasaron miles de escolares con edades entre 4 y 14 años de distintos colegios de Torrejón y de otros municipios cercanos....

Física

Si he logrado ver más lejos, ha sido porque he subido a hombros de gigantes.Sir Isaac Newton.

La física (del lat. physĭca, y este del gr. τὰ φυσικά, neutro plural de φυσικός) es una ciencia natural que estudia las propiedades del espacio, el tiempo, la materia, la energía y sus interacciones.

La física no es sólo una ciencia teórica, es también una ciencia experimental. Como toda ciencia, busca que sus conclusiones puedan ser verificables mediante experimentos y que la teoría pueda realizar predicciones de experimentos futuros. Dada la amplitud del campo de estudio de la física, así como su desarrollo histórico en relación a otras ciencias, se la puede considerar la ciencia fundamental o central, ya que incluye dentro de su campo de estudio a la química y a la biología, además de explicar sus fenómenos.

La física en su intento de describir los fenómenos naturales con exactitud y veracidad ha llegado a límites impensables, el conocimiento actual abarca desde la descripción de partículas fundamentales microscópicas, el nacimiento de las estrellas en el universo e incluso conocer con una gran probabilidad lo que aconteció los primeros instantes del nacimiento de nuestro universo, por citar unos pocos conocimientos.

Esta tarea comenzó hace más de dos mil años con los primeros trabajos de filósofos griegos como Demócrito o Aristóteles, y continuada después por científicos como Galileo Galilei, Isaac Newton, James Clerk Maxwell, Albert Einstein, Niels Bohr, Paul Dirac, Richard Feynman, entre muchos otros.

Se conoce que la mayoría de civilizaciones de la antigüedad trataron desde un principio de explicar el funcionamiento de su entorno, miraban las estrellas y pensaban como ellas podían regir su mundo. Esto llevo a muchas interpretaciones de carácter mas filosófico que físico, no en vano en esos momentos la física se la llamaba filosofía natural. Muchos filósofos se encuentran en el desarrollo primigenio de la física, como Aristóteles, Tales de Mileto o Demócrito, por ser los primeros en tratar de buscar algún tipo de explicación a los fenómenos que los rodeaban. A pesar de que las teorías descriptivas del universo que dejaron estos pensadores eran erradas, éstas tuvieron validez por mucho tiempo, casi dos mil años, en parte por la aceptación de la iglesia católica de varios de sus preceptos como la teoría geocéntrica o las tesis de Aristóteles.

Esta etapa denominada oscurantismo en la ciencia termina cuando Nicolás Copérnico, considerado padre de la astronomía moderna, en 1543 recibe la primera copia de su De Revolutionibus Orbium Coelestium. A pesar de que Copérnico fue el primero en formular teorías plausibles, es otro personaje al cual se le considera el padre de la física como la conocemos ahora. Un catedrático de matemáticas de la Universidad de Pisa a finales del siglo XVI cambiaría la historia de la ciencia empleando por primera vez experimentos para comprobar sus aseveraciones, Galileo Galilei. Con la invención del telescopio y sus trabajos en planos inclinados, Galileo empleó por primera vez el método científico y llegó a conclusiones capaces de ser verificadas. A sus trabajos se le unieron grandes contribuciones por parte de otros científicos como Johannes Kepler, Blaise Pascal, Christian Huygens.

Posteriormente, en el siglo XVII, un científico inglés reúne las ideas de Galileo y Kepler en un solo trabajo, unifica las ideas del movimiento celeste y las de los movimientos en la tierra en lo que el llamó gravedad. En 1687, Sir Isaac Newton en su obra Philosophiae Naturalis Principia Mathematica formuló los tres principios del movimiento y una cuarta Ley de la gravitación universal que transformaron por completo el mundo físico, todos los fenómenos podían ser vistos de una manera mecánica.

El trabajo de Newton en el campo, perdura hasta la actualidad; todos los fenómenos macroscópicos pueden ser descritos de acuerdo a sus tres leyes. De ahí que durante el resto de ese siglo y el posterior siglo XVIII, todas las investigaciones se basaron en sus ideas. De ahí que otras disciplinas se desarrollaron, como la termodinámica, la óptica, la mecánica de fluidos y la mecánica estadística. Los conocidos trabajos de Daniel Bernoulli, Robert Boyle, Robert Hooke entre otros, pertenecen a esta época.

Es en el siglo XIX donde se producen avances fundamentales en la electricidad y el magnetismo principalmente de la mano de Charles-Augustin de Coulomb, Luigi Galvani, Michael Faraday y Georg Simon Ohm que culminaron en el trabajo de James Clerk Maxwell de 1855 que logró la unificación de ambas ramas en el llamado electromagnetismo. Además se producen los primeros descubrimientos sobre radiactividad y el descubrimiento del electrón por parte de Joseph John Thomson en 1897.

Durante el Siglo XX, la Física se desarrolló plenamente. En 1904 se propuso el primer modelo del átomo. En 1905, Einstein formuló la Teoría de la Relatividad especial, la cual coincide con las Leyes de Newton cuando los fenómenos se desarrollan a velocidades pequeñas comparadas con la velocidad de la luz. En 1915 extendió la Teoría de la Relatividad especial, formulando la Teoría de la Relatividad general, la cual sustituye a la Ley de gravitación de Newton y la comprende en los casos de masas pequeñas. Max Planck, Albert Einstein, Niels Bohr y otros, desarrollaron la Teoría cuántica, a fin de explicar resultados experimentales anómalos sobre la radiación de los cuerpos. En 1911, Ernest Rutherford dedujo la existencia de un núcleo atómico cargado positivamente, a partir de experiencias de dispersión de partículas. En 1925 Werner Heisenberg, y en 1926 Erwin Schrödinger y Paul Adrien Maurice Dirac, formularon la Mecánica cuántica, la cual comprende las teorías cuánticas precedentes y suministra las herramientas teóricas para la Física de la materia condensada.

Posteriormente se formuló la Teoría cuántica de campos, para extender la mecánica cuántica de manera consistente con la Teoría de la Relatividad especial, alcanzando su forma moderna a finales de los 40, gracias al trabajo de Richard Feynman, Julian Schwinger, Tomonaga y Freeman Dyson, quienes formularon la teoría de la electrodinámica cuántica. Asimismo, esta teoría suministró las bases para el desarrollo de la física de partículas. En 1954, Chen Ning Yang y Robert Mills desarrollaron las bases del modelo estándar. Este modelo se completó en los años 1970, y con él fue posible predecir las propiedades de partículas no observadas previamente, pero que fueron descubiertas sucesivamente, siendo la última de ellas el quark top.

Los intentos de unificar las cuatro interacciones fundamentales ha llevado a los físicos a nuevos campos impensables. Las dos teorías más aceptadas, la mecánica cuántica y la relatividad general, que son capaces de describir con gran exactitud el macro y el micromundo, parecen incompatibles cuando se las quiere ver desde un mismo punto de vista. Es por eso que nuevas teorías han visto la luz, como la supergravedad o la teoría de cuerdas, que es donde se centran las investigaciones a inicios del siglo XXI.

La física en su búsqueda de describir la verdad última de la naturaleza, tiene varias bifurcaciones, las cuales podría agruparse en cinco teorías principales: la mecánica clásica describe el movimiento macroscópico, el electromagnetismo describe los fenómenos electromagnéticos como la luz, la relatividad formulada por Einstein describe el espacio-tiempo y la interacción gravitatoria, la termodinámica describe los fenómenos moleculares y de intercambio de calor, y finalmente la mecánica cuántica describe el comportamiento del mundo atómico.

Como mecánica clásica se conoce a la descripción del movimiento de cuerpos macroscópicos a velocidades muy pequeñas en comparación la velocidad de la luz. Existen dos tipos de formulaciones de ésta mecánica conocidas como mecánica newtoniana y mecánica analítica.

La mecánica newtoniana, como su nombre lo indica, lleva intrínsecos los preceptos de Newton. A partir de las tres ecuaciones formuladas por Newton y mediante el cálculo diferencial e integral se llega a una muy exacta aproximación de los fenómenos físicos. Ésta formulación también es conocida como mecánica vectorial y es debido a que a varias magnitudes se les debe definir su vector en un sistema de referencia inercial privilegiado.

La mecánica analítica es una formulación matemática abstracta sobre la mecánica, nos permite desligarnos de esos sistemas de referencia privilegiados y tener conceptos más generales al momento de describir un movimiento con el uso del cálculo de variaciones. Existen dos formulaciones equivalentes, la llamada mecánica lagrangiana es una reformulación de la mecánica realizada por Joseph Louis Lagrange que se basa en la, ahora llamada, ecuación de Euler-Lagrange (ecuaciones diferenciales de segundo orden) y el principio de mínima acción; la otra llamada mecánica hamiltoniana es una reformulación máss teórica basada en una funcional llamada hamiltoniano realizada por William Rowan Hamilton. En última instancia las dos son equivalentes.

En la mecánica clásica en general se tienen tres aspectos invariantes: el tiempo es absoluto, la naturaleza de forma espontánea realiza la mínima acción y la concepción de un universo determinado.

El electromagnetismo describe la interacción de partículas cargadas con campos eléctricos y magnéticos. Se puede dividir en electrostática, el estudio de las interacciones entre cargas en reposo, y la electrodinámica, el estudio de las interacciones entre cargas en movimiento y la radiación. La teoría clásica del electromagnetismo se basa en la fuerza de Lorentz y en las ecuaciones de Maxwell.

La electrostática es el estudio de los fenómenos asociados a los cuerpos cargados en reposo. Como se describe por la ley de Coulomb, estos cuerpos ejercen fuerzas entre sí. Su comportamiento se puede analizar en términos de la idea de un campo eléctrico que rodea cualquier cuerpo cargado, de manera que otro cuerpo cargado colocado dentro del campo estará sujeto a una fuerza proporcional a la magnitud de su carga y de la magnitud del campo en su ubicación. El que la fuerza sea atractiva o repulsiva depende de la polaridad de la carga. La electrostática tiene muchas aplicaciones, que van desde el análisis de fenómenos como tormentas eléctricas hasta el estudio del comportamiento de los tubos electrónicos.

La electrodinámica es el estudio de los fenómenos asociados a los cuerpos cargados en movimiento y a los campos eléctricos y magnéticos variables. Dado que una carga en movimiento produce un campo magnético, la electrodinámica se refiere a efectos tales como el magnetismo, la radiación electromagnética, y la inducción electromagnética, incluyendo las aplicaciones prácticas, tales como el generador eléctrico y el motor eléctrico. Esta área de la electrodinámica, conocida como electrodinámica clásica, fue sistemáticamente explicada por James Clerk Maxwell, y las ecuaciones de Maxwell describen los fenómenos de esta área con gran generalidad. Una novedad desarrollada más reciente es la electrodinámica cuántica, que incorpora las leyes de la teoría cuántica a fin de explicar la interacción de la radiación electromagnética con la materia. Paul Dirac, Heisenberg, y Wolfgang Pauli fueron pioneros en la formulación de la electrodinámica cuántica. La electrodinámica relativista da unas correcciones que se introducen en la descripción de los movimientos de las partículas cargadas cuando sus velocidades se acercan a la velocidad de la luz. Se aplica a los fenómenos involucrados con aceleradores de partículas y con tubos electrónicos funcionando a altas tensiones y corrientes.

El electromagnetismo abarca diversos fenómenos del mundo real como por ejemplo, la luz. La luz es un campo electromagnético oscilante que se irradia desde partículas cargadas aceleradas. Aparte de la gravedad, la mayoría de las fuerzas en la experiencia cotidiana son consecuencia de electromagnetismo.

Los principios del electromagnetismo encuentran aplicaciones en diversas disciplinas afines, tales como las microondas, antenas, máquinas eléctricas, comunicaciones por satélite, bioelectromagnetismo, plasmas, investigación nuclear, la fibra óptica, la interferencia y la compatibilidad electromagnéticas, la conversión de energía electromecánica, la meteorología por radar, y la observación remota. Los dispositivos electromagnéticos incluyen transformadores, relés eléctricos, radio / TV, teléfonos, motores eléctricos, líneas de transmisión, guías de onda, fibras ópticas y láseres.

La relatividad es la teoría formulada principalmente por Albert Einstein a principios del siglo XX, se divide en dos cuerpos de investigación: la relatividad especial y la relatividad general.

En la teoría de la relatividad especial, Einstein, Lorentz, Minkowski entre otros, unificaron los conceptos de espacio y tiempo, en un ramado tetradimensional al que se le denominó espacio-tiempo. La relatividad especial fue una teoría revolucionaria para su época, con la que el tiempo absoluto de Newton quedo relegado y conceptos como la invariancia en la velocidad de la luz, la dilatación del tiempo, la contracción de la longitud y la equivalencia entre masa y energía fueron introducidos. Además con las formulaciones de la relatividad especial, las leyes de la física son invariantes en todos los sistemas de referencia inerciales, como consecuencia matemática se encuentra como límite superior de velocidad a la luz y se elimina la causalidad determinista que tenía la física hasta entonces. Hay que indicar que las leyes del movimiento de Newton es un caso particular de esta teoría donde la masa al viajar a velocidades muy pequeñas no experimenta variación alguna en longitud ni se transforma en energía y el tiempo se le puede considerar absoluto.

Por otro lado, la relatividad general estudia la interacción gravitatoria como una deformación en la geometría del espacio-tiempo. En esta teoría se introducen los conceptos de la curvatura del espacio-tiempo como la causa de la interacción gravitatoria, el principio de equivalencia que dice que para todos los observadores locales inerciales las leyes de la relatividad especial son invariantes y la introducción del movimiento de un partícula por líneas geodésicas. La relatividad general no es la única teoría que describe a la atracción gravitatoria pero es la que mas datos relevantes comprobables ha encontrado. Anteriormente a la interacción gravitatoria se la describía matemáticamente por medio de una distribución de masas, pero en esta teoría no solo la masa percibe esta interacción si no también la energía mediante la curvatura del espacio-tiempo y es por eso que se necesita otro lenguaje matemático para poder describirla, el cálculo tensorial. Muchos fenómenos, como la curvatura de la luz por acción de la gravedad y la desviación en la órbita de Mercurio son perfectamente predichas por esta formulación. La relatividad general también abrió otro campo de investigación en la física, conocido como cosmología y es ampliamente utilizada en la astrofísica.

La termodinámica trata los procesos de transferencia de calor, que es una de las formas de energía y como puede producir un trabajo con ella. En esta área se describe como la materia en cualquiera de sus estados (sólido, líquido, gaseoso) va transformándose. Desde un punto de vista macroscópico de la materia se estudia como ésta reacciona a cambios en su volumen, presión, temperatura entre otros. La termodinámica se basa en cuatro leyes principales: el equilibrio termodinámico (o ley cero), el principio de conservación de la energía (primera ley), el aumento temporal de la entropía (segunda ley) y la imposibilidad del cero absoluto (tercera ley).

Una consecuencia de la termodinámica es lo que hoy se conoce como mecánica estadística. Ésta rama estudia, al igual que la termodinámica, los procesos de transferencia de calor, pero contrario a la anterior desde un punto de vista molecular. La materia como se conoce esta compuesta por moléculas y el conocer el comportamiento de una sola de sus moléculas nos lleva a medidas erróneas. Es por eso que se debe tratar como un conjunto de elementos caóticos o aleatorios, y se utiliza el lenguaje estadístico y consideraciones mecánicas para describir comportamientos macroscópicos de este conjunto molecular microscópico.

La mecánica cuántica es la rama de la física que trata los sistemas atómicos y subatómicos y sus interacciones con la radiación electromagnética, en términos de cantidades observables. Se basa en la observación de que todas las formas de energía se liberan en unidades discretas o paquetes llamados cuantos. Sorprendentemente, la teoría cuántica sólo permite normalmente cálculos probabilísticos o estadísticos de las características observadas de las partículas elementales, entendidos en términos de funciones de onda. La ecuación de Schrödinger desempeña el papel en la mecánica cuántica que las leyes de Newton y la conservación de la energía hacen en la mecánica clásica. Es decir, la predicción del comportamiento futuro de un sistema dinámico, y es una ecuación de onda en términos de una función de onda la que predice analíticamente la probabilidad precisa de los eventos o resultados.

Según las teorías anteriores de la física clásica, la energía se trataba únicamente como un fenómeno continuo, en tanto que la materia se supone que ocupa una región muy concreta del espacio y que se mueve de manera continua. Según la teoría cuántica, la energía se emite y se absorbe en cantidades discretas y minúsculas. Un paquete individual de energía, llamado cuanto, en algunas situaciones se comporta como una partícula de materia. Por otro lado, se encontró que las partículas exponen algunas propiedades ondulatorias cuando están en movimiento y ya no son vistas como localizadas en una región determinada sino más bien extendidas en cierta medida. La luz u otra radiación emitida o absorbida por un átomo sólo tiene ciertas frecuencias (o longitudes de onda), como puede verse en la línea del espectro asociado al elemento químico representado por tal átomo. La teoría cuántica demuestra que tales frecuencias corresponden a niveles definidos de los cuantos de luz, o fotones, y es el resultado del hecho de que los electrones del átomo sólo pueden tener ciertos valores de energía permitidos. Cuando un electrón pasa de un nivel a permitido a otro, una cantidad de energía es emitida o absorbida cuya frecuencia es directamente proporcional a la diferencia de energía entre los dos niveles.

El formalismo de la mecánica cuántica se desarrolló durante la década de 1920. En 1924, Louis de Broglie propuso que al igual que las ondas de luz presentan propiedades de partículas, como ocurre en el efecto fotoeléctrico, las partículas a su vez también presentan propiedades ondulatorias. Dos formulaciones diferentes de la mecánica cuántica se presentaron después de la sugerencia de Broglie. En 1926, la mecánica ondulatoria de Erwin Schrödinger implica la utilización de una entidad matemática, la función de onda, que está relacionada con la probabilidad de encontrar una partícula en un punto dado en el espacio. En 1925, la mecánica matricial de Werner Heisenberg no hace mención alguna de las funciones de onda o conceptos similares, pero ha demostrado ser matemáticamente equivalente a la teoría de Schrödinger. Un descubrimiento importante de la teoría cuántica es el principio de incertidumbre, enunciado por Heisenberg en 1927, que pone un límite teórico absoluto en la precisión de ciertas mediciones. Como resultado de ello, la asunción clásica de los científicos de que el estado físico de un sistema podría medirse exactamente y utilizarse para predecir los estados futuros tuvo que ser abandonada. Esto supuso una revolución filosófica y dio pie a numerosas discusiones entre los más grandes físicos de la época.

La mecánica cuántica se combinó con la teoría de la relatividad en la formulación de Paul Dirac de 1928, lo que, además, predijo la existencia de antipartículas. Otros desarrollos de la teoría incluyen la estadística cuántica, presentada en una forma por Einstein y Bose (la estadística de Bose-Einstein) y en otra forma por Dirac y Enrico Fermi (la estadística de Fermi-Dirac), la electrodinámica cuántica, interesada en la interacción entre partículas cargadas y los campos electromagnéticos, su generalización, la teoría cuántica de campos, y la electrónica cuántica.

El descubrimiento de la mecánica cuántica a principios del siglo XX revolucionó la física, y la mecánica cuántica es fundamental para la mayoría de las áreas de la investigación actual.

La cultura de la investigación en física en los últimos tiempos se ha especializado tanto que ha dado lugar a una separación de los físicos que se dedican a la teoría y otros que se dedican a los experimentos. Los teóricos trabajan en la búsqueda de modelos matemáticos que expliquen los resultados experimentales y que ayuden a predecir resultados futuros. Así pues, teoría y experimentos están relacionados íntimamente. El progreso en física a menudo resulta de que un experimento encuentra un resultado que no se puede explicar con las teorías actuales por lo que hay que buscar un nuevo enfoque conceptual para resolver el problema.

La física teórica está muy relacionada con las matemáticas. Esta suministra el lenguaje usado en el desarrollo de las teorías físicas. Los teóricos confían en el cálculo diferencial e integral, el análisis numérico y en simulaciones por ordenador para validar y probar sus modelos físicos. Los campos de física computacional y matemática son áreas de investigación activas.

Los teóricos pueden concebir conceptos tales como universos paralelos, espacios multidimensionales o minúsculas cuerdas que vibran, y a partir de ahí, realizar hipótesis físicas.

La física de la materia condensada se ocupa de las propiedades físicas macroscópicas de la materia, tales como la densidad, la temperatura, la dureza, o el color de un material. Los materiales consisten en un gran número de átomos o moléculas que interaccionan entre ellos, por lo que están "condensados", a diferencia de estar libres sin interaccionar. La física de la materia condensada busca hacer relaciones entre las propiedades macroscópicas, que se pueden medir, y el comportamiento de sus constituyentes a nivel microscópico o atómico y así comprender mejor las propiedades de los materiales.

Las fases "condensadas" más comunes son sólidos y líquidos, que surgen del enlace químico entre los átomos, debido a la interacción electromagnética. Fases más exóticas son los superfluidos, los condensados de Bose-Einstein encontrados en ciertos sistemas atómicos a muy bajas temperaturas, la fase superconductora de los electrones de conducción de ciertos materiales, y las fases ferromagnética y antiferromagnética de los spines en las redes atómicas.

La física de la materia condensada es el campo de la física contemporánea más extenso y que involucra a un mayor número de físicos. Históricamente, la física de la materia condensada surgió de la física de estado sólido, que se considera en la actualidad uno de sus principales subcampos. La expresión física de la materia condensada aparentemente fue acuñada por Philip Anderson cuando renombró en 1967 su grupo de investigación, anteriormente llamado de teoría del estado sólido. La física de la materia condensada tiene una gran superposición con la química, la ciencia de materiales, la nanotecnología y la ingeniería.

La física atómica y molecular se centran en el estudio de las interacciones materia-materia y luz-materia en la escala de átomos individuales o estructuras que contienen unos pocos átomos. Ambas áreas se agrupan debido a su interrelación, la similitud de los métodos utilizados, así como el carácter común de la escalas de energía relevantes a sus investigaciones. A su vez, ambas incluyen tratamientos tanto clásicos y como cuánticos, ya que pueden tratar sus problemas desde puntos de vista microscópicos y macroscópicos.

La investigación actual en física atómica se centra en actividades tales como el enfriamiento y captura de átomos e iones, lo cual es interesante para eliminar "ruido" en las medidas y evitar imprecisiones a la hora de realizar otros experimentos o medidas (por ejemplo, en los relojes atómicos), aumentar la precisión de las mediciones de constantes físicas fundamentales, lo cual ayuda a validar otras teorías como la relatividad o el modelo estándar, medir los efectos de correlación electrónica en la estructura y dinámica atómica, y la medida y comprensión del comportamiento colectivo de los átomos de gases que interactúan débilmente (por ejemplo, en un condensado de Bose-Einstein de pocos átomos).

La física molecular se centra en estructuras moleculares y sus interacciones con la materia y con la luz.

La física de partículas es la rama de la física que estudia los componentes elementales de la materia y las interacciones entre ellos como si éstas fueran partículas. Se la llama también física de altas energías pues muchas de las partículas elementales no se encuentran en la naturaleza y hay que crearlas en colisiones de alta energía entre otras partículas, como se hace en los aceleradores de partículas. Los principales centros de estudio sobre partículas son el Laboratorio Nacional Fermi o Fermilab en Estados Unidos y el Centro Europeo para la Investigación Nuclear o CERN en la frontera entre Suiza y Francia. En éstos laboratorios lo que se logra es obtener energías similares a las que se cree existieron en el Big Bang y así se intenta tener cada vez más pruebas del origen del universo.

En la actualidad, las partículas elementales se clasifican siguiendo el llamado Modelo Estándar en dos grandes grupos: bosones y fermiones. Los bosones son las partículas que interactúan con la materia y los fermiones son las partículas constituyentes de la materia. En el modelo estándar se explica como las interacciones fundamentales en forma de partículas (bosones) interactúan con las partículas de materia (fermiones). Así, el electromagnetismo tiene su partícula llamada fotón, la interacción nuclear fuerte tiene al gluón, la interacción nuclear débil a los bosones W y Z y la gravedad a una partícula aún hipotética llamada gravitón. Entre los fermiones hay mas variedad, se encuentran dos tipos: los leptones y los quarks. En conjunto, el modelo estándar contiene 24 partículas fundamentales que constituyen la materia (12 pares de partículas/anti-partículas) junto con 3 familias de bosones de gauge responsables de transportar las interacciones.

La astrofísica y la astronomía son ciencias que aplican las teorías y métodos de otras ramas de la física al estudio de los objetos que componen nuestro variado universo, tales como estrellas, planetas, galaxias y agujeros negros. La astronomía se centra en la comprensión de los movimientos de los objetos, mientras que a groso modo la astrofísica busca explicar su origen, su evolución y su comportamiento. Actualmente los términos astrofísica y astronomía se los suele usar indistintamente para referirse al estudio del universo.

Esta área, junto a la física de partículas, es una de las áreas más estudiadas y más apasionantes del mundo contemporáneo de la física. Desde que el telescopio espacial Hubble nos brindó detallada información de los más remotos confines del universo, los físicos pudieron tener una visión mas objetiva de lo que hasta ese momento eran solo teorías.

Debido a la astrofísica es un tema muy amplio, los astrofísicos aplican normalmente muchas disciplinas de la física, incluida la mecánica, el electromagnetismo, la mecánica estadística, la termodinámica, la mecánica cuántica, la relatividad, la física nuclear y de partículas, y la física atómica y molecular. Además la astrofísica esta íntimamente vinculada con la cosmología, que es el área donde se pretende describir el origen del universo.

La biofísica es una área interdisciplinaria que estudia a la biología aplicando los principios generales de la física. Al aplicar el carácter probabilístico de la mecánica cuántica a sistemas biológicos obtenemos métodos puramente físicos para la explicación de propiedades biológicas. Se puede decir que el intercambio de conocimientos es únicamente en dirección a la biología, ya que ésta se ha ido enriqueciendo de los conceptos físicos y no viceversa.

Ésta área esta en constante crecimiento, se estima que durante los inicios del siglo XXI cada vez la confluencia de físicos, biólogos y químicos a los mismos laboratorios se incremente. Los estudios en neurociencia, por ejemplo, han aumentado y cada vez ha tenido mayores frutos desde que se comenzó a implementar las leyes del electromagnetismo, la óptica y la física molecular al estudio de las neuronas.

Al principio



Vacío (física)

El vacío (del latín vacīvus) es la falta de contenido de un objeto que tiene nada en su interior.

En Física y por extensión, también se suele denominar así al espacio ultra alto vacío donde hay poca energía. El espacio ultra alto vacío surge como consecuencia de la transformación de esta energía, compuesta por patrones de ondas superpuestas y entrelazadas entre sí, que experimentan un impulso de repulsión; si no consiguen liberarse de ese solapamiento se debe al empuje de las unidades adyacentes . Por extensión se suelen denominar vacío a los espacios cuya densidad de aire y partículas es muy baja, como, por ejemplo, el espacio interestelar o vacío interestelar, pero su verdadera denominación es "alto vacío". Por extensión también se denomina vacío al lugar donde la presión que se mide es menor que la presión atmosférica normal. Hay diferentes clases de vacío: grueso o primario, medio, alto y ultra alto, y en cada caso, la presión es cada vez menor (o el vacío es cada vez más alto). Cada régimen de vacío tiene un comportamiento diferente, y sobre todo, un cierto tipo de aplicaciones, que son las que hacen del vacío algo tan importante.

Existe gran variedad de usos del vacío que son de importancia para muchas industrias y desarrollos tecnológicos, para la ciencia y para la vida diaria. El vacío se aprovecha en diversas industrias, que van desde la alimentaria hasta la automovilística, la aviación, la obtención de medicamentos, etc.

Se puede decir que el área de influencia del vacío afecta a la mayoría de las industrias, lo cual le da un lugar preeminente en el desarrollo tecnológico de un país.

De acuerdo con la definición de la Sociedad Americana de Vacío o AVS (1958), el término vacío se refiere a cierto espacio lleno con gases a una presión total menor que la presión atmosférica, por lo que el grado de vacío se incrementa en relación directa con la disminución de presión del gas residual. Esto significa que cuanto más disminuyamos la presión, mayor vacío obtendremos, lo que nos permite clasificar el grado de vacío en correspondencia con intervalos de presiones cada vez menores. Cada intervalo tiene características propias.

La presión atmosférica es la que ejerce la atmósfera o aire sobre la Tierra. A temperatura ambiente y presión atmosférica normal, un metro cúbico de aire contiene aproximadamente 2 × 1025 moléculas en movimiento a una velocidad promedio de 1600 kilómetros por hora. Una manera de medir la presión atmosférica es con un barómetro de mercurio; su valor se expresa en términos de la altura de la columna de mercurio de sección transversal unitaria y 760 mm de alto. Con base en esto, decimos que una atmósfera estándar es igual a 760 mm Hg. Utilizaremos por conveniencia la unidad Torricelli (torr) como medida de presión; 1 torr = 1 mm Hg, por lo que 1 atm = 760 torr; por lo tanto 1 torr = 1/760 de una atmósfera estándar, o sea 1 torr =1,136 × 10–3 atm (1 × 10–3 es igual a 0,001 o igual a un milésimo).

Medición de bajas presiones. Pirani construyó el primer aparato capaz de medir presiones muy pequeñas, menores de 10–5 torr; está basado en que la conductividad térmica de un gas sometido a presiones inferiores a la décima de torr es una función lineal de la presión. Se dispone entonces un filamento metálico caliente en una ampolla de vidrio, unida a la bomba de vacío. La velocidad con que el calor pasa del filamento a las paredes de la ampolla determina la temperatura del filamento y, por tanto, su resistencia eléctrica, que es, en definitiva, la magnitud física que se mide y que suministra el valor de la presión.

Medidas de ionización. Tienen el mismo fundamento que las bombas de ionización, hasta el punto que éstas pueden considerarse como una consecuencia de aquéllas. Cuando se trata de medir u.h.v. (vacío ultra alto) se utilizan las variantes propuestas por Bayard-Alpert de aquellos aparatos capaces de suministrar con gran exactitud presiones de hasta 10–12 torr.

El aire está compuesto por varios gases; los más importantes son el nitrógeno y el oxígeno, pero también contiene en menores concentraciones gases como dióxido de carbono, argón, neón, helio, criptón, xenón, hidrógeno, metano, óxido nitroso y vapor de agua.

Durante toda la Antigüedad y hasta el Renacimiento se desconocía la existencia de la presión atmosférica. No podían por tanto dar una explicación de los fenómenos debidos al vacío. En Grecia se enfrentaron por ello dos teorías. Para Epicuro y sobre todo Demócrito (420 a. C.) y su escuela, la materia no era un todo continuo sino que estaba compuesta por pequeñas partículas indivisibles (átomos) que se movían en un espacio vacío y que con su distinto ordenamiento dabann lugar a los distintos estados físicos. Por el contrario, Aristóteles excluía la noción de vacío y para justificar los fenómenos que su propia Física no podía explicar recurría al célebre aforismo según el cual "la Naturaleza siente horror al vacío" (teoría que resultó dominante durante la Edad Media y hasta el descubrimiento de la presión).

Este término de "horror vacui" fue el utilizado incluso por el propio Galileo a comienzos del siglo XVII al no poder explicar ante sus discípulos el hecho de que una columan de agua en un tubo cerrado por su extremo no se desprenda, si el tubo ha sido invertido estando sumergido el extremo libre del mismo dentro de agua. Sin embargo, supo transmitir a sus discípulos la inquietud por explicar el hecho anterior y asociado a él, porque las bombas aspirantes-impelentes (inventadas por Ctesilio, contemporáneo de Arquímedes) no podían hacer subir el agua de los pozos a una altura superior a los 10 m.

Fue hasta mediados del siglo XVII cuando el italiano Gasparo Berti realizó el primer experimento con el vacío (1640). Motivado por un interés en diseñar un experimento para el estudio de los sifones, Berti pretendía aclarar el fenómeno como una manifestación de diferencia de presión de aire en la atmósfera. Creó lo que constituye, primordialmente, un barómetro de agua, el cual resultó capaz de producir vacío.

Al analizar el informe experimental de Berti, Evangelista Torricelli captó con claridad el concepto de presión de aire, por lo que diseñó, en 1644, un dispositivo para demostrar los cambios de presión en el aire. Construyó un barómetro que en lugar de agua empleaba mercurio, y de esta manera, sin proponérselo, comprobó la existencia del vacío.

El barómetro de Torricelli constaba de un recipiente y un tubo lleno de mercurio (Hg) cerrado en uno de sus extremos. Al invertir el tubo dentro del recipiente se formaba vacío en la parte superior del tubo. Esto era algo difícil de entender en su época, por lo que se intentó explicarlo diciendo que esa región del tubo contenía vapor de mercurio, argumento poco aceptable ya que el nivel de mercurio en el tubo era independiente del volumen del mismo utilizado en el experimento.

La aceptación del concepto de vacío se dio cuando en 1648, Blaise Pascal subió un barómetro con 4 kg de mercurio a una montaña a 1000 metros sobre el nivel del mar. Sorprendentemente, cuando el barómetro estaba en la cima, el nivel de la columna de Hg en el tubo era mucho menor que al pie de la montaña. Torricelli aseguraba la existencia de la presión de aire y decía que debido a ella el nivel de Hg en el recipiente no descendía, lo cual hacía que el tamaño de la columna de mercurio permaneciera constante dentro del tubo. Así pues, al disminuir la presión del aire en la cima de la montaña, el nivel de Hg en el recipiente subió y en la columna dentro del tubo bajó inmediatamente (se vació de manera parcial).

El paso final que dio Torricelli fue la construcción de un barómetro de mercurio que contenía en la parte vacía del tubo otro barómetro para medir la presión de aire en esa región. Se hicieron muchas mediciones y el resultado fue que no había una columna de Hg en el tubo del barómetro pequeño porque no se tenía presión de aire. Esto aclaró que no existía vapor de mercurio en la parte vacía del tubo. Así, se puso en evidencia la presión del aire y, lo más importante, la producción y existencia del vacío.

Entonces, después de varios experimentos se puede explicar bien el funcionamiento del barómetro de Torricelli: la atmósfera ejerce una presión, lo cual impide que el mercurio salga del tubo y del recipiente; es decir, cuando la presión atmosférica se iguale a la presión ejercida por la columna de mercurio, el mercurio no podrá salir del tubo. Cuando el aire pesa más, soporta una columna mayor de mercurio; y cuando pesa menos, no es capaz de resistir la misma columna de mercurio, así que se escapa un poco de mercurio del tubo.

Al principio



Geografía física

Mapamundi

La Geografía Física es la rama de la Geografía que estudia en forma sistémica y espacial la superficie terrestre considerada en su conjunto y, específicamente, el espacio geográfico natural. Constituye uno de los dos grandes campos del conocimiento geográfico; el otro es la Geografía Humana cuyo objeto de estudio comprende el espacio geográfico humanizado, mientras que la Geografía Regional ofrece un enfoque espacial, integrando dichos campos, pero en un espacio localizado y previamente delimitado. La Geografía física constituye, según Strahler, la unificación de un conjunto de ciencias de la Tierra que se encargan de estudiar las bases físico - naturales de la Geografía General. Son diversas las disciplinas geográficas que estudian en forma específica las relaciones de los componentes del espacio natural y las diversas geósferas o esferas geográficas propias de la envoltura geográfica del globo.

La Geografía física enfatiza el estudio y la comprensión de los patrones y procesos del ambiente natural, haciendo abstracción por razones metodológicas del ambiente cultural que es el dominio de la Geografía humana. Ello significa que, aunque las relaciones entre los dos campos de la Geografía sean bastante estrechas, cuando estudiamos uno de dichos campos, necesitamos excluir al otro de alguna manera, con el fin de poder profundizar el enfoque y los contenidos.

Por otra parte, las ciencias auxiliares y los métodos empleados suelen ser diferentes en los dos campos, aunque tienen en común el interés humano en conocer cada vez más y mejor el mundo en que vivimos.

Estos dos conceptos equivalen a los de estructuras y sistemas en la Teoría General de Sistemas, siendo el de patrones un concepto similar al de estructuras y el de procesos uno similar al de sistemas. De nuevo solemos separar estos dos conceptos de manera individual por razones metodológicas ya que no suelen estar separados en la naturaleza. La diferencia entre procesos y patrones es que en el primer caso, resulta fundamental la escala temporal y en el segundo no es tan importante: cuando estamos estudiando los efectos de la erosión fluvial en los márgenes de un río consideramos a la erosión como un proceso, es decir, un fenómeno que ocurre a lo largo del tiempo. Por el contrario, cuando nos referimos a las características de la cuenca de un río, estamos haciendo un estudio de patrones espaciales, es decir, nos estamos refiriendo a un área determinada, con una extensión, relieve, clima, caudal, vegetación, etc., sin referirnos en detalle a cómo estos patrones han venido siendo modificados a lo largo del tiempo por los procesos geográficos o geomorfológicos.

Lo mismo sucede en el campo de la Geología: la Geología histórica hace referencia a procesos que han ocurrido en el tiempo geológico, mientras que la Geología física hace referencia al presente: patrones estratigráficos o geológicos de la época actual y en la forma como se localizan en la superficie terrestre. En el caso del glaciar de Aletsch pueden verse las lenguas de hielo, las morrenas intermedias y otras características estructurales del glaciar. Pero su lento movimiento y evolución constituyen la culminación actual de un proceso que es necesario analizar a través del tiempo. Y en el caso de los estratos descubiertos por la erosión fluvial en el margen izquierdo de un río en los Cárpatos podemos ver los patrones estratigráficos típicos de las rocas sedimentarias, por ejemplo, una disposición estratigráfica normal sería cuando los estratos son más recientes cuando más cerca de la superficie se encuentran y esa disposición, además de los materiales que los conforman, sirven para datarlos.

Y en la Geografía Humana (o también en Geografía de la población) esta diferencia entre patrones y procesos está aún más clara: un censo es como una fotografía ya que nos da una imagen de la población del país o de un área determinada en un momento dado; es como una imagen de cuáles son los patrones de distribución de la población. En cambio, el estudio del crecimiento demográfico entre un censo y otro ya es un estudio de procesos puesto que estamos comparando dos imágenes: el resultado sería que en el caso de la imagen que nos da el censo sería un patrón de distribución (una fotografía) mientras que en el estudio del crecimiento demográfico estamos estudiando un proceso que ha venido desarrollándose con el tiempo (sería algo equivalente a una película).

La investigación científica progresa básicamente mediante el análisis: el estudio detallado de un fenómeno precede al de la comprensión general del mismo (síntesis). No puede ser al revés, a pesar de que muchos geógrafos que consideran que la Geografía es una ciencia de síntesis han pretendido comenzar con la metodología deductiva que procede de una síntesis ya elaborada previamente. Pero tenemos que tener en cuenta que estamos hablando de investigación científica y no de la enseñanza de la geografía: como es lógico, si debemos enseñar geografía debemos partir de una ciencia (general, de síntesis) ya desarrollada previamente a través del análisis.

A partir del nacimiento de la Geografía como ciencia durante la época clásica griega y hasta fines del siglo XIX con el nacimiento de la Antropogeografía o Geografía Humana, la Geografía fue casi exclusivamente una ciencia natural: el estudio descriptivo de localización y toponímico de todos los lugares del mundo conocido. Diversas obras entre las más conocidas durante ese largo período podrían citarse como ejemplo, desde las de Estrabón (Geografía), Eratóstenes (Geografía) o Dionisio Periegeta (Periegesis Oiceumene) en la Edad Antigua hasta las de Alejandro de Humboldt (Cosmos) en el siglo XIX, en las cuales se consideraba a la Geografía como una ciencia físico-natural; desde luego, pasando por la obra Summa de Geografía de Martín Fernández de Enciso ( ) de comienzos del siglo XVI, donde aparece señalado por primera vez el Nuevo Mundo.

Entre los siglos XVIII y XIX, una polémica tomada de la Geología, entre los partidarios de James Hutton (Tesis del uniformismo) y Georges Cuvier (catastrofismo) influyó poderosamente en el campo de la Geografía ya que en este tiempo la Geografía era una ciencia natural, puesto que la Antropografía o Geografía Humana sólo se vino a desarrollar a fines del siglo XIX. Y tres procesos desarrollados durante el siglo XIX tuvieron una gran importancia en el desarrollo posterior de la geografía física: el imperialismo colonial europeo en Asia, África, Australia e incluso América, en busca de las materias primas exigidas por la Revolución industrial, la teoría de la evolución formulada por Darwin a mediados de siglo (lo que influyó decisivamente en la obra de Ratzel, quien poseía una formación académica como zoólogo y era seguidor de las ideas de Darwin) y el enfoque positivista en la ciencia desarrollado por Augusto Comte.

Al principio



Source : Wikipedia