▷ Sabiduría semanal que puedes leer en pocos minutos. Añade nuestra revista gratuita a tu bandeja de entrada. Lee gratis nuestras revistas de Derecho empresarial, Emprender, Carreras, Liderazgo, Dinero, Startups, Políticas, Ecología, Ciencias sociales, Humanidades, Marketing digital, Ensayos, y Sectores e industrias.

Historia de la Radiación Electromagnética

▷ Lee Gratis Nuestras Revistas

Historia de la Radiación Electromagnética

Este elemento es una expansión del contenido de los cursos y guías de Lawi. Ofrece hechos, comentarios y análisis sobre la historia de la radiación electromagnética.

[aioseo_breadcrumbs]

Historia de las Teorías sobre la Radiación Electromagnética

Desarrollo de la teoría clásica de la radiación

La teoría clásica de la radiación electromagnética “sigue siendo para siempre uno de los mayores triunfos del esfuerzo intelectual humano”. Así dijo Max Planck en 1931, al conmemorar el centenario del nacimiento del físico escocés James Clerk Maxwell, el principal creador de esta teoría. La teoría tuvo una gran importancia, ya que no sólo unió los fenómenos de la electricidad, el magnetismo y la luz en un marco unificado, sino que también supuso una revisión fundamental de la forma newtoniana de pensar en las fuerzas del universo físico, aceptada entonces. El desarrollo de la teoría clásica de la radiación constituyó una revolución conceptual que duró casi medio siglo. Comenzó con el trabajo seminal del físico y químico británico Michael Faraday, que publicó su artículo “Thoughts on Ray Vibrations” en Philosophical Magazine en mayo de 1846, y dio sus frutos en 1888, cuando Hertz consiguió generar ondas electromagnéticas en frecuencias de radio y microondas y medir sus propiedades.

Teoría ondulatoria y teoría corpuscular

La visión newtoniana del universo puede describirse como una interpretación mecanicista. Todos los componentes del universo, pequeños o grandes, obedecen a las leyes de la mecánica, y todos los fenómenos se basan en última instancia en la materia en movimiento. Sin embargo, una dificultad conceptual de la mecánica newtoniana es la forma en que la fuerza gravitatoria entre dos objetos masivos actúa a lo largo de una distancia en el espacio vacío. Newton no abordó esta cuestión, pero muchos de sus contemporáneos plantearon la hipótesis de que la fuerza gravitatoria estaba mediada por un medio invisible y sin fricción que Aristóteles había llamado éter. El problema es que la experiencia cotidiana de los fenómenos naturales muestra que las cosas mecánicas se mueven por fuerzas que hacen contacto. Cualquier causa y efecto sin un contacto discernible, o “acción a distancia”, contradice el sentido común y ha sido una noción inaceptable desde la antigüedad. Siempre que no se comprendía la naturaleza de la transmisión de ciertas acciones y efectos a distancia, se recurría al éter como solución conceptual del medio transmisor. Por necesidad, cualquier descripción de cómo funcionaba el éter seguía siendo vaga, pero su existencia era exigida por el sentido común y, por tanto, no se cuestionaba.

En la época de Newton, la luz era uno de los fenómenos, además de la gravitación, cuyos efectos eran evidentes a grandes distancias de su fuente. Newton contribuyó en gran medida al conocimiento científico de la luz. Sus experimentos revelaron que la luz blanca es un compuesto de muchos colores, que pueden ser dispersados por un prisma y reunidos para producir de nuevo luz blanca. La propagación de la luz a lo largo de líneas rectas le convenció de que está formada por partículas minúsculas que emanan a gran o infinita velocidad de la fuente luminosa. La primera observación de la que se dedujo una velocidad finita de la luz fue realizada poco después, en 1676, por el astrónomo danés Ole Rømer (véase más abajo Velocidad de la luz).

Las observaciones de dos fenómenos sugieren con fuerza que la luz se propaga como ondas. Uno de ellos tenía que ver con la interferencia de las películas finas, que fue descubierto en Inglaterra de forma independiente por Robert Boyle y Robert Hooke. El otro tenía que ver con la difracción de la luz en la sombra geométrica de una pantalla opaca. Esta última también fue descubierta por Hooke, que publicó una teoría ondulatoria de la luz en 1665 para explicarla.

El científico holandés Christiaan Huygens mejoró en gran medida la teoría ondulatoria y explicó la reflexión y la refracción en términos de lo que ahora se llama el principio de Huygens. Según este principio (publicado en 1690), cada punto de un frente de onda en el éter hipotético o en un medio óptico es una fuente de una nueva onda luminosa esférica y el frente de onda es la envoltura de todas las ondas individuales que se originan en el antiguo frente de onda.

En 1669, otro científico danés, Erasmus Bartholin, descubrió la polarización de la luz por doble refracción en el esparto de Islandia (calcita). Este hallazgo tuvo un profundo efecto en la concepción de la naturaleza de la luz.Entre las Líneas En aquella época, las únicas ondas conocidas eran las del sonido, que son longitudinales. Tanto para Newton como para Huygens era inconcebible que la luz pudiera estar formada por ondas transversales en las que las vibraciones son perpendiculares a la dirección de propagación. Huygens dio una explicación satisfactoria de la doble refracción al proponer que la asimetría de la estructura de la chispa de Islandia hace que las ondas secundarias sean elipsoidales en lugar de esféricas en su construcción del frente de onda. Sin embargo, como Huygens creía en las ondas longitudinales, no logró comprender los fenómenos asociados a la luz polarizada. Newton, por su parte, utilizó estos fenómenos como base de un argumento adicional para su teoría corpuscular de la luz. Las partículas, argumentó en 1717, tienen “lados” y, por tanto, pueden mostrar propiedades que dependen de las direcciones perpendiculares a la dirección del movimiento.

Puede sorprender que Huygens no utilizara el fenómeno de la interferencia para apoyar su teoría ondulatoria; pero para él las ondas eran en realidad pulsos en lugar de ondas periódicas con una determinada longitud de onda. Hay que tener en cuenta que la palabra onda puede tener un significado conceptual muy diferente y transmitir imágenes distintas en distintos momentos a distintas personas.

Tuvo que pasar casi un siglo antes de que los físicos Thomas Young, de Inglaterra, y Augustin-Jean Fresnel, de Francia, formularan una nueva teoría de las ondas. Basándose en sus experimentos sobre la interferencia, Young se dio cuenta por primera vez de que la luz es una onda transversal (se puede examinar algunos de estos asuntos en la presente plataforma online de ciencias sociales y humanidades). Fresnel consiguió entonces explicar todos los fenómenos ópticos conocidos a principios del siglo XIX con una nueva teoría ondulatoria. Ya no quedaban defensores de la teoría de la luz corpuscular. Sin embargo, siempre es satisfactorio que se descarte una teoría competidora porque una de sus principales predicciones se contradice con los experimentos. La teoría corpuscular explicaba la refracción de la luz que pasa de un medio de determinada densidad a otro más denso en términos de la atracción de las partículas de luz hacia este último. Esto significa que la velocidad de la luz debería ser mayor en el medio más denso. La construcción de Huygens de los frentes de onda que ondulan a través de la frontera entre dos medios ópticos predijo lo contrario, es decir, una menor velocidad de la luz en el medio más denso. La medición de la velocidad de la luz en el aire y en el agua realizada por Armand-Hippolyte-Louis Fizeau y, de forma independiente, por Léon Foucault a mediados del siglo XIX, decantó la balanza a favor de la teoría ondulatoria (véase más adelante Velocidad de la luz).

La naturaleza ondulatoria transversal de la luz implicaba que el éter debía ser un medio elástico sólido. La mayor velocidad de la luz sugería, además, una gran rigidez elástica de este medio. Sin embargo, se reconoció que todos los cuerpos celestes se mueven a través del éter sin encontrar dificultades como la fricción. Estos problemas conceptuales quedaron sin resolver hasta principios del siglo XX.

Relación entre electricidad y magnetismo

Ya en 1760, el matemático de origen suizo Leonhard Euler sugirió que el mismo éter que propaga la luz es responsable de los fenómenos eléctricos. Sin embargo, en comparación con la mecánica y la óptica, la ciencia de la electricidad tardó en desarrollarse. El magnetismo fue la única ciencia que progresó en la Edad Media, tras la introducción en Occidente de la brújula magnética procedente de China, pero el electromagnetismo desempeñó un escaso papel en la revolución científica del siglo XVII. Sin embargo, fue la única parte de la física en la que se produjeron avances muy significativos durante el siglo XVIII. A finales de ese siglo, las leyes de la electrostática -el comportamiento de las partículas cargadas en reposo- eran bien conocidas, y el escenario estaba preparado para el desarrollo de la elaborada descripción matemática realizada por primera vez por el matemático francés Siméon-Denis Poisson. No había ninguna relación aparente entre la electricidad y el magnetismo, salvo que los polos magnéticos, al igual que las cargas eléctricas, se atraen y repelen con una fuerza de ley inversa al cuadrado.

Tras los descubrimientos en electroquímica (los efectos químicos de la corriente eléctrica) de los investigadores italianos Luigi Galvani, fisiólogo, y Alessandro Volta, físico, el interés se dirigió a la electricidad corriente. El físico danés Hans Christian Ørsted buscó alguna conexión entre las corrientes eléctricas y el magnetismo, y durante el invierno de 1819-20 observó el efecto de una corriente sobre una aguja magnética. Los miembros de la Academia Francesa se enteraron del descubrimiento de Ørsted en septiembre de 1820, y varios de ellos comenzaron a investigarlo más a fondo. De ellos, el más riguroso, tanto en lo experimental como en lo teórico, fue el físico André-Marie Ampère, al que se puede llamar el padre de la electrodinámica.

La lista de las cuatro leyes empíricas fundamentales de la electricidad y el magnetismo se completó con el descubrimiento de la inducción electromagnética por Faraday en 1831.Entre las Líneas En resumen, un cambio en el flujo magnético a través de un circuito conductor produce una corriente en el circuito. La observación de que la corriente inducida tiene una dirección opuesta al cambio que la produce, conocida ahora como ley de Lenz, fue formulada por un físico de origen ruso, Heinrich Friedrich Emil Lenz, en 1834. Cuando las leyes fueron puestas en forma matemática por Maxwell, la ley de la inducción se generalizó para incluir la producción de fuerza eléctrica en el espacio, independientemente de los circuitos conductores reales, pero por lo demás no se modificó. Por otra parte, la ley de Ampère que describe el efecto magnético de una corriente requería una modificación para ser coherente con la conservación de la carga (la carga total debe permanecer constante) en presencia de campos eléctricos cambiantes, y Maxwell introdujo la idea de “corriente de desplazamiento” para hacer que el conjunto de ecuaciones fuera lógicamente coherente. Como resultado, al combinar las ecuaciones encontró que llegaba a una ecuación de onda, según la cual las perturbaciones eléctricas y magnéticas transversales se propagaban con una velocidad que podía calcularse a partir de mediciones eléctricas. Maxwell disponía de estas mediciones, realizadas en 1856 por los físicos alemanes Rudolph Hermann Arndt Kohlrausch y Wilhelm Eduard Weber, y su cálculo le dio un resultado que coincidía, dentro de los límites del error, con la velocidad de la luz en el vacío (se puede examinar algunos de estos asuntos en la presente plataforma online de ciencias sociales y humanidades). Fue la coincidencia de este valor con la velocidad de las ondas predicha por su teoría lo que convenció a Maxwell de la naturaleza electromagnética de la luz.

El concepto de onda y campo electromagnético

Faraday introdujo el concepto de campo y de líneas de fuerza de campo que existen fuera de los cuerpos materiales. Según explicó, la región alrededor y fuera de un imán o una carga eléctrica contiene un campo que describe en cualquier lugar la fuerza experimentada por otro pequeño imán o carga colocado allí. Las líneas de fuerza alrededor de un imán pueden hacerse visibles mediante limaduras de hierro pulverizadas sobre un papel que se mantiene sobre el imán. El concepto de campo, que especifica una determinada acción o fuerza posible en cualquier lugar del espacio, fue la clave para comprender los fenómenos electromagnéticos. Cabe mencionar entre paréntesis que el concepto de campo también desempeña (en diversas formas) un papel fundamental en las teorías modernas de las partículas y las fuerzas.

Además de introducir este importante concepto de líneas de fuerza de los campos eléctrico y magnético, Faraday tuvo la extraordinaria percepción de que las acciones eléctricas y magnéticas no se transmiten instantáneamente, sino después de un cierto retraso en el tiempo, que aumenta con la distancia de la fuente. Además, se dio cuenta de la conexión entre el magnetismo y la luz tras observar que una sustancia como el vidrio puede hacer girar el plano de polarización de la luz en presencia de un campo magnético. Este notable fenómeno se conoce como efecto Faraday.

Como se ha señalado anteriormente, Maxwell formuló una teoría cuantitativa que relacionaba los fenómenos fundamentales de la electricidad y el magnetismo y que predecía que las ondas electromagnéticas se propagaban con una velocidad que, por lo que se podía determinar en aquella época, era idéntica a la de la luz. Concluyó su artículo “Sobre las líneas físicas de la fuerza” (1861-62) diciendo que la electricidad puede diseminarse por el espacio con propiedades idénticas a las de la luz.Entre las Líneas En 1864 Maxwell escribió que el factor numérico que unía las unidades electrostáticas y magnéticas era muy cercano a la velocidad de la luz y que estos resultados “demuestran que la luz y el magnetismo son afecciones de la misma sustancia, y que la luz es una perturbación electromagnética que se propaga a través del campo según [sus] leyes electromagnéticas”.

¿Qué más se necesitaba para convencer a la comunidad científica de que el misterio de la luz estaba resuelto y los fenómenos de la electricidad y el magnetismo estaban unificados en una gran teoría? ¿Por qué tuvieron que pasar 25 años más para que se aceptara la teoría de Maxwell? En primer lugar, había pocas pruebas directas de la nueva teoría. Además, Maxwell no sólo había adoptado un formalismo complicado, sino que explicaba sus diversos aspectos mediante conceptos mecánicos poco habituales. Aunque afirmaba que todas esas frases debían considerarse ilustrativas y no explicativas, el matemático francés Henri Poincaré comentó en 1899 que la “complicada estructura” que Maxwell atribuía al éter “hacía que su sistema fuera extraño y poco atractivo”.

Las ideas de Faraday y Maxwell de que el campo de fuerza tiene una existencia física en el espacio independiente de los medios materiales eran demasiado nuevas para ser aceptadas sin pruebas directas.Entre las Líneas En el continente, sobre todo en Alemania, las cosas se complicaron aún más por el éxito de Carl Friedrich Gauss y Wilhelm Eduard Weber en el desarrollo de una teoría del campo potencial para los fenómenos de la electrostática y la magnetostática y su continuo esfuerzo por extender este formalismo a la electrodinámica.

En retrospectiva es difícil apreciar la reticencia a aceptar la teoría de Faraday-Maxwell. Los trabajos de Hertz acabaron con el estancamiento.Entre las Líneas En 1884, Hertz dedujo la teoría de Maxwell con un nuevo método y puso sus ecuaciones fundamentales en su forma actual. Al hacerlo, aclaró las ecuaciones, haciendo evidente la simetría de los campos eléctricos y magnéticos. El físico alemán Arnold Sommerfeld habló en nombre de la mayoría de sus colegas expertos cuando, tras leer el artículo de Hertz, comentó que “se me cayeron las sombras de los ojos” y admitió que entendía la teoría electromagnética por primera vez. Cuatro años más tarde, Hertz hizo una segunda gran contribución: consiguió generar radiaciones electromagnéticas de frecuencias de radio y microondas, midiendo su velocidad por un método de onda estacionaria y demostrando que estas ondas tienen las propiedades de reflexión, difracción, refracción e interferencia comunes a la luz. Demostró que estas ondas electromagnéticas pueden polarizarse, que los campos eléctricos y magnéticos oscilan en direcciones mutuamente perpendiculares y transversales a la dirección del movimiento, y que su velocidad es la misma que la de la luz, como predice la teoría de Maxwell.

Los ingeniosos experimentos de Hertz no sólo zanjaron las dudas teóricas a favor de la teoría del campo electromagnético de Maxwell, sino que también abrieron el camino para construir transmisores, antenas, cables coaxiales y detectores de la radiación electromagnética de radiofrecuencia.Entre las Líneas En 1896 Marconi recibió la primera patente de telegrafía sin hilos y en 1901 logró la comunicación radiofónica transatlántica.

La teoría Faraday-Maxwell-Hertz de la radiación electromagnética, que se conoce comúnmente como teoría de Maxwell, no hace referencia a un medio en el que se propaguen las ondas electromagnéticas. Una onda de este tipo se produce, por ejemplo, cuando una línea de cargas se mueve hacia adelante y hacia atrás a lo largo de la línea. Las cargas en movimiento representan una corriente eléctrica.Entre las Líneas En este movimiento de ida y vuelta, la corriente fluye en una dirección y luego en otra. Como consecuencia de esta inversión de la dirección de la corriente, el campo magnético que la rodea (descubierto por Ørsted y Ampère) tiene que invertir su dirección. El campo magnético variable en el tiempo produce perpendicularmente a él un campo eléctrico variable en el tiempo, como descubrió Faraday (ley de inducción de Faraday). Estos campos eléctricos y magnéticos variables en el tiempo se propagan desde su fuente, la corriente oscilante, a la velocidad de la luz en el espacio libre. La corriente oscilante en esta discusión es la corriente oscilante en una antena de transmisión, y los campos eléctricos y magnéticos que varían en el tiempo y son perpendiculares entre sí se propagan a la velocidad de la luz y constituyen una onda electromagnética. Su frecuencia es la de las cargas oscilantes de la antena. Una vez generada, se autopropaga porque un campo eléctrico variable en el tiempo produce un campo magnético variable en el tiempo, y viceversa. La radiación electromagnética viaja por el espacio por sí misma. Sin embargo, la creencia en la existencia de un medio de éter era en la época de Maxwell tan fuerte como en la de Platón y Aristóteles. Era imposible visualizar el éter porque había que atribuirle propiedades contradictorias para explicar los fenómenos conocidos en cada momento.Entre las Líneas En su artículo ETER en la novena edición de la Encyclopædia Britannica, Maxwell describió la gran extensión de la sustancia, parte de ella posiblemente incluso dentro de los planetas, llevada junto a ellos o pasando a través de ellos como el “agua del mar pasa a través de las mallas de una red cuando es remolcada por un barco”.

Si uno cree en el éter, es, por supuesto, de importancia fundamental medir la velocidad de su movimiento o el efecto de su movimiento sobre la velocidad de la luz. No se conoce la velocidad absoluta del éter, pero, a medida que la Tierra se mueve en su órbita alrededor del Sol, debería haber una diferencia en la velocidad del éter a lo largo y perpendicular al movimiento de la Tierra igual a su velocidad. Si este es el caso, la velocidad de la luz y de cualquier otra radiación electromagnética a lo largo y perpendicular al movimiento de la Tierra debería, según predijo Maxwell, diferir en una fracción que es igual al cuadrado de la relación entre la velocidad de la Tierra y la de la luz. Esta fracción es una parte en 100 millones.

Michelson se propuso medir este efecto y, como ya se ha dicho, diseñó para ello el interferómetro que se dibuja en la figura 4. Si se supone que el interferómetro se gira de forma que la mitad del haz A se orienta en paralelo al movimiento de la Tierra y la mitad del haz B en perpendicular a él, la idea de utilizar este instrumento para medir el efecto del movimiento del éter se explica mejor con las palabras de Michelson a sus hijos:

Dos haces de luz compiten entre sí, como dos nadadores, uno de los cuales lucha río arriba y regresa, mientras que el otro, cubriendo la misma distancia, sólo cruza el río y regresa. El segundo nadador siempre ganará, si hay corriente en el río.

Una versión mejorada del interferómetro, en la que cada medio rayo recorría su camino ocho veces antes de que ambos se reunieran para la interferencia, fue construida en 1887 por Michelson en colaboración con Morley. Una pesada losa de arenisca que sostenía el interferómetro flotaba en un charco de mercurio para permitir la rotación sin vibraciones. Michelson y Morley no pudieron detectar ninguna diferencia en las dos velocidades de la luz paralelas y perpendiculares al movimiento de la Tierra con una precisión de una parte entre cuatro mil millones. Sin embargo, este resultado negativo no echó por tierra la creencia en la existencia de un éter, ya que éste podría ser arrastrado junto con la Tierra y, por tanto, estar inmóvil alrededor del aparato de Michelson-Morley. La formulación de Hertz de la teoría de Maxwell dejó claro que no era necesario ningún tipo de medio para la propagación de la radiación electromagnética. A pesar de ello, se siguieron realizando experimentos de deriva del éter hasta aproximadamente mediados de la década de 1920. Todas estas pruebas confirmaron los resultados negativos de Michelson, y los científicos acabaron por aceptar la idea de que no era necesario ningún medio de éter para la radiación electromagnética.

Velocidad de la luz

Nota: véase la información sobre la luz para más detalles.

Se han dedicado muchos esfuerzos a la medición de la velocidad de la luz, empezando por el mencionado trabajo de Rømer en 1676. Rømer observó que el periodo orbital de la primera luna de Júpiter, Io, se ralentiza aparentemente a medida que la Tierra y Júpiter se alejan el uno del otro. Los eclipses de Io se producen más tarde de lo esperado cuando Júpiter está en su posición más alejada. Este efecto es comprensible si la luz necesita un tiempo finito para llegar a la Tierra desde Júpiter. A partir de este efecto, Rømer calculó que el tiempo que necesita la luz para viajar desde el Sol hasta la Tierra es de 11 minutos.Entre las Líneas En 1728 James Bradley, un astrónomo inglés, determinó la velocidad de la luz a partir del movimiento orbital aparente de las estrellas que se produce por el movimiento orbital de la Tierra. Calculó que el tiempo que tarda la luz en llegar a la Tierra desde el Sol es de 8 minutos y 12 segundos. Las primeras mediciones terrestres fueron realizadas en 1849 por Fizeau y un año después por Foucault. Michelson mejoró el método de Foucault y obtuvo una precisión de una parte en 100.000.

Cualquier medición de la velocidad requiere, sin embargo, una definición de la medida de longitud y de tiempo. Las técnicas actuales permiten determinar la velocidad de la radiación electromagnética con un grado de precisión sustancialmente mayor que el que permitía la unidad de longitud que los científicos habían aplicado anteriormente.Entre las Líneas En 1983 se fijó el valor de la velocidad de la luz en exactamente 299.792.458 metros por segundo, y este valor se adoptó como nuevo estándar. Como consecuencia, el metro se redefinió como la longitud de la trayectoria recorrida por la luz en el vacío en un intervalo de tiempo de 1/299.792.458 de segundo. Además, el segundo -la unidad internacional de tiempo- se basó en la frecuencia de la radiación electromagnética emitida por un átomo de cesio-133.

Desarrollo de la teoría cuántica de la radiación

Tras una larga lucha, la teoría de las ondas electromagnéticas había triunfado. La teoría Faraday-Maxwell-Hertz de la radiación electromagnética parecía poder explicar todos los fenómenos de la luz, la electricidad y el magnetismo. La comprensión de estos fenómenos permitía producir radiaciones electromagnéticas de muchas frecuencias diferentes que nunca antes se habían observado y que abrían un mundo de nuevas oportunidades. Nadie sospechaba que los fundamentos conceptuales de la física estaban a punto de cambiar de nuevo.

Las leyes de la radiación y los cuantos de luz de Planck

La teoría cuántica de la absorción (véase su concepto jurídico) y emisión de la radiación anunciada en 1900 por Planck inauguró la era de la física moderna. Propuso que todos los sistemas materiales pueden absorber o emitir radiación electromagnética sólo en “trozos” de energía, cuantos E, y que éstos son proporcionales a la frecuencia de esa radiación E = hν. (La constante de proporcionalidad h se llama, como ya se ha dicho, constante de Planck).

Planck llegó a esta idea radicalmente nueva al intentar explicar la desconcertante observación de la cantidad de radiación electromagnética emitida por un cuerpo caliente y, en particular, la dependencia de la intensidad de esta radiación incandescente de la temperatura y de la frecuencia.

Detalles

Los aspectos cuantitativos de la radiación incandescente constituyen las leyes de la radiación.

El físico austriaco Josef Stefan descubrió en 1879 que la energía total de radiación por unidad de tiempo emitida por una superficie calentada por unidad de superficie aumenta como la cuarta potencia de su temperatura absoluta T (escala Kelvin). Esto significa que la superficie del Sol, que está a T = 6.000 K, irradia por unidad de superficie (6.000/300)4 = 204 = 160.000 veces más energía electromagnética que la misma superficie de la Tierra, que se considera que está a T = 300 K.Entre las Líneas En 1889, otro físico austriaco, Ludwig Boltzmann, utilizó la segunda ley de la termodinámica para derivar esta dependencia de la temperatura para una sustancia ideal que emite y absorbe todas las frecuencias. Este objeto que absorbe la luz de todos los colores parece negro, por lo que se le llamó cuerpo negro. La ley de Stefan-Boltzmann se escribe en forma cuantitativa W = σT4, donde W es la energía radiante emitida por segundo y por unidad de superficie y la constante de proporcionalidad es σ = 0,136 calorías por metro2-segundo-K4.

La distribución de la longitud de onda o de la frecuencia de la radiación del cuerpo negro fue estudiada en la década de 1890 por el alemán Wilhelm Wien. Se le ocurrió utilizar como una buena aproximación para el cuerpo negro ideal un horno con un pequeño agujero. Toda la radiación que entra en el pequeño agujero se dispersa y se refleja en las paredes interiores del horno con tanta frecuencia que casi toda la radiación entrante es absorbida y la posibilidad de que una parte de ella vuelva a salir del agujero puede ser excesivamente pequeña. La radiación que sale de este agujero es entonces muy cercana a la radiación electromagnética de cuerpo negro de equilibrio correspondiente a la temperatura del horno. Wien descubrió que la energía radiativa dW por intervalo de longitud de onda dλ tiene un máximo en una determinada longitud de onda λm y que el máximo se desplaza hacia longitudes de onda más cortas a medida que aumenta la temperatura T, como se ilustra en la figura 8. Encontró que el producto λmT es una constante absoluta: λmT = 0,2898 cm-K.

La ley de Wien sobre el desplazamiento del máximo de potencia radiativa a frecuencias más altas a medida que aumenta la temperatura expresa de forma cuantitativa observaciones comunes.

Más Información

Los objetos calientes emiten radiación infrarroja, que se siente en la piel; cerca de T = 950 K se puede observar un brillo rojo apagado; y el color se aclara a naranja y amarillo a medida que aumenta la temperatura. El filamento de tungsteno de una bombilla tiene una temperatura de T = 2.500 K y emite una luz brillante, pero el pico de su espectro sigue estando en el infrarrojo según la ley de Wien. El pico se desplaza al amarillo visible cuando la temperatura es T = 6.000 K, como la de la superficie del Sol.

Fue la forma de la distribución de energía radiativa de Wien en función de la frecuencia lo que Planck intentó comprender. La disminución de la producción de radiación a baja frecuencia ya había sido explicada por Lord Rayleigh en términos de la disminución, al bajar la frecuencia, del número de modos de radiación electromagnética por intervalo de frecuencia. Rayleigh, siguiendo el principio de equipartición de la energía, supuso que todos los modos de frecuencia posibles podían irradiar con igual probabilidad. Dado que el número de modos de frecuencia por intervalo de frecuencia sigue aumentando sin límite con el cuadrado de la frecuencia, la fórmula de Rayleigh predecía una cantidad de radiación cada vez mayor de frecuencias más altas en lugar del máximo observado y la posterior caída de la potencia de radiación. Una posible salida a este dilema era negar a los modos de alta frecuencia una oportunidad igual de radiar. Para ello, Planck postuló que los radiadores u osciladores sólo pueden emitir radiación electromagnética en cantidades finitas de energía de tamaño E = hν. A una temperatura dada T, no hay entonces suficiente energía térmica disponible para crear y emitir muchos cuantos de radiación grandes hν.

Hay que señalar que la cuantización de Planck se refiere a los osciladores del cuerpo negro o de las sustancias calentadas. Estos osciladores de frecuencia ν son incapaces de absorber o emitir radiación electromagnética excepto en trozos de energía de tamaño hν. Para explicar la absorción (véase su concepto jurídico) y emisión cuantificada de la radiación, parecía suficiente cuantificar sólo los niveles de energía de los sistemas mecánicos. Planck no quería decir que la propia radiación electromagnética estuviera cuantizada, o, como dijo Einstein más tarde, “La venta de cerveza en botellas de una pinta no implica que la cerveza exista sólo en porciones indivisibles de una pinta”. La idea de que la propia radiación electromagnética está cuantizada fue propuesta por Einstein en 1905, como se describe en la sección siguiente.

El efecto fotoeléctrico

Hertz descubrió el efecto fotoeléctrico (1887) por accidente mientras generaba ondas electromagnéticas y observaba su propagación. Su transmisor y su receptor eran bobinas de inducción con chispas. Midió la intensidad del campo electromagnético por la longitud máxima de la chispa de su detector. Para observar esto con mayor precisión, de vez en cuando encerraba el hueco de chispa del receptor en una caja oscura. Al hacerlo, observó que la chispa era siempre menor con la caja que sin ella. Concluyó, correctamente, que la luz de la chispa del transmisor afectaba al arco eléctrico del receptor. Utilizó un prisma de cuarzo para dispersar la luz de la chispa del transmisor y descubrió que la parte ultravioleta del espectro luminoso era la responsable de potenciar la chispa del receptor. Hertz se tomó en serio este descubrimiento porque el único otro efecto de la luz sobre los fenómenos eléctricos conocido en aquella época era el aumento de la conductancia eléctrica del elemento selenio con la exposición a la luz.

Un año después del descubrimiento de Hertz, quedó claro que la radiación ultravioleta provocaba la emisión de partículas con carga negativa desde superficies sólidas. El descubrimiento de Thomson de los electrones (1897) y su consiguiente medición de la relación m/e (la relación entre la masa y la carga) permitieron finalmente identificar las partículas negativas emitidas en el efecto fotoeléctrico con los electrones. Esto fue logrado en 1899 por J.J. Thomson e independientemente por Philipp Lenard, uno de los estudiantes de Hertz. Lenard descubrió que, para una frecuencia determinada de radiación ultravioleta, la energía cinética máxima de los electrones emitidos depende del metal utilizado y no de la intensidad de la luz ultravioleta. La intensidad de la luz aumenta el número pero no la energía de los electrones emitidos. Además, descubrió que para cada metal existe una frecuencia de luz mínima necesaria para inducir la emisión de electrones. La luz de una frecuencia inferior a esta frecuencia mínima no tiene ningún efecto, independientemente de su intensidad.

En 1905 Einstein publicó un artículo titulado “Sobre un punto de vista heurístico acerca de la creación y conversión de la luz”.Entre las Líneas En él dedujo que la propia radiación electromagnética está formada por “partículas” de energía hν. Llegó a esta conclusión utilizando un sencillo argumento teórico que comparaba el cambio de entropía de un gas ideal causado por un cambio isotérmico de volumen con el cambio de entropía de un cambio de volumen equivalente para la radiación electromagnética de acuerdo con la ley de radiación de Wien o de Planck. Esta derivación y comparación no hacía referencia a las sustancias ni a los osciladores. Al final de este trabajo, Einstein concluyó que si la radiación electromagnética está cuantizada, los procesos de absorción (véase su concepto jurídico) también lo están, lo que permite una elegante explicación de las energías umbrales y la dependencia de la intensidad del efecto fotoeléctrico. Entonces predijo que la energía cinética de los electrones emitidos en el efecto fotoeléctrico aumenta con la frecuencia de la luz ν proporcionalmente a hν – P, donde P es “la cantidad de trabajo que el electrón debe producir al salir del cuerpo”. Esta cantidad P, ahora llamada función de trabajo, depende del tipo de sólido utilizado, como descubrió Lenard.

La innovadora idea de Einstein sobre los cuantos de luz no fue ampliamente aceptada por sus colegas. El propio Planck declaró en 1913, en su recomendación de admitir a Einstein en la Academia Prusiana de las Ciencias, que “el hecho de que [Einstein] pueda haber errado ocasionalmente en sus especulaciones, como, por ejemplo, con su hipótesis de los cuantos de luz, no debe ser tenido demasiado en cuenta en su contra, ya que es imposible introducir nuevas ideas, incluso en las ciencias exactas, sin correr riesgos”. Para explicar una absorción (véase su concepto jurídico) y emisión cuantificada de la radiación por la materia, parecía suficiente cuantificar los posibles estados energéticos de la materia. La resistencia a cuantificar las energías de la propia radiación electromagnética es comprensible en vista del increíble éxito de la teoría de Maxwell sobre la radiación electromagnética y la abrumadora evidencia de la naturaleza ondulatoria de esta radiación. Además, la similitud formal de dos expresiones teóricas, en el artículo de Einstein de 1905, de la entropía de un gas ideal y la entropía de la radiación electromagnética se consideró una prueba insuficiente para una correspondencia real.

La predicción de Einstein del aumento lineal de la energía cinética de los electrones fotoemitidos con la frecuencia de la luz, hν – P, fue verificada por Arthur Llewelyn Hughes, Owen Williams Richardson y Karl Taylor Compton en 1912.Entre las Líneas En 1916 Robert Andrews Millikan midió tanto la frecuencia de la luz como la energía cinética del electrón emitido por el efecto fotoeléctrico y obtuvo un valor para la constante de Planck h que concuerda con el valor al que se había llegado ajustando la ley de radiación de Planck al espectro del cuerpo negro obtenido por Wien.

El efecto Compton

El físico estadounidense Arthur Holly Compton encontró en 1922 una prueba convincente de la naturaleza de las partículas de la radiación electromagnética. Mientras investigaba la dispersión de los rayos X, observó que dichos rayos pierden parte de su energía en el proceso de dispersión y salen con una frecuencia ligeramente disminuida. Esta pérdida de energía aumenta con el ángulo de dispersión, θ, medido desde la dirección de un rayo X no dispersado. Este llamado efecto Compton puede explicarse, según la mecánica clásica, como una colisión elástica de dos partículas comparable a la colisión de dos bolas de billar.Entre las Líneas En este caso, un fotón de rayos X de energía hν y momento hν/c colisiona con un electrón en reposo. El electrón en retroceso fue observado y medido por Compton y Alfred W. Simon en una cámara de nubes de Wilson. Si se calcula el resultado de tal colisión elástica utilizando las fórmulas relativistas para la energía y el momento del electrón dispersado, se encuentra que la longitud de onda de un rayo X después (λ′) y antes (λ) del evento de dispersión difiere en λ′ – λ = (h/mc)(1 – cos θ). Aquí m es la masa en reposo del electrón y h/mc se llama longitud de onda Compton. Tiene el valor de 0,0243 angstrom. La energía hν de un fotón de esta longitud de onda es igual a la energía de masa en reposo mc2 de un electrón. Se podría argumentar que los electrones de los átomos no están en reposo, pero su energía cinética es muy pequeña comparada con la de los rayos X energéticos y se puede despreciar al derivar la ecuación de Compton.

▷ Lo último (en 2026)
▷ Si te gustó este texto o correo, considera compartirlo con tus amigos. Si te lo reenviaron por correo, considera suscribirte a nuestras publicaciones por email de Derecho empresarialEmprenderDineroMarketing digital y SEO, Ensayos, PolíticasEcologíaCarrerasLiderazgoInversiones y startups, Ciencias socialesDerecho globalHumanidades, Startups, y Sectores económicos, para recibir ediciones futuras.

Absorción por resonancia y retroceso

A mediados del siglo XIX, el físico alemán Gustav Robert Kirchhoff observó que los átomos y las moléculas emiten y absorben radiación electromagnética a frecuencias características y que las frecuencias de emisión y absorción (véase su concepto jurídico) son las mismas para una sustancia determinada. Esta absorción (véase su concepto jurídico) por resonancia no debería producirse, en sentido estricto, si se aplica la imagen del fotón, debido al siguiente argumento. Dado que la energía y el momento deben conservarse en el proceso de emisión, el átomo retrocede hacia la izquierda cuando el fotón se emite hacia la derecha, al igual que un cañón retrocede hacia atrás cuando se dispara. Dado que el átomo que retrocede arrastra cierta energía cinética de retroceso ER, la energía del fotón emitido es menor que la diferencia de energía de los estados energéticos atómicos en la cantidad ER. Cuando un fotón es absorbido por un átomo, el momento del fotón se transmite igualmente al átomo, dándole así una energía cinética de retroceso ER.

Una Conclusión

Por lo tanto, el fotón absorbente debe aportar no sólo la diferencia de energía de los estados energéticos atómicos, sino también la cantidad adicional ER.Entre las Líneas En consecuencia, la absorción (véase su concepto jurídico) por resonancia no debería producirse porque al fotón emitido le falta 2ER para realizarla.

Sin embargo, desde el hallazgo de Kirchhoff, los investigadores han observado la absorción (véase su concepto jurídico) de resonancia para las transiciones electrónicas en átomos y moléculas. Esto se debe a que, para la luz visible, la energía de retroceso ER es muy pequeña en comparación con la incertidumbre energética natural de los procesos de emisión y absorción (véase su concepto jurídico) atómicos. Sin embargo, la situación es muy diferente para la emisión y absorción (véase su concepto jurídico) de fotones de rayos gamma por parte de los núcleos. La ER de la energía de retroceso es más de 10.000 veces mayor para los fotones de rayos gamma que para los fotones de luz visible, y las transiciones energéticas nucleares están mucho más definidas porque su tiempo de vida puede ser un millón de veces mayor que el de las transiciones energéticas electrónicas. Por tanto, la naturaleza de partícula de los fotones impide la absorción (véase su concepto jurídico) por resonancia de los fotones de rayos gamma por parte de los núcleos libres.

En 1958, el físico alemán Rudolf Ludwig Mössbauer descubrió que la absorción (véase su concepto jurídico) por resonancia de los rayos gamma sin retroceso es, sin embargo, posible si tanto el núcleo emisor como el absorbente están incrustados en un sólido.Entre las Líneas En este caso, hay una gran probabilidad de que el momento de retroceso durante la absorción (véase su concepto jurídico) y emisión del fotón gamma sea tomado por todo el sólido (o más exactamente por toda su red). Esto reduce la energía de retroceso a casi cero y, por tanto, permite que se produzca una absorción (véase su concepto jurídico) de resonancia incluso para los rayos gamma.

La dualidad onda-partícula

¿Cómo es posible que la radiación electromagnética se comporte como una partícula en algunos casos y, al mismo tiempo, presente propiedades ondulatorias que producen los fenómenos de interferencia y difracción en otros? Este comportamiento paradójico se conoce como la dualidad onda-partícula. Bohr rechazó la idea de los cuantos de luz y buscó formas de explicar el efecto Compton y el efecto fotoeléctrico argumentando que las leyes de conservación del momento y de la energía sólo deben cumplirse estadísticamente en el promedio temporal.Entre las Líneas En 1923 afirmó que la hipótesis de los cuantos de luz excluye, en principio, la posibilidad de una definición racional de los conceptos de frecuencia y longitud de onda que son esenciales para explicar la interferencia.

Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2026 o antes, y el futuro de esta cuestión):

Al año siguiente, los fundamentos conceptuales de la física se vieron sacudidos por el físico francés Louis de Broglie, que sugirió en su tesis doctoral que la dualidad onda-partícula se aplica no sólo a la luz sino también a una partícula. De Broglie propuso que cualquier objeto tiene propiedades ondulatorias.Entre las Líneas En particular, demostró que las órbitas y energías del átomo de hidrógeno, descritas por el modelo atómico de Bohr, corresponden a la condición de que la circunferencia de cualquier órbita coincide precisamente con un número integral de longitudes de onda λ de las ondas de materia de los electrones. Cualquier partícula como un electrón que se mueve con un momento p tiene, según de Broglie, una longitud de onda λ = h/p. Esta idea requirió una revolución conceptual de la mecánica, que condujo a la mecánica ondulatoria y cuántica de Erwin Schrödinger, Werner Heisenberg y Max Born.

La idea de De Broglie sobre el comportamiento ondulatorio de las partículas fue rápidamente verificada experimentalmente.Entre las Líneas En 1927, Clinton Joseph Davisson y Lester Germer, de Estados Unidos, observaron la difracción y, por tanto, la interferencia de las ondas electrónicas por la disposición regular de los átomos en un cristal de níquel. Ese mismo año, S. Kikuchi, de Japón, obtuvo un patrón de difracción de electrones disparando electrones con una energía de 68 keV a través de una fina placa de mica y registrando el patrón de difracción resultante en una placa fotográfica. El patrón observado correspondía a ondas de electrones con la longitud de onda predicha por de Broglie.Entre las Líneas En 1930 se descubrieron los efectos de difracción de los átomos de helio, y hoy en día la difracción de neutrones se ha convertido en una herramienta indispensable para determinar la estructura magnética y atómica de los materiales.

El patrón de interferencia que resulta cuando un frente de radiación choca con dos rendijas de una pantalla opaca se cita a menudo para explicar la dificultad conceptual de la dualidad onda-partícula. Consideremos una pantalla opaca con dos aberturas A y B, llamada doble rendija, y una placa fotográfica o una pantalla de proyección, como se muestra en la figura 9. Una onda paralela con una longitud de onda λ que pase por la doble rendija producirá el patrón de intensidad en la placa o pantalla que se muestra a la derecha de la figura. La intensidad es mayor en el centro. Cae a cero en todos los lugares x0, donde las distancias a las aberturas A y B difieren en múltiplos impares de media longitud de onda, como, por ejemplo, λ/2, 3λ/2 y 5λ/2. La condición para esta interferencia destructiva es la misma que para el interferómetro de Michelson ilustrado en la figura 4. Mientras que el espejo semitransparente de la figura 4 divide la amplitud de cada tren de ondas por la mitad, la división de la figura 9 a través de las aberturas A y B es espacial. Esto último se denomina división del frente de onda.Entre las Líneas En la pantalla se observan interferencias constructivas o máximos de intensidad en todas las posiciones cuyas distancias a A y B difieren en cero o en un múltiplo entero de λ. Esta es la interpretación ondulatoria del patrón de interferencia de doble rendija observado.

La descripción de los fotones es necesariamente diferente porque una partícula puede pasar obviamente sólo a través de la abertura A o alternativamente a través de la abertura B. Sin embargo, no se observa ningún patrón de interferencia cuando A o B están cerrados. Tanto A como B deben estar abiertos simultáneamente. Durante un tiempo se pensó que un fotón que pasaba por A podía interferir con otro fotón que pasaba por B. Esta posibilidad se descartó después de que el físico británico Geoffrey Taylor demostrara en 1909 que el mismo patrón de interferencia puede registrarse en una placa fotográfica incluso cuando la intensidad de la luz es tan débil que sólo hay un fotón presente en el aparato en un momento dado.

Otro intento de comprender la naturaleza dual de la radiación electromagnética fue identificar el fotón con un tren de ondas cuya longitud es igual a su longitud de coherencia cτ, donde τ es el tiempo de coherencia, o el tiempo de vida de una transición atómica de un estado de energía atómica interna superior a otro inferior, y c es la velocidad de la luz. Esto es lo mismo que concebir el fotón como un paquete de ondas alargado, o “radiación de aguja”. De nuevo, el término “fotón” tenía un significado diferente para los distintos científicos, y la naturaleza ondulatoria y la estructura cuántica seguían siendo incompatibles. Era el momento de encontrar una teoría de la radiación electromagnética que fusionara la teoría de las ondas y la de las partículas. Esta fusión se logró con la electrodinámica cuántica (QED).

La electrodinámica cuántica

Entre los fenómenos más convincentes que demuestran la naturaleza cuántica de la luz están los siguientes. A medida que la intensidad de la luz se atenúa cada vez más, se puede ver cómo se registran cuantos individuales en los detectores de luz. Si los ojos fueran unas 10 veces más sensibles, se percibirían los impulsos luminosos individuales de fuentes de luz cada vez más débiles como un número cada vez menor de destellos de igual intensidad. Además, se ha hecho una película de la formación de un patrón de interferencia de dos rendijas por fotones individuales, como se muestra en la figura 9. Los fotones son partículas, pero se comportan de forma diferente a las partículas ordinarias como las bolas de billar. Las reglas de su comportamiento y su interacción con los electrones y otras partículas cargadas, así como las interacciones de las partículas cargadas entre sí, constituyen la QED.

Los fotones se crean por perturbaciones en los movimientos de los electrones y otras partículas cargadas; a la inversa, los fotones pueden desaparecer y crear así un par de partículas con carga opuesta, normalmente una partícula y su antipartícula (por ejemplo, un electrón y un positrón). La descripción de esta íntima interacción entre las partículas cargadas y la radiación electromagnética requiere una teoría que incluya tanto la mecánica cuántica como la relatividad especial. Las bases de esta teoría, conocida como mecánica cuántica relativista, fueron establecidas a partir de 1929 por Paul A.M. Dirac, Heisenberg y Wolfgang Pauli.

La discusión que sigue explica brevemente los principales elementos conceptuales de la QED. Se puede encontrar más información sobre el tema en Partícula subatómica: El desarrollo de la teoría moderna y la mecánica cuántica.

Muchos fenómenos de la naturaleza no dependen de la escala de referencia de las mediciones científicas. Por ejemplo, en el electromagnetismo la diferencia de potenciales eléctricos es relevante, pero no su magnitud absoluta.Entre las Líneas En la década de 1920, incluso antes de la aparición de la mecánica cuántica, el físico alemán Hermann Weyl discutió el problema de construir teorías físicas que fueran independientes de ciertas bases de referencia o de las magnitudes absolutas de ciertos parámetros no sólo localmente sino en todo el espacio. Llamó a esta propiedad “Eichinvarianz”, que es el origen conceptual del término “invariancia gauge” que juega un papel crucial en todas las teorías de campo cuánticas modernas.

En la mecánica cuántica, todas las magnitudes observables se calculan a partir de las llamadas funciones de onda, que son funciones matemáticas complejas que incluyen un factor de fase. La magnitud absoluta de esta fase es irrelevante para las magnitudes observables calculadas a partir de estas funciones de onda; por lo tanto, la teoría que describe, por ejemplo, el movimiento de un electrón debe ser la misma cuando la fase de su función de onda cambia en cualquier lugar del espacio. Este requisito de invariancia de fase, o invariancia gauge, equivale a exigir que la carga total se conserve y no desaparezca en los procesos o interacciones físicas. Experimentalmente se observa que la carga se conserva en la naturaleza.

📬Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras:

Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.

Resulta que una teoría cuántica relativista de partículas cargadas puede hacerse invariante gauge si la interacción está mediada por una entidad sin masa y sin carga que tiene todas las propiedades de los fotones. La ley de Coulomb de la fuerza entre partículas cargadas puede derivarse de esta teoría, y el fotón puede verse como una partícula “mensajera” que transmite la fuerza electromagnética entre las partículas cargadas de la materia.Entre las Líneas En esta teoría, las ecuaciones de Maxwell para los campos eléctricos y magnéticos están cuantizadas.

El alcance de una fuerza producida por una partícula con masa no nula es su longitud de onda Compton h/mc, que para los electrones es de unos 2 × 10-10 cm. Como esta longitud es grande comparada con las distancias sobre las que actúan las fuerzas nucleares más fuertes, la QED es una teoría muy precisa para los electrones.

A pesar de la elegancia conceptual de la teoría QED, resultó difícil calcular el resultado de situaciones físicas concretas mediante su aplicación. Richard P (se puede examinar algunos de estos asuntos en la presente plataforma online de ciencias sociales y humanidades). Feynman y, de forma independiente, Julian S. Schwinger y Freeman Dyson, de Estados Unidos, y Tomonaga Shin’ichirō, de Japón, demostraron en 1948 que se podían calcular los efectos de las interacciones como una serie de potencias en la que la constante de acoplamiento se llama constante de estructura fina y tiene un valor cercano a 1/137. Una grave dificultad práctica surgió cuando cada término de la serie, que había que sumar para obtener el valor de una cantidad observada, resultó ser infinitamente grande.Entre las Líneas En resumen, los resultados de los cálculos no tenían sentido. Sin embargo, finalmente se descubrió que estas divergencias podían evitarse introduciendo acoplamientos y masas de partículas “renormalizadas”, una idea concebida por el físico holandés Hendrik A. Kramers. Al igual que un barco que se mueve por el agua tiene una masa aumentada debido al fluido que arrastra, un electrón que se arrastra e interactúa con su propio campo tendrá una masa y una carga diferentes a las que tendría sin él. Añadiendo componentes electromagnéticos adecuados a la masa y la carga desnudas -es decir, utilizando cantidades renormalizadas- se podrían eliminar de la teoría los infinitos perturbadores. Utilizando este método de renormalización y la teoría de la perturbación, Feynman desarrolló una forma elegante para calcular la probabilidad de observar procesos relacionados con la interacción de la radiación electromagnética con la materia con cualquier grado de precisión deseado. Por ejemplo, el paso de un electrón o un fotón a través de la doble rendija ilustrada en la figura 9 producirá, en este formalismo QED, el patrón de interferencia observado en una placa fotográfica debido a la superposición de todos los posibles caminos que estas partículas pueden tomar a través de las rendijas.

El éxito de la unificación de la electricidad, el magnetismo y la luz en una teoría del electromagnetismo y, posteriormente, de la interacción de las partículas cargadas en la teoría de la electrodinámica cuántica, sugiere la posibilidad de entender todas las fuerzas de la naturaleza (gravitatoria, electromagnética, nuclear débil y nuclear fuerte) como manifestaciones de una gran teoría unificada (GUT). El primer paso en esta dirección lo dieron en los años 60 Abdus Salam, Steven Weinberg y Sheldon Glashow, que formularon la teoría electrodébil, que combina la fuerza electromagnética y la fuerza nuclear débil. Esta teoría predijo que la fuerza nuclear débil se transmite entre las partículas de la materia mediante tres partículas mensajeras denominadas W+, W- y Z, de forma muy parecida a como la fuerza electromagnética se transmite mediante fotones. Las tres nuevas partículas se descubrieron en 1983 durante los experimentos realizados en la Organización Europea para la Investigación Nuclear (CERN), un gran laboratorio acelerador cerca de Ginebra. Este triunfo de la teoría electrodébil representó otro peldaño hacia una comprensión más profunda de las fuerzas e interacciones que dan lugar a la multitud de fenómenos físicos del universo.

Datos verificados por: James
[rtbs name=”fisica”] [rtbs name=”ciencia”]

Recursos

[rtbs name=”informes-jurídicos-y-sectoriales”][rtbs name=”quieres-escribir-tu-libro”]

Traducción al Inglés

Traducción al inglés de Radiación electromagnética: Electromagnetic radiation.

Véase También

Medición de antenas
Bioelectromagnetismo
Bolómetro
Control de la radiación electromagnética
Pulso electromagnético
Radiación electromagnética y salud
Acoplamiento de ondas evanescentes
Método del dominio del tiempo por diferencia finita
Ondas gravitacionales
Helicon
Impedancia del espacio libre
Reacción a la radiación
Riesgos y beneficios de la exposición al sol
Soluciones de ondas planas sinusoidales de la ecuación de ondas electromagnéticas

Bibliografía

▷ Esperamos que haya sido de utilidad. Si conoces a alguien que pueda estar interesado en este tema, por favor comparte con él/ella este contenido. Es la mejor forma de ayudar al Proyecto Lawi.
▷ Lee Gratis Nuestras Publicaciones
,Si este contenido te interesa, considera recibir gratis nuestras publicaciones por email de Derecho empresarial, Emprender, Dinero, Políticas, Ecología, Carreras, Liderazgo, Ciencias sociales, Derecho global, Marketing digital y SEO, Inversiones y startups, Ensayos, Humanidades, y Sectores económicos, en Substack.

Contenidos Relacionados:

Los de arriba son los elementos relacionados con este contenido de la presente plataforma digital de ciencias sociales.

Foro de la Comunidad: ¿Estás satisfecho con tu experiencia? Por favor, sugiere ideas para ampliar o mejorar el contenido, o cómo ha sido tu experiencia:

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

▷ Recibe gratis nuestras revistas de Derecho empresarial, Emprender, Carreras, Dinero, Políticas, Ecología, Liderazgo, Marketing digital, Startups, Ensayos, Ciencias sociales, Derecho global, Humanidades, y Sectores económicos, en Substack. Cancela cuando quieras.
Index

Descubre más desde Plataforma de Derecho y Ciencias Sociales

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo