Cuando Newton llegó a las leyes fundamentales de la física ya había un cartel que decía «Leonardo estuvo aquí».

Si deseas profundizar en esta entrada; por favor cliquea adonde se encuentre escrito en “azul”. Muchas gracias.

La leyenda de Leonardo da Vinci sigue agigantándose.

El valor artístico y científico de la obra que nos ha legado este genio nacido a mediados del siglo XV en Anchiano (Florencia) es indudable.

Y es que seis siglos después de su paso por este mundo los estudiosos de sus escritos continúan descubriendo en ellos un conocimiento que a priori parecería estar fuera del alcance de cualquier persona de la Edad Media, por muy erudita que fuese.

Pero no.

Leonardo se niega a ser encasillado junto a sus coetáneos.

Sabemos desde hace mucho que su ingenio no conocía límites, y el descubrimiento que ha realizado un equipo de ingenieros de Caltech, que es el prestigioso Instituto Tecnológico de California, reafirma aún con más intensidad este axioma.

Y es que estos investigadores se han dado cuenta de que su comprensión de la gravedad estaba adelantada varios siglos a su época. Punto para Leonardo.

Los textos de da Vinci siguen deparándonos grandes sorpresas.

Resulta sorprendente que a estas alturas todavía queden descubrimientos por hacer en los escritos de Leonardo da Vinci.

Enigmas ocultos entre sus trazos y aún pendientes de ser resueltos.

Pero sí, es evidente que no lo sabemos todo acerca del genio florentino.

Estos investigadores de Caltech han inspeccionado minuciosamente, como han hecho otros científicos antes que ellos, el códice Arundel, que es una colección de textos manuscritos por Leonardo entre 1480 y 1518 que abordan varias disciplinas científicas, como las matemáticas o la física.

Actualmente cualquiera de nosotros puede examinar gratuitamente este códice debido a que ha sido digitalizado y está disponible en la página web de la Biblioteca Británica, que es la institución que lo conserva.

Así es, precisamente, como lo han hecho los ingenieros de Caltech. En cualquier caso, lo importante es que han descubierto que Leonardo diseñó y llevó a cabo varios experimentos que le permitieron formarse una idea razonablemente precisa acerca de la naturaleza de la gravedad.

De hecho, según estos técnicos sus pruebas persiguieron demostrar que la gravedad es una forma de aceleración, lo que sugiere que Leonardo intuía con precisión las características del fenómeno físico que quería estudiar.

Y llegó muy lejos, especialmente si tenemos presente lo rudimentarios que eran los recursos que tenía a su disposición. Tanto es así que a pesar de no tener instrumentos avanzados de medida consiguió estimar la constante de gravitación universal, según los investigadores de Caltech, con una precisión del 97%.

Leonardo Ap

El códice Arundel está repleto de dibujos y esquemas. Leonardo los utilizaba para describir con precisión sus experimentos.

El experimento que diseñó Leonardo para llevar a cabo un cálculo tan preciso en una época en la que no tenía un instrumental de medida sofisticado derrocha ingenio.

Y los investigadores de Caltech lo han reproducido.

De hecho, esto es lo que les ha permitido evaluarlo y poner sobre la mesa, una vez más, lo astuto que era el polímata florentino.

Y es que a da Vinci se le ocurrió desplazar una jarra de agua a lo largo de una trayectoria paralela al suelo con el propósito de ir vertiendo poco a poco una sustancia que le permitiese observar con la máxima precisión posible si la velocidad con la que caía era o no constante (podéis ver el esbozo de este experimento en la imagen de portada de este artículo).

En sus notas concluye de una forma taxativa que la sustancia vertida no se precipita a una velocidad constante, sino que está sometida a una aceleración

Al parecer Leonardo no indica en sus textos qué sustancia empleó en este experimento, pero los ingenieros de Caltech sospechan que debió de utilizar agua o arena.

En cualquier caso, en sus notas concluye de una forma taxativa que la sustancia vertida no se precipita a una velocidad constante, sino que está sometida a una aceleración.

Incluso se percató de que cuando no está bajo la influencia de la persona que realiza el experimento, la sustancia no está sometida a una aceleración horizontal, lo que le llevó a concluir que la aceleración vertical únicamente puede estar propiciada por la gravedad. Ingenioso, ¿verdad?

Para poner en perspectiva la relevancia del hallazgo de Leonardo da Vinci nos interesa tener en cuenta que murió en 1519, y Galileo Galilei, que también hizo aportaciones relevantes en esta área, elaboró sus teorías en 1604.

Y Newton, que, como todos sabemos, desarrolló, entre muchas otras cosas, una teoría de la gravedad cuyo eco todavía perdura, vivió durante la segunda mitad del siglo XVII y las primeras tres décadas del XVIII.

No cabe la más mínima duda: Leonardo fue un auténtico adelantado a su tiempo.

Imagen de portada: Caltech

FUENTE RESPONSABLE. Xataka. Por Juan Carlos López. 15 de febrero 2023.

Sociedad y Cultura/Historia/Tecnología/Investigación/Física/Matemáticas/Leonardo Da Vinci

Demuestran cómo viajar más rápido que la luz sin violar las teorías de Einstein.

UNA CUESTIÓN DE DIMENSIONES

Un equipo de investigadores asegura que es posible que existan objetos que viajen más rápido que la luz sin violar las leyes de la física.

Si deseas profundizar en esta entrada; cliquea por favor adonde se encuentre escrito en color “azul”. Muchas gracias.

Un equipo de físicos de las universidades de Varsovia y Oxford asegura que existe la posibilidad de que haya objetos que viajen más rápido que la velocidad de la luz. Esto, dicen, no es solo cierto en el plano teórico, sino que pueden existir también en la realidad sin violar las leyes de la física.  

Para sus cálculos se han basado en la idea del observador superlumínico, una figura hipotética que observa el universo mientras viaja dentro de un objeto a más velocidad que la luz. Esto, dicen, uniría la teoría de Einstein del espacio-tiempo con la mecánica cuántica, la parte de la física que explica el comportamiento de las partículas subatómicas.

Extendiendo la teoría de la relatividad

Según la teoría espacial de la relatividad de Albert Einstein, no hay nada en el universo que viaje tan rápido como la luz. 

Sin embargo, los investigadores han desarrollado «una extensión de la relatividad especial» que incorpora a esta teoría marcos de referencia que podrían darse a velocidades superiores a la de la luz. 

Einstein basó su teoría en el principio de relatividad de Galileo y la constancia de la velocidad de la luz. El principio de la relatividad dice que en todo sistema inercial —donde un cuerpo se mantiene en movimiento, mientras que ninguna fuerza actúa sobre él— las leyes de la física son las mismas y todos los observadores inerciales son iguales. 

Este principio se suele aplicar a los observadores que se mueven unos respecto a otros a velocidades inferiores a la de la luz. Pero, según Andrzej Dragan, el investigador principal del estudio publicado en la revista Classical and Quantum Gravity, no hay ninguna razón por la que los observadores que se mueven a velocidades superiores a la de la luz no deban estar sujetos a él.

Ilustración de un concepto de nave de vela solar impulsada por la luz de una supernova.

«Hasta hace poco, se creía en general que los postulados que subyacen a la teoría cuántica son fundamentales y no pueden derivarse de nada más básico», señala Dragan. «En este trabajo, demostramos que la justificación de la teoría cuántica mediante la relatividad extendida puede generalizarse de forma natural al espacio-tiempo 1 + 3».

Una cuestión de dimensiones

La clave para que un objeto viaje por encima de la velocidad de la luz está en el número de dimensiones. Los autores parten del concepto de espacio-tiempo que todos conocemos, con tres dimensiones para el espacio y una para el tiempo. 

Sin embargo, desde el punto de vista del observador superlumínico, solo una dimensión de este mundo conserva un carácter espacial, mientras que las otras tres son dimensiones temporales. Esa dimensión espacial es la única que permite el movimiento de una partícula. 

Si la vemos moverse desde el punto de vista del observador superlumínico, la partícula va envejeciendo independientemente en cada uno de los tres tiempos. Mientras que desde nuestro punto de vista —con tres dimensiones de espacio y una de tiempo— se vería como si la partícula se moviera en varias direcciones del espacio simultáneamente.

Concepto de nave espacial con motor de antimateria. (NASA)

«A pesar de nuestra percepción común, el tiempo y el espacio son sorprendentemente similares según la relatividad, y matemáticamente la única diferencia entre ellos es el signo menos en alguna parte de las ecuaciones», explica Dragan. 

Pero cuando el observador va más rápido que la velocidad de la luz, la diferencia de signos cambia. «El tiempo del observador superlumínico se convierte en espacio del sub lumínico, y su espacio se convierte en tiempo», afirma el investigador. Mientras que en las dimensiones 1 + 1 el espacio y tiempo son iguales, si se quiere estudiarlos como cosas distintas hay que añadir un segundo conjunto de dos dimensiones (el espacio y el tiempo 1 representan el espacio, mientras que el tiempo 2 y el tiempo 3, juntos, representan el tiempo).

Del ejercicio matemático a la hipervelocidad

Este trabajo parece querer poner las bases matemáticas de una gran teoría física unificada, una visión en conjunto que lo uniría todo. 

«El marco matemático desarrollado por los autores en este artículo es único. Parece que el beneficio que perciben del esfuerzo es que establece una base matemática de por qué necesitamos un marco teórico de campo», explica para Popular Mechanics Sonny White, antiguo físico de la NASA y fundador del Limitless Space Institute, un grupo que financia y promueve los viajes espaciales lejanos y la investigación en física.

Los vientos solares se pueden usar para propulsar una nave espacial. (NASA)»

Si imaginamos los modelos estándar de la física como un diagrama de Venn, habría dos círculos, uno al lado del otro, que se tocan en un único punto tangente», explica White. 

«La idea de una gran teoría del campo unificado podría concebirse como un círculo mayor que rodea a los dos círculos más pequeños». Toda esta explicación parece un ejercicio teórico que no nos acerca a tener naves con warp drive, como en Star Trek, que nos permitan hacer viajes interestelares en poco tiempo. 

Pero los investigadores no lo ven así. «La última cuestión que queda por resolver es si los objetos superlumínicos son solo una posibilidad matemática o existen realmente en la realidad», asegura Dragan. «Creemos que lo último es posible y ese es el propósito de nuestra próxima investigación».

Imagen de portada: Un concepto de nave con Warp Drive.

FUENTE RESPONSABLE: El Confidencial. Por Omar Kardoudi. 3 de febrero 2023.

Sociedad y Cultura/Ciencia/Investigación/Espacio/Física.

La teoría de la relatividad: explicación fácil y ejemplos.

La teoría de la relatividad supuso un antes y un después para la Ciencia moderna. Descubre en este artículo todo sobre esta teoría revolucionaria.

Desde Galileo, hasta Einstein, este artículo te ofrece una breve introducción histórica a la invención y desarrollo del principio de la relatividad, así como las principales aplicaciones que se derivan de él.

Principio de relatividad de Galileo

En el siglo XVII, el astrónomo, matemático y físico Galileo Galilei observó que era imposible que un viajero que estuviese encerrado en la bodega de un barco supiera si estaba parado o si, por el contrario, se movía en un mar en calma. 

Según Galileo, ya sea que el barco estuviese atracado o se moviese en línea recta a una velocidad constante, una manzana que cualquier marinero dejase caer desde lo alto del mástil, volvería a caer exactamente a su pie. Así fue como el físico italiano, Galileo, estableció su principio de relatividad que establece la siguiente premisa: «el movimiento en sí es como nada».

Si deseas profundizar en esta entrada; cliquea por favor adonde se encuentre escrito en color “azul”. Muchas gracias. 

Esto se traduce en la imposibilidad de que el movimiento de traslación rectilíneo y uniforme de un cuerpo móvil por una experiencia que se realiza sólo en su interior, sin referencia al mundo exterior. Las teorías de Galileo pasarían a formar parte de las predicciones más brillantes en el mundo de la física.

Galileo Galilei

Retrato del físico Galileo Galilei

Principio de relatividad de Einstein

El principio de relatividad de Galileo, aplicado como norma a la mecánica, fue prácticamente abandonado a finales del siglo XIX, cuando los físicos pensaron en remarcar el movimiento de la Tierra alrededor del Sol a través de un experimento óptico. Observaron que la luz no podía propagarse en el vacío y por ello idearon un medio particular que permitía esta propagación. 

A este medio lo llamaron «Éter» (que no debe ser confundido con el éter de la Química). Esperaban así que, del mismo modo que la velocidad del sonido se mueve a través del aire, la velocidad de la luz dependiera de la velocidad de la fuente en relación con el éter. Esto permitiría, por ejemplo, resaltar el movimiento de la Tierra en relación con el Éter y, de este modo, invalidar la relatividad galileana.

En el año 1887, Albert Michelson y Edward Morley consiguieron demostrar, gracias a un experimento que se ha hecho famoso a posteriori, que la velocidad de la luz en el vacío, que es aproximadamente de 300.000 kilómetros por segundo, toma el mismo valor que la velocidad de la Tierra alrededor del Sol. Por lo tanto, no logran resaltar el movimiento de la Tierra.

Así fue como este resultado invalidó la teoría del Éter e impuso la idea de que la luz se propagaba sin un soporte material. La velocidad de la luz en el vacío se convirtió entonces en un invariante, es decir, en independiente del estado de movimiento del observador. 

Posteriormente, en un artículo publicado en el año 1905, Albert Einstein extendió el principio de Galileo a todas las leyes de la física entonces conocidas. Entre todas ellas, a la mecánica y el electromagnetismo, lo que implica que la velocidad de la luz es idéntica en todos los marcos de referencia inerciales.

Albert-Einstein

Foto de archivo de Albert Einstein

De la Relatividad Especial (1905) a la Relatividad General (1915)

En 1905, Albert Einstein consiguió establecer que la teoría de la relatividad especial, fundando así la noción de espacio-tiempo y estableciendo un vínculo entre energía y masa. 

La relatividad especial también hace que la velocidad de la luz (en el vacío) sea una cantidad invariable, que permanece invariable sea cual sea la posición del observador. 

A partir de 1907, intentó describir la gravitación basándose para ello en la simple idea de que una persona en caída libre ya no siente su peso. En el año 1912 amplió esta idea al explicar que la luz debe tener una trayectoria curvada por la gravedad, lo que se verificaría durante el eclipse de sol de 1919.

Einstein pasaría los años siguientes desarrollando el formalismo matemático que refleja estas concepciones. 

El 25 de noviembre de 1915 fue capaz de presentar a la Real Academia de Prusia las ecuaciones definitivas de la teoría de la relatividad general. Esto se basa en el principio de equivalencia entre la gravedad y la aceleración, y quedaría remarcado en un artículo que se publicaría el 2 de diciembre de ese mismo año. Estos avances serían cruciales para las posteriores teorías de cuerdas.

La relatividad del tiempo

Para entender las consecuencias de las teorías y postulados de Albert Einstein, debemos pensar en un tren imaginario que viaja a una velocidad cercana a la de la luz en un movimiento rectilíneo y uniforme. 

Uno de los pasajeros del tren nota que dos haces de luz, emitidos simultáneamente en el centro del vagón, alcanzan las paredes opuestas simultáneamente. Por otro lado, esto no es lo que el jefe de estación observa desde el andén. Como la velocidad de la luz es la misma para todos los observadores, los haces de luz alcanzan las paredes opuestas del vagón en momentos diferentes porque uno de los haces debe alcanzar al tren. Así, la primera consecuencia de la relatividad de Einstein es que la simultaneidad de dos eventos es totalmente relativa al observador.

trayectoria luz

La trayectoria de la luz depende de la relatividad del observador

Estas consecuencias se derivan de una importante inversión conceptual. 

Hasta entonces, el tiempo y el espacio formaron el escenario en el que se desarrollaron los acontecimientos. Se consideraban nociones fundamentales y la velocidad era una noción que derivaba de ellas. 

Si el tiempo y el espacio deben adaptarse a una velocidad invariable, entonces se vuelven relativos al marco de referencia del observador y, por lo tanto, ya no son independientes, sino que forman una nueva entidad unificada, el espacio-tiempo. Esto influiría mucho en las teorías posteriores sobre agujeros negros

¿Qué aplicaciones tiene la teoría de la relatividad?

La variación de duraciones con el movimiento del observador ha sido comprobada experimentalmente con gran precisión, gracias a la desintegración de muones atmosféricos o aceleradores de partículas. Hoy en día, el principio de la relatividad del tiempo se usa comúnmente en la física fundamental, pero también es fundamental tener la teoría de la relatividad presente a la hora de sincronizar los relojes de los sistemas de geolocalización por satélite.

Imagen de portada: Gentileza de urban techno.

FUENTE RESPONSABLE: Urban Techno. Por Juan Pablo Longobardo. 24 de enero 2023.

Sociedad/Ciencia/Física/Teoría de la Relatividad/Tiempo.

La nave que puede cruzar todo el universo en el transcurso de una vida humana.

Un ejercicio teórico

El astrofísico Avi Loeb nos cuenta cómo construir «la nave más fantástica jamás imaginada», que permitiría recorrer todo el universo observable en el transcurso de una sola vida humana.

Después de una tormenta de nieve, no hay mayor emoción que recoger nieve esponjosa para hacer una bola de nieve y lanzarla a gran velocidad. Del mismo modo, en un universo en aceleración no hay mayor emoción que recoger energía oscura para fabricar un objeto de masa negativa que lance una nave espacial a la velocidad de la luz. Debes estar pensando: «Espera, ¿qué?» Permita que se lo explique. 

El astronauta se acercaría lo suficiente a la velocidad de la luz como para mantener una dilatación temporal suficiente y atravesar todo el Universo durante la vida de un ser humano. 

Si deseas profundizar en esta entrada; cliquea por favor adonde se encuentre escrito en color “azul”. Muchas gracias.

Cuenta la leyenda que Isaac Newton formuló la teoría de la gravedad después de ver caer una manzana de un árbol y preguntarse por qué la manzana caía recta hacia abajo. Newton razonó que la fuerza de la gravedad atrae la manzana hacia la Tierra, igual que atrae a dos objetos de masa positiva entre sí. 

Albert Einstein generalizó la teoría de Newton interpretando la gravedad como la curvatura del espacio-tiempo, a la que todos los objetos responden de la misma manera. 

Esto se deriva del llamado Principio de Equivalencia, según el cual la masa inercial de un objeto, que dicta su aceleración en respuesta a una fuerza que actúa sobre él, es igual a su masa gravitatoria, es decir, su acoplamiento a la gravedad. 

Pero la reformulación de la gravedad por Einstein también dio lugar a una sorpresa. Las ecuaciones de Einstein predicen que, bajo el dominio de la densidad de la energía del vacío, como la energía oscura observada en el Universo actual, una manzana se aceleraría alejándose de Newton. Por tanto, la gravedad puede ser repulsiva. Observamos que las galaxias lejanas se aceleran alejándose de nosotros por esta razón. Aún no comprendemos la naturaleza de la energía oscura. Para explicarla, quizá necesitemos desarrollar una teoría predictiva de la gravedad cuántica.

Isaac Newton.

Aunque los físicos no lograron unificar la mecánica cuántica y la gravedad durante el siglo pasado, debemos seguir siendo optimistas sobre las perspectivas futuras de la física. 

Supongamos que, dentro de milenios, los ingenieros especializados en gravedad cuántica construyen un arado de energía oscura que fabrique objetos de masa negativa a partir de la reserva cósmica natural de energía oscura que nos rodea. ¿Qué implicaría esto? 

Un objeto de masa negativa aceleraría en sentido contrario a la dirección de una fuerza externa. Si lo empujamos, se acelerará hacia nosotros. Según el principio de equivalencia, el objeto de masa negativa también se acoplará a la gravedad con signo contrario, es decir, que repelerá a los objetos de masa positiva. 

Imaginemos ahora que colocamos el objeto de masa negativa junto a un objeto de masa positiva de signo igual pero opuesto. La repulsión gravitatoria entre las masas empujará a la masa positiva, pero también tirará de la masa negativa para perseguirla en la misma dirección. 

Como resultado, las dos masas se moverán con una aceleración constante a lo largo de la dirección del eje que las une. El par se acelerará conjuntamente hasta alcanzar la velocidad de la luz en un proceso de fuga. La masa total del par es cero, por lo que no hay necesidad de combustible.

Hermann Bondi.

Caso cerrado. ¿No crees que no hay nada más emocionante que crear una nave espacial ideal a partir de un par de masas iguales pero opuestas? Este fantástico concepto de nave espacial fue concebido en 1957 por Hermann Bondi y estudiado por Robert Forward en 1990

Obviamente, hay problemas conceptuales y prácticos con este concepto “gratis total” para la propulsión. Primero, un par de masas iguales pero opuestas no cuesta energía porque su masa total es cero. 

Por tanto, el vacío podría producir espontáneamente pares de masas positivas y negativas. Los pares se acelerarían a la velocidad de la luz y llenarían el Universo. El hecho de que no las estemos observando significa que las masas negativas están prohibidas en la naturaleza o existe una barrera cuántica numérica que impide su creación espontánea. A nivel práctico, una nave espacial con una masa neta exactamente nula se desaceleraría considerablemente como resultado de una colisión con una sola partícula de gas o polvo en el medio interestelar. Esto contrasta con un cohete, que permite una aceleración constante de una masa positiva finita. En concreto, si una nave espacial acelerara con la aceleración gravitatoria terrestre de 9,8 metros por segundo al cuadrado, un astronauta a bordo tendría la misma experiencia que si estuviera en la superficie de la Tierra. 

Si mantuviéramos esta aceleración constante durante varias décadas, el astronauta se acercaría lo suficiente a la velocidad de la luz como para mantener una dilatación temporal suficiente y atravesar todo el Universo durante la vida de un ser humano.

Imagen de portada: Concepto de nave espacial con Warp Drive.

FUENTE RESPONSABLE: El Confidencial. Por Avi Loeb. 19 de enero 2023.

Sociedad y Cultura/Ciencia/Física/Gravitación cuántica/Teoría.

Premio Nobel de Física por el descubrimiento del antiprotón para Emilio Gino Segré.

Nacido en Tívoli, Lacio, Italia, fue un físico ítalo-estadounidense que, juntamente con Owen Chamberlain, ganó en 1959 el Premio Nobel.

Hijo de padres sefardíes estudió ingeniería en la universidad romana de La Sapienza. En 1927 cambió de carrera por la física y se doctoró en 1928 con una tesis dirigida por Enrico Fermi. Pertenecía al llamado Grupo de Roma.

Después de hacer el servicio militar, desde el 1928 hasta el 1929 trabajó con Otto Stern en Hamburgo y con Pieter Zeeman en Ámsterdam, como miembro de la Fundación Rockefeller (Rockefeller Foundation). Segrè fue profesor de física de la Universidad de Roma “La Sapienza” de 1932 hasta 1936. De 1936 hasta 1938 será director del laboratorio de física de la Universidad de Palermo.

Después de la visita que hizo en el Laboratorio de Radiación de Berkeley (Berkeley Radiation Laboratory) a Ernest O. Lawrence. Ernest le envió en 1937 a Segrè una muestra de molibdeno que había sido bombardeado con núcleos de deuterio (deuterones) en el ciclotrón de Berkeley para que la analizase, ya que estaba emitiendo formas anómalas de radioactividad. Tras cuidadosos análisis químicos y teóricos, Segrè fue capaz de probar que parte de la radiación estaba siendo producida por un elemento químico desconocido que fue llamado tecnecio por haber sido el primero sintetizado artificialmente (del griego tecnetos, que significa “»artificial”). A posteriori ha sido encontrado en la naturaleza, aunque en muy pequeñas dosis.

Mientras Segrè estaba de visita a California, en verano del 1938, el gobierno fascista de Mussolini expulsó de las universidades a los judíos con sus leyes antisemitas. Como judío, a Segrè se le otorgó un permiso de emigrante por tiempo indefinido. En el Laboratorio de Radiación de Berkeley, Ernest O. Lawrence le ofreció un puesto de trabajo como Asistente de Investigación (una posición bastante baja para alguien que había descubierto un elemento) con un sueldo de 300 dólares al mes. Además, cuando Lawrence se enteró que Segrè estaba legalmente atrapado en California, le bajó el sueldo a 116 dólares (muchos, incluido Segrè, vieron en esto una situación de explotación). Segrè, empero, pudo encontrar otro trabajo como profesor del departamento de física en la Universidad de California en Berkeley. Mientras estaba allí, ayudó a descubrir el elemento conocido como astato y el isótopo plutonio-239 (que luego se utilizó para crear la bomba atómica lanzada en Nagasaki).

Desde 1943 a 1946, trabajó en el Laboratorio Nacional de Los Álamos / Los Alamos National Laboratory, dentro del grupo encargado del proyecto Manhattan. En 1944 obtuvo la ciudadanía estadounidense y, cuando regresó a Berkeley en 1946, trabajó como profesor de física allí hasta 1972. En 1974, volvió a la Universidad de Roma “La Sapienzaפ como profesor de física nuclear.

Segrè, además, fue un fotógrafo aficionado y sus instantáneas documentaron eventos y retrataron personas para la historia de la ciencia moderna. El Instituto Americano de Física (American Institute of Physics) dio su nombre al Archivo Fotográfico de la Historia de la Física en su honor.

Murió a la edad de 84 años, de un ataque cardíaco, en Lafayette, California (Estados Unidos).

Imagen de portada: Los “chicos” de Vía Panisperna en el patio del Instituto de Física de la Universidad de Roma en Vía Panisperna. De izquierda a derecha: Oscar D’Agostino, Segrè, Edoardo Amaldi, Franco Rasetti y Enrico Fermi – Foto: Wikipedia – Dominio Público

FUENTE RESPONSABLE: Aurora. Israel.

Sociedad y Cultura/Ciencia/Física/Investigación/Premio Nobel

Por qué el tiempo va hacia delante y no hacia atrás.

Cuando Isaac Newton publicó su famosa obra Principia en 1687, sus tres elegantes leyes del movimiento resolvieron muchos problemas.

Sin ellas, no podríamos haber llevado gente a la Luna 282 años después.

Pero estas leyes trajeron a la física un nuevo problema, que no se apreció completamente hasta siglos después de Newton y que todavía molestan a los cosmólogos de hoy.

El problema es que las leyes de Newton funcionan el doble de bien de lo que podríamos esperar.

Describen el mundo por el que nos movemos todos los días: el mundo de las personas, las manecillas que se mueven alrededor de un reloj e incluso la caída apócrifa de ciertas manzanas.

Pero también dan cuenta perfectamente de un mundo en el que las personas caminan hacia atrás, los relojes marcan de la tarde a la mañana, y la fruta se eleva desde la tierra hasta la rama del árbol.

«La característica interesante de las leyes de Newton, que no se apreció hasta mucho después, es que no distinguen entre el pasado y el futuro», dice el físico teórico y filósofo Sean Carroll, quien analiza la naturaleza del tiempo en su última obra «Las ideas más grandes del universo».

«Pero la direccionalidad del tiempo es su característica más obvia, ¿verdad? Tengo fotografías del pasado, no tengo fotografías del futuro».

FUENTE DE LA IMAGEN – GETTY IMAGES

El problema no se limita a las teorías centenarias de Newton.

Prácticamente todas las teorías fundamentales de la física desde entonces han funcionado tan bien hacia adelante como hacia atrás, dice el físico Carlo Rovelli del Centro de Física Teórica en Marsella, Francia, y autor de libros que incluyen «El orden del tiempo».

«A partir de Newton, la teoría del electromagnetismo de Maxwell, el trabajo de Einstein y la mecánica cuántica, la teoría cuántica de campos, la relatividad general e incluso la gravedad cuántica, no tienen distinción entre el pasado y el futuro», dice Rovelli.

«Lo que fue una sorpresa, porque la distinción es muy evidente para todos nosotros. Si haces una película, es obvio cuál es el futuro y cuál el pasado».

¿Cómo estas descripciones del Universo tienen sentido del tiempo si carecen de su propia flecha indicativa de dirección?

Como dice Marina Cortês, astrofísica de la Universidad de Lisboa: «Hay muchas implicaciones que comienzan con tomarse en serio la pregunta, ‘¿Por qué pasa el tiempo?'».

FUENTE DE LA IMAGEN – GETTY IMAGES

Parte de la respuesta se encuentra en el Big Bang, sucedido hace casi 14.000 millones de años.

Otra percepción proviene del extremo opuesto, en la eventual muerte del Universo.

Pero antes de embarcarse en este viaje épico de ida y vuelta a lo largo de la línea de tiempo del Universo, vale la pena detenerse en 1865, justo cuando la primera ley de la física verdaderamente direccional en el tiempo aparecía al mismo tiempo que se daba la Revolución Industrial.

Juntando vapor

En el siglo XIX, cuando el carbón se metía en los hornos para generar energía de vapor, los científicos e ingenieros que esperaban desarrollar mejores motores adoptaron un conjunto de principios que describían la relación entre el calor, la energía y el movimiento.

Se conocieron como las leyes de la termodinámica.

En Alemania, en 1865, el físico Rudolf Clausius afirmó que el calor no puede pasar de un cuerpo frío a uno caliente, si nada cambia a su alrededor.

Clausius ideó el concepto que llamó «entropía» para medir este comportamiento del calor; otra forma de decir que el calor nunca fluye de un cuerpo frío a uno caliente es decir «la entropía solo aumenta, nunca disminuye».

Como destaca Rovelli en «El orden del tiempo», esta es la única ley básica de la física que puede distinguir el pasado del futuro.

Una pelota puede rodar cuesta abajo o ser pateada de regreso a su cumbre, pero el calor no puede fluir de lo frío a lo caliente.

FUENTE DE LA IMAGEN – GETTY IMAGES

Para ilustrar, Rovelli toma su pluma y la deja caer de una mano a la otra.

«La razón por la que esto se detiene en mi mano es porque tiene algo de energía, y luego la energía se convierte en calor y calienta mi mano. Y la fricción detiene el rebote. De lo contrario, si no hubiera calor, esto rebotaría para siempre y no distinguiría el pasado del futuro».

Hasta ahora, es sencillo. Es decir, hasta que empieces a considerar qué es el calor a nivel molecular.

La diferencia entre las cosas calientes y las cosas frías es cuán agitadas están sus moléculas: en una máquina de vapor caliente, las moléculas de agua están muy excitadas, dando vueltas y chocando entre sí rápidamente.

Las mismas moléculas de agua están menos agitadas cuando se unen como condensación en el cristal de una ventana.

Aquí está el problema: cuando te acercas al nivel de, digamos, una molécula de agua chocando y rebotando en otra, la flecha del tiempo desaparece.

Si viera un video microscópico de esa colisión y luego lo rebobinara, no sería obvio qué camino era hacia adelante y hacia atrás.

FUENTE DE LA IMAGEN – GETTY IMAGES

En la escala más pequeña, el fenómeno que produce calor, las colisiones de moléculas, es simétrico en el tiempo.

Esto significa que la flecha del tiempo del pasado al futuro solo emerge cuando se retrocede del mundo microscópico al macroscópico, algo que apreció por primera vez el físico y filósofo austriaco Ludwig Boltzmann.

«Entonces, la dirección del tiempo proviene del hecho de que miramos cosas grandes, no miramos los detalles», dice Rovelli.

«Es en este paso, desde la visión microscópica fundamental del mundo hasta la descripción aproximada del mundo macroscópico, aquí es donde entra la dirección del tiempo».

«No es que el mundo esté fundamentalmente orientado en el espacio y el tiempo», dice Rovelli. Es que cuando miramos a nuestro alrededor, vemos una dirección en la que las cosas medianas y cotidianas tienen más entropía: la manzana madura caída del árbol, la baraja de cartas barajada».

Aunque la entropía parece estar inextricablemente ligada a la flecha del tiempo, parece un poco sorprendente, tal vez incluso desconcertante, que la única ley de la física que tiene una fuerte direccionalidad del tiempo incorporada pierda esta direccionalidad cuando miras a muy pequeña escala.

«¿Qué es la entropía?» Rovelli dice.

«La entropía es simplemente cuánto nos olvidamos de la microfísica, cuánto nos olvidamos de las moléculas».

Si hay una flecha del tiempo, ¿de dónde vino en primer lugar?

«La respuesta está incrustada en el comienzo del Universo», dice Carroll.

FUENTE DE LA IMAGEN – GETTY IMAGES

«La respuesta es porque el Big Bang tenía baja entropía. Y aún así, 14.000 millones de años después estamos nadando en las secuelas de ese tsunami que comenzó cerca del Big Bang. Es por eso que el tiempo tiene una dirección para nosotros».

La entropía extraordinariamente baja del Universo en el Big Bang es tanto una respuesta como una gran pregunta.

El principio y el final

«Lo que menos entendemos sobre la naturaleza del tiempo es por qué el Big Bang tenía baja entropía, por qué el Universo primitivo era así», dice Carroll.

«Y creo honestamente, como cosmólogo en activo, creo que mis compañeros cosmólogos han bajado los brazos en este caso. Realmente no toman ese problema lo suficientemente en serio».

Carroll publicó un artículo en 2004 con su colega Jennifer Chen, en el que pretendían explicar por qué el Universo tenía una entropía tan baja cerca del Big Bang, en lugar de simplemente asumir o aceptar que este fuera el caso.

«Hay muchas lagunas en la teoría, muchos aspectos que no están completamente madurados, pero también creo que es, con mucho, la mejor teoría que tenemos», dice Carroll. «No hace trampa».

Otros cosmólogos están de acuerdo en que es hora de pensar seriamente en este problema de los orígenes de baja entropía del Universo.

«La probabilidad de que nuestro Universo actual tenga condiciones iniciales de este tipo, y no de otro tipo, es de alrededor de uno en 10 a 10 a 124 (1:10^10^124)», dice Cortês. (Otra forma de decirlo es que el evento tenía una probabilidad de 0,00…01, con 120 ceros omitidos).

«Quiero decir que podría decir con seguridad que este es el número más grande en la física moderna, fuera de la filosofía o las matemáticas».

Asumir unos orígenes tan improbables de una entropía tan baja es un gran ejemplo de cómo «empujar el problema debajo de la alfombra», dice Cortês.

FUENTE DE LA IMAGEN – GETTY IMAGES

«Si los físicos siguen haciendo esto, después de un tiempo lo que habrá será un gran montón debajo de la alfombra. Nos corresponde a nosotros, los cosmólogos, explicar por qué el tiempo solo avanza».

Incluso si aún no sabemos por qué, el pasado de baja entropía del Universo es una fuente plausible de la flecha del tiempo.

Como la mayoría de las cosas que tienen un principio, la flecha también tendrá un final.

La primera persona en detectar esto fue, una vez más, el físico austriaco Ludwig Boltzmann.

«Boltzmann pensó, ‘ah, la entropía está creciendo en el Universo y tal vez llegue al máximo en algún momento'», dice Rovelli.

En ese punto, el calor se distribuiría uniformemente por todo el Universo, y ya no fluiría de un lugar a otro.

No habría energía disponible en una forma útil para hacer trabajo; en otras palabras, casi nada interesante estaría sucediendo en todo el Universo.

Como lo describe la astrofísica Katie Mack, «A medida que continúa ese proceso, todo se descompone tanto que todo lo que queda es el calor residual de todo lo que existió alguna vez en el Universo». Este destino se conoce como la muerte térmica del Universo, o muerte por calor.

«Las estrellas dejarán de arder, ya no pasará nada. No habrá nada más que pequeñas fluctuaciones térmicas», dice Rovelli.

«Supongamos que esto sucede. No sabemos con certeza si va a suceder, pero supongamos que sucede, ¿deberíamos decir que no hay dirección de tiempo allí? Por supuesto que no hay dirección de tiempo, porque cada fenómeno que sucedió de una manera podría también ir en un sentido o en el otro. Nada distinguirá las dos direcciones del tiempo».

Esto es quizás lo más extraño de la flecha del tiempo: «Solo dura un rato», dice Carroll.

FUENTE DE LA IMAGEN – GETTY IMAGES. Es muy difícil imaginar lo que podría pasar si la flecha del tiempo finalmente se desvanece.

«Cuando pensamos, producimos calor en nuestras neuronas», dice Rovelli.

«Pensar es un proceso en el que la neurona necesita entropía para funcionar. Nuestro sentido del paso del tiempo es exactamente lo que la entropía le hace a nuestro cerebro».

La flecha del tiempo que surge de la entropía nos acerca mucho más a comprender por qué el tiempo sólo avanza.

Pero puede haber más flechas del tiempo que esta; de hecho, podría decirse que hay una descarga completa de flechas del tiempo que apuntan desde el pasado hacia el futuro.

Para entender esto, tenemos que pasar de la física a la filosofía.

Tiempo humano

Las formas en que intuitivamente entendemos y experimentamos el tiempo no deben tomarse a la ligera, dice Jenann Ismael, profesora de filosofía en la Universidad de Columbia, Nueva York.

Si piensa en su propia experiencia del tiempo, pronto podrá reconocer varias de las flechas psicológicas que forman una parte central de la experiencia humana.

Una de estas flechas es lo que Ismael llama «fluir».

FUENTE DE LA IMAGEN – GETTY IMAGES

«Si miras al mundo, no experimentas una representación puramente estática del estado instantáneo del mundo», dice, como en una película compuesta por varios fotogramas estáticos cada segundo.

«Vemos directamente que el mundo está cambiando».

Esta experiencia del flujo del tiempo está integrada en nuestra percepción.

«La visión no se parece en nada a una cámara de cine», dice Ismael.

«En realidad, lo que sucede es que su cerebro está recopilando información durante un período temporal. Está integrando esa información para que, en un momento dado, lo que está viendo sea un cálculo que el cerebro ha hecho. 

 

De modo que no solo vea que las cosas se mueven, ves lo rápido que se mueven, la dirección en la que se mueven. Entonces, todo el tiempo, tu cerebro está integrando información en intervalos temporales y te da el resultado. Así que ves el tiempo, de alguna manera».

Hay una segunda característica del tiempo que Ismael distingue del flujo, que ella denomina «pasaje».

La idea de pasaje está íntimamente ligada a experiencias orientadas en el tiempo, como la memoria y la anticipación.

FUENTE DE LA IMAGEN – GETTY IMAGES. Tome el ejemplo de una boda o cualquier evento de vida muy esperado.

Nuestra experiencia de estos momentos tiene muchas capas, desde las conflictivas etapas de planificación hasta la intensidad del día en sí y los recuerdos que permanecen con nosotros durante años.

Hay una direccionalidad en estas diferentes experiencias: la forma en que anticipamos un evento en el futuro es fundamentalmente diferente de cómo lo recordamos cuando ya pasó.

«Todo eso es parte de lo que considero la experiencia del pasaje, esta idea de que experimentamos cada evento como anticipado del pasado, experimentado en el presente, recordado en retrospectiva», dice Ismael.

«Es una especie de proustiano en su densidad».

Estos aspectos de la direccionalidad del tiempo psicológico, así como muchos otros, como el sentido de apertura que tenemos sobre el futuro pero no sobre el pasado, podrían tener sus raíces en la flecha del tiempo nacida de la Revolución Industrial.

FUENTE DE LA IMAGEN – GETTY IMAGES

«Creo que todo vuelve a la entropía», dice Ismael.

«Ahora no veo ninguna razón para pensar que los tipos de flechas que están involucradas en la psicología humana están enraizadas en última instancia en la flecha entrópica. Pero es una pregunta empírica. No tengo ninguna razón para pensar que este proyecto para comprender la experiencia humana en relación con la flecha entrópica va a fallar».

Ese proyecto es lo que Carroll espera hacer, tomando varias características de nuestra experiencia del tiempo y relacionándolas con la entropía. Su primer objetivo es la causalidad, otro elemento de la flecha del tiempo, ya que las causas suceden antes que los efectos.

Por decir lo menos, este proyecto es una empresa importante para todos los físicos y filósofos involucrados.

Y aún, al acecho en las sombras detrás de todos esos esfuerzos, queda esa pregunta persistente sobre por qué la entropía era tan baja en el Universo primitivo.

«Creo que entendemos por qué tenemos esta sensación de fluir», dice Rovelli.

«Entendemos por qué el pasado nos parece fijo y el futuro parece abierto. Entendemos por qué hay fenómenos irreversibles, y podemos reducir todo eso a la segunda ley de la termodinámica, al aumento de la entropía».

«Está muy relacionado con el hecho de que si lo rastreamos atrás, atrás, atrás, el Universo comenzó muy pequeño, en una situación muy peculiar. Entonces, de alguna manera, se está revirtiendo esa situación peculiar».

«Pero, por supuesto, hay una pregunta abierta, quiero decir, ¿por qué? ¿Por qué comenzó de esa manera en particular?»

 

Imagen de portada:  GETTY IMAGES

FUENTE RESPONSABLE: Martha Henriques. BBC Future. 8 de octubre 2022.

Física/Astronomía/Ciencia

 

 

Estas son las tres razones por las que el astrofísico Martin Rees, profesor en Cambridge, cree que el CERN podría destruir la Tierra.

Martin Rees no es un astrofísico del montón (si es que se puede ser un astrofísico «del montón»). Este cosmólogo británico ha sido presidente de la prestigiosa Royal Society de Londres, rector del no menos reputado Trinity College, y ejerce como profesor emérito de Cosmología y Astrofísica en la Universidad de Cambridge. Además, por si su currículo no fuese ya suficientemente impresionante, desde 1995 ostenta el título honorario de Astrónomo Real, lo que lo coloca en la misma senda por la que han caminado antes que él otros astrónomos célebres, como Edmund Halley o Sir Harold Spencer Jones.

Si deseas profundizar en esta entrada; por favor cliquea adonde se encuentre escrito en color “azul”. Muchas gracias.

Durante su carrera ha estudiado fenómenos tan apasionantes y complejos como el rol que puede tener la materia oscura en la formación de las galaxias, la existencia de las ondas gravitacionales, la formación de los agujeros negros o cómo se distribuyen los cuásares a lo largo y ancho del Universo. También ha publicado varios centenares de artículos científicos y nueve libros de divulgación. Precisamente este artículo está dedicado al último de ellos. Y es que en un capítulo de ‘En el futuro: perspectivas para la humanidad’ Rees plantea la posibilidad de que los experimentos que llevamos actualmente a cabo en los aceleradores de partículas puedan destruir la Tierra. O, incluso, todo el Universo.

Durante su carrera Martin Rees ha estudiado fenómenos tan complejos como el rol que puede tener la materia oscura en la formación de las galaxias, las ondas gravitacionales o la formación de los agujeros negros

Solo un puñado de científicos puede permitirse escribir algo así en un libro de divulgación y salir indemne. Martin Rees es uno de ellos. Aborda esta idea apoyándose en los planteamientos de otros científicos, pero al explicar estas teorías en su obra tal y como lo hace les da cuando menos una mínima credibilidad. Y por esta razón merece la pena que indaguemos en ellas, pero únicamente como curiosidad con ambición científica. Sin intranquilizarnos lo más mínimo. Y es que en la última sección del artículo veremos qué opina sobre estas ideas Javier Santaolalla, un doctor en física de partículas español que participó en los experimentos del CERN que propiciaron el descubrimiento del bosón de Higgs.

Un agujero negro voraz capaz de devorarlo todo

Esta no es la primera vez que alguien defiende la posibilidad de que la colisión de las partículas que hacemos chocar en los aceleradores provoque la formación de un diminuto agujero negro que podría incrementar su masa absorbiendo la materia circundante. Pero en esta ocasión quien describe esta idea es Martin Rees, por lo que parece razonable aceptar que podría dejar de ser una «magufada» para ser considerada una curiosidad científica. En su libro Rees afirma que según la Teoría General de la Relatividad enunciada por Albert Einstein la energía necesaria para producir un agujero negro microscópico es muy superior a la que generan las colisiones que producimos en los aceleradores actuales.

Martinreesret

Además, y esto es algo que Rees no refleja en su libro pero que ha sido defendido en innumerables ocasiones por muchos físicos de partículas, si durante las colisiones se produjese un agujero negro microscópico se evaporaría en una fracción mínima de tiempo por efecto de la radiación de Hawking. 

Y no llegaría a comportarse como un objeto estable ni a engullir materia de forma insaciable. Explicar a fondo cómo funciona esta forma de radiación descrita por el recientemente desaparecido Stephen Hawking requeriría que le dedicásemos un artículo completo, pero nos basta saber que los agujeros negros emiten radiación, y, por tanto, pierden masa hasta desaparecer completamente. Y que los menos masivos son los que se evaporan con más rapidez.

Lo que Martin Rees aporta a esta discusión, y lo que la hace interesante más allá de lo que ya sabíamos, deriva de algunas implicaciones de la Teoría de supercuerdas. Esta teoría es una hipótesis descrita por varios modelos teóricos que son candidatos a afianzarse como una Teoría del todo, y que, por tanto, pretenden aglutinar las cuatro interacciones fundamentales de la naturaleza: la gravedad, la fuerza electromagnética, la interacción nuclear débil y la interacción nuclear fuerte. En su libro Rees defiende que estas teorías describen dimensiones espaciales que coexisten con las tres con las que todos estamos familiarizados y que podrían «reforzar el agarre de la gravedad».

La relación entre estas dimensiones espaciales adicionales y el tirón gravitatorio del que habla Martin Rees no está clara porque su explicación en el libro es muy escueta. Con toda probabilidad su brevedad se debe a que la física sobre la que están construidas las teorías de supercuerdas que los físicos teóricos proponen actualmente es extraordinariamente compleja. En cualquier caso, lo realmente interesante es que Rees da visibilidad a la posibilidad, previsiblemente mínima, de que el refuerzo de la gravedad provocado por estas dimensiones espaciales extra provoque que una partícula en unas condiciones muy concretas implosione, dando lugar a un agujero negro presumiblemente diminuto, al menos en su estadio inicial.

La Tierra podría transformarse en un enorme ‘strangelet’

La palabra strangelet es peculiar. Y no es en absoluto algo casual. Un strangelet es una partícula hipotética que, según algunas teorías de la física actual, podría ser un elemento constituyente de la materia extraña. Como veis, nos adentramos, de la mano de Martin Rees, en un terreno pantanoso que no va más allá de lo hipotético. Antes de seguir adelante es necesario que repasemos algunas nociones acerca de la materia extraña, una peculiar forma de materia compuesta tan solo por tres tipos de quarks de los seis que hay en total: arriba (up), abajo (down) y extraño (strange).

Los quarks son partículas fundamentales que interactúan entre ellas para constituir partículas subatómicas como los protones o los neutrones, que son, a su vez, las partículas que podemos encontrar en el núcleo de los átomos. Como ejemplo, un neutrón está formado por un quark arriba y dos quarks abajo, que permanecen unidos gracias a la interacción nuclear fuerte. La característica más sorprendente de la materia extraña es que no está formada por los protones y los neutrones con los que estamos familiarizados debido a que está sometida a una presión tan alta que estas partículas quedan disociadas en sus elementos constituyentes, que, precisamente, son los quarks de los que hemos hablado unas líneas más arriba.

Al mismo tiempo, la enorme presión a la que están sometidas estas partículas fundamentales provoca que estén muy juntas, propiciando que la materia extraña tenga una densidad descomunal. Una característica interesante de esta forma de materia que ha sido descrita por los físicos teóricos es que es más estable que la materia ordinaria con la que todos estamos familiarizados, la que está compuesta por protones, neutrones y electrones. Curiosamente, algunos astrofísicos están convencidos de que el interior de algunas estrellas de neutrones está sometido a una presión tan alta que los neutrones podrían aparecer disociados en forma de materia extraña. Un dato sobrecogedor: la densidad de una estrella de neutrones es tal que un «dado» de un centímetro cúbico pesaría mil millones de toneladas.

Ya tenemos cierta intuición acerca de la naturaleza de la materia extraña, por lo que podemos volver a nuestros strangelets, que, como vimos al principio de esta sección, son los elementos constituyentes de esta forma de materia. Lo que algunos físicos postulan, y Martin Rees recoge en su libro, es que si un strangelet entra en contacto con el núcleo de un átomo de materia ordinaria podría transformarlo en materia extraña, liberando durante el proceso una gran cantidad de energía y más strangelets. Estos últimos presumiblemente saldrían despedidos en todas direcciones y al entrar en contacto con otros núcleos atómicos producirían una reacción en cadena que transformaría la materia ordinaria en materia extraña.

La densidad de una estrella de neutrones es tal que un «dado» de un centímetro cúbico pesaría mil millones de toneladas.

Rees se hace eco de las hipótesis defendidas por algunos físicos que describen la posibilidad de que las colisiones de partículas que llevamos a cabo en los aceleradores en determinadas circunstancias den lugar a la aparición de strangelets. Y estos al entrar en contacto con la materia ordinaria de la que está hecho nuestro planeta (y también nosotros mismos) podrían transformar por contagio toda la Tierra en una esfera hiperdensa de materia extraña de alrededor de 100 metros de diámetro. Imaginad toda la masa de nuestro planeta comprimida hasta tal punto que quede confinada a una esfera tan pequeña. Desde luego no parece algo agradable. Afortunadamente solo se trata de una hipótesis que, como veremos en la última sección del artículo, ha sido desmontada por muchos más físicos de los que la defienden.

Una transición de fase podría desgarrar el continuo espacio-tiempo

El tercer accidente recogido por Martin Rees en su libro como posible resultado de las colisiones que llevamos a cabo en los aceleradores de partículas es si cabe aún más dramático que los dos anteriores. En su explicación Rees recurre a una metáfora muy ilustrativa que defiende que el espacio que contiene todas las partículas y las fuerzas fundamentales que gobiernan el mundo físico podría existir en varias «fases», de la misma forma en que el agua puede encontrarse en tres estados diferentes: líquido, sólido o gaseoso. Lo interesante de esta perspectiva es que, según Rees, algunos físicos defienden que el vacío del espacio podría ser frágil e inestable.

La inestabilidad del vacío en determinadas circunstancias propiciadas por el choque de las partículas en los aceleradores podría provocar que el espacio cambie de fase súbitamente

Durante su explicación desarrolla más la analogía del espacio y el agua describiendo la posibilidad de sobreenfriar el agua más allá de la temperatura a la que se congela. Sin embargo, esto solo es posible si el agua es totalmente pura y está en perfecto reposo. 

Cualquier perturbación, por mínima que sea, provocaría que el agua abandone este estado de sobreenfriamiento y adopte nuevamente la forma de hielo. Con el espacio podría suceder algo similar. La fragilidad e inestabilidad del vacío en determinadas circunstancias propiciadas por el choque de las partículas en los aceleradores podría provocar que el espacio cambie de fase súbitamente, desgarrando así el continuo espacio-tiempo y dando lugar a una catástrofe que no solo afectaría a la Tierra, sino, quizá, a todo el Cosmos.

Todo esto tiene interés teórico, pero no tenemos por qué preocuparnos

Después de describir los tres «accidentes» en los que acabamos de indagar Martin Rees expone que las teorías más aceptadas son tranquilizadoras porque aseguran que el riesgo que entrañan los experimentos que estamos llevando a cabo en los actuales aceleradores de partículas, como los del CERN, es cero. 

Las razones que esgrime el grueso de la comunidad científica para defender esta afirmación son contundentes: los rayos cósmicos, que están constituidos por partículas con una energía muy superior a la que manejamos en los aceleradores, colisionan con frecuencia en el Cosmos, y, que sepamos, no han producido ninguna catástrofe.

No obstante, no hace falta que nos remontemos a los confines de la galaxia para reforzar este argumento. Esos mismos rayos cósmicos de alta energía impactan constantemente con los núcleos atómicos de la atmósfera de nuestro planeta y es evidente que no han provocado la formación ni de agujeros negros, ni de strangelets, ni tampoco la ruptura del continuo espacio-tiempo. 

En cualquier caso, para indagar un poco más en todo este asunto y clarificarlo en la medida de lo posible hemos hablado con Javier Santaolalla, un doctor en física de partículas e ingeniero de telecomunicación español que ha trabajado en algunas de las instituciones científicas más respetadas, como la Agencia Espacial Francesa, el CIEMAT o el CERN. De hecho, dentro de esta última organización formó parte del equipo de físicos que hizo posible el descubrimiento en 2012 del bosón de Higgs.

Las primeras explicaciones de Javier, como esperaba, son profundamente tranquilizadoras: «Martin Rees habla de teorías muy improbables y exóticas.

En su descripción hay mucha especulación debido a que todos los escenarios que plantea son muy extraños. Podemos estar seguros de que las colisiones que llevamos a cabo en los aceleradores de partículas no entrañan riesgos si nos fijamos en los rayos cósmicos. Son mucho más energéticos que los choques que estamos produciendo ahora y los que produciremos en el futuro, y no hemos observado que ningún planeta haya colapsado o desaparecido debido a la acción de estas partículas de altísima energía».

«Martin Rees habla de teorías muy improbables y exóticas. Podemos estar seguros de que las colisiones que llevamos a cabo en los aceleradores de partículas no entrañan riesgos si nos fijamos en los rayos cósmicos»

Además, Javier apunta varias ideas muy interesantes que sin duda enriquecen esta discusión: «Una teoría incluso ha predicho que el campo de Higgs podría tener una forma tal que diese lugar a un efecto túnel capaz de desgarrar el Universo. 

A mí personalmente, como físico experimental, estas teorías me hacen pensar que estamos tan perdidos acerca de la forma en que debemos avanzar en nuestro conocimiento de la física fundamental que aparecen ideas tan extrañas como estas. Yo creo que el Universo es más sencillo que todo eso, y defiendo que la teoría que vendrá después no introducirá este tipo de ideas tan especulativas y raras».

Fotografía aérea de las instalaciones del CERN en la frontera entre Francia y Suiza.

Antes de concluir mi conversación con Javier me resistí a dejar escapar la oportunidad de preguntarle si durante su estancia en el CERN había hablado en alguna ocasión con algún físico veterano acerca de la posibilidad de que los experimentos que estaban llevando a cabo produjesen un accidente. 

«En una ocasión durante mi estancia allí hablé con un físico veterano y reconoció que hipotéticamente, en algún escenario muy particular, aun teniendo en cuenta los rayos cósmicos se podría producir algún efecto no deseado. Pero de nuevo es un planteamiento hipotético que se apoya en un escenario muy particular», rememoró Javier.

Y concluyó su explicación apuntando: «Estas ideas surgen sobre el papel para proponer algo que podría hipotéticamente ser posible, pero en la práctica es muy probable que no sean correctas. 

Además, aun siendo correctas deben enfrentarse a la improbabilidad de que se den las circunstancias apropiadas para que ese efecto tenga lugar. Por estas razones todo esto suena más a ciencia ficción que a ciencia. El LHC seguirá funcionando; continuará llevando a cabo colisiones sin ningún problema y el mundo no va a desaparecer porque no hay ninguna evidencia plausible por la que tengamos que preocuparnos».

Imagen de portada: CERN

FUENTE RESPONSABLE: Xataka. Juan Carlos López. 5 de octubre 2022.

Sociedad/Investigación/Ciencia/Espacio/Física/Quark/Cosmos/CERN/Agujeros Negros/Martín Rees.

 

 

¿Quién gana el premio Nobel de Física 2022?

Se otorga la semana que viene; investigadores de Buenos Aires, La Plata y Bariloche jugaron a proponer nombres y explican por qué los eligieron.

Como ocurre desde hace más de un siglo, los primeros días de octubre están jalonados por un acontecimiento que atrae la atención de la comunidad científica global: se otorgan los premios Nobel de Fisiología o Medicina, de Física y de Química. Aunque los veredictos de cada año no están exentos de discusiones, es innegable que la suma que distribuyen y el prestigio que implican no pasan desapercibidos.

Una ventana al cerebro

Para ir palpitando la entrega del próximo martes, el Departamento de Física de la la Facultad de Ciencias Exactas de la UBA y el Instituto Balseiro les pidieron a algunos investigadores que arriesgaran candidatos.

El elegido por Enzo Tagliazucchi, físico y neurocientífico, profesor e investigador del Departamento de Física de la Facultad de Ciencias Exactas de la UBA, investigador del Conicet y director del laboratorio “Ciencia, cultura y complejidad”, es Seiji Ogawa, físico japonés de 86 años. “Lo que hizo es interesante porque se trata de uno de esos pocos casos en los que no hay controversia acerca de que la autoría de su descubrimiento –explica Tagliazucchi–. Lo presentó en un paper de 1990 publicado en el Proceedings of the National Academy of Science (PNAS) y tuvo un impacto enorme”.

Seiji Ogawa

El logro de Ogawa fue darse cuenta de que cuando las neuronas se activan y procesan información, se disparan “potenciales de acción”, y luego necesitan energía que suministra la sangre para recuperar su estado basal. El mecanismo por el cual se genera esa energía es una reacción química que involucra el oxígeno que llevan las moléculas de hemoglobina. Al mismo tiempo, las neuronas que no están oxigenadas tienen propiedades magnéticas diferentes.

“Así, la señal que mide la técnica de resonancia magnética se distorsiona [en las distintas regiones del cerebro de acuerdo con su actividad] y uno la puede traducir en el volumen de sangre oxigenada que está llegando a esa zona –explica Tagliazucchi–. Eso, sumado a la muy buena resolución espacial de estos equipos, permitió construir un mapa del cerebro que hoy cartografía con precisión de milímetros cúbicos qué áreas están recibiendo flujo sanguíneo, y esto es un marcador indirecto de donde hay neuronas ‘disparando’. O sea, lo que él inventó fue la técnica conocida como ‘resonancia magnética funcional’, que permite mapear en tiempo real y de forma no invasiva la actividad del cerebro de la persona que está dentro del resonador”.

El hallazgo tiene aplicaciones en muchas áreas, algunas de las cuales, como la neurociencia cognitiva, son posibles casi en su totalidad gracias a este avance. “Antes, uno tenía que esperar que hubiera una guerra para poder estudiar el cerebro, analizar déficits comportamentales y localizar distintas funciones –dice Tagliazucchi–. Ahora, cualquiera puede hacer un estudio sin provocar daños. Y lo mismo con otros órganos. Ogawa le dio un impulso notable a la neurociencia”.

Revolución cuántica 2.0

Los favoritos de Alex Fainstein, físico, egresado y docente del Instituto Balseiro, además de investigador del Conicet, que dirige el Laboratorio de Fotónica y Optoelectrónica del Centro Atómico Bariloche, son dos franceses: Michel Devoret y Alain Aspect.

Michel Devoret

“La primera revolución cuántica transformó el siglo pasado, hizo posible la existencia de transistores, la electrónica, los láseres –comenta Fainstein–. Michel Devoret tiene que ver con lo que se conoce como ‘segunda revolución cuántica’, que es la que presenta los aspectos más ‘esotéricos’, como el entrelazamiento [un concepto introducido en 1935 por Einstein, Podolsky y Rosen, que se verifica cuando dos partículas que se encuentran físicamente separadas se comunican entre sí y que no tiene equivalente en la física clásica] o la ‘teleportación’ [un proceso en el cual se transmite información cuántica de una posición a otra alejada de la primera] . Son ideas ‘locas’, pero en las que muchos países están haciendo inversiones enormes, de miles de millones de dólares, y que prometen transformar nuestra realidad”.  

Alain Aspect

Devoret es un pionero en el desarrollo de circuitos electrónicos muy pequeños que funcionan como qubits cuánticos (la base de las computadoras cuánticas). Alain Aspect probó experimentalmente que algo que ocurre muy lejos puede afectar lo que sucede en otro punto del universo.

“La aplicación más llamativa de estos avances dio lugar a la actual computadora cuántica –destaca Fainstein–. Es una forma de computar en la que no tenés ‘bits’ clásicos, que solo pueden tener dos valores (1 o 0), sino que pueden ser cualquier combinación entre dos valores con cierta probabilidad. Está demostrado que ese carácter probabilístico de la física cuántica se puede usar para hacer  computación en paralelo y romper todos los algoritmos, por ejemplo de seguridad. Podrías saber no solo todo lo que la gente está haciendo y diciendo, sino también lo que hizo y dijo en los últimos 20 años. Para eso se desarrolla la criptografía cuántica, que nadie puede espiar. Pero también se anticipa que con esta tecnología se podrán calcular estructuras de átomos, de moléculas para uso médico… Las aplicaciones que se imaginan son enormes”.

Augusto Roncaglio, investigador de la UBA e integrante del grupo de información cuántica, coincide con Fainstein respecto de Alain Aspect (“lo que logró fue entrelazar una cantidad muy grande de fotones en poco tiempo”, aclara)  y agrega al físico austríaco Anton Zeilinger, que también contribuyó en esta área. El equipo de este último fue el primero en comprobar una interferencia cuántica entre macromoléculas. Durante sus investigaciones en fotones entrelazados logró teletransportar dos de una orilla a la otra del Danubio.  

Los Borges de la física

Daniel Dominguez, egresado y docente del Instituto Balseiro, investigador del Conicet y de la CNEA en el área de materia condensada, comenta que también en física hay casos como el de Borges, que todos los años era candidato, pero nunca llegó a recibirlo. “Uno de ellos podría ser Aspect”, desliza.

David Deutsch

Entre su grupo de elegidos está Charles Bennett, uno de los pioneros en el campo de la computación cuántica que en este momento trabaja en IBM en los problemas del intercambio de información, y al físico nacido en Israel David Deutsch, miembro de la Royal Society. “Ambos dieron forma a la idea de programación cuántica y de computadora cuántica universal”, explica Domínguez. También incluye a John Martinis, líder del proyecto cuántico de Google.

Para fundamentar sus elecciones, Silvia Goyanes, directora del Laboratorio de Polímeros y Materiales del Departamento de Física de la UBA, revisó el testamento de Nobel. “Allí dice que la distinción se instaura ‘para premiar a aquellos que durante el año anterior hayan conferido el mayor beneficio a la humanidad’ –subraya–. Y en el área de física, a ‘una persona que haya realizado el descubrimiento o la invención más importante en el campo de la física’. 

Pero si uno mira el reporte de la Sociedad de Inventores Suecos, encuentra que el 80% de los Premios Nobel están destinados a investigaciones, mientras que sólo el 20% van a invenciones. En cuanto a temática, pareciera que un año le toca a cosmología, otro, a partículas, y otro, a óptica. 

Aunque el tercer premio Nobel en Física fue para Marie Curie, solo el 10% se otorgaron a mujeres. Un dato llamativo es que si bien se premia a científicos y científicas por sus investigaciones, esas mismas personas tienen varias patentes. 

Algo que a mí me sorprendió es que, si uno revisa la bibliografía, puede ver que el propio Einstein tiene 50 patentes. Entonces, si uno se pregunta cuál es el tema que revolucionó nuestras vidas, todo indica que es lo que tiene que ver con la física de nanoestructuras para la electrónica flexible, supercapacitores [con densidades de energía mayores que los convencionales], celdas solares orgánicas, pantallas flexibles…  Todo esto va a ser una revolución desde el punto de vista de las nuevas energías”.

Cherie Kagan

Aunque aclaró que no es especialista en el tema, seleccionó tres figuras de especial relevancia en el campo: Yongfang Li, Xiangfeng Duan (ambos nacidos en China, pero actualmente en los Estados Unidos) y Cherie Kagan. “Esta última se da cuenta de cómo se pueden colocar partículas nanométricas o nanocristales de un semiconductor adentro de una tinta, un líquido, y así armar circuitos para crear una electrónica flexible de alto rendimiento”, destaca.

Lucía Cabrera, estudiante de doctorado en Física en el Instituto Balseiro y becaria del Conicet en el grupo de Partículas y Campos del Centro Atómico Bariloche, propone a Takashi Taniguchi. 

“Es un científico japonés que trabaja en el Instituto Nacional de Ciencia de Materiales de Tsukuba, Japón –comenta Cabrera–. Generó cristales hexagonales de nitruros de carbono que lo catapultaron a la fama con su colega académico, Kenji Watanabe. ¿Por qué es importante? 

Estas estructuras permiten estudiar muy bien materiales bidimensionales; es decir, de un átomo de espesor. El más popular de estos es el grafeno y, de hecho, las láminas que ellos producen permitieron en los últimos años producir algunos dispositivos que se llaman ‘de ángulo mágico’, cuyas propiedades superconductoras o aislantes dependen (como su nombre lo indica) del ángulo con que se deposite la siguiente capa de grafeno. Es maravilloso”.

Chalres Bennett

De acuerdo con Guillermo Silva, físico de la Universidad Nacional de La Plata, otro que podría ganar un Nobel este año sería Alexander Polyakov, una figura cardinal en la teoría cuántica de campos: “Representa dos aspectos complementarios: es alguien que estuvo aislado –dice Silva– y formuló ideas fundamentales para el descubrimiento del  ‘instantón’, que permite explicar una anomalía a la hora de describir las partículas fundamentales. Para mí, es un crack. Se dio cuenta de que había fenómenos muy disímiles que se explicaban con las mismas herramientas y llevó a un cambio de paradigma con respecto a cómo entendemos que funciona la naturaleza en el nivel microscópico”.

David Ruelle

Por último, Julian Amette Estrada, doctorando en el Grupo de Fluidos, confesó que eligió a alguien de su área de investigación, David Ruelle, físico-matemático belga, que trabajó en sistemas dinámicos y desarrolló una teoría de la turbulencia. “No me parece probable que gane, porque el año último se distinguieron avances relacionados, pero es alguien que llena varios de los casilleros necesarios para el Premio Nobel”, afirma.

Imagen de portada: Watanabe y Taniguchi

FUENTE RESPONSABLE: El Destape. Por Nora Bár. 30 de septiembre 2022.

Sociedad y Cultura/Física/Premio Nobel.

El artículo científico que le rechazaron a Albert Einstein

En 1936, una de las revistas más prestigiosas de Física le rechazó al científico un artículo. ¿Por qué?

 

A finales de 1936, un enfurecido Einstein le mandó al editor de la prestigiosa revista The Physical Review, una carta que debió sonar como un trueno:

“Nosotros le hemos mandado nuestro manuscrito para que lo publicara y no lo hemos autorizado a que se lo muestre a especialistas antes de que esté impreso. No veo ninguna razón para considerar los comentarios –en todo caso erróneos– de su experto anónimo. En base a este incidente prefiero publicar el artículo en algún otro lado”.

¿Cuál es el contexto de este impasse? ¿De qué trataba el manuscrito aludido? ¿Qué consecuencias tuvo?

Era el tercer artículo que Einstein mandaba al Physical Review, desde que vivía en Princeton, en 1933, todos con su colaborador, Nathan Rosen. El primero trataba sobre lo que hoy se conoce como agujeros de gusano, y el segundo, de mecánica cuántica, planteaba la hoy llamada paradoja de Einstein-Podolski-Rosen. Ambos fueron publicados sin problemas.

Sin embargo, el tercero no. A comienzos de 1936, Einstein le había escrito a su amigo Max Born: “junto con un joven colaborador llegué al interesante resultado de que las ondas gravitacionales no existen…”. Ese era el tema del tercer artículo. Con el provocador título: “¿Existen las ondas gravitacionales?” Einstein presuntamente demostraba que no existían. Las ondas gravitacionales eran una predicción hecha por el propio Einstein usando una aproximación de las ecuaciones de la relatividad general, unas tres décadas antes. A pesar de que no había detecciones directas de ondas gravitacionales, los físicos no dudaban de su existencia real.

El editor del Physical Review estimó que la importancia del tema y la asombrosa conclusión, ameritaban mucha cautela, más aún, siendo el autor nada más y nada menos que Einstein; de modo que no se arriesgó a asumir la responsabilidad de la publicación y siguiendo el protocolo de revisión por pares, envió el manuscrito a un árbitro externo. El árbitro advirtió un error en el trabajo y el editor le mandó a Einstein el reporte negativo y pasó lo que pasó: la ira desatada de Einstein, la promesa de más nunca volver a publicar en Physical Review y el envío del trabajo a una revista menos prestigiosa, donde fue aceptada sin ninguna revisión.

Mientras tanto un colega de Einstein en Princeton, el conocido cosmólogo Howard Robertson se las arregló para discutir con el joven Leopold Infeld, el nuevo ayudante de Einstein y le hizo ver cuál era el error del trabajo: Einstein, el veterano de los sistemas de coordenadas había usado unas coordenadas inadecuadas. Una vez corregido el error, el resultado era una nueva solución de ondas gravitacionales.

Infeld corrió a darle las nuevas a Einstein, quien al día siguiente daba una charla sobre el tema. Cuentan que al final de la conferencia Einstein dijo… “si me preguntaran si las ondas gravitacionales existen, respondería que no sé, pero que el tema es muy interesante”

Einstein logró que la publicación en la nueva revista saliera con las correcciones, sin la conclusión de que las ondas gravitacionales no existían y con otro título “Acerca de las ondas gravitacionales”, mucho menos tremendista.

Einstein no estaba acostumbrado al proceso de revisión externa y de allí su rabieta. Mientras vivió en Alemania publicó fundamentalmente en Annalen der Physik, una revista que tenía un porcentaje bajísimo de rechazos de artículos. De toda su obra científica, el único trabajo que fue sometido a un arbitraje fue precisamente en el que salió aplazado, pero el árbitro salvó a Einstein de publicar un error y una falsa predicción.

El experto anónimo de la sutil ironía de la carta de Einstein era precisamente, Howard Robertson, el mismo que le había señalado el error a Infeld, pero ni él ni Einstein jamás lo supieron. Fue un secreto bien guardado hasta el año 2005 cuando las bitácoras del Physical Review fueron liberadas.

Las teorías de la física son complejas y a veces no es fácil desencriptar lo que ellas saben. Fue tan sólo en la década de los 60´s cuando una nueva generación de físicos con nuevas estrategias matemáticas, determinaron que la relatividad predecía de manera inequívoca la existencia de ondas gravitacionales y luego de más de medio siglo de progreso instrumental y tecnológico fueron finalmente detectadas por primera vez en septiembre del 2015.

Es cierto que la obra de Newton nunca fue sometida a arbitraje externo, ni el Origen de las especies, ni la teoría de la doble hélice del ADN, ni muchos otros grandes aportes a la ciencia. En nuestros tiempos, Internet ha abierto la posibilidad de repositorios donde los investigadores pueden alojar sus trabajos para la consideración de la comunidad. Grigory Perelman demostró recientemente la centenaria conjetura de Poincaré en una serie de artículos subidos a la nube, sin revisión por pares.

Sin duda que a Einstein le hubiera fascinado esta modalidad libre de arbitraje y, por cierto, Einstein cumplió cabalmente su promesa y más nunca volvió a publicar en el Physical Review.

Imagen de portada: Albert Einstein

FUENTE RESPONSABLE: El Espectador. Por Héctor Rago*Profesor de la Escuela de Física, Universidad Industrial de Santander

Ciencia/Física/Albert Einstein

 

 

 

Dos agujeros negros colisionarán de forma inminente y lo veremos por primera vez.

UN GRAN ACONTECIMIENTO ASTRONÓMICO

Los dos agujeros negros, con una masa combinada equivalente a 200 millones de soles, colisionarán y se unirán en uno solo en algún momento de los tres próximos años.

Si deseas profundizar en esta entrada; cliquea donde se encuentra escrito en “azul”.

Los científicos se frotan las manos ante lo que podría ser uno de los eventos más esperados de la astronomía moderna. Investigadores han observado una fluctuación en una galaxia a unos 1.110 millones de años luz que podría corresponder a dos agujeros negros con una masa combinada que equivale a 200 millones de soles. De confirmarse, los astrónomos creen que se fundirá en un agujero negro todavía más grande en algún momento de los próximos tres años creando una explosión de luz que nos ayudará a entender cómo se forman estos fenómenos.

Las galaxias tienen agujeros negros supermasivos en sus centros. Se han observado pares y grupos de galaxias que colisionan provocando que haya agujeros negros supermasivos que giran alrededor de otros en órbitas decrecientes en sus centros. Esto lo sabemos gracias a las oscilaciones en la luz que se emiten desde el centro de estas galaxias y por las escalas de tiempo regulares que sugieren sus órbitas. La galaxia SDSS J 1430+2303, en la constelación de Bootes, tiene un centro activo con oscilaciones de luz que se han ido acelerando con el paso del tiempo. Según un artículo publicado por un equipo de astrónomos dirigido por Ning Jiang, de la Universidad de Ciencia y Tecnología de China, en un periodo de tres años, estas oscilaciones han pasado de durar un año a acortarse hasta un mes.

Ripples in Spacetime Pond

Aunque muchas cosas pueden pasar en el centro de una galaxia, una de las explicaciones más probables de este comportamiento es que se trate de un agujero negro binario, aunque no se puede confirmar totalmente. «Mi primer instinto fue que debía estar relacionado con un par de agujeros negros supermasivos», comentó Jiang en declaraciones para la revista Science. Sin embargo, ha sido otro equipo de investigadores chino el que ha estado a punto de conseguir esa confirmación. Los astrónomos de la Universidad de Guangzhou cuentan en un artículo publicado recientemente cómo recopilando datos de una serie de observatorios de rayos X que abarcan un período de 200 días pudieron ver las variaciones en la luz emitida por la galaxia que pueden indicar la presencia de agujeros negros supermasivos.

También detectaron un tipo de emisión que se asocia a la caída de hierro dentro este tipo de agujeros negros. Los datos de dos instrumentos distintos les dieron una probabilidad del 99,96%, aunque no del 100%. Así que los investigadores proponen observaciones de rayos X de mayor duración para acabar con las dudas. De confirmarse este hecho, como apunta Science Alert, la colisión sería ‘inminente’ en términos cósmicos y no como otros eventos espaciales que habitualmente duran más que varias de nuestras vidas. La unión de estos agujeros negros se produciría en algún momento de los próximos tres años y nos daría la posibilidad de ver cómo sucede este evento por primera vez. 

Aunque no sería la primera vez que los detectamos. En 2015 el instrumento LIGO detectó las primeras ondas gravitacionales provocadas por la colisión de dos agujeros negros hace 1.300 millones de años. Este hecho provocó una auténtica revolución entre los astrónomos al ser la primera vez en la historia que se detecta este tipo de ondas, lo que confirma las teorías de Einstein. Al colisionar los agujeros negros se demormó el tejido del espacio-tiempo provocando una serie de ondas que se extendieron por todo el Universo hasta llegar a nosotros. La diferencia de este evento con el que se espera que pase en el corazón de la galaxia SDSS J 1430+2303 es que éste será mucho más grande. Hasta ahora las colisiones observadas se han dado entre agujeros negros que tenían una masa equivalente a la de una sola estrella. Esto se debe a que LIGO y Virgo, los instrumentos responsables de detectar las ondas gravitacionales, están diseñados para este rango de masas.

Los brazos de 4 kilómetros de longitud del experimento LIGO.

Las ondas gravitacionales generadas por el choque de dos agujeros negros supermasivos —del orden de millones a miles de millones de veces la masa del Sol— se encuentran en un rango de frecuencia demasiado bajo para nuestros observatorios actuales. Aun así, los científicos esperan ver un gran estallido de luz en todo el espectro. Los datos recogidos de este enorme choque nos servirán para entender cómo se desarrollan estos eventos y por qué los agujeros negros supermasivos llegan a ser tan grandes. “Es probablemente el primer evento de coalescencia de un agujero negro binario supermasivo observable en la historia de la humanidad”, aseguran los investigadores. “Las observaciones de radio de J1430+2303 antes y después de la coalescencia proporcionarán un diagnóstico único de la energética y el entorno del agujero negro binario supermasivo”.

Imagen de portada: Simulación de dos agujeros negros a punto de converger. (NASA)

FUENTE RESPONSABLE: El Confidencial. Por Omar Kardoudi. 31 de agosto 2022.

Espacio/Ciencia/Física