Energía de la explosión en Beirut

El 4 de agosto de 2020 el incendio de un depósito de fertilizantes causó una trágica explosión en el puerto de Beirut. Siguiendo el método descrito en el video anterior, aquí muestro cómo usar imágenes para estimar la energía liberada por esta explosión.

Publicado en General, Noticias | 1 Comentario

Energía de la primera explosión nuclear

Cálculo completo sobre cómo usando matemáticas de secundaria y unas imágenes desclasificadas es posible determinar la energía liberada por la primera explosión nuclear, lo que puso en alerta al ejército estadounidense por revelar más de lo deseado.

La historia es en realidad sólo un pretexto para introducir conceptos como análisis dimensional, presentar cómo datos experimentales pueden usarse para confirmar el modelamiento matemático de un fenómeno y mostrar cómo es posible responder interesantes y a veces controversiales preguntas con algo de física y matemática básica. Saber se convierte en un super poder.

El uso de video en el canal de YouTube, el formato y la incorporación de cálculos simples es un experimento, comentarios son bienvenidos.

Publicado en Energía nuclear, Historia, Preguntas simples | Etiquetado , , , | 4 comentarios

Chernobyl: reactores vs. bombas nucleares

Cuando me enteré de la miniserie de HBO y del interés que ha causado esperaba que no fuese otro drama sensacionalista que serviría como material extra para el movimiento anti-nuclear. Me dejó conforme y admito que me gustó más de lo que esperaba, sin embargo hay escenas y situaciones que son sólo ficción y existen exclusivamente para aumentar el dramatismo. Chernobyl (escrito en cursivas se refiere a la miniserie de HBO) es una excelente producción pero hay que recordar que es una serie de TV por lo que a falta de dragones HBO optó más de una vez por el drama sobre estricto rigor. Algunos aspectos son parcialmente aclarados al final de la serie, por ejemplo que la física Ulana Khomyuk no es un personaje real sino que la composición de decenas de científicos/as que trabajaron en Chernobyl investigando las causas del accidente; lamentablemente las varias exageraciones y errores más relevantes de la serie no son corregidas.
En series de años anteriores hemos visto personajes luchando contra monstruos que aterrorizan pequeños pueblos; este año la nueva miniserie de HBO nos presenta un monstruo más aterrador porque es invisible, sus efectos son horrendos y aunque aparece originalmente en un pequeño pueblo puede poner en peligro zonas más extensas. Más relevante es que contrario a los monstruos de otros años, la radiación ionizante y sus efectos no son ficción. La radiación no puede verse, olerse, ni sentirse por lo que su presencia sólo es revelada por el característico sonido de un contador Geiger, el que se convierte en la más aterradora banda sonora en escenas críticas como la limpieza de fragmentos de grafito realizada por los biorobots.

Uno de los aspectos que parece causar mucha confusión es acerca de la explosión que destruyó el reactor 4 de la central en Chernobyl. Sí fue una explosión de un reactor nuclear pero no fue una explosión como la causada por una bomba, esto lo sabemos porque la explosión nuclear de un reactor en una central de este tipo es físicamente imposible. En varias escenas de la serie se insiste en comparar la explosión del reactor y la posible explosión del agua bajo el reactor con explosiones nucleares lo que es completamente incorrecto.

¿Cómo se genera electricidad?

La manera más eficiente que concemos para producir electricidad es mediante la aplicación de la ley de inducción electromagnética de Faraday: un campo magnético variable genera una corriente eléctrica. De manera simplificada se puede decir que desde el siglo pasado movemos un imán (lo que produce un campo magnético variable) dentro de un rollo de cables, lo que genera una corriente eléctrica. Con el tiempo lo único que ha cambiado es cómo movemos ese imán: en una central hidroeléctrica lo mueve una turbina que gira por una caída de agua; en un campo eólico turbinas son movidas por el viento. Vapor es una manera muy eficiente de hacer girar una turbina y diferentes centrales eléctricas son en realidad enormes hervidores de agua. En una central termoeléctrica el agua hierve al ser calentada por la quema de gas o carbón, lo que además produce la emisión de toneladas de gases de invernadero contribuyendo al actual cambio climático. Centrales termoeléctricas producen también toneladas de desechos tóxicos y radiactivos que no se almacenan, simplemente se acumulan al aire libre y son dispersados por el viento sobre ciudades y campos.

Una planta nuclear sólo difiere en cómo el agua es calentada: en vez de reacciones químicas, una reacción nuclear produce energía (calor) que se usa para hervir agua. La reacción nuclear produce miles de veces más energía que una reacción química convencional por lo que la conversión de energía es miles de veces más eficiente que en una termoeléctrica, por esto la cantidad de combustible necesario es mucho menor así como la cantidad de desechos. Como residuo a la atmósfera sólo se libera vapor de agua, el otro residuo es contaminación radiactiva que puede resultar muy peligrosa si llega a escapar del reactor. La cantidad de estos desechos radiactivos es tan pequeña que se estima que la energía usada por una persona en toda su vida produciría un volumen de desechos del tamaño de una lata de bebida. Debido a su peligrosidad, desechos radiactivos son cuidadosamente almacenados en enormes contenedores diseñados para resistir desastres naturales y ataques terroristas. El nivel de protección es tan alto que desechos de centrales termoeléctricas dejados al aire libre son más radiactivos que desechos nucleares en sus contenedores.

¿Cómo ocurre una reacción nuclear?

El aspecto que más me gustó de Chernobyl fue la detallada descripción de cómo ocurrió el accidente. Para entender cómo funciona un reactor nuclear, cómo se diferencia de una bomba y qué salió mal en Chernobyl es necesario introducir algunos conceptos. La física de reacciones nucleares es fascinante y permite comprender muchos de los diálogos técnicos en Chernobyl.

Uranio natural: sólo el 0.72% es U-235

Uranio: en su forma natural el uranio existe como una mezcla principalmente de dos tipos (isótopos) que sólo difieren en el número de neutrones en su núcleo llamados U-238 y U-235; el primero es muy abundante pero no se fisiona fácilmente, contrario al U-235 que bajo las condiciones apropiadas se fisiona liberando lo que llamamos energía nuclear, sin embargo es tan escaso que por cada 138 átomos de uranio sólo uno es de U-235.

Criticidad: la reacción de fisión es iniciada por un neutrón, la fisión de un único núcleo de U-235 produce una energía muy pequeña (apenas sería capaz de mover un grano de sal), sin embargo además de los fragmentos del núcleo original nuevos neutrones son también producidos (llamados neutrones secundarios). Si agrupamos suficiente uranio, los nuevos neutrones podrían encontrar en su camino otro núcleo de U-235 produciendo más fisión y con ello más neutrones secundarios. Esta continua producción de neutrones es lo que se conoce como reacción en cadena ya que cada reacción además de energía inicia una nueva reacción. El flujo de neutrones se verá afectado por el medio en el que pueden colisionar y rebotar en otra dirección, pueden ser absorbidos o pueden ser consumidos al producir una nueva fisión. El número promedio de neutrones secundarios que sobreviven por cada reacción de fisión se denomina factor de criticidad (también llamado factor de multiplicación) y se denota por k. Esta cantidad es una de más importantes en física nuclear ya que determina si la reacción en cadena se detendrá (cuando k<1, la reacción en cadena se detiene rápidamente porque el número de neutrones producidos es menor a los absorbidos) o si se produce una reacción en cadena autosostenida (cuando k ≥ 1) ya que por cada neutrón consumido por una reacción de fisión uno o más es creado para dividir otro núcleo de U-235 continuando el proceso de manera indefinida. Este estado se conoce como criticidad. La cantidad de uranio necesaria se conoce como masa crítica, sin embargo esta masa es una condición necesaria pero no suficiente para el uso (pacífico o destructivo) de la energía nuclear. Si el factor de criticidad es menor que la unidad (k<1) no hay reacción en cadena. El factor de criticidad es también lo que determina la diferencia fundamental entre un reactor nuclear y una bomba, como se discute más abajo.

Reacción en cadena, cuando k>1 el flujo de neutrones crece exponencialmente

Neutrones: los neutrones producidos por cada fisión se mueven muy rápido (tienen mucha energía), sin embargo esto es un problema ya que el factor de criticidad depende de esta energía. Se puede demostrar matemáticamente que para neutrones rápidos en uranio natural k<1, por lo que es imposible obtener una reacción en cadena autosostenida. Para evitar este problema hay dos posibles soluciones: aumentar la concentración de U-235 (llamado uranio enriquecido) o frenar los neutrones. Por motivos técnicos una bomba sólo funciona con neutrones rápidos por lo que una bomba sólo puede funcionar con uranio altamente enriquecido; este proceso es muy costoso y complejo (por eso producir material para fabricar una bomba es tan difícil), al contrario, en un reactor no hay necesidad de usar neutrones rápidos.

Moderador: uranio natural puede ser usado en un reactor sólo si los neutrones son frenados, lo que se logra insertando el uranio natural en algún material compuesto por átomos livianos (con una masa lo más parecida al neutrón). Los neutrones colisionan varias veces en este material lo que reduce su velocidad de la misma manera que una bola de billar se mueve más lento luego de colisionar con otras. Independiente del material utilizado se le llama moderador. Al usar neutrones lentos es posible lograr criticidad k ≥ 1 sin necesidad de enriquecer el uranio natural, esta es la magia del moderador. Notar que el nombre puede ser confuso: el moderador no modera las reacciones, lo que modera es la velocidad de los neutrones, lo que aumenta el factor de criticidad, lo que en consecuencia incrementa el número de reacciones.

Productos de la fisión nuclear: cuando un núcleo de uranio se divide los fragmentos resultantes corresponden a los núcleos de dos elementos más livianos como bario-141 y kriptón-92, xenón-140 y estroncio-94 o zirconio-95 y telurio-139. Contrario a lo mostrado en la mayoría de los diagramas de fisión nuclear, el par bario-kriptón es sólo uno de los posibles pares de elementos creados debido a naturaleza probabilística del proceso. Algo que los fragmentos comparten es un exceso de neutrones en sus núcleos, por lo que son altamente inestables y rápidamente comienzan una cascada de desintegraciones radiactivas hasta llegar a una configuración estable. Por ejemplo el estroncio-94 se desintegra en yodo-94, el que rápidamente se desintegra en zirconio-94 que es estable. En cada desintegración un neutrón en el núcleo se convierte en un protón y se emite un electrón (y un antineutrino); este proceso se llama desintegración beta. Algunas desintegraciones incluyen la emisión de fotones de alta energía llamados radiación gamma. Los fragmentos producidos que emiten radiación (llamados radioisótopos) más peligrosos incluyen cesio-137 y estroncio-90, estos son la principal fuente de la radiación que tanto temor produce y no el uranio usado como combustible.

¿Cómo se diferencia una bomba de un reactor nuclear?

Con los conceptos anteriores es ahora posible comprender la diferencia entre una bomba nuclear y un reactor. El mecanismo detrás de un reactor es a veces llamado una reacción nuclear contralada lo que es erróneamente interpretado como una explosión nuclear controlada. No, no hay explosión alguna en un reactor. Una explosión se define como una expansión violenta producida por la rápida liberación de energía, esta puede ocurrir por la rápida combustion de un cartucho de dinamita o un brusco cambio de estado. En todos estos casos un sólido o líquido se convierte en un gas que al ocupar mayor volumen se expande, si el proceso es muy rápido la expansión será violenta: eso es una explosión.

Bomba nuclear: la fisión de un único núcleo de U-235 libera una cantidad de energía muy pequeña (aunque enorme comparada con reacciones químicas) por lo que para causar una explosión nuclear necesitamos dos cosas: 1. que los neutrones fisionen muchos núcleos y 2. que esto ocurra muy rápido. Esto último porque si la energía se libera lentamente el proceso no será violento y no habrá explosión y además porque cuando comienza la liberación de energía las altas temperaturas causan la evaporación del uranio que al expandirse aumenta la distancia entre sus átomos por lo que los neutrones no encuentran nuevos núcleos de U-235 en su camino y la reacción autosostenida termina cuando sólo unos pocos núcleos han sido fisionados. Esto se conoce como nuclear fizzle (explosión nuclear fallida) y causaría una pequeña explosión no mayor a lo que una bomba química podría lograr a un costo mucho menor. Se puede demostrar que una bomba que usa neutrones lentos produciría una explosión similar a medio kilo de TNT a un costo enorme. Todo lo anterior implica que para una explosión nuclear la fisión requiere el uso de neutrones rápidos, sin embargo sabemos que neutrones rápidos fisionando uranio natural sólo producen un estado sub-crítico k<1 (ver sección anterior), por lo tanto es imposible construir una bomba con uranio natural. Este resultado es conocido desde 1939 y es lo que tranquilizó a Niels Bohr ya que la fisión nuclear no podría usarse con fines bélicos. Lamentablemente los físicos son muy creativos y encontraron una manera de resolver el problema: el factor de criticidad k depende también de la concentración de U-235 (0.72% en uranio natural), por lo que si fuese posible purificar el uranio natural removiendo el inútil U-238 que sólo absorbe los valiosos neutrones sería posible obtener un estado super-crítico k>1 para neutrones rápidos. Un valor mayor a la unidad produce una multiplicación exponencial de neutrones lo que permite fisionar una gran cantidad de núcleos de U-235 en una fracción de milésima de segundo. Con esto se demuestra que una explosión nuclear es posible si y sólo si el uranio es altamente enriquecido (la bomba de Hiroshima tenía una concentración de U-235 cercana al 80%). El proceso de enriquecimiento es muy complejo, muy costoso y bastante lento. Notar además que una vez iniciada la reacción no hay vuelta atrás: una vez encendida una bomba no puede apagarse.

Reactor nuclear: si en vez de una explosión el objetivo es la continua generación de energía (calor para calentar agua y mover una turbina) entonces no hay necesidad de usar neutrones rápidos, una reacción autosostenida es posible con uranio natural, el único requisito es frenar los neutrones por lo que es necesario un moderador. El átomo más parecido en masa a los neutrones es el hidrógeno por lo que agua sería el moderador ideal; lamentablemente el hidrógeno es también excelente absorbiendo neutrones, lo que llevaría a un estado sub-crítico k<1, terminando la reacción. La siguiente opción es deuterio (hidrógeno con un neutrón extra en su núcleo) que absorbe menos neutrones. Ambos agua (H2O) y agua pesada (D2O) podrían usarse como moderador pero para compensar por los neutrones que absorben sería necesario usar uranio levemente enriquecido (cerca del 5%), esto usan muchos de los reactores modernos. Subiendo en la tabla periódica el primer elemento favorable para mantener el flujo de neutrones es carbono, lo que lo convierte en un excelente moderador (frenador de neutrones). Es justamente carbono en forma de grafito que Enrico Fermi usó para construir el primer reactor nuclear en 1942 y que usaban los reactores en Chernobyl.

Barras de grafito, el agujero central es para los tubos de zirconio que contienen el uranio

Ahora que los neutrones son frenados es posible tener una reacción nuclear autosostenida. Si el factor de criticidad es mayor que la unidad (k>1), el número de neutrones crece exponencialmente (estado super-crítico) lo que produce cada vez más energía. Esto no es favorable en un reactor ya que esto evaporaría el agua muy rápido (causando otros problemas técnicos bastante graves, como ocurrió en Chernobyl). El objetivo de un reactor nuclear es producir una liberación continua de energía lo que se consigue manteniendo el flujo de neutrones bajo control, es decir, k=1. Para mantener el factor de criticidad cercano a la unidad todo reactor posee barras de control fabricadas de un material hambriento por neutrones como cadmio o boro. Si muchos neutrones son absorbidos los operadores parcialmente retiran las barras de control; al contrario, si muchos neutrones secundarios son producidos las barras son reinsertadas comiéndose el exceso de neutrones. En palabras simples un reactor nuclear funciona en un equilibrio mantenido por los operadores del reactor en el que la reacción en cadena ocurre de manera controlada insertando o removiendo las barras de control (esta es una simplificación, el rol de los operadores de un reactor es muy complejo, recomiendo seguir a @OperadorNuclear). Este dominio sobre el flujo de neutrones es lo que nos ha permitido domar este tipo de reacciones nucleares. Las barras de control son también el mecanismo de seguridad más importante de un reactor: si algo sale mal y hay que apagar el reactor sólo basta con reinsertar completamente las barras de control lo que disminuye el flujo de neutrones llevando al reactor a un estado subcrítico (k<1) apagándolo completamente.

Principales diferencias entre bombas y reactores.

Una vela y un cartucho de dinamita funcionan gracias a la combustión, sin embargo es imposible que la combustión de una vela se convierta en una explosión porque sus materiales no permiten una combustión rápida. Análogamente, un reactor nuclear y una bomba nuclear funcionan gracias a la fisión de uranio-235, sin embargo es imposible que las reacciones de fisión en un reactor produzcan una explosión nuclear porque el uranio no está altamente enriquecido lo que no permite una reacción en cadena autosostenida por neutrones rápidos. La explosión nuclear de un reactor es físicamente imposible.

¿Qué causó la explosión en Chernobyl?

Con el contenido de las secciones anteriores debería ser posible entender cómo funciona un reactor nuclear y cómo se diferencia de una bomba. Más relevante es que debería ser claro que la explosión nuclear de un reactor no puede ocurrir, esto es justamente lo que se discute en varias escenas de Chernobyl en las que resulta imposible explicar el motivo de la explosión. Es aquí donde el episodio final de la serie hace un trabajo excepcional explicando paso a paso los errores y problemas que llevaron a las explosiones del reactor, hubo dos explosiones: la primera fue una explosión de vapor causada por la rápida evaporación del agua debido a una reacción en cadena descontrolada, esta explosión dañó el reactor y sus componentes, además de lanzar la tapa de más de 1000 toneladas por los aires; la segunda ocurrió segundos más tarde y fue una explosión convencional (combustión) producida cuando oxígeno del aire reaccionó con el grafito incandescente y el hidrógeno producido por una reacción entre el vapor y las barras de zirconio (usadas para contener el uranio) a altas temperaturas. Aunque la primera explosión causó daños estructurales al reactor fue la segunda explosión la que destruyó gran parte del edificio y lanzó los restos del dañado reactor en todas direcciones, en especial los fragmentos del núcleo de grafito incandescente y altamente radiactivos. Luego de la explosión los restos del reactor continuaron en llamas por varios días, produciendo una nube de humo que dispersó los peligrosos productos de la fisión nuclear en la atmósfera.

Restos del reactor 4 de Chernobyl pocos días después de la explosión

Los reactores en Chernobyl, llamados RBMK, eran anticuados, mal diseñados, mal construidos, mal mantenidos, y con peligrosas propiedades que no pasarían mínimas medidas de seguridad, un accidente era inminente. La principal era el llamado positive void coefficient (PVC) que en palabras simples implica que las zonas donde el agua se evapora producen un aumento en las reacciones de fisión, esto es equivalente a conducir un vehículo cuyo freno de mano en vez de disminuir la velocidad lo hiciera acelerar: de cierta manera RBMK eran reactores diseñados para salirse de control (un reactor debe tener negative void coefficient, si hay una producción excesiva de energía las reacciones se detienen). La otra gran falla de diseño era que las barras de control (cuyo propósito es comerse cualquier exceso de neutrones) poseían puntas de grafito, que al moderar los neutrones incrementa las reacciones y con esto la liberación de energía, evaporando más agua lo que produce incluso más reacciones (causado por el PVC), en otras palabras por un breve intervalo de tiempo las barras de control hacían lo opuesto de su propósito. Además la introducción de las barras de control era muy lenta para los estándares de seguridad, por lo que un accidente como el ocurrido en Chernobyl era sólo cuestión de tiempo. La madrugada del 26 de abril de 1986 una serie de errores humanos pusieron el reactor en un estado muy inestable para realizar un experimento muy peligroso en el cual muchos sistemas de seguridad fueron intencionalmente apagados. Debido a la acumulación de xenón-135 (que absorbe neutrones) el reactor funciona a muy baja potencia. Para compensar los operadores retiran las barras de control para comenzar el experimento. Cuando el reactor deja de recibir agua la temperatura sube, lo que evapora mucha agua, debido al PVC esto produce un aumento en las reacciones, lo que evapora incluso más agua, incrementando cada vez más la energía liberada. Ante la subida descontrolada de la potencia un operador decide terminar el proceso usando el botón de emergencia que inserta las barras de control, sin embargo las puntas de grafito que aumentan todavía más la potencia son las primeras en entrar. A medio camino en su lenta inserción las barras de control elevan la potencia a un nivel que evapora toda el agua, cuya expansión produce la primera explosión. Además lanzar la cubierta por los aires y exponer el reactor, el daño estructural bloquea las barras de control (no pueden seguir entrando en el reactor) por lo que la reacción en cadena crece más y más elevando la temperatura y haciendo arder el grafito y las barras de zirconio que contienen el uranio produciendo gran cantidad de hidrógeno altamente inflamable. Con oxígeno entrando al núcleo expuesto, el tercer componente de la combustión completa los ingredietes necesarios para una enorme explosión. Sin un edificio de contención (como todo reactor bien construido), los componentes del dañado núcleo son lanzados por el aire dejando los restos del núcleo incandesdente expuesto y liberando una columna de humo radiactivo.

3 grandes errores de HBO en Chernobyl

Chernobyl es una miniserie sobre el peor accidente nuclear en la historia, a pesar de no ser un documental hay varios aspectos que son más ficción que realidad, libertades tomadas para aumentar el drama. Prueba de ello es por ejemplo el helicóptero que se estrella al volar muy cerca de una grúa: este accidente sí ocurrió pero meses después del accidente, mostrarlo como si hubiese ocurrido antes sólo confirma que se buscaba impactar a la audiencia. Hay muchas otras libertades que han sido descritas en otros sitios, sin embargo hay algunas que son demasiado incorrectas para no destacarlas.

«El reactor es una bomba nuclear» En varias escenas se insiste en la naturaleza nuclear de la explosión, en especial en el último episodio, donde Legasov describe los detalles de las explosiones. Cuando menciona que las barras de control y sus puntas de grafito quedan atascadas a medio camino dice explícitamente «el reactor 4 de Chernobyl es ahora una bomba nuclear». No hace falta reiterar que esto no es cierto.

«Cada átomo de U-235 es como una bala» Así comienza Legasov su explicación del peligro de la radiactividad. Esta analogía no sólo es incorrecta es además inconsistente ya que se le llama uranio a la radiactividad producida por los productos de la fisión; además depués en la escena en que Legason explica el funcionamiento de un reactor a Shchernina se usa la analogía de las balas para referirse a los neutrones, mezclando todos los conceptos en uno: algo que puede causar mucho daño. El uranio produce neutrones que se mueven a gran velocidad sólo durante la fisión, una vez que la reacción se apaga (en el caso de Chernobyl la segunda explosión terminó la reacción en cadena) la principal fuente de radiactividad son los fragmentos de la fisión más que el uranio. Legasov termina su primera explicación diciendo que estas balas (la radiactividad, no el uranio) pueden atravesar «madera, metal, concreto y carne» lo que es sólo parcialmente correcto. En el contexto de Chernobyl podemos identificar cuatro tipos relevantes de radiación producidas por fragmentos de la fisión: radiación alpha (núcleos de helio) que es detenida por una hoja de papel; radiación beta (electrones) que podría penetrar la piel pero es detenida por una capa de ropa; radiación gamma (fotones de alta energía) que además del cuerpo puede penetrar varios centímetros de plomo o concreto; y neutrones que pueden también penetrar el cuerpo. Aunque la piel nos protege de la radiación alpha y beta, su peligro radica en que las fuentes de esta radiación pueden ser ingeridas, en el interior de nuestro organismo no hay piel que nos proteja y estos tipos de radiación pueden producir daños irreparables.

Con el núcleo del reactor expuesto, destruído y en llamas los escombros de la explosión y el humo pusieron en el aire los fragmentos de la fisión que emiten principalmente betas y gammas.

El envenamiento por radiación es contagioso. Uno de los errores más grandes de la serie es su presentación de los efectos de la radiactividad, aquí HBO dio rienda suelta a sus ganas de mostrar más drama que realidad. Se le presenta como una enfermedad contagiosa, lo que no es cierto. Los bomberos inhalaron grandes cantidades de polvo y humo con partículas radiactivas pero una vez ingeridas estas no pueden escapar por lo que no es posible infectar a otros con radiactividad. Sólo su ropa podría ser un peligro para otras personas, lo que es correctamente presentado. En vez de abordar un tema en el que mi conocimiento es limitado prefiero recomiendar el comentario de este punto de parte de un médico: Chernobyl, una ficción sanitaria.

Menciones honrosas: la posible explosión si el núcleo fundido llegaba a los tanques de agua (los efectos descritos para los valores mencionados son absurdos); las víctimas del Puente de la Muerte (no hay evidencia alguna que esta gente haya muerto por efectos de la radiactividad).

3 grandes aciertos de HBO en Chernobyl

A pesar de los varios errores e innecesarias exageraciones, Chernobyl me gustó bastante porque lo que se hizo bien se hizo muy bien.

Causas de la explosión. La descripción de los problemas y errores que causaron las explosiones es simplemente sensacional, nunca pensé que vería una serie tan aclamada con un episodio casi completo dedicado a un físico nuclear explicando conceptos tan avanzados como el uso de un moderador para frenar neutrones en un reactor, el envenamiento de un reactor con xenón o conceptos tan específicos como el positive void coefficient y las puntas de grafito en las barras de control.

Columna de aire ionizado. Luego de la explosión se muestra una tenue columna de luz azulada sobre el reactor en llamas. Aunque parece ficción esto es exactamente lo que testigos de la explosión describieron.

Ionización del aire causado por radiación beta

Esto se debe a la ionización del aire causado por los electrones (radiación beta) emitidos por fragmentos de la fisión en el humo. Es similar al azul producido por una descarga eléctrica. He leído artículos indicando que este pilar de luz azul se debe a la radiación de Cherenkov, sin embargo esto es incorrecto. Los electrones de la radiación beta no poseen suficiente energía como para producir radiación de Cherenkov en un medio como el aire (sí en el agua, produciendo el azul majestuoso visible en reactores de investigación).

Biorobots. La escena que muestra la limpieza del techo del edificio con escombros del reactor, principalmente con restos de grafito altamente radiactivo es una de las más dramáticas y bien producidas. La tensión es enorme y no tiene cortes durante los 90 segundos que cada biorobot tenía permitido estar expuesto a tales niveles de radiactividad. El sonido continuo del contador Geiger es aterrador.

Recreación de la limpieza realizada por los biorobots (HBO)

Menciones honrosas: los 3 segundos entre la explosión visible y la onda de choque en el primer episodio (equivalente al tiempo entre un relámpago y el trueno); el inicio del segundo episodio con el análisis de Ulana Khomyuk determinando la presencia de fragmentos de combustible de reactor en el aire; el espectrograma del reactor mostrando una señal de zirconio (la presencia de zirconio en el espectro implica que el uranio ha comenzado a fundir los restos del reactor).

Comentario final

El accidente de Chernobyl fue una tragedia. Chernobyl es una excelente presentación de varios hechos más allá de la explosión: las vidas que afectó, los actos de heroísmo, la incompetencia de autoridades, la procupación de la imagen proyectada al mundo por sobre el bienestar de los ciudadanos. En Chernobyl la radiactividad es un monstruo que aterroriza pero el enemigo no son los rayos beta o gamma sino que la falta de acción de quienes están en posiciones de poder y su continua negación de la realidad como forma de control. He leído que mucha gente se siente aterrada con la radiactividad después de ver Chernobyl, esa es una distracción del mensaje de la serie, en palabras de su creador «Chernobyl no es anti-nuclear, es anti-mentiras». A pesar de los horrores que puede significar la radiactividad y el supuesto terror que produce todavía existen personas que todos los días pagan dinero para voluntariamente inhalar fuentes radiactivas que se acumulan en el sistema respiratorio: se les llama fumadores. En Chernobyl los telespectadores pueden vivir la impotencia de los científicos que con sus métodos pueden rápidamente reconstruir los hechos pero que son criticados y cuestionados porque la realidad que presentan contradice las ideas del partido. Esto es una obvia referencia a nuestros tiempos. En esta primera fracción del s. XXI hemos visto el derrumbe de la confianza en instituciones políticas, religiosas y financieras. Además vivimos en tiempos en que los intereses de ciertos grupos va desde mantener su posición de poder y controlar a otros hasta aspectos tan insignificantes como llamar la atención, para lo que se comportan como los supervisores de la planta en Chernobyl: negación de la realidad en favor de sus intereses. Esta atmósfera es tierra fértil para charlatanes y demagogos. La impotencia y frustración que Valery Legasov y Ulana Khomyuk experimentan debido a que sus conclusiones contradicen las ideas del partido es justamente lo que la comunidad científica vive día a día cuando hay que explicar una y otra vez la realidad y emergencia que es el cambio climático, cuando hay que explicar que las vacunas no producen autismo, cuando hay que explicar el desastre ecológico que lleva el cierre de plantas nucleares, cuando hay que aclarar que la Tierra no es plana. Científicos que intentan alertar sobre peligros reales (o aclarar cuando un supuesto peligro no lo es) son recibidos con negación, cuestionamiento de sus credenciales académicas o simplemente acusados de haberse vendido a grandes corporaciones. Todo esto es más simple que intentar entender los argumentos del otro. Personas en busca de atención y con deseos de pertenencia a un grupo son presa fácil del negacionismo disfrazado de escepticismo y de ideas predigeridas que las hacen fáciles de tragar, lo que la interconectividad de hoy ha ayudado a propagar como una reacción en cadena de desinformación.

Imágenes: HBO, IAEA, Carl Willis, Wikipedia

Publicado en Energía nuclear, Preguntas simples | 18 comentarios

Haber–Bosch: el proceso químico que alimentó al mundo

El desarrollo de la agricultura llevó a una explosión demográfica en todo el mundo, sin embargo muchas zonas no poseen suelos con los nutrientes necesarios para su uso agrícola. Esto ha sido un tema fundamental en la agricultura por miles de años, desde grandes civilizaciones pasadas incluyendo Babilónicos, Egipcios y Romanos, quienes usaban minerales para asegurar la fertilidad de sus suelos.

La fabricación de fertilizantes requiere amoníaco, un compuesto formado por un átomo de nitrógeno (N) y tres átomos de hidrógeno (H) por lo que su fórmula química es NH3. El nombre deriva de las sales descubiertas en salares en el noroeste de Egipto en una zona cuyos habitantes eran llamados amonianos. El elemento químico clave es el nitrógeno, por lo que yacimientos de compuestos que contienen este elemento se convirtieron en la importante fuente de la materia prima para la agricultura de todo el planeta. Una de las fuentes más ricas en nitrógeno y otros elementos como fósforo y potasio, es producido de manera natural por la concentración de excrementos de aves en islas costeras y zonas áridas en lo que se conoce en regiones andinas como guano, que en quechua significa abono. En 1802 durante su expedición por las Américas, Alexander von Humbolt estudió las propiedades del guano en la costa de Perú, el que había sido usado por Incas y otros pueblos andinos durante cientos de años para fertilizar sus plantaciones. Los escritos de Humbolt llevaron a la introducción del abundante guano sudamericano en Europa, lo que atrajo el interés de todo el mundo por su enorme valor comercial. En 1865 y tras altercados con Perú, España se apropió de las Islas Chincha lo que fue respondido con una declaración de guerra por la alianza entre Bolivia, Chile, Ecuador y Perú. A los pocos años el guano fue reemplazado por una mezcla de nitratos de potasio y sodio en forma de roca sedimentaria llamada salitre, cuya concentración más grande del mundo se encontraba en el Desierto de Atacama en una zona de límites fronterizos entre Bolivia, Chile y Perú. El gran interés económico fue una de las causas de un nuevo conflicto bélico en 1879, esta vez entre Chile y la alianza de Bolivia y Perú que se conoce internacionalmente como la Guerra del Salitre (localmente se le llama Guerra del Pacífico). Después de la guerra, Chile obtuvo el dominio del Desierto de Atacama y la explotación del salitre llevó a un gran esplendor económico: se construyeron museos, palacios, viaductos, instituciones educacionales y una red ferroviaria que conectaba gran parte del país, además de la mejora de puentes, carreteras y servicios sanitarios en muchas ciudades. Más y más oficinas salitreras eran construídas para administrar la explotación del oro blanco (como se llamaba al salitre) que llegaba en bruto a todos los rincones del planeta.

Afiches sobre el uso del salitre chileno alrededor del mundo.

Mientras que en sudamérica se vivía un gran optimismo económico, en el resto del mundo se buscaban otras fuentes de nitrógeno para fabricar amoníaco. El salitre era fundamental para la producción de fertilizantes pero también para la fabricación de explosivos, por lo que este recurso tenía un gran valor económico así como militar. Aunque muchos países dependían de las exportaciones desde Chile, existe una fuente gratuita y abundante de nitrógeno presente en todos lados: el aire es casi 80% nitrógeno. Científicos de todo el mundo intentaron extraer nitrógeno del aire sin éxito. El nitrógeno se encuentra en el aire como una molécula diatómica (dos átomos de nitrógeno fuertemente ligados) lo que la hace muy estable por lo que no es fácil de separar. Para fabricar amoníaco sería necesario romper el enlace y unir cada uno de los dos átomos tres átomos de hidrógeno, este proceso se conoce como fijación del nitrógeno; sin embargo las propiedades químicas de la molécula de N2 la hacían inútil.

A corto plazo la exportación de oro blanco sólo proyectaba más crecimiento económico en Chile, sin embargo a largo plazo en el resto del mundo una de las grandes preocupaciones era que las reservas de salitre no eran ilimitadas, lo que produciría una crisis mundial por la falta de fertilizantes y con ello de alimentos. En 1898 el gran químico sir William Crookes hizo un llamado a buscar una solución a este problema ya que causaría millones de fatalidades por inanición en todo el mundo dentro de un plazo no mayor a 30 años. Crookes desafió a la comunidad científica diciendo que su trabajo en el laboratorio podría evitar la inanición del mundo y señalando que la fijación del nitrógeno atmosférico sería uno de los más grandes descubrimientos por ahora a la espera del genio de los químicos.

El país que más salitre chileno importaba era Alemania, que no se caracteriza por suelos fértiles. Además a principios del s. XX varias potencias europeas se preparaban para lo que sería la Primera Guerra Mundial lo que requería salitre para fabricar explosivos. Al mismo tiempo Alemania era el líder mundial en la producción de nuevos químicos, colorantes y productos farmacéuticos por lo que contaba con la necesaria capacidad técnica e industrial para enfrentar el desafío. La dependencia del salitre llevó a un programa en muchas universidades alemanas para intentar fijar nitrógeno atmosférico, lo que resultaría en una de las más importantes invenciones del siglo, evitaría una crisis mundial y llevaría a la independencia del salitre. En la Universidad Técnica de Karlsruhe (hoy Instituto Tecnológico de Karlsruhe) el químico Fritz Haber experimentaba en 1903 mezclando hidrógeno molecular H2 y aire en presencia de descargas eléctricas (simulando tormentas eléctricas) para romper la molécula de N2, el que podría unirse al hidrógeno formando dos moléculas de amoníaco:


\text{N}_2 + 3 \text{H}_2 \rightleftharpoons 2 \text{NH}_3

Lamentablemente, la reacción ocurre en ambas direcciones, por lo que las mismas descargas eléctricas que rompían el nitrógeno molecular del aire también rompían los enlaces de la molécula del valioso amoníaco recién formado. Otro problema era la gran cantidad de electricidad necesaria, por lo que éxito parcial en este tipo de experimentos sólo fue posible en Noruega gracias a la disponibilidad de grandes centrales hidroeléctricas.
BASF era la compañía química más grande Alemania y tenía una planta experimental en Noruega. La compañía le encargó al químico Carl Bosch, pionero en el uso de gases a alta presión a nivel industrial, realizar una serie de experimentos para prescindir del uso de electricidad. Luego de cinco años de fracasos y una enorme inversión financiera sus experimentos terminaron sólo produciendo ínfimas cantidades de amoníaco a un gran costo. Mientras a sólo unos 50 km en Karlsruhe, Haber sabía que de alguna manera era necesario acelerar la reacción que produce amoníaco con respecto a la reacción que lo descomponía en sus átomos originales. Haber experimentó con gases a alta presión y reemplazó las descargas eléctricas por calor. En su sexto año tratando de resolver el problema Haber descubrió que al combinar los gases a alta presión y temperatura la formación de amoníaco aumentaba notablemente. Para minimizar la pérdida que se producía por la descomposición del recién formado amoníaco, Haber incluyó una catalizador, un elemento que no se consume en la reacción pero que la acelera, en este caso osmio, un metal raro y muy costoso. Con estos elementos en marzo de 1909 Haber aseguró su lugar en la historia de la ciencia cuando logró sintetizar casi 1 gramo de amoníaco al fijar nitrógeno atmosférico.

Fritz Haber en su laboratorio en Karlsruhe (1905) y su montaje de instrumentos con el que logró la primera síntesis de amoníaco que llevó a la revolución.

El mismo año Haber patentó su método y llevó sus instrumentos hasta la sede central de BASF en Ludwigshafen para hacer una demostración. Carl Bosch estaba presente y no podía ocultar su entusiasmo ante las innovaciones introducidas por Haber. Al contrario, los ejecutivos de la compañía no estaban impresionados, aunque el nuevo método producía cantidades de amoníaco nunca antes logradas el uso de costosos elementos hacían dudar la posibilidad de escalarlo y permitir su producción comercial. En especial las condiciones de alta presión y temperatura harían muy difícil controlar la reacción a un nivel industrial. Bosch logró convencer a los ejecutivos que el método de Haber aunque rudimentario era la única esperanza de fabricar amoníaco en cantidades necesarias para su producción comercial, además aseguró que con unos meses de investigación podría escalarse. La visión de Bosch era que esta inversión llevaría a BASF de la compañía química más grande de Alemania a la más grande del planeta. Bosch consigió la inversión que necesitaba: BASF compró los derechos del método de Haber y puso a Bosch a cargo del proyecto. Su primer objetivo fue buscar un reemplazo para el catalizador, osmio era muy costoso para usarse a gran escala.

Los experimentos de Bosch pasaron de meses a años, sin embargo tras cientos de pruebas un mejor y más barato catalizador fue identificado: un compuesto de hierro con aluminio y potasio. La experiencia de Bosch con gases a alta presión permitió el rápido desarrollo del proyecto que ahora se enfocaba en las calderas y reactores necesarios. El mayor problema técnico a resolver era que los reactores, enormes cilindros de acero, se fracturaban luego de un par de días en funcionamiento. Después de estudiar muchos reactores fallidos, Bosch identificó la causa del problema: el carbono del acero reaccionaba con el hidrógeno a alta temperatura formando una aleación frágil que se fracturaba por la alta presión. Bosch decidió usar acero dulce, es decir, con bajo contenido de carbono. Esto eliminaría la formación de la aleación que fracturaba los reactores, sin embargo la resistencia mecánica del acero dulce es mucho menor por lo que no podría resistir la alta presión. Bosch decidió probar una solución ingeniosa y simple: el cilindro de acero dulce sería rodeado por otro mayor de acero convencional, de esta manera el hidrógeno no entraría en contacto con el carbono y el cilindro exterior proporcionaría la resistencia necesaria para la alta presión. Los reactores diseñados por Bosch debían resistir cerca de 300 atmósferas de presión para combinar los gases a más de 500°C. Después de varias pruebas exitosas la primera planta productora de amoníaco fue construída en Oppau, junto al río Rin en el complejo industrial de BASF. Tras cuatro años de investigación y desarrollo, la planta comenzó a operar en septiembre de 1913 produciendo toneladas de amoníaco al día. Al año siguiente 20 toneladas al día demostraban la eficacia del proceso conocido hasta nuestros días como Haber-Bosch.

Reactor de alta presión para síntesis de amoníaco. Instalación en la planta de Oppau (1913) y reliquias preservadas frente al edificio de química del Instituto Tecnológico de Karlsruhe y la oficina central de BASF.

En agosto de 1914 estalló la Primera Guerra Mundial y con ella un bloqueo marítimo que detuvo la importación de salitre desde Chile. Ante el necesario compuesto para fabricar explosivos Bosch prometió la implementación de un proceso para fabricar salitre sintético a partir de las toneladas de amoníaco al día que su planta producía. En cuestión de meses una nueva planta fue construída y a fines de 1914 toneladas de salitre sintético demostraban la autonomía técnica, científica e industrial del país.

A pesar de que el proceso de Haber-Bosch llevó a la extensión de una terrible guerra, los beneficios que trajo a la humanidad son innegables. Fertilizantes sintéticos permitieron el desarrollo agrícola y el cultivo abundante de alimentos a una escala global por primera vez en la historia. La población mundial se ha cuadruplicado en los últimos 100 años y se estima que cerca de la mitad del nitrógeno en las proteínas de nuestro cuerpo proviene del proceso de fijación, por lo que ocurrió en uno de los grandes reactores químicos desarrollados por Bosch. Hoy en día cerca del 2% del consumo energético mundial se usa en la producción anual de casi 500 millones de toneladas de fertilizantes gracias al proceso de Haber-Bosch. Esta revolución fue reconocida a sus creadores: en 1918 Fritz Haber recibió el Premio Nobel de Química por la síntesis de amoníaco a partir de sus elementos; Carl Bosch recibió el Premio Nobel de Química por la invención y desarrollo de métodos químicos a alta presión en 1931. Aunque muchas invenciones han jugado un rol relevante en nuestras vidas, el proceso Haber-Bosch es lo que ha permitido cultivar alimentos para la creciente población mundial durante el último siglo por lo que no es exagerado considerarlo, como Crookes predijo en 1898, como una de las más importantes invenciones de la historia. Además de fertilizantes, la síntesis de amoníaco llevó al desarrollo de muchos otros materiales incluyendo colorantes, textiles, plásticos, fibras sintéticas revolucionarias como el Nylon y explosivos usados en minería. Otra consecuencia de la producción de amoníaco a partir del abundante y gratuito nitrógeno en el aire fue el colapso de la economía en aquellos países que dependían de la exportación de salitre. En el caso de Chile, el mayor exportador de oro blanco, la invención de Haber y Bosch produjo una caída en más de 90% las exportaciones de salitre y el posterior cierre de todas las oficinas salitreras. Hoy pueblos fantasmas sirven como un recordatorio de la frenética explotación de un recurso natural sin considerar su futuro, lo que puede producir un esplendor económico pasajero pero que está condenado a decaer gracias a los avances en ciencia y tecnología que están ocurriendo en algún otro lugar.

La historia del proceso Haber-Bosch es también considerada una de las más exitosas colaboraciones entre universidades e industrias. BASF era una compañía que había existido por algo más de 40 años cuando apostó su futuro financiero en manos de Bosch para extender el trabajo de laboratorio de Haber. El éxito fabricando amoníaco y salitre sintético a una escala industrial hizo realidad su promesa, convirtiéndola en la compañía química más grande del mundo hasta nuestros días. Recuerdo veranos cuando niño en el campo de mi abuelo, donde había sacos de fertilizantes con el logo de BASF. Sólo conocí de los detalles de esta historia en 2014, cuando llegué a trabajar al Instituto Tecnológico de Karlsruhe después de recibir mi doctorado. Durante mis dos años allí caminaba rumbo a mi oficina cada mañana pasando frente a tres íconos: el auditorio donde Heirich Hertz (uno de mis héroes de la infancia) descubrió las ondas electromagnéticas, un busto de Carl Benz y la reliquia del enorme reactor frente al edificio de química del Instituto. Curiosamente las vueltas de la vida me llevarán a BASF, donde comenzaré en unos días a trabajar en la división de Research & Development, donde uno de los más recientes avances es el reciclado químico de desechos plásticos: los polímeros (largas cadenas microscópicas de estructuras moleculares llamadas monómeros) son descompuestos en sus monómeros y reemsamblados nuevamente (como piezas de Lego) para fabricar nuevos productos, esta es una medida para reducir los problemas que nuestro uso (y abuso) del plástico causa al medio ambiente.

Imágenes: Archivo Nacional de Chile, Karlsruhe Institute of Technology, BASF

Publicado en Divulgación, Historia | 5 comentarios

¿Cuánta energía libera una explosión nuclear?

Trinity0

A fines de 1938 en Alemania, los químicos Otto Hahn y Fritz Strassmann accidentalmente dividieron el núcleo atómico al bombardear uranio natural con neutrones. Esa navidad en Suecia, Lise Meitner y su sobrino Otto Frisch correctamente interpretaron los resultados del experimento alemán y además estimaron una pequeña pero significativa cantidad de materia sería convertida en energía en el proceso que llamaron fisión nuclear. Usando la famosa fórmula de Einstein que relaciona materia y energía (E=mc2) pudieron estimar que la fisión de un núcleo de uranio liberaría cerca de 200 MeV, esto es millones de veces la energía promedio liberada en una reacción química. Dado que los explosivos son una aplicación de la energía liberada por reaciones químicas, el descubrimiento de un proceso que produce millones de veces más energía llevó a una inmediata conexión entre el futuro de la física nuclear y sus posibles aplicaciones militares. Además ante el inminente conflicto en Europa a fines de la década de 1930 era claro que los científicos jugarían un rol clave en la gran guerra.

Hace unos años relaté como mi interés por la física nació debido a mi curiosidad por esas aterradoras y a su vez maravillas del ingenio humano llamadas armas nucleares. Una de las dudas que tuve por mucho tiempo fue en qué momento las ecuaciones en pizarras y equipos de laboratorio dieron paso a la consideración de los usos militares de la fisión nuclear. Con los años aprendí que la consideración fue inmediata, sin embargo la idea fue inicialmente descartada debido a su gran complejidad y poca aplicación práctica. Luego de esa navidad junto a su tía dilucidando la física de la fisión nuclear, Otto Frisch regresó a Copenhagen donde trabajaba en el prestigioso instituto de Niels Bohr. Allí consideró además que la energía liberada no sólo era órdenes de magnitud mayor que cualquier reacción química conocida sino que también sería suficiente para producir además de los fragmentos nucleares la emisión de nuevos neutrones. Estos neutrones secundarios podrían a su vez dividir otros núcleos de uranio; así mientras los recién liberados neutrones encontraran más uranio en su camino la liberación de energía nuclear podría continuar de manera indefinida e incluso crecer exponencialmente, lo que se llama una reacción en cadena. En esos días Bohr se preparaba para una larga estadía junto a Einstein en Princeton por lo que Frisch le describió su trabajo con Meitner rápidamente antes del viaje. Bohr estaba fascinado, con este resultado se abría la puerta a una revolucionaria forma de generar energía. Bohr le prometió a Frisch llevar la noticia al resto del mundo pero sólo después de que artículo apareciera publicado para que él y su tía recibieran el merecido reconocimiento. Bohr cruzó el Atlántico encerrado en su cabina del barco reproduciendo los cálculos de Frisch y Meitner, confirmando sus resultados junto a su asistente Leon Rosenfeld. Al llegar a Estados Unidos Bohr (quien olvidó mencionarle a Rosenfeld la promesa de silencio hecha a Frisch) pasaría unos días con Enrico Fermi en New York mientras que Rosenfeld iría directamente a Princeton con John Wheeler quien le esperaba en el puerto. En este viaje Rosenfeld le contó a Wheeler sobre el trabajo de Frisch y Meitner. Wheeler que era el organizador de los seminarios en Princeton quedó tan asombrado que le pidió a Rosenfeld dar un seminario extraordinario en la universidad. Al término de la presentación teóricos corrieron a sus pizarras y experimentales comenzaron a reproducir el experimento de Hahn; en cuestión de horas la noticia ya circulaba por todo el país. Todo laboratorio con acceso a muestras de uranio comenzó a bombardearlo con neutrones repetiendo el experimento de Hahn-Strassmann y confirmando los cálculos y estimaciones de Meitner-Frisch. Los usos pacíficos y militares de este descubrimiento eran obvios.

Niels Bohr era un pacifista y la idea de una bomba fue su primer temor, sin embargo se tranquilizó cuando demostró que en la práctica un arma era imposible. El análisis inical era el siguiente: ¿podría usarse la energía liberada por la fisión nuclear para construir un arma? En teoría sí, sin embargo la cantidad de uranio necesario sería enorme por lo que una bomba sería tan grande y pesada que sería imposible transportarla, convirtiéndola en un artefacto no apto para uso militar. Sin embargo Bohr fue más allá y se encargó personalmente de demostrar que construir una bomba nuclear sería imposible. Bohr era uno de los físicos más respetados por la comunidad científica y con este estudio esperaba eliminar cualquier duda sobre el asunto, lo que encaminaría el desarrollo de la física nuclear sólo con aplicaciones pacíficas. Bohr descubrió que el proceso observado por Hanh y Strassmann correspondía a la fisión de núcleos de uranio-235, el que compone menos del 1% del uranio natural, el otro 99% está compuesto por uranio-238 cuyas propiedades lo hacen inútil para construir una bomba. La única manera de resolver este problema, en palabras de Bohr, sería desarrollar un método para extraer las minúsculas cantidades de uranio-235 del abundante uranio-238, sin embargo estos isótopos son químicamente idénticos por lo que sería imposible separarlos. Incluso si se inventara un método de separación, el proceso tomaría años y requeriría la capacidad industrial, técnica y científica de un país entero. Bohr claramente subestimó el interés que un arma tan poderosa causaría y su predicción fue justamente lo que se logró en el proyecto Manhattan, que requirió los esfuerzos y aportes económicos de tres países (Estados Unidos, Reino Unido y Canadá).

Una pregunta que nace con esta historia es ¿cómo un grupo de científicos logró movilizar países enteros? ¿cómo es posible que los correspondientes departamentos de guerra hayan decidido poner atención a lo que un grupo de científicos proponía? En otras palabras: ¿qué es lo que convenció a los militares en tiempos de guerra de que arriesgar gran parte de la capacidad industrial y recursos económicos en un arma experimental era una buena inversión militar? Una de las grandes motivaciones de los aliados para poseer esta bomba experimental era que Alemania podría estar trabajando en su propia versión. Varios de los más importantes expertos en física y química nuclear eligieron quedarse en Alemania, incluyendo el mismísimo Otto Hahn y el gran Werner Heisenberg, discípulo de Bohr y uno de los padres de la mecánica cuántica. Para aumentar las sospechas, otro químico que permaneció en Alemania durante la guerra fue Klaus Clusius, quien había recién inventado un método para separar elementos químicamente idénticos. El temor de los aliados aumentó cuando los nazis invadieron Bélgica y detuvieron la exportación de uranio (las minas de uranio más grandes estaban en el Congo Belga) y luego con la toma de la planta de agua pesada en Noruega (agua pesada es material necesario en un reactor nuclear). Otra de las más grandes reservas de uranio estaba en Checoslovaquia también en manos de los nazis. Otros hechos dejaban en claro de la existencia de un programa nuclear en Alemania durante la guerra por lo que el desarrollo de una bomba nuclear era ahora una carrera: no había dudas de que quien lograra construir la bomba ganaría la guerra. Sin embargo siempre me cuestioné cómo es que los militares estarían dispuestos a aceptar la inversión en una única arma, sin siquiera saber si funcionaría. Una forma de entenderlo es comparándola con el arma estándar en esa época: la bomba AN-M64A1, que liberaba su energía con la explosión de 119 kg de TNT. Ahora vuelvo al título de este artículo: ¿cuánta energía libera una explosión nuclear? para lo responderé una pregunta equivalente ¿cuánta energía libera la fisión de 1 kg. de uranio-235?

La energía liberada en la fisión de un núcleo de uranio-235 es 170 MeV, ahora es necesario determinar cuántos núcleos hay en 1 kg de uranio-235, lo que se obtiene calculando el número de moles en 1 kg y luego multiplicando por el número de Avogadro:

N_{\text{n\'ucleos}} = \frac{1 \text{ kg}}{\text{peso at\'omico}} \, N_A = \frac{1 \text{ kg}}{235 \text{ gr/mol}} \, 6.02\times10^{23} \text{ n\'ucleos/mol} = 2.56 \times10^{24} \text{ n\'ucleos}

Por lo tanto la energía liberada cuando todos los núcleos en 1 kg de uranio-235 se fisionan es:

E_{\text{fisi\'on 1 kg U-235}} = 170 \text{ MeV} \times (2.56 \times 10^{24}) = 4.35 \times 10^{26} \text{ MeV}

Esta unidad de energía (MeV) es muy útil en física pero es poco práctica para dimensionar su poder destructivo. En armamento se utiliza la unidad kiloton (kt), que corresponde a la energía liberada por la explosión de 907 000 kg de TNT y se relaciona con MeV de la siguiente manera:

1 \text{ MeV} = 3.8 \times 10^{-26} \text{ kt}

por lo que podemos escribir

E_{\text{fisi\'on 1 kg U-235}} = (4.35 \times 10^{26}) \times (3.8 \times 10^{-26} \text{ kt}) \approx 17 \text{ kt}

Este valor de 17 kilotones es muy cercano a la energía liberada por la bomba usada en Hiroshima, la primera (y única) bomba de uranio usada en la historia. Para una comparación, la energía liberada por una bomba AN-M64A1 es:

E_\text{AN-M64A1} = 119 \text{ kg TNT} \times \frac{\text{1 kt}}{9.07 \times 10^5 \text{ kg TNT}} = 1.3\times10^{-4} \text{ kt}

Ahora es posible realizar una comparación directa:

\frac{E_{\text{fisi\'on 1 kg U-235}}}{E_\text{AN-M64A1}} = \frac{17 \text{ kt}}{1.3\times10^{-4} \text{ kt}} = 130\,769

es decir, la energía liberada en la explosión de Hiroshima corresponde a más de 130 000 bombas de aquella época. El más avanzado bombardero en 1945 (B-29) podía transportar un máximo de 40 bombas AN-M64A1; en el bombardeo de Hiroshima una única bomba poseía el poder desctructivo de más de 3000 bombarderos liberando todo su arsenal y explotando a la vez.

littleboy
Bomba de uranio-235 «Little Boy» siendo instalada previo al bombardeo de Hisroshima

Este simple cálculo muestra por qué esta terrible arma se convirtió en la meta durante la Segunda Guerra Mundial y a la vez explica el temor que causaba en los aliados que los nazis lograran desarrollarla. Después de la guerra fue posible conocer que el programa nuclear nazi fue a pequeña escala, nunca recibió el apoyo financiero que necesitaba (Hitler apostó por los cohetes de Werner von Braun) y el trabajo de Heisenberg y su equipo sólo se limitó a construir un reactor nuclear que, aunque estuvo cerca, nunca llegó a funcionar debido a la falta de uranio. Durante la guerra fría nuevas y más poderosas armas fueron diseñadas y puestas a prueba. La energía liberada no se medía en kilotones sino que en megatones (1 megaton = 1000 kilotones). La mayor explosión fue un experimento en una isla del océano ártico donde la bomba soviética Tsar liberó 500 megatones en 1961, equivalente a casi 30 000 bombas de Hiroshima.

Luego de Nagasaki la mayoría de las bombas usaban plutonio en vez uranio por ser «más fácil» de fabricar y por producir explosiones más eficientes. Luego de Little Boy (la bomba lanzada en Hiroshima), la siguiente bomba de uranio-235 fue rediseñada para ser lanzada por un cañón y puesta a prueba en 1953 en el famoso test Grable de la operación Upshot-Knothole, también apodado cañón atómico, que liberó una energía estimada en 15 kilotones, producido por la fisión de casi un kilogramo de uranio-235.

Con fines educacionales el historiador nuclear Alex Wellerstein desarrolló una aplicación que permite dimensionar los efectos de explosiones nucleares en cualquier lugar del mundo usando Google Maps. Su NukeMap permite escoger el blanco y las características de la explosión, como la energía liberada en kilotones además de una lista de bombas famosas.

Publicado en Energía nuclear, Historia | 8 comentarios

Premio Nobel de Física 2017: ondas gravitacionales

Nobel_medalEsta mañana el Comité Nobel ha anunciado el Premio Nobel de Física de este año. Los galardonados son Rainer Weiss, Barry C. Barish y Kip S. Thorne “por su rol fundamental en el desarrollo de LIGO y la observación de ondas gravitacionales”. Weiss es profesor en la MIT, mientras que Barish y Thorne son profesores en Caltech.

nobel

Dado que he escrito en detalle explicando la naturaleza e importancia de las ondas gravitacionales así como también sobre el descubrimiento de LIGO, dejo estos artículos a continuación:

Cabe destacar que este es el segundo Premio Nobel por ondas gravitacionales: en 1993 Russell Hulse y Joseph Taylor recibieron el Premio Nobel de Física por el descubrimiento indirecto de ondas gravitacionales.

Publicado en Premio Nobel | 2 comentarios

Bertha Benz y su histórico viaje

BBenz

Bertha Benz

En 1886, Carl Benz patentó su más grande invención: el automóvil. Sin embargo fue considerado sólo una curiosidad más que un medio de transporte. Benz era un genio de la ingeniería pero no sabía cómo captar la atención de inversionistas ni del público en general; era además un perfeccionista con tendencias depresivas que no le permitían valorar la grandiosidad de su creación. Luego de años de miseria y frustración, Bertha Benz se propuso dejar la invención de su esposo en los libros de historia y hacer realidad el sueño que compartían.

Bertha nació en la ciudad de Pforzheim en 1849 en el Gran Ducado de Baden (hoy sur-oeste de Alemania). Cuando niña disfrutaba principalmente las clases de ciencias naturales y estaba fascinada con el funcionamiento de las locomotoras a vapor. Fue justamente durante uno de los tantos viajes en tren con su adinerada familia donde conoció a un empobrecido pero visionario ingeniero. Carl Benz le contó su sueño de un futuro con carruajes sin caballos y sus planes para lograrlo. Bertha se sintió completamente cautivada por Carl y sus anhelos. Su padre se oponía a la relación, su hija merecía alguien de su nivel social según él. Convencida del éxito a largo plazo y la revolución que conllevaría como medio de transporte, Bertha convenció a su padre de permitirle invertir su herencia en las invenciones de Carl; finalmente se casaron en 1872.

Carl_Benz_1869

Carl Benz

A pesar de provenir de una familia muy humilde, sostenida por el trabajo de su padre como conductor de locomotoras, Carl aprobó los exámenes de admisión en la Universidad Técnica de Karlsruhe (hoy Karlsruhe Institute of Technology) y se graduó con honores de ingeniería mecánica con sólo 19 años de edad. Carl comenzó el desarrollo de una serie de invenciones que formarían parte de su pieza magistral y su obsesión desde que tenía 15 años, cuando recorría las calles de Karlsruhe en su bicicleta: el carruaje sin caballos. Bertha jugó un rol fundamental apoyando moral y económicamente a Carl y los cinco hijos que tuvieron. Bertha proporcionaba contactos y su influencia social para atraer inversionistas, además del carisma para hacer negocios durante el día y ayudar a Carl en su taller en las noches. En 1883 la familia se mudó a la ciudad industrial de Mannheim, donde Carl y unos asociados fundaron Benz & Cia. Su genialidad en esos años se manifestó en una impresionante lista de invenciones: el motor de dos tiempos, bujías y sus chispas para producir combustión interna, el sistema de aceleración, el carburador, el embrague, la caja de cambios y el radiador de agua. Cada día después de hacer dormir a los niños Bertha se quedaba hasta altas horas de la noche con su esposo en el taller fabricando y perfeccionando piezas, además de animándolo cuando era necesario. En 1885 Carl terminó de construir su vehículo de tres ruedas y obtuvo la patente a principios de 1886. Su desarrollo estuvo lleno de fracasos, frustraciones y la continua insatisfacción de Carl, además de muchos problemas económicos. Luego de obtener la patente Benz organizó una demostración pública de su Benz Patent-Motorwagen, la que resultó un fracaso al chocar con una pared debido a lo difícil de maniobrar el vehículo. Modificaciones y mejoras durante 1886 llevaron al modelo 2, sin embargo nadie parecía interesarse en su invención. El mundo parecía no estar preparado para el motorwagen que era visto como una curiosidad sin valor comercial ni posibilidades de competir con el caballo, el medio de transporte de personas y mercancía para largas distancias.

Patent-Motorwagen_Nr.1_Benz_2

Benz Patent-Motorwagen modelo 2

En 1888 el motorwagen sólo había sido usado en cortos recorridos de prueba y demostraciones en un par de calles pero había consumido la fortuna de Bertha y la energía de Carl. Luego de años intentando atraer inversionistas Benz estuvo a punto de renunciar a su sueño varias veces, sólo el apoyo de su esposa lo animaba nuevamente. La cercanía de Bertha en el taller fabricando piezas y realizando pruebas de los motores la llevó no sólo a aprender cómo conducir el vehículo sino que también a entender todos los detalles de su funcionamiento. Bertha le propuso que demostrara uno de los tres prototipos en un viaje de larga distancia, según ella era la única manera de llamar la atención y demostrarle al mundo que el motorwagen sería el medio de transporte del futuro. Dado su perfeccionismo, Carl se oponía ya que siempre encontraba que algo podía mejorarse, además el motorwagen no estaba listo para un vaje largo, nadie se atrevería a semejante locura.

Bertha era una mujer decidida y muy persistente. Ella sabía el gran potencial que el automóvil tenía y la revolución que produciría. Dado que la oportunidad para mostrar el motorwagen al mundo no llegaba y su esposo no se atrevía a dar una demostración atrevida, Bertha optó por dejar su rol pasivo y decidió que era hora de tomar el asiento del conductor, literalmente. A escondidas de Carl y con el pretexto de visitar a su madre, planeó un viaje desde Mannheim hasta Pforzheim, más de 100 kilómetros al sur. Bertha sabía que 100 km era más que «larga distancia» (a fines del siglo XIX) y que si lograba su objetivo demostraría la revolución que el motorwagen representaba. En vez de gasolina el vehículo usaba un solvente llamado ligroína y con un estanque de sólo un par de litros era claro que sería necesario encontrar combustible. Luego de calcular hasta dónde llegaría, Bertha planeó su ruta de tal manera que alcanzaría a llegar a una pequeña villa al sur de Heidelberg llamada Wiesloch, donde podría comprar ligroína en la farmacia local.

Bertha-Benz_film1

Escena de la película «Carl & Bertha»

La mañana del 5 de agosto de 1888, Bertha se levantó antes del amanecer sin que Carl se enterara. Despertó a sus hijos Richard (14) y Eugen (15) y los sentó en uno de los tres motorwagen junto a una canasta con fruta y agua para el viaje, el primer viaje larga distancia en un automóvil de la historia. El viaje no sería fácil, con rutas sólo usadas por carruajes tirados por caballos el terreno era escabroso. Bertha planeó el viaje también como una prueba del vehículo, anotando cada detalle que podría ser mejorado. En empinadas subidas las dos velocidades del motorwagen no eran suficientes y era necesario empujarlo. Siguiendo la ruta planeada, Bertha y sus hijos eran saludados por cientos de curiosos que se acercaron a ver el paso de este monstruo mecánico que echaba humo mientras cruzaba los campos bajo el sol del verano. Mucha gente miraba con temor esta bestia que se movía sin necesidad de ser tirado o empujado. En un momento el vehículo comenzó a echar más humo de lo esperado y repentinamente se detuvo. Luego de varios intentos fallidos de arrancar el motor nuevamente, Bertha pensó en que el polvo del camino estaba bloqueando una de las cañerías del combustible. Ante la falta de herramientas sacó uno de los largos y elegantes alfileres de su sombrero con el que destapó las cañerías. El motorwagen volvió inmediatamente a la vida y los Benz continuaron su histórico viaje.

Como estaba planeado, antes de terminar su estanque de combustible Bertha y los niños llegaron a la gran farmacia de Wiesloch (Stadt-Apoteke). Ante la mirada atónita de la gente en la plaza del pueblo y luego de detener el vehículo, Bertha tomó su largo y ya polvoriento y manchado vestido, bajó del carruaje sin caballos y entró a la farmacia. Mientras, más y más curiosos se acercaron a ver el vehículo de cerca. Bertha le pidió al boticario venderle todas las botellas de ligroína que tuviese, el que gentilmente le dijo que una botella era suficiente para remover las manchas en su vestido. Ella insistió en su orden, la que entregó a sus niños para llenar el estanque ante la mirada expectante de cientos de personas.

Wiesloch_Stadtapotheke

Monumento de Bertha Benz frente a la farmacia de Wiesloch, la primera gasolinera

A esta hora del día otros cientos de personas habían visto el paso del motorwagen y los telégrafos no paraban de transmitir mensajes sobre el novedoso vehículo, el cual la gran mayoría nunca había visto. Periodistas en Wiesloch le preguntaron a Bertha a dónde se dirigía y se comunicaron con otros en la ruta, los que salieron a esperar el paso de los Benz. Los problemas continuaron, los que desafiaron la inventiva de Bertha. El principal era el desgaste de los frenos, que consistía en una simple barra de madera contra las ruedas, lo que hacía peligroso el descenso de las colinas. Bertha decidió hacer una parada no planificada en otra pequeña villa y se dirigió a una zapatería. Compró dos pares de suelas de zapato, las que instaló en el extremo de la barra que frenaba las ruedas. Con esta solución improvisada Bertha Benz inventó las pastillas de freno, usadas hasta nuestros días. En cada parada también rellenaban el radiador con agua. Antes de llegar a su destino, el continuo y violento movimiento del vehículo a lo largo del camino causó que varias cañerías se soltaran así como algunos de los cables del sistema eléctrico. Bertha detenía el vehículo, reacomodaba todo y seguía su avance. Ante la falta de materiales recurrió a su vestuario y amarró las cañerías con piezas de lencería, demostrando su tenacidad y compromiso para alcanzar su meta.

Carl &amp; Bertha

Escena de la película «Carl & Bertha»

Después de la puesta de sol y luego de 12 horas de viaje los Benz llegaron a Pforzheim, su destino. Lo primero que Bertha hizo fue enviar un telegrama a Carl contándole del exitoso viaje. Días más tarde emprendió el viaje de regreso por una ruta diferente. Esta vez cientos de periodistas esperaban el paso de esta maravilla de la ingeniería. Con una entrada triunfance de regreso en Mannheim, Bertha reportó la lista de modificaciones necesarias para mejorar el vehículo. La más importante fue una velocidad extra para subir colinas, lo que fue rápidamente implementado por Carl en el Motorwagen modelo 3, el que llegó a las más importantes ferias tecnológicas y exposiciones en Berlín y París.

Bertha logró su objetivo, todo el mundo se enteró del histórico viaje con lo que demostró lo que el automóvil podría lograr. El resto es historia, la demanda por el vehículo y los nuevos modelos obligó a expandir la compañía, la que se convirtió en la más grande productora de automóviles. El éxito financiero y comercial fue mayor al esperado. Décadas más tarde y hasta nuestros días la compañía pasaría ser conocida como Mercedes-Benz Motor Company. Carl Benz pasó a la historia, la Universidad de Karlsruhe, su alma mater, le concedió un doctorado honorario y Bertha Benz fue elegida senadora honoraria. Una placa y un monumento declaran a la farmacia en Wiesloch como la primera gasolinera en la historia y la ruta que Bertha siguió ese soleado día de agosto de 1888 es ahora una ruta histórica llamada Bertha Benz Memorial Route. Cada dos años decenas de modernos y futuristas automóviles siguen esta ruta como homenaje al histórico viaje de Bertha y sus hijos. En 2013 y conmemorando los 125 años del viaje de los Benz, el vehículo experimental Mercedes-Benz S500 Intelligent Drive, también conocido como Bertha, completó la misma ruta desde Mannheim hasta Pforzheim de manera completamente autónoma.

Bertha-Benz-Wiesloch-083

Señales demarcan la ruta seguida por Bertha Benz entre Mannheim y Pforzheim

Carl Benz es sin duda el genio detrás del automóvil, sin embargo fue la tenacidad de Bertha Benz la que hizo posible que una visión se transformara en invención, para luego convertirla en una innovación y una revolución.

Imágenes: Mercedes-Benz Motor Company, Wikipedia

Publicado en Historia | 5 comentarios

Choque de copas en un brindis y la suma de Gauss

prost.jpgEl otro día en un largo viaje en tren me senté como siempre en el comedor: no requiere reserva de asiento, es donde típicamente hay menos ruido, más espacio y luz natural y además se puede comer/beber algo. Luego de unos tranquilos 45 minutos de viaje, el tren se detuvo en Frankfurt donde subió un equipo de algún tipo, eran siete señores todos vistiendo la misma camiseta con un logo que no pude distinguir. Apenas el tren se puso en marcha mis compañeros de viaje en la mesa del lado ordenaron una ronda de cervezas. Mientras admiraba el paisaje su orden llegó a la mesa, se alegraron bastante por su «desayuno» (eran las 7 am) e inmediatamente iniciaron el clásico «prost!» («¡salud!» en alemán) mientras chocaban sus jarras de cerveza unas con otras. ¡Clink!, ¡clink!, y luego más y más ¡clinks! Luego de más de 10 choques de jarras no pude dejar de pensar «¿tantos choques entre las jarras? ¡Son sólo siete personas!» El siguiente pensamiento fue: «¿Cuántos choques de jarras pueden ocurrir entre un número arbitrario (k) de personas?» ¿Y qué mejor que comenzar el día en la comodidad del tren y varias horas de viaje por delante con bellos paisajes y resolviendo un pequeño problema matemático?

gaussGauss y la suma de números enteros

Carl Friedrich Gauss (1777-1855) es reconocido como uno de los más grandes matemáticos de la historia. Durante su vida hizo contribuciones fundamentales a la física, matemáticas, astronomía y estadística. Una de las leyendas más populares es de cuando Gauss era sólo un niño en la escuela primaria. Ante la necesidad de mantener a los pupilos tranquilos, su profesor les ordenó calcular la suma de los números enteros hasta 100. El professor pensó que eso los mantendría ocupados por un buen rato. Sin embargo el pequeño Carl se levantó rápidamente para reportar correctamente el resultado: 5050. ¿Cómo era possible que Carl pudiese sumar números tan rápido? La respuesta fue más genial que la esperada: mientras todos sus compañeros comenzaron a sumar de manera creciente (1+2=3, 3+4=7, 7+5=12, etc.) Gauss notó un patrón repetitivo al sumar el primer número con el último de la suma: 1+100=101, luego el segundo con el penúltimo: 2+99=101, el tercero con el antepenúltimo: 3+98=101, etc.gauss_sumDado que estaba sumando un número de cada lado (del principio y el final de la suma) tendría que realizar un total 50 sumas pero todas con el mismo resultado (101), por lo que Carl simplemente calculó el producto (50)(101)=5050, obteniendo el resultado correcto en un par de segundos. Lo interesante es que el truco de sumar los extremos de los elementos de esta suma puede generalizarse para la suma de cualquier entero. Una forma simple de demostrarlo es simplemente escribiendo la suma S_n de los n enteros dos veces, una vez en orden creciente y la segunda vez en orden decreciente y luego sumarlas, con lo que se obtiene lo siguiente:
gauss_sum_nEsta expresión es a veces llamada la suma de Gauss. Si usamos n=100 recuperamos el ejemplo calculado por el pequeño Carl:
gauss_sum_100
¿Cuántos choques de vasos se pueden realizar entre un grupo de personas?

Volviendo al ejercicio de calcular el número de choques C_k de vasos entre un número k de personas, primero hay que notar C_1=0, es decir, cuando sólo hay una persona no hay con quién brindar. Cuando hay dos personas, C_2=1; cuando hay tres personas se cumple C_3=3, sin embargo cuando cuatro personas hay C_4=6, es decir, entre 4 personas se escucharán 6 ¡clinks! entre sus vasos. Una forma de generalizar la relación entre el número k de personas y el número de choques de vasos C_k es notando que cada persona k puede brindar con un total de k-1 personas ya que no puede brindar consigo mismo, lo que da un total de k(k-1). Sin embargo esta suma considera dos veces a cada persona (es decir A con B y B con A) por lo que debemos dividir por 2 para evitar contar dos veces, con lo que se obtiene
choques_kUna manera más formal de obtener este resultado es notando que cuando hay 3 personas el número de choques de vasos es 2+1; cuando hay 4 es 3+2+1, cuando hay 5 es 4+3+2+1, y así cuando hay k personas será (k-1)+(k-2)+(k-3)+…+2+1, lo que corresponde a una suma de Gauss con n=k-1, por lo que usando la fórmula derivada antes (en amarillo) se obtiene:

choques_k2que es equivalente a la fórmula anterior (en verde). Por lo que ahora entiendo por qué los señores brindando en la mesa del lado en el tren no terminaban de hacer chocar sus jarras de cerveza: con 7 personas el número de choques es C_7=\frac{1}{2}(7)(7-1)=(7)(3)=21. Curiosamente, la semana pasada mi jefe invitó a su equipo a cenar y durante el brindis a tono de broma me dijo «¿Puedes calcular cuántos golpes de vasos se escucharán?» A lo que rápidamente pude responder: «somos 5 personas, C_5=\frac{1}{2}(5)(5-1)=(5)(2)=10, la respuesta es 10″. ¡Salud!

Publicado en Preguntas simples | 3 comentarios

Monte Carlo: juegos de cartas, armas nucleares y el número π

MC_pi_secretLa semana pasada tuve la oportunidad de descansar, darme tiempo para leer y recorrer impresionantes paisajes a lo largo de la Riviera Francesa. Un día con amigos visitamos el Principado de Mónaco, donde los lujosos autos deportivos en las calles y enormes yates capturan la vista. Sin embargo lo que más me interesaba ver era el famoso casino de Monte Carlo, el que tiene un valor simbólico para todo físico que ha tenido que hacer simulaciones computacionales.

Después de crear la bomba atómica y luego del fin de la Segunda Guerra Mundial, los científicos que permanecieron en el Laboratorio de Los Alamos se dedicaron a diseñar nuevas armas nucleares. Uno de los principales fue el físico polaco Stanisław Ulam, conocido principalmente por desarrollar junto a Edward Teller el principio básico de la bomba de hidrógeno. En 1946 Ulam estaba enfermo en cama y aburrido pasaba las horas jugando al solitario. Aunque tratando de mantener su mente lejos del trabajo al lanzar las cartas una y otra vez en un nuevo juego Ulam se cuestionó sobre la probabilidad de ganar el juego. Ulam quería encontrar la solución sin usar combinatoria ni métodos analíticos. Dado que tenía tiempo de sobra mientras se recuperaba, Ulam razonó que podría simplemente lanzar las cartas una y otra vez, jugar el juego muchas veces con lo que podría estimar la probabilidad de la forma

\text{probabilidad de ganar} = \dfrac{\text{juegos ganados}}{\text{n\'umero total de juegos}}

Aunque para problemas del mundo real la opción de repetir un experimento un gran número de veces para conocer su resultado y con esto estimar soluciones es típicamente poco realista además de ineficiente, Ulam sabía que en Los Alamos computadores electrónicos recién llegados permitirían usar su idea para resolver complejos problemas en física matemática.

vNeumannFeynmanUlam

John von Neumann (izq.) y Stanislaw Ulam (der.) junto a Richard Feynman en Los Alamos

El gran John von Neumann inmediatamente comprendió la importancia de este método y comenzó a usarlo en los más avanzados computadores que tenían disponibles. Dadas las estrictas condiciones de secreto militar era necesario un nombre clave para este método que comenzaba a usarse para resolver complejas ecuaciones y calcular procesos en explosiones termonucleares. La relación con el juego de cartas y el uso de experimentos aleatorios motivaron a usar el nombre del famoso casino en Mónaco por lo que se conoce hasta nuestros días como método Monte Carlo.

MonteCarlo

Casino de Monte Carlo en Mónaco

Es importante mencionar que aunque Ulam, von Neumann y otros, como Nicholas Metropolis, desarrollaron la versión moderna de este método, ideas similares habían sido usadas por Enrico Fermi una década antes. Además la solución de sistemas mediante el uso de muestros aleatorios había sido usada incluso siglos antes.

Estimación del número π con el método Monte Carlo

Mi primer encuentro con el método Monte Carlo fue en mi primer año de pregrado en el curso de programación donde lo usamos para calcular el número π. La idea es muy simple: así como Ulam determinó la probabilidad de ganar el juego del solitario como la razón entre el número de juegos ganados y el número total de juegos, el método Monte Carlo nos dice que si aleatoriamente dibujamos puntos en un cuadrado con un cuarto de círculo inscrito entonces la razón entre sus áreas es igual a la razón de puntos dentro de cada polígono:

MC_pi

Si el cuarto de círculo está inscrito en el cuadrado, entonces el lado del cuadrado es igual al radio del círculo y la razón entre las áreas es:

\dfrac{\text{(\'area c\'irculo)/4}}{\text{\'area cuadrado}} = \dfrac{\pi r^2/4}{r^2}  = \dfrac{\pi}{4}

Combinando estas dos ecuaciones es posible escribir el valor de π como

\pi = 4\times\,\dfrac{\text{n\'umero de puntos en el cuarto de c\'irculo}}{\text{n\'umero total de puntos en el cuadrado}}

con lo que ¡el valor de π puede ser estimado simplemente contando puntos que han sido dibujados aleatoriamente en un cuadrado! Voilà!

La semana pasada finalmante conocí el frontis del famoso casino, nunca tuve la intención de entrar a jugar ya que por saber algo de probabilidades estoy exento del pago de ese impuesto llamado juegos de azar (además dudo que me dejaran entrar). El día siguiente lo pasé en cama, enfermo; ante la imposibilidad de disfrutar el sol y la playa tuve mi propia entretención honrando a Ulam: escribí un simple programa para estimar el número π generando números pseudo-aleatorios, lo que en Python es un par de líneas (la mayoría de las líneas de código son detalles para producir los gráficos mostrados más abajo)

MC_pi_code

Ahora se puede jugar con el número de puntos a usar y el código entregará el valor de π junto al gráfico de los puntos. Por ejemplo, con 50 puntos sólo 36 caen dentro del cuarto de círculo, con lo que se obtiene π = 4*36/50 = 2.88, lo que es bastante alejado del valor real. Aumentando el número de puntos, después de todo la idea del método Monte Carlo es simular muchos experimentos, el valor de π comienza variar acercándose al valor real:

MC_pi_plots

Con 10 000 puntos las dos zonas (dentro y fuera del cuarto de círculo) son claramente distinguidas y el valor obtenido es π = 3.1452, bastante más cercano al valor 3.1415.

Este es un clásico ejercicio para jugar con números aleatorios, sin embargo el método Monte Carlo tiene aplicaciones en variadas disciplinas incluyendo física matemática, negocios y finanzas, climatología, biología computacional, ingeniería y hasta en planes de rescate en el mar. El método Monte Carlo es considerado una poderosa herramienta para resolver sistemas de ecuaciones diferenciales y es fundamental en estadística Bayesiana.

Publicado en Aplicaciones de Fisica, Energía nuclear, Road Trip | 4 comentarios

Burbujas en la cerveza y algo de física

beerHace casi un año que dejé de dedicarme a la física de manera oficial, sin embargo algo que es imposible dejar es mirar el mundo a través de los ojos de la física. Así como patos nadando me hacen pensar en electrones más rápidos que la luz en el agua, algo que también me saca una sonrisa cada vez que lo veo es el continuo flujo de burbujas en una cerveza.

Las burbujas son pequeños paquetes de dióxido de carbono (CO2) que buscan escapar del líquido, empujadas hacia arriba por la fuerza descrita por Arquímides que, según la leyenda, le hizo gritar «¡eureka!» El tamaño de las burbujas cambia mientras se propagan, aunque no tan fácil de notar, éstas crecen a medida que se acercan a la superficie. Si la curiosidad es mayor que la sed, basta observar cuidadosamente para notar que las burbujas se originan cerca del vidrio del vaso. Esto ocurre porque microburbujas de CO2 se agrupan en llamadas zonas de nucleación, es decir, irregularidades en el vidrio donde el gas se acumula hasta que es liberado en forma de una burbuja. Las burbujas de CO2 se forman en pequeñas imperfecciones del vidrio de la misma forma que gotas de lluvia se forman en torno a partículas de polvo o las trazas en una cámara de burbujas formadas con el paso de una partícula cargada. De hecho, su inventor probó la idea de su creación al exponer cerveza a materiales radiactivos.

Algo bastante obvio es que la velocidad de las burbujas aumenta mientras suben, es decir, aceleran. Antes de continuar, quisiera aclarar la definición de estos conceptos:

Velocidad se refiere al cambio de posición \Delta x con el paso del tiempo \Delta t, si un cuerpo no se mueve (mantiene su posición en el tiempo) decimos que tiene velocidad cero; al contrario, si su posición cambia, decimos que posee cierta velocidad. Si llamamos \Delta x al cambio de posición y \Delta t al paso del tiempo, entonces la velocidad se define matemáticamente como v = \frac{\Delta x}{\Delta t}.

Aceleración
se refiere al cambio de velocidad \Delta v con el paso del tiempo \Delta t, si un cuerpo se mueve siempre a la misma velocidad, decimos que tiene aceleración cero; al contrario, si su velocidad cambia, decimos que posee cierta aceleración. Si llamamos \Delta v al cambio de velocidad y \Delta t al paso del tiempo, entonces la aceleración se define matemáticamente como a = \frac{\Delta v}{\Delta t}.

Aquí es donde la belleza de la física, el álgebra y la geometría se unen para darnos una descripción completa del movimiento acelerado. Por simplicidad supongamos que una burbuja posee aceleración constante, es decir, que no cambia con el tiempo (esto resulta no ser tan cierto pero es una buena aproximación). Al contrario de la aceleración, la posición de cada burbuja cambia (se mueven hacia arriba) y su velocidad cambia a una tasa constante (se mueven cada vez más rápido). En un gráfico se vería como la imagen de la izquierda, donde la velocidad (eje vertical) aumenta desde un valor inicial (cero) hasta un valor final v luego de cierto tiempo t.

v
La figura de la derecha muestra el mismo gráfico pero con más detalles, donde se ha usado que la medición comienza a t=0, por lo tanto Δt = t. Álgebra básica permite reescribir la velocidad final usando la definición de aceleración; la física nos dice que en un gráfico velocidad vs. tiempo la distancia recorrida está dada por el área bajo la curva; y la geometría permite calcular el área de un triángulo (base × altura/2) de base = t y altura = at. Con lo que se obtiene que el movimiento de una burbuja (su altura medida desde el centro de nucleación) es

x = \frac12 at^2.

Aquí es donde podemos poner la física a prueba, sólo basta con fotografiar uno de esos flujos de burbujas y medir su desplazamiento. Hace un tiempo no pude resistirme al observar cómo subían las burbujas en un vaso de cerveza:

imageHace unos días hubo una celebración en la compañía en la que trabajo y antes de seguir a mis colegas y disfrutar una copa de Prosecco, me dediqué a capturar las burbujas. Más tarde repetí la experiencia con un vaso de agua con gas:

Capture

Luego usé un simple editor de imágenes para registrar la ubicación de cada burbuja. Ante la falta de unidad de medida simplemente usé pixeles. El tiempo tampoco lo tengo, sin embargo cada burbuja se origina cuando la nucleación llega a un límite en el cual la fuerza de empuje la libera, por lo que es natural considerar que el mismo tiempo transcurre entre una burbuja y la siguiente. De esta manera grafiqué el desplazamiento de cada burbuja en pixeles en el eje vertical y asigné números consecutivos a cada burbuja para el eje horizontal.

quadratic_fits

Los datos son mostrados en la figura por los círculos y la línea roja indica el ajuste cuadrático de los datos en cada caso. En especial las burbujas en la cerveza muestran que una función cuadrática (es decir, que la posición varía como el tiempo al cuadrado) se ajusta muy bien a los datos.

Obviamente no soy el primero en convertir un refrescante gusto en un laboratorio de física. Sin embargo es necesario aclarar que por simplicidad sólo he considerado la fuerza de empuje actuando en cada burbuja. Hay otros factores que afectan su movimiento, por ejemplo la resistencia al movimiento debido a su tamaño el que aumenta continuamente. Estos detalles, en especial el crecimiento de cada burbuja, requiere conceptos que escapan a la intención de este post.  Para quien le interese, el artículo «Through a Beer Glass Darkly,» Physics Today 44 (1991) [PDF] muestra los detalles, sólo requiere conocimientos básicos de cálculo y teoría de gases. También hay variados estudios sobre el movimiento hacia abajo de burbujas en cerveza Guinness, por ejemplo «Why do bubbles in Guinness sink?,» Am. J. Phys. 81, 2 (2013) [PDF].

Publicado en General | 8 comentarios

Desafiando la relatividad con desintegraciones nucleares

2vbbAMuchas veces se nos critica a los científicos por no compartir nuestro trabajo con el público general, principalmente porque nuestros resultados son reportados como documentos técnicos (papers) destinados a una audiencia especializada. Hace unos días se publicó un proyecto en el que llevo varios años trabajando y en presente artículo contaré de qué se trata.

La pregunta a responder es bastante simple: ¿son las reglas de la relatividad respetadas por los neutrinos producidos en una reacción nuclear? La búsqueda de posibles condiciones en las que la relatividad pudiese no funcionar apropiadamente es un activo campo de estudio teórico y experimental. Para una mejor apreciación y comprensión del presente artículo es recomendable haber leído mi artículo anterior a modo de introducción: Poniendo la relatividad a prueba.

MGM

Maria Goeppert-Mayer (APS)

Desintegración nuclear doble beta

Maria Goeppert-Mayer es lamentablemente uno de esos nombres poco conocidos para la gente que no se dedica a la física nuclear. Goeppert-Mayer jugó un rol fundamental en la descripción matemática de las interacciones dentro del núcleo atómico. Su historia es fascinante, pero en vez de intentar describirla recomiendo leer el excelente artículo de Laura Morrón «Maria Goeppert-Mayer: La belleza de Göttingen«. Sobre su educación, basta con mencionar que estudió en Göttingen en los años donde allí se forjaba la mecánica cuántica. La desigualdad de género le trajo problemas toda su vida, pero logró destacarse por su trabajo y gran entendimiento de la física cuántica, lo que la convirtió en la colega favorita de Enrico Fermi. En su tesis de doctorado, supervisada por Max Born (uno de los padres de la mecánica cuántica sentado junto a Niels Bohr en la famosa imagen del Congreso de Solvay), Goeppert-Mayer desarrolló las ecuaciones que describen la absorción de dos fotones, es decir, explicó cómo un material podría absorber dos fotones a la vez, un problema matemáticamente muy complejo. Sus predicciones fueron comprobadas varias décadas más tarde, tras la invención del láser. De la misma manera, en 1935 Goeppert-Mayer publicó uno de los artículos más importantes para la física de neutrinos: la desintegración nuclear doble beta (abreviado 2νββ). La desintegración nuclear beta consiste en la transformación de un neutrón en un protón, cuando esto ocurre se emite un electrón (históricamente llamado partícula beta) y un antineutrino, este proceso es el que motivó a Wolfgang Pauli a postular el neutrino en 1930. Goeppert-Mayer modeló la extraña posibilidad de en que los núcleos de ciertos elementos este proceso ocurriera dos veces de manera simultánea, es decir, que dos neutrones se desintegraran al mismo tiempo en dos protones emitiendo dos electrones y dos antineutrinos. Por ejemplo, un núcleo del elemento xenón-136 se transformaría en un núcleo de bario-136 (el bario tiene dos protones más que el xenón).

2vbb

De cierta manera, dos desintegraciones nucleares simultáneas se parecían a la absorción de dos fotones que estudió durante su tesis, por lo que Maria describió este fenómeno con facilidad y elegancia. Esta desintegración nuclear doble beta fue observada varias décadas más tarde en varios elementos confirmando las predicciones de Goeppert-Mayer.
Más tarde ella también desarrolló la matemática detrás del famoso modelo de capas nucleares, lo que explica la estabilidad de ciertos núcleos, trabajo por el cual recibió el Premio Nobel de Física en 1963.

Volviendo a la desintegración nuclear doble beta, existe un proceso similar al descrito por Goeppert-Mayer en el cual la desintegración nuclear doble beta produce dos electrones pero sin la emisión de antineutrinos (abreviado 0νββ).

0vbb

Este proceso es de gran interés ya que revelaría una de las propiedades más fundamentales de los neutrinos, con consecuencias en muchos otros campos de la física. Aunque no ha sido observado todavía, sólo puede ocurrir si el neutrino es su propia antipartícula (lo que en lenguaje técnico se llama un fermión de Majorana), lo que tendría importantes consecuencias en la descripción de la física de neutrinos y por esto es uno de los más activos campos de investigación en la actualidad.

Desafiando la relatividad en la desintegración nuclear doble beta

Dado el gran interés en tratar de observar 0νββ, varios experimentos han sido diseñados y construidos en las últimas décadas. Algunos de los más importantes en funcionamiento son EXO-200 (en EEUU), GERDA (en Italia), KamLAND-Zen (en Japón) y Super-NEMO (en Francia), formados como colaboraciones internacionales con casi un centenar de científicos cada uno. Dadas las características de estos experimentos, cuando estaba en mi último año del doctorado decidí estudiar cómo podríamos usar experimentos de desintegración nuclear doble beta para buscar por posibles desviaciones de la simetría de Lorentz (detalles de este campo de estudio en el post anterior). Dado que 0νββ no ha sido observado mi idea parecía destinada al fracaso, sin embargo hay un detalle: los experimentos que buscan 0νββ usan elementos muy particulares, como xenón y germanio, los que también producen 2νββ en grandes cantidades. Los electrones emitidos en 2νββ se usan a veces como métodos de calibración del experimento pero principalmente son una molesta fuente de contaminación en los detectores y sólo complican la búsqueda de 0νββ. Aquí cambié de estrategia y me dediqué a calcular cómo buscar por posibles desviaciones de la simetría de Lorentz usando los «inservibles» datos obtenidos por un experimento debido a 2νββ, disponibles en grandes cantidades. El proceso no fue simple, los cálculos son bastante complejos y el proyecto me dio dolores de cabeza por varios meses. Fue interesante realizar una versión modificada del cálculo de Goeppert-Mayer. Finalmente obtuve el resultado, lo que dio origen a mi primera publicación como único autor a fines del doctorado. El artículo fue publicado en la revista Physical Review D a principios de 2014 (versión gratuita: arXiv:1311.0930).

Una vez terminado mi cálculo, el siguiente paso fue uno de los más importantes: darlo a conocer a los equipos que podrían usarlo para realizar un estudio experimental. Fui a varias conferencias y dicté muchos seminarios donde logré interesar a miembros de varios experimentos en EEUU y en Europa, sin embargo a pasos de mi oficina una profesora de mi universidad y su alumna de doctorado que trabajan en el experimento EXO-200 llevaron a una colaboración más cercana con este equipo. Además los otros equipos al estar a más de «un océano de distancia» hacían cualquier comunicación más lenta que caminar unos pasos desde mi oficina.

El artículo recién publicado corresponde a materialización de esta larga búsqueda: como el título describe esta es la primera búsqueda de desviaciones de la simetría de Lorentz en desintegración nuclear doble beta con EXO-200. El experimento EXO-200 (Enriched Xenon Observatory) utiliza 200 kg de un elemento llamado xenón-136 en estado líquido ultra puro (por eso el nombre «Enriched»). EXO-200 está ubicado en un recinto subterráneo llamado WIPP (Waste Isolation Pilot Plant) en el estado de New Mexico, EEUU. En este sitio a 650 metros bajo tierra en una formación salina se almacenan los residuos de la producción de armamento nuclear durante a Guerra Fría, por lo que las condiciones de seguridad son extremas. En 2014 hubo un pequeño incidente en el que el sello de un contenedor con sales metálicas con restos de plutonio proveniente de Los Alamos se reventó. Obviamente la causa no fue una reacción nuclear, el problema fue producido porque para absorver humedad estos contenedores se rellenan con cat litter (arena para gatos) convencional y este contenedor fue rellenado accidentalmente con «cat litter orgánico» fabricado con trigo. Los carbohidratos presentes en esta arena orgánica sirvieron como combustible para una reacción química con las sales de plutonio almacenadas liberando calor, el que a su vez aceleró las reacciones produciendo suficiente calor y gases para romper el sello del contenedor. La fuga radiactiva fue menor y no produjo problemas, pero dejó claro que escoger la arena de gato requiere estrictos protocolos ya sea para su baño de tu minino como para almacenar residuos nucleares.cat_litter2

Luego de casi dos años de trabajo, en nuestro estudio no encontramos señales de desviaciones de la simetría de Lorentz en desintegración nuclear doble beta de xenón-136. Este resultado no significa que la simetría de Lorentz sea exacta, pero señala que si cualquier desviación existe entonces debe ser muy pequeña y por esto no pudimos observarla en este experimento. Podemos decir que los neutrinos siguen respetando las reglas de la relatividad (por ahora). De todas formas determinamos por primera vez el rango de valores permitidos para el parámetro relevante en la teoría (SME). Trabajar con este equipo fue una experiencia muy enriquecedora, he colaborado antes con experimentales y las diferentes maneras de hacer análisis y resolver problemas es mutuamente educativo. Además de proponer la idea original, mi trabajo fue hacer los cálculos para la aplicación directa en este experimento y el análisis de datos fue realizado por la estudiante, que obtuvo su PhD hace unos meses y este proyecto fue parte de su tesis. Luego escribimos el paper juntos, el que pasó por un riguroso proceso de revisión interna de decenas de personas dentro de la colaboración EXO. Luego de varios meses fue aprobado y el artículo fue hecho público en el arXiv a fines de enero pasado (versión gratuita: arXiv:1601.07266); unas semanas más tarde fue aceptado en Physical Review D y publicado el pasado 1 de abril, exactamente dos años después de defender mi tesis de doctorado.

Dado mi interés en el trabajo de Maria Goeppert-Mayer este proyecto fue bastante significativo, supongo que ella se alegraría de saber que su idea de la desintegración nuclear doble beta puede ahora usarse para poner a prueba la relatividad con neutrinos.

 

Publicado en Energía nuclear, Física de Partículas, Física en primera persona, Neutrinos | 9 comentarios

Poniendo la relatividad a prueba

Lorentz_Einstein

Einstein y Lorenz en Leiden.

Una de las preguntas que recibo bastante a menudo es de qué se trata mi trabajo. Por años mi tema de especialidad ha sido la física de neutrinos, sin embargo en los últimos años he ampliado mi horizonte explorando la física de rayos cósmicos, astronomía de rayos gamma y la física de neutrones. Estos campos son bastante amplios, por lo que muchas veces necesito especificar cuál es mi tema particular de investigación. En artículos anteriores he mencionado que consiste en usar partículas para desafiar la relatividad, para ponerla a prueba. No se trata de simplemente decir «la relatividad está mal»; desafiar la relatividad se trata de desarrollar e implementar métodos matemáticamente consistentes para realizar búsquedas experimentales de situaciones en las que desviaciones de la relatividad pudieran aparecer. Este artículo se trata de la importancia de poner a prueba esta importante teoría y su conexión con la búsqueda de una teoría cuántica de la gravedad. Espero que sirva para explicar un poco en qué consiste mi trabajo y este activo campo de la física; además servirá de introducción para futuros artículos en los que describiré estudios particulares que estoy realizando con equipos en diferentes laboratorios del mundo.

De la física clásica a la física moderna y más allá

La mecánica clásica de Newton funciona, sólo basta con mirar los edificios a nuestro alrededor y puentes que cruzamos cada día, ingenieros usan las leyes de Newton para describir la dinámica de suelos, la resistencia de materiales y las condiciones de equilibrio que mantienen estas grandes estructuras en su lugar. El reino de la física newtoniana prevalece en nuestro diario vivir, por lo que ingenieros diseñando puentes, edificios y vuelos espaciales pueden seguir usándola sin problemas, sin embargo existen condiciones en las que la física de Newton deja de ser válida. Cuando nos encontramos con condiciones extremas, como partículas que se mueven a velocidades cercanas a la de la luz en un colisionador o en las cercanías de cuerpos extremadamente masivos la física de Newton deja de funcionar apropiadamente y es necesario usar una teoría más completa. Notar que esta nueva teoría contiene a la mecánica newtoniana como caso particular, es decir, no es necesario tirar la mecánica newtoniana al basurero. Es así como se desarrollaron modernas teorías como la relatividad y la mecánica cuántica, las que se reducen a las ecuaciones de Newton en las condiciones apropiadas.

La teoría de la relatividad también funciona. Esta observación ha sido confirmada una y otra vez en una gran cantidad de experimentos y desconocemos si hay condiciones en la que deje de ser válida, además del interior de agujeros negros o durante el Big Bang. Sin embargo habemos una clase de científicos herejes que nos cuestionamos ¿será la relatividad válida en todas las condiciones? ¿respetarán todas las partículas las reglas de la relatividad? El mismo Richard Feynman en el tercer volumen de las famosas Feynman Lectures exclama «hoy pensamos que la relatividad es válida para todas las energías, pero algún día alguien aparecerá y nos mostrará lo estúpidos que hemos sido». Más que «alguien» hoy existe toda una comunidad de científicos de variadas disciplinas estudiando posibles situaciones en las que la relatividad podría dejar de funcionar a propiadamente. De la misma manera que la mecánica newtoniana es extendida por nuevas teorías, la relatividad podría necesitar modificaciones en ciertas condiciones. ¿Cuáles? No sabemos, ya que hasta ahora la relatividad parece funcionar.

Dado que no existe evidencia experimental de desviaciones de la relatividad entonces cabe preguntarse ¿para qué molestarse describiendo física más allá de la relatividad? Existen varias motivaciones, una de ellas es la preciada gravedad cuántica, teoría que todavía desconocemos pero que nos ayudaría a comprender la física de los agujeros negros y del Big Bang. En la búsqueda de una teoría unificada de la gravitación y la física cuántica varias ideas han sido propuestas. La más popular es la llamada teoría de cuerdas, pero existen muchas otras «teorías candidatas» a describir la gravedad a nivel cuántico, cada una con sus beneficios y problemas. Algo que muchas parecen tener en común es la posibilidad de que un ingrediente básico de la relatividad podría fallar, esto fue descubierto por Alan Kostelecký y Stuart Samuel en teoría de cuerdas en 1989. Este ingrediente se conoce como simetría de Lorentz, en honor al físico neerlandés Hendrik Lorentz (sentado junto a Einstein en la famosa imagen del Congreso de Solvay de 1927). A pesar de lo misterioso que puede sonar, la simetría de Lorentz es una idea notablemente simple, incluso espeluznantemente simple: las leyes de la física son las mismas en un laboratorio en reposo o en un laboratorio en un tren que se mueve a velocidad constante y sin importar la orientación del laboratorio. Digo «espeluznantemente simple» porque la relatividad es en realidad una consecuencia de que la naturaleza parece respetar de manera exacta la simplicidad de la simetría de Lorentz. Hace un tiempo escribí sobre la simetría de Lorentz y la mal llamada paradoja de los gemelos. Se podría decir que la simetría de Lorentz es el corazón de la relatividad especial y con esto de toda la física moderna (la relatividad general y el modelo estándar de física de partículas tienen como ingrediente la relatividad especial), por lo que la búsqueda de posibles fallas en la teoría de la relatividad se traducen en búsquedas de posibles desviaciones de una simetría de Lorentz exacta. Estas búsquedas experimentales pueden entenderse como versiones modernas y muy sofisticadas del famoso experimento de Michelson-Morley que buscaba evidencias del éter lumífero. Es importante aclarar que nadie intenta traer de vuelta la idea del hipotético éter lumífero del s.XIX, tampoco se trata de «probar que Einstein se equivocó» como lamentablemente  suelen tildar los medios este tipo de investigación. Buscar desviaciones de la relatividad consiste en estudiar bajo qué condiciones la relatividad podría dejar de ser válida, lo que tendría enormes consecuencias en nuestro entendimiento de la naturaleza.

Para diseñar estas modernas búsquedas de manera sistemática el mismo Kostelecký desarrolló una teoría efectiva (llamada Standard-Model Extension o SME) que describe todas las maneras matemáticamente consistentes en las que la simetría de Lorentz podría no ser exacta, lo que además de un tremendo logro teórico produjo un gran interés experimental. El desarrollo del SME condujo a una avalancha de estudios experimentales en este tema; en los últimos 25 años se han diseñado y realizado decenas de experimentos con diferentes tipos de partículas para medir los parámetros del SME. A pesar de que hasta ahora ninguna de las búquedas ha encontrado fallas en la relatividad, se han desarrollado nuevas técnicas experimentales empujando la sentividad de los instrumentos al límite. Más importante aún: existen muchas maneras en que estas desviaciones podrían manifestarse y la gran mayoría de estas posibilidades permanecen inexploradas.

Mi tesis de doctorado, bajo la supervisión de Kostelecký, consistió en diseñar este tipo de búsquedas usando neutrinos. Un profesor una vez me dijo que una de las grandes satisfacciones de cualquier físico teórico es ver que sus fórmulas son usadas para analizar los resultados de un experimento. Por esto ha sido un gran honor que importantes colaboraciones experimentales como MINOS (en EEUU) y Super-Kamiokande (en Japón), por mencionar algunas, hayan usado mi trabajo y realizado las búsquedas propuestas.

NuMiAunque no se han encontrado las señales buscadas no significa que la simetría de Lorentz sea exacta, pero indica que si cualquier desviación existe entonces debe ser muy pequeña y por esto no ha sido observada en estos experimentos.

Otra motivación para buscar desviaciones en la simetría de Lorentz es su conexión con un importante ingrediente de la física moderna llamado teorema CPT. Este teorema establece entre otras cosas que si en un experimento reemplazamos todas las partículas por sus antipartículas (C por conjugación de carga: equivale cambiar todas las cargas positivas por negativas y vice versa), al mismo tiempo que cambiamos la direción del espacio (P por paridad: equivale a ver el mundo en un espejo) y la dirección del tiempo (T por inversión temporal) entonces las leyes de la física serán las mismas. Este resultado también se conoce como simetría CPT. Si esta simetría CPT (que hasta ahora funciona) llegara a fallar entonces la simetría de Lorentz también debe fallar (esto es también un teorema descubierto en 2002 por Oscar Greenberg). Dado que CPT permite establecer relaciones entre materia y antimateria, cualquier desviación de la simetría CPT podría ayudar a explicar el imbalance de materia y antimateria luego del Big Bang y con esto explicar por qué existimos.

Ahora me dedico a construir métodos similares pero con fotones, los que serían relevantes para estudios usando rayos cósmicos y rayos gamma producidos por violentos eventos astrofísicos. Espero tener resultados interesantes para contar en el futuro.
De esto se trata desafiar la relatividad, dada su importancia como ingrediente básico de nuestras teorías modernas ponerla prueba es clave para estar seguros que no estamos construyendo teorías como castillos en la arena. Hasta la fecha los experimentos muestran que el suelo es sólido y la simetría de Lorentz no muestra señales de fallar, sin embargo esto no nos impedirá que sigamos buscando.

Para una introducción a este tema recomiendo el didáctico artículo The search for relativity violations publicado por Kostelecký en Scientific American hace unos años. Para quien le interese profundizar en aspectos técnicos, he escrito una introducción en mi web personal.

Artículo relacionado: Desafiando la relatividad con desintegraciones nucleares

Publicado en Física de Partículas, Física en primera persona, Neutrinos | 16 comentarios

LIGO descubre ondas gravitacionales

LIGOHoy jueves 11 de febrero de 2016, 100 años después de que Einstein postulara sus ecuaciones que predicen ondas gravitacionales, el experimento LIGO ha anunciado su observación, confirmando la última predicción de la teoría de la relatividad general. Es un día para los libros de historia y con seguridad muchas botellas de champagne están siendo descorchadas en este momento en todo el mundo.
Para una completa apreciación de la relevancia de este descubrimiento, recomiendo antes leer mi artículo anterior ¿Qué son las ondas gravitacionales?

Anuncio de LIGO

Sin rodeos ni retrasos, como había sido programado, a las 15:30 GMT comenzó la rueda de prensa desde Washington D.C. El físico y director ejecutivo de LIGO David Reitze lanzó la clara frase «We have detected gravitational waves. We did it!» (¡Hemos detectado ondas gravitacionales. Lo logramos!) Continuó diciendo que «todos los rumores que han circulado son casi completamente correctos.»

¿Qué se midió?

El 14 de septiembre de 2015, a las 9:50 GMT, los sistemas automáticos de LIGO se activaron al detectar una señal, la esperada contracción y expansión de sus brazos de 4 km. cada uno. El cambio de longitud se mide con un sistema de interferometría (descrito en ¿Qué son las ondas gravitacionales?) y comenzó oscilando 35 veces por segundo, aumentando rápidamente a 250 oscilaciones por segundo, antes de desaparecer una fracción de segundo más tarde (0.25 s). Este tipo de señal es exactamente lo que se esperaría detectar como el paso de una onda gravitacional producida por la colisión (y posterior fusión) de dos agujeros negros. Sí, parece ficción pero esto que las matemáticas derivadas de las ecuaciones de Einstein predicen es exactamente lo que LIGO ha medido. Una de las confirmaciones críticas de que esta señal es real y no una falsa alarma es que fue detectada por los dos observatorios que posee LIGO.

En el gráfico mostrado en la rueda de prensa y que acompaña a la publicación en Physical Review Letters hecha pública hoy [1], se presenta la señal individual detectada en cada observatorio así como la superposición de ambas, además de la simulación obtenida al resolver numéricamente las ecuaciones de Einstein para el sistema de agujeros negros fusionándose. El acuerdo entre experimentos y teoría es espectacular.

LIGO_plots

De este gráfico también se obtiene un resultado muy interesante; el eje y (strain) muestra la amplidud de la onda gravitacional, la que llegó a un máximo de 10-21. Este número puede parecer irrelevante, sin embargo revela una información espectacular: con el paso de esta onda gravitacional el espaciotiempo contrajo y expandió cada objeto a su paso, en particular el efecto en el diámetro de la Tierra fue de una centésima de millonésima de millonésima de metro ¡esto es parecido al tamaño de un átomo! El logro experimental es colosal, comparable a la increíble manera en que la relatividad general de Einstein permite describir fenómenos de nuestro universo.

¿Qué se descubrió?

Al analizar la forma de la onda mostrada en el gráfico anterior usando las ecuaciones de Einstein los físicos pueden descifrar una cantidad impresionante de información, por esto la importancia de detectar este tipo de señal.
No sólo permite confirmar la observación directa de ondas gravitacionales, la última predicción de la relatividad general, también es posible determinar qué tipo de evento causó la onda y sus propiedades. En el paper [1] los científicos de LIGO reportan que la señal fue causada por dos agujeros negros con 29 y 36 veces la masa de nuestro Sol. Luego de fusionarse, el sistema formó un nuevo agujero negro con 62 masas solares. La diferencia entre la masa final y la masa inicial, 3 masas solares, fue emitida en forma de ondas gravitacionales. Como señaló Kip Thorne, «esta es la explosión más grande medida en la historia, después del big bang». Además, se ha determinado que este evento ocurrió a unos 400 mega pársecs de la Tierra, es decir, algo más de 1000 millones de años luz de distancia. La ubicación exacta de este evento no puede ser completamente determinada usando sólo dos observatorios, sin embargo se estima que ocurrió en la dirección de la Gran Nube de Magallanes en el cielo austral.

¿Para qué sirve este descubrimiento?

El descubrimiento de ondas gravitacionales anunciado hoy por LIGO nos confirma (una vez más) la existencia de los agujeros negros, nos muestra la existencia de sistemas binarios de agujeros negros, nos enseña sobre la física de la fusión de agujeros negros, nos confirma el poder de la relatividad general y además confirma que un experimento ridículamente complejo como LIGO funciona.

Para quien pregunte para qué sirven las ondas gravitacionales, le recuerdo que en 1887 Heinrich Hertz anunció la confirmación de las ondas electromagnéticas predichas por las ecuaciones de Maxwell sin saber si tendrían alguna aplicación práctica; hoy tenemos teléfonos inalámbricos, Wi-Fi y comunicaciones satelitales.

En las últimas décadas hemos sido testigos del descubrimiento de la expansión acelerada del universo, el descubrimiento del bosón de Higgs, el descubrimiento de la oscilación de neutrinos, y hasta el descubrimiento de neutrinos astrofísicos. Hoy LIGO nos ha dado un día para los libros de historia, el nacimiento de la astronomía de ondas gravitacionales, ocurrida oficialmente el 14 de septiembre de 2015. Las ondas gravitacionales se unen formalmente a los rayos gamma, rayos cósmicos y neutrinos astrofísicos a la familia de mensajeros cósmicos.

El video completo del anuncio a continuación:

 

Actualización (15 Jun 2016): LIGO anunció la observación de una segunda onda gravitacional producida por la colisión y fusión de dos agujeros negros. Detalles en «GW151226: Nueva onda gravitacional detectada por Advanced LIGO».

Imágenes: LIGO
Ref: [1] LIGO, Observation of Gravitational Waves from a Binary Black Hole Merger, Phys. Rev. Lett. 116, 061102 (2016).

Publicado en Uncategorized | 12 comentarios

¿Qué son las ondas gravitacionales?

Simulación de un sistema binario emitiendo ondas gravitacionales

Simulación de un sistema binario emitiendo ondas gravitacionales

En 1915, Einstein presentó su teoría general de la relatividad, en la que nos enseñó que el espaciotiempo es flexible y se deforma ante la presencia de objetos masivos como el Sol; hace unos meses celebramos los 100 años de esta espectacular teoría. Una pregunta inmediata que surge ante esta idea de un espaciotiempo flexible es ¿qué pasaría si un objeto tan masivo como para deformar el espaciotiempo se mueve rápidamente? ¿podría la agitación de objetos muy masivos generar ondas como las producidas al lanzar una piedra al agua? La respuesta es afirmativa, estas perturbaciones del espaciotiempo es lo que llamamos ondas gravitacionales. Un interesante ejercicio académico de todo estudiante de física es tomar las ecuaciones de la relatividad general y mostrar que una perturbación del espaciotiempo plano (equivalente a la hoja cayendo en la superficie de una posa de agua) se propaga en todas direcciones a la velocidad de la luz y que el campo gravitatorio obedece la llamada ecuación de ondas. Estas ondas gravitacionales son la única predicción de la teoría de Einstein que falta confirmar. La dificultad para observarlas es que se necesita agitar rápidamente una masa enorme para generar una onda gravitatoria, por lo cual es algo imposible de hacer de manera artificial en un laboratorio. Otro motivo es que sus efectos serían muy pequeños y por ello muy difíciles de medir.

Como analogía, imaginemos un mosquito caminando sobre la superficie del agua en una laguna. El mosquito sólo puede moverse en dos dimensiones espaciales (adelante/atrás y derecha/izquierda). Supongamos ahora que arrojamos una piedra al agua lejos del mosquito. Como es de esperar círculos en la superficie del agua se propagarán desde el lugar donde cayó la piedra, esto es una onda en la superficie del agua. En algún momento esta onda llegará a la región donde se encuentra el mosquito; allí la perturbación en la superficie moverá al mosquito hacia arriba y abajo al pasar.
Las ondas gravitacionales funcionan de manera parecida. Aunque a diferencia del mosquito, podemos movernos en las tres dimensiones espaciales de nuestro universo (adelante/atrás, derecha/izquierda y arriba/abajo). Cuando algún violento fenómeno astrofísico produce ondas gravitacionales, éstas se propagan en todas direcciones a la velocidad de la luz; en algún momento nos alcanza en la Tierra y podemos en principio detectar su paso. Contrario al mosquito que se mueve de arriba a abajo con el paso de la onda en el agua, una onda gravitacional al pasar a través de un cuerpo produce un estiramiento y contracción alternados como el mostrado en la siguiente animación:

paso de una onda gravitacional

paso de una onda gravitacional

Es importante destacar que este efecto es minúsculo, es demasiado pequeño, lo que ha dificultado la detección de ondas gravitacionales por décadas. Este estiramiento y contracción podría amplificarse con el uso de objetos de gran extensión como una larga barra. Para confirmar que se trata de una onda gravitacional, lo óptimo sería usar dos barras perpendiculares, así cuando una se estira la otra debe contraerse, permitiendo identificar el efecto como consecuencia de una onda gravitacional y no otro fenómeno que podría darnos una falsa alarma. Aunque un par de largas barras perpendiculares es una interesante manera de buscar ondas gravitacionales, físicos han diseñado un método más preciso y avanzado para desarrollar observatorios de ondas gravitacionales usando una técnica llamada interferometría. El principio básico es el siguiente: en vez de dos barras, el haz de un láser se descompone en dos partes las que son enviadas en direcciones perpendiculares para ser reflejados por espejos al final del camino (éstos son los llamados brazos del observatorio).

Interferómetro básico

Interferómetro básico

A su regreso, ambas componentes reflejadas son recombinadas para reconstruir el haz inicial. Cualquier cambio, por pequeño que sea, en la longitud de alguno de los brazos producirá modificaciones medibles en el haz reconstruído. Esta técnica permite una continua vigilancia en la longitud de los brazos del observatorio con una precisión increíble.

Existen varios observatorios que usan la técnica recién descrita. El más famoso es LIGO (Laser Interferometer Gravitational-wave Observatory), con dos brazos perpendiculares en forma de «L» con 4 km de longitud cada uno. LIGO es en realidad dos observatorios en EEUU ubicados en Hanford (Washington) y en Livingston (Louisiana).

LIGO

Vista aérea de LIGO en Hanford, donde se aprecian sus brazos perpendiculares de 4 km. cada uno

Otros observatorios de este tipo existen también en Alemania (GEO600), Italia (VIRGO) y Japón (KAGRA).

einsteinEinstein y las ondas gravitacionales

Luego de presentar al mundo las ecuaciones de la relatividad, Einstein se lanzó a usarlas para describir sistemas físicos, desde el movimiento de los planetas hasta la evolución del universo. Una de las soluciones encontradas por Einstein en 1916 fue que una pequeña perturbación del espaciotiempo se propagaría como una onda, así nacieron las ondas gravitacionales. Décadas más tarde Einstein consideró que esta solución podría ser no física, es decir, sólo una curiosidad matemática sin sentido físico real. En 1936 llegó incluso a escribir un artículo titulado Do Gravitational Waves Exist? (¿Existen las ondas gravitacionales?) junto a su asistente el físico Nathan Rosen, en el que creían demostrar que las ondas gravitacionales no exitían. Al enviarlo a publicar a la prestigiosa revista Physical Review, su artículo fue rechazado por tener un error, según el referee anónimo. El genio del siglo XX no pudo contener su molestia por el rechazo y el sistema de revisión de la revista estadounidense, por lo que en vez de considerar las sugerencias del referee y corregir el error decidió nunca más publicar en Physical Review y envió su artículo a una revista poco conocida, la que lo aceptó de manera inmediata.
Por suerte para el genio, su nuevo asistente llamado Leopold Infeld le describió la idea del artículo al conocido físico Howard P. Robertson, quien refutó la idea ya que contenía un error, el mismo mencionado por el referee anónimo de Physical Review. Cuando Infeld le contó sobre los detalles descritos por Robertson, Einstein cambió de opinión y modificó considerablemente el artículo, el que se publicó bajo el título On Gravitational Waves (Sobre las ondas gravitacionales). Al final de la versión modificada Einstein incluyó el comentario «La segunda parte de este artículo ha sido considerablemente modificada… ya que originalmente interpretamos erróneamente el resultado de nuestras fórmulas. Agradezco a mi colega el Profesor Robertson por su amigable asistencia en la clarificación del error original.» Décadas más tarde se supo que el misterioso referee de Physical Review que rechazó el paper original de Einstein y Rosen fue el mismo Robertson, quien a través de Infeld pudo hacer notar el error reportado por el referee sin revelar su identidad.
Más detalles de esta interesante historia pueden encontrarse en el artículo «Einstein vs. Physics Review», publicado en Physics Today (Sep 2005) [1].

Detección indirecta de ondas gravitacionales

Es importante mencionar que los físicos estamos muy seguros de que las ondas gravitacionales existen ya que sus efectos han sido medidos de manera indirecta como la pérdida de energía en el sistema de púlsares que orbitan un centro común (a esto se le llama un sistema binario). La medición ha sido indirecta ya que no se han detectado las ondas gravitacionales pero sí se han confirmado sus efectos al ser emitidas por este sistema binario. Este descubrimiento fue realizado en 1974 por el físico Russell Hulse y su profesor Joseph Taylor. El monitoreo de este sistema binario durante 30 años se muestra en el gráfico más abajo, donde los datos experimentales sigen de manera espectacular la curva esperada por la emisión de ondas gravitacionales en el contexto de la relatividad general. Este es con seguridad uno de los gráficos más hermosos en física:

pulsar_gravitational_waves

30 años del pulsar binario B1913+16 [2]


En 1993 Hulse y Taylor recibieron el Premio Nobel de Física por su descubrimiento.

 

Anuncio de LIGO

LIGO ha llamado a una rueda de prensa para el jueves 11 de febrero para presentar una actualización en su búsqueda de ondas gravitaciones, reiniciada en septiembre de 2015 tras una actualización y mejora de muchas de sus tecnologías. Rumores señalan que LIGO anunciará la esperada observación de ondas gravitacionales con una alta significancia (descubrimiento). Aunque lo más prudente es esperar al anuncio de la colaboración por parte de su portavoz, la física argentina Gabriela González, esta vez hay esperanza de que algo grande se anuncie, en especial después de fiascos como el «descubrimiento» anunciado por BICEP2 (que resultó ser un resultado poco claro). Si se confirma el rumor será un día de fiesta para la física, sin duda un día histórico, se descorcharán botellas de champagne alrededor del mundo y comenzarán las apuestas por el Premio Nobel. Será también interesante ver a una mujer (la portavoz de LIGO) en el centro de la atención científica justo en la fecha que la ONU ha elegido para celebrar el Día Internacional de las Niñas y Mujeres en Ciencia.

Actualización (11Feb2016): LIGO anunció la observación de ondas gravitacionales producidas por la colisión y fusión de dos agujeros negros. Detalles en LIGO descubre ondas gravitacionales.

Imágenes: NASA, LIGO, ESA.

Referencias:
[1] D. Kennefick, Einstein vs. the Physical Review, Physics Today, Sep. 2005, p.43 (2005).
[2] J.M. Weisberg, J.H. Taylor, Relativistic Binary Pulsar B1913+16: Thirty Years of Observations and Analysis, arXiv:astro-ph/0407149.

Publicado en Astronomía, Noticias | 18 comentarios

Hablemos de energía nuclear

PowerPlantLa energía nuclear es la más incomprendida de las fuentes de energía. Para mucha gente energía nuclear es sinónimo de contaminación por radiación y desastres como Chernobil, por este motivo ha sido de gran impacto en muchos medios internacionales cuando a principios de diciembre, durante la Conferencia Internacional sobre Cambio Climático en París, científicos y ambientalistas llamaron al uso y desarrollo de la energía nuclear como recurso fundamental para enfrentar el cambio climático. ¿Cómo es posible que algunos ambientalistas y científicos apoyen la energía nuclear?

En Chile hace unos años sólo la evaluación de la factibilidad de generar electricidad usando energía nuclear llevó a protestas por parte de grupos ambientalistas y a su rechazo inmediato por parte de la población, los medios y gobernantes. A pesar de las reacciones de rechazo, fue interesante que al menos el tema se discutiera. Lamentablemente ha faltado un debate informado de este tema. La energía nuclear tiene algo en común con otros temas que producen reacciones similares: transgénicos y vacunas. Estos tres casos (energía nuclear, transgénicos y vacunas) comparten ciertas similitudes tanto en la reacción que producen como en los principales argumentos usados, que son el miedo y la desinformación. Mucho se dice de estos temas y YouTube está lleno de «documentales» que poco ayudan a informar adecuadamente. Hoy en día disponemos de variadas y confiables fuentes de información, es nuestro deber informarnos apropiadamente y formarnos una visión frente estos temas.

En 2011 la opción de un programa nuclear de potencia (es decir, para generar electricidad) comenzaba a discutirse seriamente en Chile, sin embargo Fukushima eliminó cualquier debate y no se volvió a hablar del tema. En 2015 el Ministerio de Energía solicitó a la comisión de expertos a cargo de analizar la opción nuclear que reanudara su estudio y presentara conclusiones actualizadas. El documento final antes de ser terminado ya estaba siendo rechazado (sin haberlo leído) por figuras políticas emblemáticas. El informe «Generación Núcleo-Eléctrica en Chile: Hacia una Decisión Racional» es público y puede obtenerse en la web de la Comisión Chilena de Energía Nuclear.

Me interesa conocer los motivos o argumentos que hacen que alguien (ya sea en Chile o en otro país) se oponga o esté a favor de la energía nuclear, por lo que invito a dejar en los comentarios una breve descripción de sus motivos. Por ejemplo: «Estoy a favor de la energía nuclear porque no produce gases de invernadero» o «Estoy en contra de la energía nuclear porque no es segura». La idea es conocer por qué sí o por qué no, para luego buscar información al respecto y presentarla con referencias y datos oficiales, para así evitar esos pseudo-debates impulsados por sentimientos más que evidencia. Luego de reunir varias respuestas publicaré un post con los detalles. El plan es debatir como adultos, por lo que descalificaciones de cualquier tipo no serán consideradas.

¿A favor de la energía nuclear? ¿En contra de la energía nuclear? ¿Por qué?

Publicado en Energía nuclear | 28 comentarios