sábado, 16 de diciembre de 2017

El futuro de energías renovables está en nuestras manos - INVDES

El futuro de energías renovables está en nuestras manos - INVDES

Logo

El futuro de energías renovables está en nuestras manos

Jesús Antonio del Río Portilla
El año 2016 fue el más caliente del mundo registrado, superando 2015 y marcando el tercer año consecutivo de temperaturas promedio récord. Es decir estamos rompiendo el récord de año más caliente cada año. De hecho, de los 17 años más calientes de la historia, 16 han ocurrido en el siglo XXI. Tal como están las cosas, el mundo está en camino de perder los objetivos establecidos en el Acuerdo de París, con casi 1°C de aumento de la temperatura media mundial que hemos presenciado desde la era preindustrial. Por la actividad humana hemos incrementado la temperatura del planeta en forma constante cada año. Para mantenerse dentro de los límites acordados del Acuerdo de París, el mundo solo puede permitirse entre 0,6° y 1,1° C de calentamiento promedio adicional. En concordancia con este acuerdo, los compromisos de los países, o contribuciones determinadas a nivel nacional, podrían iniciar un descenso de las emisiones en los próximos años; pero no son suficientes para alcanzar los objetivos climáticos. Así que los esfuerzos deben ser fortalecidos y solamente pueden ser satisfechos si empezamos a actuar desde lo individual hacia lo global. Para mí es claro, que los esfuerzos gubernamentales o centralizados han mostrado su ineficiencia y se requiere el compromiso de cada uno de los individuos y para ello es necesario una apropiación del conocimiento de que las actividades de cada persona afecta en lo global.
Es importante conocer que alrededor de dos tercios de las emisiones de gases de efecto invernadero provienen de la producción y el uso de energía, lo que coloca al sector energético en el centro de los esfuerzos para combatir el cambio climático. Los sectores más grandes emisores de CO2 son la generación de electricidad y la industria, que en conjunto son responsables del 65% de todas las emisiones de CO2 relacionadas con la energía en la actualidad. El 35% restante proviene del transporte, los edificios y la calefacción urbana. Por esta razón, si nosotros nos comprometemos a generar nuestra propia electricidad en el ámbito de nuestro hogar u oficina o industria, estaremos contribuyendo sustancialmente a la solución del problema.
El sistema eléctrico actual evolucionó durante muchas décadas con combustibles fósiles en forma centralizada, puede ser transformado en uno verdaderamente distribuido. Las nuevas tecnologías de generación de energía requieren un nuevo sistema de electricidad que sea flexible y permita la integración de fuentes variables, como la energía solar y eólica.
La generación de electricidad a partir de estas energías renovables variables fluctúa de acuerdo con la disponibilidad de recursos y puede no coincidir con la demanda. Esto puede causar dificultades para igualar la oferta y la demanda, lo que requiere flexibilidad para enfrentar la variabilidad.
De acuerdo a la opinión de IRENA (Agencia Internacional de Energías Renovables), la participación de la energía eólica y solar en la generación de energía aumentaría al 52% para el 2050, requiriendo una variedad de opciones de flexibilidad para garantizar la estabilidad de la red, incluida la fijación del precio del tiempo de uso, la adaptación de diseños de mercado y nuevos modelos comerciales y de financiamiento.
La generación flexiblilizada y en disminución de combustibles fósiles y la respuesta del lado de la demanda también pueden aumentar la adaptabilidad, lo que permitía mayores porcentajes de energías renovables variables. La integración de microrredes inteligentes en ámbitos locales es una de las tareas pendientes. Una opción de flexibilidad a menudo discutida es el almacenamiento, que hoy en día tiene diversas variantes. En la actualidad, existen alrededor de 4 700 gigavatios hora (GWh) de almacenamiento de electricidad, 96% de los cuales provienen de centrales hidroeléctricas con rebombeo, es decir, hidroeléctricas que en las horas de mayor insolación o de mayor viento rebombean el agua hacia arriba de la presa para poder usar su caída para producir más enerǵia eléctrica. De acuerdo con IRENA, se esperan 11 900-15 300 GWh de almacenamiento de electricidad para 2030, con sólo el 51% de hidroalmecenamiento. También con las posibilidades que plantea el almacenamiento por batería promedio de 50 kilovatios hora (kWh) en vehículos eléctricos, podrían proporcionar unos 8 000 GWh de almacenamiento para 2030.
El costo de almacenamiento de energía por baterías puede hacerse en forma individual y cada día disminuye; de tal manera que en los próximos años no solamente la generación eléctrica con fotovoltaicos será más barata, como lo es hoy, sino el almacenamiento con baterías será más barato.
Las opciones se están construyendo, hay alternativas económicamente viables hoy o estarán presentes en el corto plazo, sólo resta la decisión que debemos tomar individualmente y en colectivo. Impulsemos el uso de las energías renovables con nuestro ejemplo y tomemos el futuro en nuestras manos.

HAWC: astronomía de rayos gamma desde México - INVDES

HAWC: astronomía de rayos gamma desde México - INVDES

Logo

HAWC: astronomía de rayos gamma desde México

Carlos Velázquez
Los fenómenos más violentos en nuestro universo, como la explosión de supernovas, los pulsares y los centros activos de las galaxias, producen la forma más poderosa de radiación electromagnética: los rayos gamma. En la Tierra podemos detectar los efectos de estas poderosas emisiones, por ello el 20 de marzo de 2015 se concluyó en México la construcción del observatorio de rayos gamma de alta energía de mayor sensibilidad en el mundo: el Observatorio Cherenkov de Agua a Gran Altitud o HAWC por sus siglas en inglés.
Gamma, los más poderosos
Vivimos en un universo en constante cambio, la inmovilidad de los astros en el cielo es mera ilusión: el interior de las estrellas es cuna de continuas reacciones nucleares que consumen su reserva energética, y muchas de ellas terminan o mueren en violentas explosiones conocidas como supernovas. Los centros de las galaxias, incluida la nuestra, suelen tener gigantescos agujeros negros que ponen a girar ingentes cantidades de materia a su alrededor, la aceleran y producen gigantescos chorros de radiación; mientras en otros lugares nacen nuevas estrellas… nuestro universo es todo menos un lugar tranquilo. Muchos de estos procesos que llegan al límite de nuestra comprensión, tienen la curiosa característica de no emitir luz visible, por lo que la humanidad ignoró su existencia durante milenios. Pero durante el siglo pasado aprendimos técnicas para detectar otras formas de radiación electromagnética aparte de la luz visible, y ahora nos encontramos en la época de la astronomía de todo tipo de radiación electromagnética.
¿Radiación electromagnética? No te angusties, en realidad tú eres experto en la interacción con la radiación electromagnética, y como ya debes haber deducido, la luz es la forma más común de radiación electromagnética, pero seguro conoces otras, por ejemplo la radiación infrarroja, que algunos animales son capaces de detectar y que percibimos como calor.
Las radiaciones electromagnéticas son ondas que combinan campo eléctrico y magnético, de ahí el nombre. Todas viajan a la velocidad de la luz, y lo único que las diferencia es su frecuencia. La frecuencia es fácil de entender: cuando amarramos una cuerda y la agitamos, la frecuencia de su onda corresponde a las veces que agitamos nuestros brazos de arriba hacia abajo cada segundo, la única diferencia con la luz visible, por ejemplo, es que su frecuencia oscila hacia arriba y abajo unas ¡500’000,000’000,000 de veces cada segundo! También es cierto que cuando la frecuencia aumenta, la energía de las ondas electromagnéticas también lo hace.
Bueno, y ya que estamos tomando como referencia la luz visible, debes saber que las ondas que llegan al radio de tu coche, las microondas con las que haces tus palomitas y también la radiación infrarroja tienen menor frecuencia, y por ello menos energía que la luz visible. Y así como hay ondas con menos energía, hay ondas electromagnéticas con más energía que la luz visible, y es el caso de la luz ultravioleta y los rayos X, pero sí de poder se trata, no hay quien le gane a los rayos gamma. Éstos son tan poderosos que sólo se producen mediante algunos pocos procesos, y una vez que se producen interactúan preferentemente con los núcleos de los átomos, los pueden destruir o quitarles pedazos. Incluso las violentas reacciones termonucleares en el interior del Sol sólo crean luz visible, ultravioleta y un poco de rayos X, de modo que comprenderás que únicamente los eventos más poderosos en nuestro universo son capaces de generar rayos gamma a gran escala.
Un universo de luces violentas
La radiación gamma fue descubierta a inicios del siglo XX junto con las radiaciones alfa y beta (ver en Cienciorama “La tabla periódica de los núcleos”), pero pasó medio siglo para que surgiera la astronomía de rayos gamma. En 1950 L. B. Borst completó la primera teoría plausible sobre la explosión de las supernovas, y mostró que en ellas debían generarse grandes cantidades de rayos gamma. Dos años después Hutchinson predijo la existencia de los rayos gamma en el medio interestelar debido al choque de los rayos cósmicos con la materia interestelar libre. Los rayos cósmicos no son más que protones u otros núcleos atómicos sin electrones, que viajan por el espacio a velocidades increíblemente grandes. Finalmente en 1956 Hoyle y Burbidge sugirieron que las colisiones galácticas, donde una gran cantidad de materia y antimateria se aniquila (la antimateria no es más que las partículas que conocemos, como los electrones, sólo que con carga eléctrica contraria), producen enormes cantidades de rayos gamma. En esa época flotaban en el aire muchas ideas acerca de nuestro universo y la radiación gamma, pero el verdadero inicio de la astronomía de rayos gamma fue más sorprendente de lo que los científicos esperaban.
En la década de 1960 durante la guerra fría, los Estados Unidos y la Unión Soviética desarrollaron armamento nuclear y se embarcaron en la carrera espacial. En esa misma década EU lanzó una serie de misiones espaciales que pusieron en órbita los satélites Vela, con el propósito de captar detonaciones nucleares y por lo tanto capaces de detectar radiaciones gamma. Todo esto se hizo bajo el inesperado nombre de Proyecto Vela. Cuál no sería la sorpresa de los operadores del proyecto cuando el 2 de julio de 1967, los satélites Vela 3 y Vela 4 detectaron una llamarada de rayos gamma más poderosa que la que podía emitir cualquier arma nuclear conocida. Aunque sorprendidos, el equipo consideró que la investigación de esta emisión no era urgente ya que no correspondía a una explosión en la Tierra, de modo que esta información fue clasificada, y se abrió al público hasta 1973 con el anuncio del descubrimiento de los misteriosos Brotes de Rayos Gamma (Gamma Ray Bursts, en inglés), que dio inicio a la astronomía de rayos gamma.
Todos los procesos mencionados al principio producen rayos gamma, pero aún ahora no resulta clara la naturaleza del fenómeno que propicia los brotes de rayos gamma. De hecho durante mucho tiempo ni siquiera se supo con certeza cuál era su origen, y apenas hace algunos años se pudo demostrar que ocurren principalmente en galaxias lejanas. Los brotes de rayos gamma son los sucesos más energéticos y violentos observados hasta ahora en nuestro universo.
Exploradores del cosmos
Después de los descubrimientos realizados con los satélites Vela, diferentes agencias de investigación espacial diseñaron nuevos satélites capaces de detectar la radiación gamma. Todos ellos han ayudado de una manera inestimable a la exploración de las fuentes de rayos gamma, sin embargo tienen algunas desventajas: son muy costosos y su tamaño nunca puede ser demasiado grande por lo que su campo de observación es pequeño. En ese poco espacio se tienen que ubicar complejos detectores que además tienen vidas útiles relativamente cortas. Por último, son incapaces de detectar los rayos gamma de más alta energía. Estas desventajas y en especial la última, dieron paso a la creación de nuevos detectores de rayos gamma, los cuales utilizan la atmósfera como parte de su arsenal de observación.
Cascadas de partículas
Cuando los rayos gamma llegan hasta nuestra atmósfera y golpean violentamente sus átomos, es muy común que la energía del rayo gamma ¡se convierta en dos partículas, un electrón y un positrón!, este último es la antipartícula del electrón. El electrón y el positrón al ser creados tienen una cantidad endemoniada de energía, lo cual quiere decir que viajan a velocidades cercanas a la velocidad de la luz y que pueden pegarle a todo lo que se les ponga enfrente, principalmente a otras partículas de la atmósfera. Estas segundas colisiones pueden ser tan fuertes que hacen que los núcleos de los átomos atmosféricos creen nuevos rayos gamma que a su vez crearán nuevos pares de electrones y positrones, y así hasta que la energía del rayo inicial se haya dispersado. El proceso se llama cascada atmosférica extensa. Lo de cascada se debe a que se trata de una serie de eventos que vienen uno tras otro, y lo de extensa lo puedes comprender viendo la figura 4, donde se simula una de ellas. Como ves, estos rayos gamma sí que saben cómo divertirse con la atmósfera.
Como ya dijimos muchas de estas partículas están cargadas, así que la pregunta que surge es la de si podremos utilizarlas para saber cuál era la energía y la dirección del rayo gamma original. La respuesta es sí.
¡Milagro!
La luz sólo alcanza su máxima velocidad en el vacío, y ésta resulta ser también la máxima velocidad posible en nuestro universo. Pero cuando la luz viaja en un medio como el agua o el aire, su velocidad se reduce debido a que es absorbida y reemitida por las partículas del entorno. En estas circunstancias si una partícula logra ir más rápido que esta luz ralentizada, entonces el medio empieza a emitir luz. Este fenómeno es análogo a los conos de choque que producen los aviones en el aire cuando sobrepasan la velocidad del sonido y es conocido como radiación de Cherenkov.
¿Partículas más rápidas que la luz? ¿Radiaciones con nombres rusos? Esto se está poniendo extraño, pero en realidad no lo es. Cuando se sumerge una muestra radiactiva en agua, por ejemplo en una central nucleoeléctrica, la luz viaja solamente a dos terceras partes de su velocidad máxima, de modo que las partículas emitidas por la barra radiactiva fácilmente pueden ganarle, y es por esto que el agua alrededor de la barra radiactiva tiene un brillo azulado ¡El brillo radiactivo sí puede tener una explicación después de todo! (puedes saber más sobre el efecto Cherenkov consultando “Más rápido que la luz” aquí en Cienciorama).
Con esto en mente la solución al acertijo sobre cómo detectar las partículas de la cascada de radiación es muy fácil: hay que poner un tinaco lleno de agua con detectores de luz. Aunque esto pueda sonar prosaico, es precisamente lo que hizo el equipo de investigación de rayos gamma del Laboratorio Nacional de los Álamos, en EUA. El proyecto fue llamado MILAGRO, que son las siglas para Observatorio Multi-Institucional de Rayos Gamma de los Álamos (Multiple Institution Los Alamos Gamma Ray Observatory en inglés).
La idea del detector MILAGRO es que algunas de las partículas de la cascada que producen los rayos gamma lleguen hasta el depósito de agua, donde propician la radiación de Cherenkov que los detectores de luz instalados pueden registrar. Una vez registrada la radiación es posible reconstruir la trayectoria de las partículas y podemos conocer las características del rayo gamma original.
Una de las ventajas de este tipo de detectores en tierra es que no tiene límite su tamaño, lo que le permite rastrear grandes áreas del cielo; además, la técnica de radiación Cherenkov permite detectar rayos gamma de mayor energía que están fuera del alcance de los detectores a bordo de los telescopios espaciales.
El proyecto MILAGRO funcionó desde el 2001 hasta el año de 2008, cuando el equipo multidisciplinario que lo operaba decidió que era un éxito, pero se necesitaba ir un paso adelante y construir un nuevo detector de radiaciones en tierra.
HAWC, el halcón mexicano
Las condiciones para construir el nuevo detector eran complejas: se requería un lugar bastante alto para poder conseguir algunas de las primeras partículas de las cascadas y mejorar la precisión del detector. Por otra parte era necesario tener fuentes cercanas de agua altamente purificada y contar con la infraestructura necesaria de caminos y mano de obra para llevar a cabo el proyecto. El amplio equipo de operación del MILAGRO consideró lugares como algunas montañas en Bolivia o las regiones secas y montañosas de China, sin embargo, después de varias pláticas, los astrofísicos de México lograron persuadir a todos de que el volcán Sierra Negra en México era el lugar más adecuado, y poder aprovechar además la infraestructura creada para el Gran Telescopio Milimétrico o GMT por sus siglas.
La decisión de colocar el detector en México abrió una amplia posibilidad de cooperación entre varias universidades y centros de investigación mexicanos que llevaron la batuta en muchos de los aspectos de la operación y utilización científica del aparato. El nuevo proyecto fue nombrado Observatorio Cherenkov de Agua a Gran Altitud, o HAWC por sus siglas en inglés (High Altitude Water Cherenkov Observatory). El HAWC tiene el mismo principio de operación que el MILAGRO, sin embargo, debido a que su tamaño es mayor, tiene mucho mayor resolución.
El HAWC está compuesto por 55 millones de litros de agua purificada y desionizada almacenados en 300 tanques de 4.5 metros de profundidad y 7.3 metros de diámetro. En cada uno de ellos se colocaron cuatro fotodetectores capaces de detectar el paso de las partículas cargadas. Este nuevo arreglo corrige muchos de los problemas en la operación del MILAGRO, el cual tenía poca capacidad para discernir entre una fuente verdadera de rayos gamma y el ruido de fondo (el ruido de fondo no es más que la pequeña cantidad de rayos gamma que vienen de todas partes sin que haya una fuente determinada), además de que frecuentemente los detectores se activaban debido a fuentes de luz espurias.
El HAWC mejora la precisión y el área de visión de MILAGRO aunque trabaja en la misma región de energías, y es hoy por hoy el telescopio de rayos gamma de alta energía más poderoso de la Tierra capaz de detectar fuentes galácticas de rayos cósmicos, emisiones galácticas difusas (esto es, la medición del mapa de rayos gamma de nuestra galaxia que podría darnos pistas sobre cuándo y cómo se aceleran los rayos cósmicos, fenómeno desconocido aún) y erupciones de rayos gamma de núcleos activos de galaxias. Actualmente se han detectado varios de estos núcleos que emiten constantemente en la región de rayos gamma y que suelen presentar erupciones donde emiten hasta 50 veces su flujo normal. El HAWC es capaz de monitorear estos núcleos activos en busca de una explicación de su actividad y también detecta brotes de rayos gamma puesto que tiene la capacidad de monitorear grandes áreas del cielo con el propósito de encontrar nuevas ráfagas de rayos gamma. Estas ráfagas tienen muchas características que no se comprenden y es muy importante monitorearlas constantemente en la banda de altas energías para recabar información relevante sobre ellas.
Primeros logros y un gran futuro
Como toda rama de la astronomía, los logros del HAWC tardarán un poco hasta que puedan llegar hasta nosotros. Sin embargo, en sus primeros años de funcionamiento ya nos ha entregado un nuevo mapa estelar en la banda de los rayos gamma, ha logrado detectar nuevos objetos cósmicos y también ha corregido posiciones de los objetos mapeados por otros detectores.
El detector HAWC nos dará una nueva visión acerca de nuestro universo y nos enseñará mucho acerca de los procesos más energéticos que conocemos, así que cada vez que veas el pico de Orizaba, recuerda que muy cerca de ahí hay un gigantesco ojo mirando a millones de años luz, y algún día nos dará una sorpresa.
Bibliografía
  • Alberto Carramiñana et al. HAWC @ México. Un observatorio de rayos γ de gran altura. Proyecto presentado a CONACYT.
  • Ana Paulina Vizcaya Hernández, “Identificación de muones y sus aplicaciones en el observatorio HAWC“, tesis, UNAM 2016.
  • Omar Wilfrido Vázquez Estrada, “Primer prototipo HAWC; un observatorio de rayos gamma en México“, tesis, UNAM, 2011.
  • Daniel Omar Ávila Rojas, “Sensibilidad del observatorio HAWC a rayos gamma de alta energía“, tesis, UNAM, 2016.
  • Mariana Vargas Magaña, “Construcción y caracterización de un detector de agua Cherenkov para estimar el ruido de fondo para el experimento HAWC“, tesis, UNAM, 2007.
  • U. Abeysekara et al., “VAMOS: a Pathfinder for the HAWC Gamma-Ray Observatory”, Astroparticle Physics, 2015; 62;125-133.
  • U. Abeysekara et al., The 2HWC HAWC Observatory gamma ray catalog. Acceso en línea: http://arxiv.org/abs/1702.02992
Fuente: Cienciorama (ligar a http://www.cienciorama.unam.mx/)

La interacción débil - INVDES

La interacción débil - INVDES

Logo



La interacción débil

Luis A. Orozco
Profesor en University of Maryland, en College Park, MD, EEUU.
¿Por qué el Sol no se consume? ¿Cómo acabará su existencia? ¿De dónde sale su energía?
Las dos primeras preguntas han interesado a los seres humanos desde tiempos inmemorables, mientras la tercera probablemente apareció hace unos cuatrocientos años, cuando la física comenzó a afianzar sus ideas sobre fuerza, trabajo, energía e interacciones. Su respuesta, a lo largo del siglo veinte, ha sido una de las aventuras más interesantes de la física e involucra multitud de sorpresas.
Ernest Rutherford, físico de Nueva Zelanda, descubrió los rayos beta a fines del siglo XIX; un tipo de radiación emitida por materiales radioactivos, como el uranio, que penetraba la materia más que otro tipo de radiación. Determinó que los rayos beta eran partículas negativas (electrones), mientras los alfa eran partículas positivas y mucho más pesadas (núcleos de helio). Rutherford descubrió en 1908 el núcleo de los átomos donde se concentraba toda su carga positiva. No entendía cómo era posible mantenerlo unido, pues la fuerza de repulsión entre las partículas de la misma carga (hoy llamados protones) sería enorme. Postuló la existencia en el núcleo de otras partículas neutras para estabilizar el núcleo (hoy llamados neutrones). Los rayos beta que salen del núcleo (decaimiento beta), dan como resultado una transmutación de éste. Un elemento químico como el helio se convierte en otro elemento químico como el litio, que se diferencia del anterior en tener un protón más en su núcleo. James Chadwick, uno de los alumnos de Rutherford, fue quien descubrió al neutrón en 1932, pero la pregunta de por qué un electrón salía del núcleo si sólo había protones y neutrones seguía sin respuesta.
La respuesta está en la interacción débil, una de las cuatro interacciones identificadas hasta hoy en día; las otras son la gravitacional, la electromagnética y la nuclear fuerte. Estamos acostumbrados a pensar en las interacciones como fuerzas de atracción y repulsión, pero también pueden ser capaces de cambiar propiedades de partículas. Una manera de entender las interacciones es mediante el intercambio constante de otras partículas como en un juego de tenis, con los jugadores simplemente boleando. Un observador a distancia, quien no alcanza a distinguir la bola puede decir: hay una fuerza de atracción entre los dos jugadores pues mantienen su distancia de separación. Si la bola es mas pesada que una normal, la separación será menor; si es mas liviana la separación será mayor. La interacción débil tiene una propiedad extra y es lo que la distingue de las interacciones clásicas que sólo producen un cambio en la cantidad de movimiento (momentum), de las partículas: es capaz de cambiar el tipo de partícula, así el neutrón se convierte en un protón en el proceso de decaimiento beta. Esto último sólo sucede gracias a la existencia en el mundo microscópico de la propiedad del “sabor” de una partícula. El tipo de partícula está caracterizado por una serie de números cuánticos y sólo la fuerza débil puede cambiar el sabor. Las partículas fundamentales con masa y spin un medio (llamadas fermiones) son los quarks y los leptones. Todas sienten la interacción débil y están asociadas en tres familias donde a cada una corresponden dos leptones y dos quarks.
Los neutrones tienen dos quarks d y un quark u, los protones tienen dos quarks u y un quark d. Cuando hay un decaimiento beta, un quark d dentro de un neutrón se convierte en un quark u lo cual convierte al neutrón en un protón pero debe emitir un electrón (conservación de carga) y un antineutrino (conservación de numero de leptones). El proceso es mas complicado que la simple conversión de neutrón en protón y como las partículas de la interacción débil son muy pesadas (como unas 100 veces un protón, casi tan pesadas como un átomo de plata) la distancia entre las dos partículas debe ser muy corta (millones de veces menor al tamaño de un átomo). En el Sol las partículas se acercan, muy de vez en cuando, lo suficiente para sentir la interacción débil y eso inicia el ciclo solar cuando un protón se convierte en un neutrón, un electrón positivo (conservación de carga eléctrica) y un neutrino (conservación de numero de leptones). Un neutrón y un protón se juntan gracias a la fuerza fuerte y forman un núcleo de deuterio y dos núcleos de deuterio pueden entonces formar un núcleo de helio, iniciando el proceso de fusión que genera energía (origen de la energía del Sol) el cual nos llega en forma de radiación electromagnética: luz y calor. El proceso es muy raro y por eso el Sol no parece consumirse (o tarda tanto tiempo en hacerlo). Por esto, la interacción débil juega un papel protagónico en el fin del astro rey, pues puede terminar como estrella de neutrones, como supernova u otras posibilidades en el vasto catalogo de las estrellas.
Enrico Fermi, en los años treintas, fue quien primero entendió la forma de la interacción. En un golpe genial asumió que se parecía a la electromagnética: la cual está caracterizada por una interacción entre dos corrientes eléctricas (después de todo los jugadores de tenis se están moviendo). Ahora decimos una corriente es leptónica y la otra de quarks. Con ello logró explicar y predecir detalles del decaimiento beta.
Todo parecía bien y pese a no conservarse el sabor de las partículas en la interacción débil, lo demás como la carga eléctrica, parecía conservarse. De repente una revisión cuidadosa de los experimentos hecha por Tsung-Dao Lee y Chen-Ning Yang en 1956 no aportó evidencia de la conservación de la paridad. Esto es, de manera muy simplificada, la simetría de derecha e izquierda en la naturaleza. Sugirieron tres experimentos y a finales de ese año quedó establecido el rompimiento de la simetría de paridad, y ese rompimiento es total. La naturaleza, en la interacción débil, diferencia entre partículas derechas y partículas zurdas. Otra combinación de simetrías, carga y paridad, tampoco es conservada por la interacción débil pero en este caso el rompimiento es parcial y sólo una de cada diez mil veces sucede como lo midieron James Cronings y Val Fitch en 1964.
En los años sesentas gracias al trabajo de Steve Weimberg, Abdus Salam y Sheldom Glashow quedó establecido el modelo estándar de interacciones, lo cual unificó a la fuerza débil con el electromagnetismo. Uno de los resultados fue la predicción de la existencia de tres partículas para la interacción débil (las bolas del juego de tenis son de tres tipos): una positiva, una negativa y una neutra. La evidencia de procesos debidos a la partícula neutra a finales de los setenta fue clave para la aceptación del modelo estándar. En los años ochenta, liderado por Carlo Rubbia en CERN, el grupo UA1 detectó las tres partículas responsables de la fuerza débil: W+,W– y Z0.
Raymond Davis utilizó un detector, con toneladas de cloro dentro de una mina a más de un kilometro de profundidad, para detectar un tipo de neutrinos procedentes del Sol y observó un déficit. Ahora sabemos que los neutrinos cambian de familia conforme viajan en el espacio y eso es la causa del déficit. La interacción débil muestra así su sutileza.
Probablemente sí. Después de todo su capacidad de cambiar el sabor de las partículas la vuelve muy especial.
Fuente: Revista C2

Pasión por la estructura. Una imagen dice más que mil palabras - INVDES

Pasión por la estructura. Una imagen dice más que mil palabras - INVDES

Logo



Pasión por la estructura. Una imagen dice más que mil palabras

Margarita I. Bernal Uruchurtu
Centro de Investigaciones Químicas de la UAEM. Miembro de la Academia de Ciencias de Morelos
El pasado cuatro de octubre se anunció que el Premio Nobel de Química se otorgaría este año a tres científicos “por el desarrollo de la microscopía crio-electrónica para la determinación de alta resolución de la estructura de biomoléculas en solución”. Los premiados Jacques Dubochet, Joachim Frank y Richard Henderson lograron el sueño de muchos: conseguir una imagen con detalle molecular de la estructura de una molécula en acción y no de cualquier molécula, de moléculas de gran tamaño como son algunas proteínas.
Cuando algunos investigadores comenzaron a sospechar que el virus del Zika era el responsable de la epidemia de recién nacidos con daño cerebral, utilizaron la técnica de crio-microscopía electrónica (crio-ME) para observar el virus. Después de pocos meses de trabajo lograron imágenes tridimensionales (3D) de alta resolución que son de crucial importancia para la búsqueda de sitios susceptibles de ser atacados por fármacos. En la Figura 1 se muestra una de las representaciones del virus. Este progreso es el resultado de la contribución de los equipos de trabajo de los premiados este año. Jacques Dubochet desarrolló los métodos que sirven para preparar a las muestras para los estudios de crio-ME; Joachim Frank desarrolló los métodos computacionales necesarios para el procesamiento de las imágenes de biomoléculas en solución y Richard Henderson demostró que es posible lograr imágenes con resolución atómica con esta técnica.
En ocasiones, para valorar justamente la importancia de una aportación es conveniente comparar con las alternativas para lograr resultados similares.
¿Cómo sabemos la forma de las moléculas?
Ya en el siglo XVII se jugueteaba con la idea de que la forma de los cristales reflejaban las formas o los arreglos de las partículas que los constituían. Abbé René Just Haüy, reconocido como uno de los primeros cristalógrafos, estaba convencido que la forma de cada cristal podía relacionarse con la forma en la que se agrupaban sus partículas, a lo que el llamaba una molécula componente. Esta era una idea que venía quizá desde el siglo anterior en el que Johannes Kepler especulaba ya acerca de la simetría hexagonal de los cristales de hielo. Los químicos a principio del siglo XIX no tenían una idea clara de lo que eran las moléculas pero, los modelos atómicos más simples les eran útiles para proponer la idea de compuestos, moléculas formadas por átomos diferentes en proporciones constantes. En 1818, un químico francés Michel E. Chevreul agregaría a la distinción entre compuestos diferentes la idea de que las naturaleza de un compuesto químico dependía, además de su composición, del arreglo de los átomos en la molécula. Sin embargo, sus ideas no tuvieron mucho eco en la comunidad científica ya que no conocían ninguna técnica que les permitiese investigarlo. Aún cincuenta años después, el uso de modelos moleculares en los que los átomos se representan con esferas de madera pintadas de distintos colores para distinguir el tipo de átomo y se unen por segmentos de palos de madera, se consideraba un recurso didáctico ridículo. – Nadie puede conocer cómo están organizados los átomos.
En la primera mitad del siglo XX los científicos sabían que moléculas como las proteínas, el ADN y el ARN eran fundamentales para el funcionamiento de la célula pero no tenían ninguna idea sobre su forma. Aunque en ese momento era ya posible tener una buena idea de la estructura de muchos compuestos químicos, el tamaño de las moléculas biológicas, macromoléculas, dificultaba enormemente la aplicación de las técnicas exitosas para la determinación de la estructura de compuestos inorgánicos u orgánicos.
Los estudiantes de los primeros años de las licenciaturas en el área de química aprenden que existen numerosas técnicas para el estudio de: la composición de un compuesto químico, la organización de los átomos en grupos químicos dentro de las moléculas y la estructura tridimensional de las moléculas. Cada una de estas técnicas es, en términos coloquiales, una forma de interrogatorio a la naturaleza. Las preguntas se formulan empleando radiación electromagnética y las respuestas son interpretadas dependiendo del efecto que la radiación tiene sobre las moléculas. Recordemos que la radiación electromagnética podemos clasificarla según el tamaño de la onda o la cantidad de energía que transporta. La energía de la radiación infrarroja con longitudes de onda entre 2.5 -25 mm (micrómetro=milésimas de milímetro) provoca la vibración de los enlaces entre los átomos, así podemos conocer cómo están unidos o agrupados los átomos y aunque es muy útil, no nos da una imagen de la estructura de la molécula. La luz visible, con ondas mil veces más pequeñas que la infrarroja, entre 400 – 800 nm (nanómetros= millonésimas de milímetro) y la ultra violeta (150-400 nm) es de mayor energía y por ello modifica el estado en el que se encuentran los electrones en los átomos. Un electrón absorbe un fotón de la radiación y pasa a otro estado de mayor energía, al regresar al estado original desprende un fotón cuya energía corresponde a la diferencia entre los dos estados. Así se puede conocer qué tipo de átomos y enlaces químicos tiene una molécula pero, nuevamente, no nos da información sobre la estructura. Los rayos X son radiación con menor longitud de onda que los anteriores, entre 0.01 a 10 nm, esta longitud es de un tamaño comparable con la distancia entre los átomos de una molécula por ello, cuando un cristal es irradiado con rayos X se produce un fenómeno conocido como difracción. Este fenómeno ocurre al incidir la onda sobre cada uno de los átomos que forman el cristal y difundir estos la onda. La interferencia entre la onda inicial y las que se difunden produce un patrón que puede ser analizado para conocer la posición de los átomos. La técnica que utiliza este principio físico, la difracción de rayos X, si permite conocer la estructura de las moléculas en particular cuando estas estén ordenadas en un arreglo cristalino. Además, de ofrecer una estructura global de la molécula, nos proporciona valores exactos de las longitudes y ángulos de enlace, detalles de conformación, configuración absoluta de la molécula, empacado molecular e interacciones intermoleculares.
Además de las técnicas que sirven para indagar la naturaleza química de las moléculas, la microscopía avanzó durante el siglo XX para lograr imágenes de objetos que nuestra visión no alcanza. Por supuesto que la biología fue enormemente transformada con la posibilidad de tener imágenes de tejidos, organismos unicelulares, células y sus componentes. Una gran cantidad de técnicas se desarrollaron para mejorar la calidad de las imágenes obtenidas con microscopios cada vez con mejor resolución. La resolución de las imágenes es la posibilidad de distinguir dos objetos cercanos como unidades independientes y depende directamente de la longitud de onda utilizada para iluminar el objeto. Aumentar la resolución es posible hasta el límite en el que el fenómeno de difracción aparece. Los límites tradicionales de la resolución óptica en microscopía son cercanos a los 0.2 micrómetros. Obtener imágenes cada vez con mayor resolución requiere la utilización de una fuente de iluminación con menor longitud de onda. Así, en la década de 1930 se desarrolló la posibilidad de iluminar la muestra con un rayo o haz de electrones cuya longitud de onda es muy pequeña. Este tipo de iluminación atraviesa la muestra y, del otro lado de ella, se detectan los electrones que han sido desviados de su trayectoria original por el material y cuya nueva trayectoria contiene información útil para generar una imagen de la muestra. Al ser tan pequeña su longitud de onda, pueden iluminar objetos que la luz visible no puede pero, esa longitud de onda los hace tener una gran cantidad de energía que puede destruir a su paso moléculas delicadas y tejidos. Es una técnica intrínsecamente dañina. El reto: ¿Cómo obtener suficiente información antes de dañar la molécula que observas?
Los retos de estudiar macromoléculas
El fuerte desarrollo de la técnica de difracción de rayos X, indiscutible estrella en la determinación de estructuras moleculares, a partir de la década de 1950 es motivado por la frustración con la técnica de microscopía electrónica. En esta última, las muestras deben encontrarse al vacío (para evitar que las moléculas del aire interfieran con el haz de electrones). Al hacer esto, las moléculas biológicas pierden su estructura original ya que el agua en la que están disueltas sale de la estructura y ésta se colapsa. Además del daño que describimos en la sección anterior. Lograr cristalizar una proteína fue uno de los principales retos. Las macromoléculas existen, funcionan y son estables en medios acuosos, sacarlas de su medio natural afecta su estructura. Al “obligar” a las proteínas a formar un cristal, lo que se busca es que muchas copias de la misma molécula se empaquen en una conformación estable y fija. En este proceso, aunque se pierde el agua que las rodea, el pequeño cristal que se forma puede ser iluminado con rayos X para generar el patrón de difracción que conduce a su estructura molecular.
En la década de 1960 se estableció la estructura de las primeras proteínas. En 1962 Max Perutz y John Kendrew reciben el Premio Nobel, por sus estudios de proteínas globulares como la mioglobina y la hemoglobina. En 1964 Dorothy Crowfoot Hodgkin recibió el Premio Nobel por la determinación de la estructura de importantes substancias bioquímicas.
En la década de 1980, el uso de la resonancia magnética nuclear (RMN) se suma al reto no solo de conocer la estructura de proteínas en estado sólido sino, también en disolución. Esta técnica, además de revelar su estructura, también nos da una importante información acerca del movimiento y la interacción con otras moléculas. Su limitación: su uso está limitado en disolución a proteínas relativamente pequeñas. Gracias al uso combinado de la difracción de rayos X y RMN, actualmente existen bases de datos con información sobre miles de modelos de biomoléculas que se utilizan intensivamente para la investigación básica y el desarrollo farmacéutico.
En el Centro de Investigaciones Químicas (CIQ) de la UAEM se encuentra el Laboratorio Nacional de Estructura de Macromoléculas (LANEM). Este proyecto conjunto con el Instituto de Química de la UNAM permitió desde hace casi una década contar con el equipamiento necesario para estudiar las macromoléculas: un equipo de difracción de rayos X y uno de RMN de 700 MHz (el más grande en México); además de los equipos de todas las técnicas complementarias. El financiamiento necesario para la instalación; operación y mantenimiento de esta infraestructura ha sido logrado con las contribuciones del CONACYT, la UNAM y la UAEM. (A pesar de que el equipo de RMN se dañó durante el sismo del pasado 19 de septiembre, el CIQ está haciendo las gestiones necesarias para lograr reponer este equipo en el corto plazo).
Pero el reto allí sigue: proteínas grandes y complejos con varias unidades, por ejemplo los que se encuentran insertados en la membrana celular, no cristalizan y sus tallas están más allá de la capacidad de la técnica de NMR. ¿Cómo conocer entonces su estructura?
La crio-microscopía electrónica
Uno de los ganadores del Premio Nobel de este año, Richard Henderson, inició su carrera científica como cristalógrafo de Rayos X de proteínas. Su frustración al no lograr cristalizar una proteína de membrana lo condujo a probar otra técnica, la microscopía electrónica. Por supuesto que muchos colegas le dijeron que eso no era una buena idea. Los electrones incineraría su proteína rápidamente y si disminuía la energía de los electrones, sólo lograría una imagen borrosa.
La visión de Henderson consistió en la elección de su proteína: la bacteriorodopsina. Una proteína que se encuentra en la membrana de organismos fotosintéticos y que captura la radiación solar. Al colocar un pedazo de membrana que contenía la proteína bajo el microscopio electrónico, esta no se descompuso; claro que el modelo que de ella se obtuvo en 1975 era bastante burdo pero era un rayo de esperanza. La imagen de la bacteriorodopsina se construyó tomando imágenes a diferentes ángulos con lo que se observó que la proteína subía y bajaba a través de la membrana siete veces; parecían siete pilares deformados y era, en ese momento, la mejor imagen de una proteína jamás obtenida, alcanzó una resolución de 0.7 nm. El resultado era bueno, pero los cristalógrafos de rayos X de la época alcanzaban ya resoluciones de 0.3 nm ¿Sería posible mejorar la técnica? ¿Sería posible utilizarla para proteínas que no estuviesen rigidizadas por la membrana celular? Pocos creían en la posibilidad de hacerlo.
Ese mismo año, Joachim Frank propuso teóricamente una técnica que podría, a partir de la superposición de imágenes 2D, reconstruir la estructura 3D de un objeto con gran resolución. Diez años después lo consiguió. Su estrategia está basada en un método matemático que permite a una computadora distinguir patrones similares obtenidos con imágenes borrosas provenientes de un microscopio electrónico. En la Figura 2 se muestra una versión simplificada de su técnica. Su primera publicación del uso de esta técnica mostraba un modelo de la superficie de un ribosoma, la fábrica de proteínas de las células. En 1990, el grupo de Henderson mostró que era posible mejorar la resolución de la imagen al promediar sobre muchas copias del mismo objeto. Su trabajo sobre la bacteriorodopsina alcanzaba a bajas temperaturas una mucho mejor resolución.
Por su parte, Jacques Dubochet estaba, en esta misma época, ocupado con el problema de cómo rigidizar una proteína en solución. A Henderson le ayudó que la bacteriorodopsina estuviese contenida por la membrana y evitó que se secara poniéndola en una solución de glucosa que evitaba la rápida evaporación del agua al colocarla en vacío. La idea de Dubochet fue enfriar el agua. Sin embargo, la formación de hielo era en sí otro problema ya que los pequeñísimos cristales de hielo difractan los electrones y al hacerlo borran las señales provenientes de la proteína. Varios científicos trabajaron desde treinta años antes en descubrir cómo enfriar las muestras biológicas sin que se formaran cristales de hielo. Para lograr esto es indispensable enfriar muy rápidamente de forma que las moléculas permanezcan en la posición en la que se encuentran en la disolución. Al hacer crio-microscopía electrónica se esperaba otra gran ventaja: disminuir el daño que los electrones hacen en la muestra observada.
A principios de la década de 1980, se pensaba que la rapidez necesaria para enfriar el agua y evitar la formación de cristales no era alcanzable. Sin embargo en 1981 Dubochet mostró la forma en la que se podía formar una película de agua vitrificada, es decir, en estado no cristalino. El agua se deposita sobre una película de carbón utilizando un atomizador y rápidamente se sumerge en etano o propano líquido no usualmente a -190˚C y se mantiene a baja temperatura utilizando nitrógeno líquido; así se lograba una transmisión de electrones prácticamente uniforme. Además, al conservar la muestra a temperaturas inferiores a -160˚C la muestra podía observarse por periodos más prolongados sin descomposición. En la Figura 3 se muestra un esquema de la técnica de vitrificación de agua. Este método resolvió el problema que desde 1950 impedía el uso del microscopio electrónico para el estudio de sistemas vivos.
Evidentemente, muchos otros avances científicos y tecnológicos concurren a mejorar las imágenes de las macromoléculas: mejores detectores de los electrones; computadoras más rápidas para el análisis de imágenes.
La posibilidad de estudiar proteínas sin necesidad de cristalizarlas nos ofrece el retrato detallado de una molécula en acción. La crio-ME revela la estructura de moléculas cada vez más grandes por lo que las grandes agencias de investigación comienzan ya a invertir en centros dedicados a esta técnica con lo que quizá, instalaciones enormes como los sincrotrones en donde se cuenta con haces intensos de rayos X para estudios de difracción de cristales caerán, tendrán mucho menos demanda.
Para conocer más:
  1. https://www.nobelprize.org/nobel_prizes/chemistry/laureates/2017/popular-chemistryprize2017.pdf
  2. Video: Serious Science (20 June 2017) Electron Cryomicroscopy — Richard Henderson: http: www.youtube.com/watch?v=L6U–sYUF9s
Fuentes consultadas:
  • C. Bertozzi, Atoms out of Blobs: CryoEM takes the Nobel Prize in Chemistry, ACS Central Science, 3, 1056 (2017)
  • E. Gebel Berg, Breaking the Cristal Ceiling, ACS Central Science, 1, 283-285, (2015)
  • R. F. Service y E. Stokstad, Cold clear view of molecules nets chemistry prize, Science, 358, 156-157 (2017)
  • “The Nobel Prize in Physics 2017 – Scientific Background: The development of cryo-electron microscopy”Nobelprize.org. Nobel Media AB 2014. Web. 27 Oct 2017. <http://www.nobelprize.org/nobel_prizes/chemistry/laureates/2017/advanced.html>