miércoles, 25 de diciembre de 2019

El color de las imágenes astronómicas


Si hay algo común a todas las imágenes tomadas del universo es la extraordinaria belleza de sus colores. ¿Pero te has preguntado alguna vez si estos colores son o no “reales”, es decir, si los veríamos de la misma forma en directo con nuestro propios ojos o si han sido modificados para que los veamos así cuando observamos una fotografía, por ejemplo, de una nebulosa o de una galaxia?

Respondiendo a la pregunta, los colores son efectivamente reales, pero hay cierta complejidad en ello. Curiosamente, las cámaras que se utilizan para fotografiar el universo funcionan en escala de grises, lo que les confiere una sensibilidad mucho mayor a la de las cámaras en color a las que en la actualidad estamos acostumbrados en nuestra vida diaria.

Los astrónomos utilizan filtros de diferentes colores para captar una parte concreta de la luz que nos llega de los cuerpos celestes, de manera que codificando distintas tomas con varios colores, obtenemos una imagen como la mostrada a continuación, en la que se observa una región que albergó la formación de una nueva estrella en la constelación “Cygnus”, tomada por el Telescopio Espacial Hubble en 2011.


No obstante, también existe la posibilidad de recurrir a radiaciones que nuestros ojos no tienen capacidad de ver, como la luz ultravioleta o la infrarroja, lo que da lugar a imágenes como la siguiente, tomada en 2012 por el Telescopio Galaxy Evolution Explorer mediante luz ultravioleta, que jamás podríamos ver de forma natural. En ella se muestra el conocido como “Bucle de Cygnus”, en la misma constelación de la primera imagen, una nebulosa formada por los restos de una supernova (es decir, la explosión de una estrella).


Aunque parezca algo de importancia meramente estética, lo cierto es que los colores son de gran ayuda para los astrónomos en el estudio de las propiedades físicas y químicas de diferentes cuerpos como estrellas, nebulosas o galaxias a través de la utilización de filtros específicos que dejan pasar únicamente la luz emitida por un elemento químico en concreto como el oxígeno, el hidrógeno o el azufre. De esta forma, los astrónomos son capaces de distinguir, por ejemplo, las estrellas jóvenes de las viejas, o las galaxias con mayor número de unas o de otras.

domingo, 15 de diciembre de 2019

Emmy Noether


Emmy Amalie Noether nació en Erlangen (Alemania) en 1882. En 1900 recibió un certificado que la convirtió en profesora de idiomas, pero su interés en las matemáticas la llevó a acudir a las clases que su padre, Max Noether, impartía en la Universidad de Erlangen. No obstante, su condición de mujer le imposibilitó matricularse, por lo que tuvo que asistir como oyente.

En 1908, Noether empezó a trabajar en el Instituto de Matemáticas de Erlangen, donde se doctoró y colaboró con el famoso matemático Ernst Otto Fischer, dando comienzo a su trabajo en álgebra teórica. En 1915, se trasladó al Instituto de Matemáticas de Göttingen, donde supervisó varios doctorados y trabajó en las ecuaciones de la Teoría de la Relatividad General de Einstein y en la demostración de varios teoremas, uno de los cuales pasó a ser conocido como “Teorema de Noether”. Dicho Teorema trataba fundamentalmente la razón por la que existen leyes de conservación y magnitudes físicas que no cambian en la evolución temporal de un sistema físico.

Tras varios años solicitando un puesto como investigadora y docente titular en la facultad, en 1922 fue nombrada profesora adjunta. A lo largo de la siguiente década, Noether desarrolló varios estudios en el campo del álgebra abstracta sobre temas tan destacados como la teoría de grupo, la teoría de anillos, grupos representativos y la teoría de números.

Entre 1928 y 1929 impartió clases en la Universidad de Moscú y en 1932 participó con una disertación en el Congreso Internacional de Matemáticas celebrado en Zurich. En el mismo año, le fue concedido el premio “Ackermann-Teubner Memorial Award”.

El ambiente que siguió al ascenso al poder del Partido Nazi forzó a Noether, de familia judía, a emigrar a Estados Unidos, donde fue nombrada profesora invitada en Bryn Mawr College y realizó varias conferencias en el Instituto de Estudios Avanzados de la Universidad de Princeton. Murió en 1935 tras una cirugía por complicaciones postoperatorias.

Personalidades tan famosas como Albert Einstein o David Hilbert reconocieron en sus escritos en numerosas ocasiones sus inestimables aportaciones más allá de las propias publicaciones, que ayudaron a iniciar nuevas líneas de investigación en campos separados de su trabajo habitual.

En la actualidad, sus contribuciones a las matemáticas se ven reflejadas en numerosos elementos y conceptos en la disciplina que llevan su nombre, como son los grupos noetherianos, los módulos noetherianos o los espacios topológicos noetherianos.

domingo, 20 de octubre de 2019

Nathan Rosen


Nathan Rosen fue un físico americano-israelí nacido en Nueva York en 1909. Completó sus estudios en Ingeniería Electromecánica en 1929 en el MIT (Massachusetts Institute of Technology), donde también obtuvo un doctorado en Física en 1932.

En 1932 realizó un período de investigación en la Universidad de Princeton (Nueva Jersey), donde además trabajó como asistente de Albert Einstein en el Instituto de Estudios Avanzados entre 1934 y 1936. En 1935 publicó un artículo junto a Einstein sobre el plegamiento del espacio-tiempo en una estructura en forma de “túnel” o “puente”, conectando dos puntos en el universo muy alejados entre sí, lo que más tarde se conocería como “agujero de gusano”, sobre el que se habló en la entrada de la semana pasada.

Trabajando con Einstein y el físico ruso-americano Boris Podolsky, Rosen colaboró en la publicación de un artículo en 1935 sobre lo que se conoce como “Paradoja Einstein-Podolsky-Rosen Paradox” o simplemente “Paradoja EPR”, un experimento mental que puso de manifiesto un supuesto problema en la explicación de la realidad física a través de la mecánica cuántica.

Entre 1936 y 1938 trabajó como profesor en la Universidad de Kiev y entre 1941 y 1952 en la Universidad de Carolina del Norte. En 1947 Rosen publicó un nuevo artículo junto a Einstein, “Sobre las ondas gravitacionales”, una vez más sobre el plegamiento del espacio-tiempo.

En 1952, Rosen fue contratado como profesor e investigador en el Instituto Tecnológico de Israel (en Haifa, una ciudad en el norte del país). Entre 1955 y 1957 fue presidente de la Sociedad de Física de Israel, que ayudó a fundar. En 1961 colaboró además en la fundación de la Academia Israelí de Ciencias y Humanidades en Jerusalén y entre 1974 y 1977 presidió la Sociedad Internacional de Relatividad General y Gravitación. Se jubiló en 1977, pero continuó trabajando dando clases y realizando investigaciones durante algunos años. Falleció en 1995.

miércoles, 16 de octubre de 2019

Las plantas de resurrección en la lucha contra el crecimiento poblacional y el cambio climático


Durante gran parte de nuestra historia, la población humana se ha mantenido estable salvo algunos cambios en prolongados períodos de tiempo. Sin embargo, en los últimos siglos los avances científicos y tecnólogicos han permitido un crecimiento exponencial que a principios del S.XIX permitió alcanzar por primera vez las 1.000 millones de personas. Este número se duplicó a finales del primer tercio del S.XX, habiéndose multiplicado casi por cuatro en poco menos de un siglo.

Las predicciones con respecto a este aumento de población son diversas: hay quienes defienden que los números se habrán estabilizado para mediados de siglo en una población próxima a la actual, algo menos de 8.000 millones de personas, mientras que otros piensan que seguirán aumentando hasta superar los 10.000 millones sobre 2050.

En este contexto, una de las principales problemáticas que se plantean es la falta de recursos para alimentar a tal población, especialmente si tenemos en cuenta el aumento de zonas áridas a consecuencia del cambio climático.

Algunos científicos, como la profesora sudafricana Jill Farrant, creen que la clave se encuentra en las conocidas como “plantas de resurrección”, que reciben este nombre debido a que pueden perder hasta un 95% del agua celular y sobrevivir a condiciones extremas como las que se dan en las sequías durante meses o incluso años, de forma que al recibir agua vuelven a crecer en un corto período de tiempo.


Según Farrant, que habló de esta problemática en una charla TED en diciembre de 2015, hoy en día se conocen 135 especies de plantas con flores con esta capacidad. Estudiando los mecanismos utilizados por estas plantas, se ha encontrado viabilidad en la modificación genética (lo que sería simplemente “añadir” en cultivos como el trigo, el arroz o el maíz, que constituyen el 95% de nuestra alimentación de procedencia vegetal, genes de las “plantas de resurrección”).

De esta forma, se lograría paliar en cierta medida la falta de alimentos que se prevee venga asociada al incremento poblacional, fomentando además una disminución en el gasto de agua, casi tres cuartas partes del cual se requiere para su uso en la agricultura actual.

miércoles, 9 de octubre de 2019

La velocidad de la luz y los viajes interestelares



Como es ampliamente sabido, la velocidad de la luz es la mayor en el universo. Nada puede superar sus 299.792 km/s, lo cual plantea un serio problema de cara a los viajes interestelares tantas veces imaginados por el ser humano. Incluso aunque se lograra alcanzar esta velocidad, lo que se aleja mucho de nuestra capacidad tecnológica actual (hasta la fecha, el récord de velocidad en un vuelo espacial tripulado se encuentra en poco más de 11 km/s), las distancias en el universo son tan grandes que harían casi cualquier desplazamiento inviable en el transcurso de una vida humana.

Para hacerse una idea, el sistema estelar más cercano a nosotros, Alfa Centauri, se encuentra a 4,37 años luz de la Tierra. La galaxia más cercana a la nuestra, denominada “Enana del Can Mayor”, se sitúa a 25.000 años luz. Sin salir del Grupo Local de galaxias en el que se encuentra la Vía Láctea, la más lejana de ellas supera los 5.000.000 de años luz de distancia a nosotros y los números aumentan hasta cientos o incluso miles de millones de años luz en cuanto tratamos de alcanzar las galaxias más lejanas.


Fue la Teoría de la Relatividad Especial, publicada por Albert Einstein en 1905, la que estableció este límite para la velocidad en el universo, el cual entre otros aspectos resolvía el problema de la causalidad, que en el campo de la física establece que la causa precede siempre al efecto y el segundo nunca puede influir sobre el primero, lo que se cumple siempre y cuando no se supere la velocidad de la luz.

Einstein partió del Principio de Equivalencia de Galileo (la gravedad acelera todos los cuerpos de la misma forma, sea cual sea su masa o composición) para concluir que la trayectoria de todo objeto en el universo es curva y con ello que el Espacio-Tiempo también lo es, según su Teoría de la Relatividad General, publicada en 1916. Esta teoría, no obstante, permitiría dos opciones para viajar más rápido que la luz:

*Agujero de Einstein-Rosen (imagen inferior): conocidos especialmente a través de la ciencia ficción como “agujeros de gusano”, se trata de una hipotética estructura ideada por Einstein y el físico Nathan Rosen en 1935, para el cual se consideró una forma de túnel que haría posible alcanzar puntos muy lejanos en el universo en tiempos mucho menores a los de la luz, sirviendo como una especie de “atajo”.


*Propulsión o Distorsión Warp, también conocido como “la métrica de Alcubierre” (imagen inferior): llamada así por su autor, el físico mexicano Miguel Alcubierre, propone una deformación del Espacio-Tiempo que, en pocas palabras, “alargaría” el espacio detrás de nosotros y “acortaría” el situado delante de nosotros, lo que nos acercaría al punto de destino.

Sin embargo, ambas opciones necesitan de algo que, aunque las leyes de la física permiten su existencia, a día de hoy no se ha logrado observar: energía negativa. Hasta que se sepa con seguridad si dicha energía existe o no, no se podrá confirmar con absoluta certeza si la velocidad de la luz es la mayor a la que nunca se podrá viajar o si simplemente se convertirá en otra barrera más a superar por la ciencia y la imaginación humana.

domingo, 6 de octubre de 2019

Stephanie Kwolek


Stephanie Kwolek nació en New Kensington (Pennsylvania) en 1923. Procedente de una familia de inmigrantes polacos, se graduó en Química en Margaret Morrison Carnegie College en 1946 con la intención de encontrar un trabajo y ahorrar para estudiar medicina, que era su verdadero objetivo.

Kwolek consiguió su primer trabajo en la empresa DuPont, donde encontró en la química polimérica su nuevo gran interés. Desarrolló sus labores mayoritariamente en el laboratorio de investigación de fibras textiles, donde trató de encontrar nuevos materiales que fueran capaces de resistir frente a condiciones extremas.

En 1965, Kwolek realizó el que se considera como uno de sus mayores descubrimientos: experimentando con nuevos polímeros, obtuvo una solución opaca y fluida que, aunque en un principio se consideraba defectuosa, un día decidió llevar a un técnico para que la hilara por medio de una máquina. Así, obtuvo como resultado una fibra ligera y mucho más resistente que el acero: el “Kevlar” (de nombre científico “poliparafenileno tereftalamida”), un polímero cuya estructura le proporcionaba una dureza y resistencia sin precedentes que además se veían incrementadas con un aumento de temperatura.

En 1972, la empresa inició la comercialización de este material, que le valió a Kwolek su inclusión en el National Inventors Hall of Fame en 1994 y la obtención de varios premios como la Lavoisier Medal en 1995, la National Medal of Technology en 1996 y la Perkin Medal de la American Chemical Society en 1997. Se jubiló en 1986.

A lo largo de toda su carrera, Kwolek destacó por su insistencia en la importancia de tratar de obtener beneficio en todo lo posible hasta de lo considerado como un error, o dicho en otras palabras: no rendirse jamás. Además, dedicó grandes esfuerzos al acercamiento de la juventud a la ciencia, especialmente entre las mujeres. Murió en 2014.

En la actualidad, casi medio siglo después de su comercialización, el Kevlar ha encontrado más de doscientas aplicaciones entre las que se incluyen la fabricación de numerosas piezas aeroespaciales, material deportivo o de construcción, pero sin duda la más conocida de todas ellas es el “chaleco antibalas”, que desde su invención ha salvado incontables vidas en todo el mundo.

miércoles, 2 de octubre de 2019

La terapia psicodélica


La psicodelia (o “manifestación del alma”) es una tendencia cuyo origen se sitúa en los años sesenta y que se fundamenta en la excitación extrema de los sentidos, estimulados por música, luces y drogas alucinógenas o psicodélicas, que se caracterizan por efectos como la sinestesia, la alteración de la percepción del tiempo o del sentido de identidad.

Se cree que las primeras drogas psicodélicas se remontan al consumo de plantas alucinógenas en la prehistoria, utilizadas por curanderos y chamanes.

A mediados del S.XX, el descubrimiento de las propiedades psicoactivas del LSD (también conocido como “ácido”) por el científico suizo Albert Hoffman llevó a su producción y a numerosas investigaciones científicas centradas en su eficacia en el tratamiento de ciertas condiciones en lo que se denominó “terapia psicodélica”.

Pero su cada vez más extendido uso no autorizado llevó a una restricción en su utilización médica y en investigaciones científicas, lo que finalmente desembocó en su prohibición en muchos países.

Gracias a una serie de avances tecnológicos, especialmente en el campo de la neurociencia, el interés en las aplicaciones de los drogas psicodélicas se vio incrementado en los primeros años del siglo XXI: no solo en el LSD, sino también en otras drogas psicodélicas como la psilocibina (obtenida a partir de setas), la mescalina (presente en ciertas especies de cactus) o la MDMA (también conocida como éxtasis), la cual actualmente se está estudiando en relación al tratamiento del TEPT o “Trastorno de Estrés Postraumático”.

Los defensores de este y otros tratamientos similares aclaran que solo se permitiría su puesta en práctica a través de terapeutas que previamente hayan superado un programa de preparación y bajo supervisión directa en el ámbito clínico.



miércoles, 25 de septiembre de 2019

Los fagos en la lucha contra la resistencia bacteriana a los antibióticos


La resistencia bacteriana a los antibióticos, como hablamos en la entrada de abril, es una de las mayores problemáticas a las que se enfrenta la sociedad actual. La investigación y la concienciación son consideradas herramientas clave en su mitigación, pero recientemente hay quienes consideran la posibilidad de recurrir a los “fagos” o “virus devoradores de bacterias” para acabar con las bacterias resistentes.

El origen de esta idea no es reciente. Se remonta a principios del S.XX, época previa al descubrimiento de los antibióticos en la que las compañías farmacéuticas vendían preparados compuestos por virus para tratar afecciones bacterianas. El médico canadiense Felix d’Herelle los denominó “bacteriófagos” (literalmente, “devoradores de bacterias”) y los utilizó para desarrollar una serie de medicamentos virales.

No obstante, la llegada de los primeros antibióticos, cuya producción era mucho más sencilla y eficaz, llevó al abandono de los fagos.

Casi cien años más tarde, en la actualidad, la adaptación de las bacterias a numerosos antibióticos ha llevado a muchos a pensar en retomar la utilización de aquellos fagos, que tan útiles se consideraron en su momento, para tratar infecciones resistentes a los mismos. Su modo de actuación en principio es sencillo: localizan la infección y la destruyen inyectando su ADN en el interior de las bacterias, donde se reproducen y acaban provocando su rotura.

Se trata, no obstante, de tratamientos muy específicos, ya que cada virus infecta a bacterias de cepas concretas, lo cual supone al mismo tiempo el inconveniente de encontrar el “fago” adecuado (que requeriría su aislamiento y un complejo análisis entre las que podrían ser miles de opciones iniciales) y la ventaja de dificultar el desarrollo de resistencias por parte de las bacterias. Otra ventaja con la que cuentan los fagos es la facilidad de su modificación por medio de ingeniería genética debido a su sencillo genoma, lo que permitiría mejorar su acción antibacteriana.

Sabiendo esto y a pesar de los riesgos y de la división de opiniones con respecto a su auténtica eficacia, muchos piden la aprobación de este tratamiento por parte de las agencias reguladoras para enfrentarse a infecciones que no presenten otra solución, como son las causadas por bacterias resistentes a los antibióticos.

En cualquier caso, será un proceso lento y complejo, especialmente mientras las compañías farmacéuticas sigan encontrando una mayor rentabilidad en la producción tradicional de antibióticos.

domingo, 22 de septiembre de 2019

Joanne Chory




Joanne Chory es una botánica y genetista nacida en Methuen (Massachusetts, Estados Unidos) en 1955. Se graduó en Biología en Oberlin College (Ohio) y se doctoró en Microbiología en University of Illinois at Urbana-Champaign (Illinois) en 1984.

Se vinculó como profesora al Instituto Salk (California) en 1988 y desde 1999 es profesora de la Facultad de Biología celular y del desarrollo de la Universidad de California en San Diego.

Sus principales contribuciones científicas se encuentran en el campo de la botánica, en relación a sus investigaciones sobre el crecimiento de plantas que puedan hacer frente al crecimiento de la población humana. Utilizando Arabidopsis thaliana como modelo, se centra en la optimización del crecimiento de las plantas estudiando los efectos de la mutación genética en dicho modelo desde diversos campos más allá de la genética o la genómica como la biología celular, la cristalografía de rayos X, la bioquímica y la ecología. En concreto, Chory se centra en el fenotipo (expresión del genotipo o información genética de cierto individuo en el ambiente) y en los procesos relacionados con la luz en el desarrollo de las plantas.

Es miembra de numerosas academias y asociaciones como U.S. National Academy of Sciences, Royal Society, American Academy of Arts and Sciences o American Philosophical Society.

Ha recibido numerosas distinciones en reconocimiento de su trabajo, encontrándose entre ellas Genetics Society of America Medal, Fellow of the American Association for the Advancement of Science y el Premio Princesa de Asturias de Investigación Científica y Técnica, que recibió por sus estudios sobre el uso de cultivos para la reducción de dióxido de carbono o CO2, uno de los principales responsables del cambio climático.

En relación a estos estudios, Chory descubrió que una modificación genética en las plantas podría permitir el desarrollo de raíces más duras y profundas que contengan parte del CO2, que ya absorben de forma natural durante la fotosíntesis para convertirlos en azúcares. La muerte de la planta libera estos azúcares transformándolos previamente en CO2, lo que lleva al fundamento del proyecto de Chory: procurar que la planta en cuestión conserve ese CO2 en una parte de la misma que sea resistente a la descomposición, como son las raíces. En este sentido, la modificación genética busca crear plantas con raíces mayores y más profundas, sin cambiar el ciclo de vida de la planta, ya que el CO2 absorbido por ella sigue siendo en todo caso el mismo. Al morir, en lugar de almacenarse en las hojas, que se descomponen liberando CO2 a la atmósfera, éste se guardará en las raíces (en cierto modo, “se enterrará”) gracias a dicha modificación genética.


A escala global, se calcula que la aplicación de este método en los grandes cultivos de cereales en los próximos años podría reducir en un 20% la emisión de CO2, contando además con la ventaja de que las raíces no forman parte de la dieta del ser humano y, por tanto, no afectará a su dieta.

miércoles, 18 de septiembre de 2019

Los NEOs


Se considera NEO “Near Earth Object” (Objeto Cercano a la Tierra) a todo aquel “cuerpo celeste que orbita en torno al Sol y que no es planeta, planeta enano o satélite, lo cual incluye asteorides, cometas, meteoroides y objetos transneptunianos” cuya órbita lo aproxima a la Tierra. En concreto, por convenio dichos cuerpos se consideran NEOs cuando su mayor aproximación al Sol es menor de 1,3 UA o Unidades Astronómicas (unos 150 millones de km, la distancia media entre el Sol y la Tierra). En aquellos casos en los que la órbita de un NEO cruza la de la Tierra y supera los 140 m de longitud, pasa a considerarse como un Objeto Potencialmente Peligroso (PHO en sus siglas en inglés). La mayoría son asteroides, de los cuales a día de hoy se han identificado más de 20.000.


Para determinar el riesgo de impacto de estos objetos se han desarrollado varios métodos, encontrándose entre los más importantes “La Escala de Torino” (que relaciona la probabilidad de impacto y la energía que se liberaría en el mismo) y “La Escala de Palermo” (de tipo logarítmico, compara la probabilidad de impacto de un objeto en concreto con el riesgo medio de otro objeto de igual o mayor tamaño).

La frecuencia con que los asteroides alcanzan la Tierra depende de su tamaño: los pequeños (de entre 1 y 20 m, que normalmente se desintegran en la atmósfera) la alcanzan todos los años, de 100 m una vez cada 5.000 años, de 400 m una vez cada 100.000, mientras que los de 1 km colisionan una vez aproximadamente cada 500.000 años y los de 5 km cada 20 millones de años. Uno de 10 o más, como el que se considera causó la última extinción masiva, que acabó con los dinosaurios, impacta sobre nuestro planeta cada varias docenas de millones de años

Desde los años 80 la concienciación sobre el riesgo real y la peligrosidad de los impactos de NEOs en la Tierra ha aumentado tras demostrarse científicamente su implicación en la historia biológica y geológica de nuestro planeta. También lo han hecho los esfuerzos por identificarlos y las estrategias para enfrentarlos, planificándose incluso simulacros como el que la NASA desarrolló el pasado mes de abril.

El daño ocasionado por el impacto de un asteroide, relacionado con la energía liberada a su llegada a la Tierra, depende de varios factores más allá del tamaño como la velocidad y el ángulo de entrada o su composición. Recientemente se han creado páginas web que permiten estimar los efectos que tendría un hipotético impacto modificando estos atributos.

En los últimos años, eventos como el impacto en 2013 de un asteroide de 20 metros en Chelyabinsk (Rusia) o el acercamiento de uno de 500 m el pasado 10 de agosto de 2019 han incrementado el interés entre el público general acerca de los asteorides y de la probabilidad de que alguno de ellos impacte sobre la Tierra en los próximos años.


Aunque el riesgo de impacto de un objeto de grandes dimensiones a corto plazo es muy bajo, se sabe con seguridad que ha sucedido varias veces en el pasado y que tarde o temprano volverá a suceder, de ahí la importancia en la detección, vigilancia y en especial defensa frente a los NEOs, muchos de los cuales todavía están por descubrir.

miércoles, 11 de septiembre de 2019

La reforestación


En silvicultura, la disciplina que se ocupa de gestionar los bosques y montes forestales, la reforestación se entiende como la acción de repoblar zonas que en un pasado reciente se encontraban cubiertas de bosques que han desaparecido por causas mayoritariamente humanas. Se considera una de las acciones más importantes en la lucha contra el cambio climático y en la mejora del medio ambiente.

En un estudio publicado en Science, una de las revistas científicas más prestigiosas, se llegó a la conclusión de que una reforestación potencial a escala internacional con Rusia, Estados Unidos, Canadá, Australia, Brasil y China abarcando más de un 50% de la superficie que se necesitaría podría llegar a absorber un 25% de las emisiones de dióxido de carbono a nivel mundial.

Esta reforestación no afectaría a suelos hoy en día agrícolas o urbanos y podría abarcar casi mil millones de hectáreas (el equivalente a la superficie de Estados Unidos), lo que contribuiría a la recuperación de ecosistemas naturales en esas regiones.

Sin embargo, la reforestación puede tener consecuencias negativas sobre componentes del ecosistema como la fauna, el suelo o el ciclo hidrológico en determinados casos. Un ejemplo de ello se encuentra en Irlanda, cuya superficie forestal pasó de ser un 1% a principios del S.XX a un 11% en la actualidad (unas 770.000 hectáreas), que se planea ampliar a un 18% en los próximos años. Hay quienes se oponen a este proceso cuyo protagonista es la Pícea de Sitka, cierta clase de conífera de origen norteamericano que según afirman algunos causa daños sociales y ecológicos, absorbiendo una cantidad menor de dióxido de carbono de la confirmada por los responsables de dicho proceso.

Todo parece indicar que la reforestación es una acción imprescindible para alcanzar un mundo más sostenible, pero solo en aquellos casos en los que no se hayan encontrado riesgos significativos que pudieran afectar a la salud del ecosistema donde se vaya a llevar a cabo, detectables por medio de estudios previos.



miércoles, 4 de septiembre de 2019

La edición de bases en la lucha contra las enfermedades genéticas


El ADN o ácido desoxirribonucleico es un ácido nucleico con las instrucciones genéticas necesarias en el desarrollo y funcionamiento de los organismos vivos y algunos virus. Se trata de un polímero (macromolécula formada por unidades más simples denominadas monómeros) de nucleótidos, cada uno de los cuales se encuentra a su vez formado por un glúcido (la desoxirribosa), una base nitrogenada (que puede ser adenina, timina, citosina o guanina: A, T, C o G, respectivamente) y un grupo fosfato. La disposición de las bases, que se sitúan A-T y G-C, codifica la información genética.

Los genes contienen el ADN y un cambio en uno o varios genes debido a una mutación (que podría ser tan simple como el cambio de una base por otra que no debería estar allí) podría desembocar en una enfermedad genética.

Recientemente se han producido avances que podrían permitir corregir mutaciones puntuales y en teoría, curar ciertas enfermedades genéticas que afectan a millones de personas en todo el mundo simplemente “reescribiendo” el ADN. Hablamos de la edición de bases, que tiene su origen en un mecanismo que las bacterias desarrollaron hace tres mil millones de años para combatir las infecciones virales, conocido en la actualidad como “CRISPR”.

CRISPR se fundamenta en la acción de una proteína que ejerce de “tijeras moleculares”, llamada así porque cuenta con la capacidad de “cortar” el ADN. Estas tijeras pueden ser programadas para buscar, unirse a y cortar una secuencia específica del ADN.

No obstante, en la mayoría de mutaciones puntuales la simple acción de cortar una secuencia no conllevaría mejora alguna, ya que la función alterada por dicha mutuación debería ser restaurada.

Durante una charla TED, el químico David R. Liu habló sobre la máquina molecular que desarrolló en 2016 junto a algunos de sus estudiantes, que no existe en la naturaleza y que llamaron “editor de bases”, la cual mediante los mecanismos programables de búsqueda de las tijeras CRISPR convierte directamente unas bases (letras) en otras en lugar de cortar el ADN: en concreto es capaz de transformar la “C” en “T” y la “G” en “A” y con ello de enfrentarse a un 14% de las aproximadamente 35.000 mutaciones puntuales conocidas.


Para atajar otros cambios (“A” en “G” y “T” en “C”) había que crear una nueva clase de editor de bases, que en teoría podría curar casi la mitad de dichas mutaciones. Aunque la inexistencia de una proteína capaz de hacerlo dificultó la situación, se terminó creando y con ella el segundo editor de bases, con el mismo mecanismo que el primero, en 2017.

Hoy, los editores de bases se han popularizado en todo el globo en el campo de la investigación biomédica, con miles de pedidos y cientos de artículos científicos. Aunque siendo su invención tan reciente todavía no se han probado en ensayos clínicos en humanos, los resultados en animales en casos de afecciones como la distrofia muscular, cierta clase de sordera congénita o un determinado tipo de enfermedad cardiovascular son prometedores en cuanto a su aplicación en seres humanos en un futuro próximo.

miércoles, 28 de agosto de 2019

Los "hotspots" o "puntos calientes" de biodiversidad


Hoy en día es ampliamente sabido que el cambio climático tiene efectos negativos en los diferentes ecosistemas naturales del planeta, cuyas especies desaparecen a un ritmo similar al de la última Extinción Masiva, que hace 65 millones de años acabó con los dinosaurios. Pero hay ciertas zonas que destacan sobre las demás por su alta concentración de biodiversidad: los “puntos calientes” o “hotspots” de biodiversidad en su denominación original, áreas biogeográficas con elevados niveles de biodiversidad que se encuentran amenazadas.

El término fue introducido a finales del S.XX por el ecologista británico Norman Myers, quien estableció los dos criterios que debían cumplir: tenían que contener al menos 1500 especies de plantas vasculares endémicas (es decir, que no se encuentren en ningún otro lugar del mundo) y haber perdido como mínimo un 70% de su vegetación primaria, lo que hasta el día de hoy ha llevado a considerar 36 regiones en América, Europa, África, Asia y Oceanía, entre ellas:

*América: la Provincia Floral de California, las Islas del mar Caribe y los Andes Tropicales.

*Europa: la Cuenca del Mediterráneo.

*África: los Bosques Costeros del Este de África, la Región Floral del Cabo y Madagascar y las Islas Mascareñas.

*Asia: las Montañas de Asia Central y el Himalaya del Este.

*Oceanía: los Bosques Templados del Este de Australia y Nueva Zelanda.


Los “hotspots” de biodiversidad albergan el 60% de las especies de plantas, aves, mamíferos, anfibios y reptiles a escala global ocupando tan solo un 2,4% de la superficie del planeta, lo que los convierte en un elemento clave en la protección y conservación de la naturaleza, directamente ligada con la supervivencia del ser humano.

Existen varias organizaciones involucradas en la protección y conservación de estas zonas, como son la “World Wide Fund for Nature” (cuya iniciativa “Global 200 Ecoregions”, presente en todos los “hotspots” prioriza ciertas áreas en éstos) o la “Alliance for Zero Extinction” (compuesta por organizaciones científicas y grupos de conservación, centran su trabajo en las especies endémicas más amenazadas).

Sin embargo, hay quienes critican la atención que se está concediendo a estos “hotspots”, los cuales podrían no tener en cuenta diferentes clases de riqueza de especies o zonas que, contando con una elevada biodiversidad, presentan unas dimensiones más pequeñas.

En cualquier caso, numerosos estudios destacan el papel de estas regiones más allá de la identificación de las zonas con mayor concentración de biodiversidad, centrándose en su priorización con respecto a los gastos de conservación a nivel internacional.

miércoles, 21 de agosto de 2019

Christiane Bonnelle


Christiane Bonnelle fue una física nacida en París en 1930. En 1954 obtuvo su Licenciatura en Ciencias en La Sorbona, donde además se doctoró en 1964.

Trabajó como investigadora en el Centro Nacional para la Investigación Científica (CNRS en sus siglas en francés) y como profesora en La Sorbona y en la Universidad Pierre y Marie Curie, donde fue directora del Laboratorio de Química Física entre 1979 y 1991. Dirigió además unas 60 tesis doctorales y escribió como autora o coautora más de 140 artículos científicos y libros.

Bonnelle destacó especialmente en el campo de la espectroscopia de rayos X. En 1966, junto a Gilles Sénémaud e Yvette Cauchois (física reconocida por su trabajo en dicho campo), obtuvo el primer espectro por rayos X del Sol con la ayuda de un espectrógrafo integrado en un cohete, lo que inició el desarrollo de la espectroscopia de rayos X en astrofísica.

Se define espectroscopia como el estudio de la interacción entre la radiación electromagnética y la materia con absorción o emisión de energía radiante, siendo el análisis espectral la detección de dicha absorción o emisión en relación a la energía implicada. Además de la astronomía o física puede aplicarse a otros campos científicos como la química o la biología.

La espectroscopia de rayos X abarca las técnicas utilizadas para determinar la estructura electrónica de los materiales mediante excitación por rayos X: cierta clase de radiación electromagnética con energía superior a la de la radiación ultravioleta. Entre estas técnicas se incluyen la absorción, la emisión, la fluorescencia y la dispersión, que aplicadas a la materia permiten estudiar su estructura y composición.

El trabajo de Bonnelle fue premiado con una medalla de bronce del CNRS y con la Orden de las Palmas Académicas, una insignia de origen francés dirigida a académicos y personalidades por sus méritos en los campos de la cultura y la educación, entre otros reconocimientos. Murió en 2016.

miércoles, 14 de agosto de 2019

El Cinturón de Fuego del Pacífico


El Cinturón o Anillo de Fuego del Pacífico es una zona que rodea al Océano Pacífico, extendiéndose a lo largo de 40.000 km y abarcando Nueva Zelanda, Indonesia, la costa este de Asia y prácticamente la totalidad de la costa oeste del continente americano. Se caracteriza por su elevada actividad tanto sísmica como volcánica (de ahí le viene su nombre) y, de hecho, se calcula que en él se han producido alrededor del 80% de los terremotos registrados a nivel mundial y 22 de las 25 grandes erupciones volcánicas acontecidas durante la época geológica actual, el Holoceno (del que hablamos en la entrada del pasado 17 de julio).


La existencia del Cinturón de Fuego es consecuencia directa de la tectónica de placas, que causa movimiento y colisiones entre ellas y fue detectado por primera vez en el S.XIX, según se refleja en el libro publicado en 1856 “Narrativa de la Expedición de un Escuadrón Americano a los Mares de China y Japón”, del escritor e historiador estadounidense Francis L. Hawks.

Las placas responsables de esta situación son en concreto la Placa Euroasiática, la Indoaustraliana, la del Pacífico, la Norteamericana, la de Cocos, la del Caribe, la de Nazca y la Sudamericana, como se ve en la imagen, donde también se distinguen las superficies más afectadas en los bordes de las placas y los puntos con mayor incidencia de actividad sísmica y volcánica.

Esta situación afecta a multitud de países americanos como Guatemala, Chile, Ecuador, Perú, México o Estados Unidos (a cuyo oeste se encuentra la famosa “Falla de San Andrés”), asiáticos como Rusia o Japón y oceánicos como Filipinas, Indonesia y Oceanía. El Continente de la Antártida también contiene numerosos y grandes volcanes.

En el caso de la Placa de Nazca, por ejemplo, su situación es la de subducción por debajo de la Placa Sudamericana. El fenómeno de subducción consiste en el hundimiento de una zona oceánica de cierta placa bajo otra placa continental, lo que desemboca en grandes seísmos debido a la energía acumulada y erupciones volcánicas originadas en la fusión parcial de parte del manto terrestre, la cual genera magma que asciende a la superficie.

Entre los últimos acontecimientos relacionados con el Cinturón de Fuego se encuentran el terremoto y tsunami en el Oceáno Índico en 2004, el terremoto de Chile en 2010, el terremoto y tsunami en Japón en 2011 y la erupción del Volcán de Fuego en Guatemala en 2018.

Aunque normalmente una erupción volcánica podría predecirse con antelación suficiente para evacuar a los afectados, a día de hoy no se ha encontrado un método que nos permita predecir un terremoto. Todo lo que se puede hacer por el momento es concienciar a la población que viva en las zonas con mayor riesgo sísmico para que estén siempre preparadas y en caso de que se produzca el desastre, sepan cómo actuar.

domingo, 11 de agosto de 2019

La Máquina de Newcomen


A principios del S.XVIII, en una época en la que millones de personas dependían del carbón para calentarse, las minas debían ser cada vez más profundas para atender a la creciente demanda. Pero conforme avanzaban las excavaciones también lo hacían las aguas subterráneas, provocando inundaciones que hacían muy difícil la actividad de extracción y que en muchos casos llevaron a su abandono, dada su escasa rentabilidad o incluso a derrumbes. La situación requería de un sistema de extracción del agua eficaz: una máquina.

En 1712, en Devon (Inglaterra), el herrero y predicador baptista Thomas Newcomen, consciente de la relevancia que tendría la hipotética máquina empezó a construir, pieza a pieza, un motor que realizaría trabajo aprovechando el vapor como forma de energía. La máquina se compuso de una vara oscilante de veinte toneladas y nueve metros de alto con cadenas en sus dos extremos. La cadena de uno de los lados bajaba por la mina hasta una bomba de agua que había en la base y la del otro lado, sujeta a un pistón, extraería el vapor de un contenedor con agua hirviendo y lo conduciría a un cilindro. El vapor se enfriaba y condensaba creando un vacío dentro del cilindro que empujaba el pistón hacia abajo, lo que a su vez subía el otro extremo de la vara y accionaba la bomba situada al final de la cadena. Así, se completó la construcción de la máquina atmosférica o Máquina de Newcomen.

No obstante, Newcomen se dio cuenta de que el vapor se condensaba demasiado despacio para accionar adecuadamente la bomba, lo que trató de solucionar situando una cubierta con agua fría alrededor del cilindro para que el vapor se condensara antes.

Posteriormente, durante una de las pruebas realizadas con la máquina, una junta del cilindro se rompió, permitiendo el paso de agua fría de la cubierta exterior, lo cual creó un vacío instantáneo que destruyó la máquina. Sin embargo, Newcomen desarrolló una nueva idea a partir del incidente: reconstruyó su motor incluyendo una válvula que introducía agua fría directamente al cilindro cada vez que éste se llenaba de vapor. Eso producía un vacío muy potente y aumentaba exponencialmente la velocidad de la bomba. Con esto, creó el primer motor de vapor funcional de la historia, que permitió retomar la actividad en las minas e incrementar su productividad e inició una auténtica revolución en el mundo científico.


miércoles, 7 de agosto de 2019

George Washington Carver


George Washington Carver fue un científico agrícola estadounidense nacido en 1864 en Diamond (Missouri, Estados Unidos). Nació como esclavo un año antes de que la esclavitud fuera abolida.

Mostró interés en la agricultura y la botánica desde que era un niño. En los años en los que transcurrió su infancia, a los niños afroamericanos no se les permitía asistir al colegio público de Diamond, así que con sólo 11 años decidió ir a Neosho, una población a 16 km, para recibir una educación en un colegio exclusivo a niños afroamericanos. Pasó por varios colegios diferentes y en 1880 se graduó en el instituto en Minneapolis (Kansas, Estados Unidos).

En el mismo año fue aceptado en la Highland College (Kansas), pero en cuanto se presentó allí personalmente lo rechazaron por motivos raciales. Años después, en 1890 empezó a estudiar Arte en Simpson College, en Indianola (Iowa, Estados Unidos) hasta que una profesora, Etta Budd, se fijó en su habilidad en el cultivo de plantas y le recomendó estudiar botánica en Iowa State Agricultural School en Ames (Iowa), ahora Iowa State University, donde se matriculó en 1891.

Fue el primer estudiante afroamericano en aquella universidad, donde en 1894 se convirtió además en el primer graduado afroamericano presentando su tesis, “Plantas modificadas por el hombre”. Joseph Budd y Louis Pammel, profesores del centro, le animaron a continuar allí sus estudios de Máster. Carver colaboró con el segundo en Iowa Experiment Station trabajando en patología y micología de plantas, forjándose una reputación como respetado botánico. En 1896 completó el Máster.

En el mismo año, el presidente de Tuskegee Institute (ahora Tuskegee University, en Alabama), Booker T. Washington, le ofreció un puesto para dirigir el Departamento de Agricultura, donde se convirtió en el primer miembro de la facultad afroamericano e impartió clases durante décadas.


Allí enseñó, entre muchos otros aspectos, métodos de rotación de cultivos y mejora de la calidad del suelo, y promovió la investigación de productos de cosecha y la transmisión de conocimientos a granjeros, en lo que participó de forma muy activa.

Entre 1915 y 1923, Carver investigó la aplicación de nuevos usos para el cacahuete, la patata dulce, la soja y la nuez, entre otros cultivos, lo que le otorgó una gran fama. Esta fue precisamente una de sus principales aportaciones a los granjeros: la fijación de nitrógeno en el suelo por estas plantas permitiría la mejora del terreno (cuyos nutrientes se habían visto muy afectados por numerosos cultivos de algodón) y el consecuente incremento de su aprovechamiento mediante rotación de cultivos: alternando cultivos de algodón con plantaciones de patata dulce o legumbres como el cacahuete o la soja. Se organizaron programas de formación para granjeros de Iowa y Alabama.

Carter fundó un laboratorio industrial de investigación para, con ayuda de varios colaboradores, popularizar los cultivos presentando un amplio número de nuevos usos, que reflejaban en los denominados “boletines agrícolas”.

En los años treinta creó un museo para dejar constancia de sus logros y de su legado y fundó la George Washington Carver Foundation en Tuskegee.

Murió en 1943.

Sus aportaciones han sido reconocidas en multitud de ocasiones con diversos premios y dedicaciones.

domingo, 4 de agosto de 2019

La paradoja de Fermi


Se estiman unas 100.000 millones de estrellas en cada una de las 100.000 millones de galaxias en el universo observable, obteniendo un total de 10^22 estrellas en el universo, cada una de las cuales contaría con un planeta de media orbitando a su alrededor. La comunidad científica calcula que al menos un 5% de estas estrellas son similares al Sol en tamaño, temperatura y luminosidad: unas 500 trillones de estrellas, cada una con su planeta. Y entre estos planetas, se piensa que al menos un 22% (unos 100 trillones de planetas) son parecidos a la Tierra, con condiciones que les podrían permitir tener agua líquida y con ella albergar vida. En definitiva, obtendríamos la posibilidad de miles de hipotéticas civilizaciones inteligentes sólo en la Vía Láctea. De ser nuestros cálculos correctos, ¿por qué hasta la fecha no hemos podido contactar con ninguna civilización extraterrestre? Esto es precisamente lo que se pregunta la paradoja de Fermi, propuesta por el físico italiano Enrico Fermi en 1950.

Lo cierto es que a día de hoy no se ha encontrado una respuesta definitiva a esta paradoja, aunque se han propuesto numerosas explicaciones, siendo dos las más defendidas:

A*No encontramos señales de otras civilizaciones por la sencilla razón de que no las hay, al menos no más avanzadas que nosotros. Aquí entra en juego “la teoría del Gran Filtro”, que básicamente establece un obstáculo para todos o casi todos los casos de vida inteligente, imposible o muy improbable de superar y que a nosotros nos afecta de dos formas posibles: ya lo hemos superado (lo que nos convertiría en un caso prácticamente único) o no lo hemos hecho y tenemos este “obstáculo imposible” por delante de nosotros. En esta última situación, se admitiría que la vida tiene cierta probabilidad de evolucionar hasta nuestro nivel, pero no más allá, y superado el mismo inevitablemente terminará extinguiéndose, ya sea por causas externas procedentes del espacio exterior o internas como la autodestrucción al alcanzar cierto desarrollo tecnológico.

B*Existen civilizaciones más avanzadas (de Tipo II y III según la Escala de Kardashov), pero no las detectamos por razones como las siguientes:

- Se encuentran tan lejos que el limitado alcance de nuestro mensajes nos imposibilita contactarlas.
- Los seres humanos conscientes existimos desde hace sólo unos 50.000 años. Previamente, otras formas de vida inteligente podrían haber visitado la Tierra y no tendríamos forma de saberlo.
-Una civilización inimaginablemente avanzada ha colonizado ya la galaxia, pero nosotros nos encontramos en una especie de “zona rural” o desierta, en el extremo de la espiral en la que vivimos.
-Generalmente, las civilizaciones inteligentes preferirían no emitir señales anunciando su ubicación, conscientes de la existencia de “civilizaciones depredadoras”. Hace algunos años, Stephen Hawking sentenció: “si los alienígenas nos visitaran, las consecuencias serían como cuando Cristóbal Colón desembarcó en América, lo que no salió muy bien para los nativos americanos”. En este escenario, nosotros seríamos los ingenuos recién llegados al campo de la exploración espacial. 
- Nuestra tecnología es demasiado primitiva como para poder captar señal alguna.
- Otras civilizaciones más avanzadas ya son conscientes de nuestra existencia y se limitan a observarnos sin interactuar con nosotros hasta que alcancemos un mayor desarrollo tecnológico.
- Existen civilizaciones tan avanzadas que para ellas somos insignificantes, irrelevantes o incluso imperceptibles, como colonias de hormigas para nosotros.

¿Cuál de estas opciones prefieres?