miércoles, 9 de diciembre de 2015

Más puntos de la costa oeste de Estados Unidos con trazas radiactivas de la central nuclear de Fukushima Daiichi

Unos científicos que vigilan la dispersión en el océano de radiación procedente del accidente nuclear de Fukushima Daiichi en Japón han comprobado que hay un número creciente de lugares frente a la costa Oeste de los Estados Unidos que muestran signos de contaminación proveniente de la citada central nuclear. Ello incluye el nivel más alto detectado hasta la fecha de una muestra recogida a unos 2.575 km (1.600 millas) al oeste de San Francisco.
El nivel de isótopos radiactivos de cesio en la muestra, 11 becquerelios por metro cúbico de agua marina, es un 50 por ciento más alto que los de otras muestras recogidas a lo largo de la costa Oeste hasta la fecha, aunque sigue siendo más de 500 veces más bajo que el límite máximo de seguridad decretado por el gobierno estadounidense para el agua potable, y también muy por debajo del límite por encima del cual sería peligrosa una exposición directa mientras se nada, se va en barca o se practican otras actividades recreativas en el mar.
El equipo del químico Ken Buesseler, del Instituto Oceanográfico de Woods Hole en Estados Unidos, estuvo entre los primeros en empezar a vigilar la radiación liberada en el Océano Pacífico por la central nuclear nipona, organizando una expedición de investigación a la zona noroeste próxima a Japón apenas tres meses después del accidente que se inició en marzo de 2011. Buesseler y sus colegas están usando sensores sofisticados para buscar niveles diminutos de radiactividad oceánica originada en Fukushima. En 2015, han añadido más de 110 nuevas muestras en el Pacífico a las más de 135 previamente recogidas.
Casi cualquier muestra de agua marina del Pacífico presentará rastros de cesio-137, un isótopo del cesio con un periodo de semidesintegración de 30 años, buena parte del cual proviene de las pruebas de armas nucleares que se llevaron a cabo entre la década de 1950 y la de 1970. Otro isótopo, el cesio-134 es la “huella dactilar” de Fukushima Daiichi, pero con un periodo de semidesintegración de dos años se desintegra mucho más rápidamente que el cesio-137.

Acuerdo preliminar en la Cumbre del Clima con muchos flecos abiertos

La recta final de la Cumbre del Clima ha comenzado. Faltaba apenas una hora para que la presidencia francesa, con su ministro de Asuntos Exteriores, Laurent Fabius, a la cabeza, presentase la primera propuesta de acuerdo internacional para frenar el cambio climático nacida del trabajo diplomático que se lleva realizando desde el pasado día 30 de noviembre en la sede parisina de Le Bourget y todas las miradas estaban puestas en el secretario de Estado norteamericano, John Kerry. El mandatario podía dar algunas de las claves de lo que podría ser el texto que estaba apunto de ser publicado.

Y de alguna forma así fue. "No tenemos excusa alguna y por eso tenemos que actuar en las próximas 48 horas. Tenemos que dejar el trabajo hecho en París", aseguró Kerry. Pero también lanzó algunos dardos contra quienes se oponen a un acuerdo ambicioso. "Hay gente que cree que la subida del mar no es importante porque acabará rebosando por los bordes de la Tierra plana", dijo irónicamente en alusión a los negacionistas, entre los que se encuentra el propio senador de EEUU responsable de los asuntos medioambientales, James Inhofe. "Pero, después de haber estado con algunos de los jefes de Estado de los pequeños países insulares del Pacífico, les digo: esto no es un asunto de dinero o de creer o no creer, es un problema de vida o muerte", sentenció Kerry.

Minutos después del discurso del mandatario de EEUU llamando a la acción ambiciosa y anunciando medidas concretas -económicas- para apoyar las energías renovables y la ayuda para la mitigación del cambio climático, el primer documento de París estaba encima de la mesa de todos los delegados, negociadores y periodistas presentes en la sede de la cumbre.

Ha habido poco tiempo para hacer valoraciones en profundidad, pero el texto apunta ya hacia un acuerdo que cuente con el apoyo de los 185 países que han presentado compromisos de reducción de emisiones concretos -sólo faltan 10, algunos países de la alianza Bolivariana y estados en conflicto como Afganistán, Siria, Libia o Corea del Norte-. "Eso es importante porque esos 185 países suponen más del 95% de las emisiones de gases de efecto invernadero", ha explicado en París la ministra española de Medio Ambiente, Isabel García Tejerina.

Pero lo cierto es que aunque el texto ha avanzado hacia una redacción mucho más concreta -y se han limpiado muchos de los corchetes que impedían la lectura-, aún quedan pendientes los grandes asuntos.
Quizá el primero tenga que ver con el grado de ambición que tendrá el acuerdo que salga de esta Cumbre del Clima. El texto incluye tres posibles opciones que contemplan objetivos para limitar el aumento de temperatura global en 2100 entre 2ºC y 1,5ºC. Pero al mismo tiempo se ha eliminado el concepto de descarbonización de la economía y se ha cambiado por conceptos como "emisiones netas cero" o "neutralidad de carbono". Para muchos, esta redacción lleva la huella dactilar de los países productores de petróleo como Arabia Saudí o Venezuela, ya que permitiría seguir apostando por los combustibles fósiles si al mismo tiempo se desarrollan grandes mecanismos de captura de carbono y se potencias los sumideros.

Otro de los asuntos importantes que no consta en este primer borrador propuesto por la presidencia francesa es una referencia concreta a la reducción de la aviación y el transporte marítimo, que suponen un 5% de las emisiones globales. "Además, ha desaparecido el concepto de desinversión en energías fósiles, algo que nos parece esencial para alcanzar los objetivos más ambiciosos", explica Florent Marcellesi, eurodiputado de Equo como representante de los Verdes europeos.
Quizá los plazos entran también dentro de los asuntos polémicos. Durante las primeras jornadas de negociación, desde la Unión Europea se ha apostado muy fuerte por la transparencia y la rendición de cuentas en cuanto al cumplimiento de los compromisos concretos de cada país, algo a lo que se opone China y que está siendo uno de los grandes caballos de batalla de la negociación. Pero la UE insistía en ello y en que se realizasen revisiones de los objetivos cada 5 años empezando desde el año 2018, antes de la entrada en vigor del acuerdo que salga de París.

No obstante, el texto del acuerdo sólo contempla dos fechas para el comienzo de la primera revisión: los años 2023 y 2024, aunque la parte final, llamada de decisión, sí mantiene la puerta abierta a que los controles de los compromisos nacionales se comiencen a revisar en 2018 o 2019. En términos generales da la sensación de que la gran ambición con la que acudía la UE a esta reunión se ve dificultada por las reclamaciones de quienes están poniendo mayores problemas, sobre todo en aspectos clave como el nivel de ambición del tratado, la diferenciación de los esfuerzos que debe asumir cada país y, como no, la financiación para los países en vías de desarrollo.
"La UE sabía que no iba a tener todo lo que reclamaba, eso hubiera sido la primera vez que sucede en la historia de las negociaciones internacionales", ha asegurado la ministra. A pesar de la propuesta, que volverá a ser revisada mañana, la frase más repetida entre las distintas delegaciones es: "Eso está sin decidir".

Desarrollan un nanodispositivo para el transporte inteligente de fármacos para el cáncer de mama

La empresa mexicana ROM Dynamic Biotech desarrolla el proyecto llamado BioDymanics que consiste en nanodispositivos de transporte inteligente de medicamentos para el cáncer de mama que evita daños en órganos sanos, acelera el proceso de recuperación y disminuye efectos adversos como caída de cabello.
“Un medicamento tradicional recorre todo el cuerpo y puede dañar órganos sanos y la intención es que este dispositivo que lleva el medicamento se introduzca al cuerpo y ataque directamente el tejido cancerígeno”, señaló la maestra en ciencias por la Universidad Autónoma del estado de Hidalgo, Rebeca Gutiérrez, quien dirige el proyecto.
De acuerdo a datos de la Organización Mundial de la Salud (OMS), uno de los cánceres de mayor incidencia a nivel mundial es el de seno y de cada cien fallecimientos por tumores malignos en mujeres de más de 20 años, 15 son mamarios.
La maestra en ciencias comentó que la innovación está en proceso de patente. El desarrollo consiste en añadir el medicamento a nanopartículas con forma definida, después se agrega un polímero de liberación y un ligando, una molécula de direccionamiento que puede ser la PSMA, que es la célula de expresión del cáncer de mama, la cual dirige el fármaco para que llegue al sitio deseado.
El ligando permite localizar el tumor y atacarlo directamente, una vez dentro libera el medicamento. Con esta acción se logra disminuir daños secundarios como vómito y pérdida de cabello, incluso el paciente asiste menos a quimioterapias o radioterapias.
Además, con las nanopartículas se utilizan menos medicamento. “Si en un tratamiento tradicional se necesita un miligramo, con esta técnica sólo se usa el 10 o cinco por ciento”. Con el tiempo se genera un ahorro económico y los beneficios son más rápidos.

Acelerador de partículas en un microchip

Ya está en marcha un ambicioso proyecto internacional que tiene por objetivo desarrollar un acelerador de partículas en un microchip, algo que hasta muy poco tiempo atrás se habría considerado exclusivo de la ciencia-ficción. En efecto, en el plazo de cinco años, los científicos del proyecto esperan producir un prototipo funcional de un acelerador de partículas tan pequeño como para caber en un chip diminuto.
El Sincrotrón Alemán de Electrones (DESY, por sus siglas en alemán) y la Universidad de Hamburgo en Alemania se hallan entre los socios de este proyecto internacional, encabezado por Robert Byer de la Universidad de Stanford en Estados Unidos y Peter Hommelhoff de la Universidad de Erlangen-Núremberg en Alemania.
Durante décadas, los aceleradores de partículas han sido una herramienta indispensable en incontables áreas de la ciencia, desde la investigación fundamental en física hasta el examen de la estructura de las biomoléculas para poder desarrollar nuevos fármacos. Hasta ahora, las instalaciones necesarias para ello han sido muy grandes y costosas. Muchos científicos e ingenieros están probando diferentes enfoques para construir aceleradores de partículas más compactos y menos caros. Por el momento, las instalaciones grandes seguirán siendo indispensables para muchos objetivos, pero sin embargo hay algunas aplicaciones en las cuales los eficientes aceleradores de electrones en miniatura serán la clave para obtener nuevos conocimientos científicos.
La repercusión que para la ciencia y la tecnología tendrán los aceleradores cada vez más pequeños puede ser comparada con la que tuvo revolución de los ordenadores personales, cuando se pasó de modelos voluminosos y caros a los de sobremesa y bajo costo. En los aceleradores de partículas, el avance equivalente se traducirá en que estos estarán disponibles en áreas de la ciencia y la industria que hasta ahora no han tenido acceso a tales tecnologías.
La meta del proyecto es desarrollar un nuevo tipo de acelerador de partículas pequeño y barato para una amplia gama de tipos de usuarios. Aparte de utilizar los propios electrones rápidos, podrían también ser empleados para producir rayos X de alta intensidad. El prototipo en el que se trabaja podría preparar la llegada de una nueva generación de aceleradores de sobremesa, con resultados prácticos potenciales que incluirían a buen seguro muchos descubrimientos en biología y ciencia de los materiales, y con aplicaciones potenciales en sistemas de escaneo de seguridad, terapias médicas y visualización por rayos X.

miércoles, 11 de noviembre de 2015

Una rata en una hamburguesa cierra un McDonald's en México

Una de las leyendas urbanas más extendidas delplaneta ha desatado el pánico en un municipio mexicano y puede marcar a fuego el nombre de McDonald's para siempre. Un señor de unos 45 años dijo haber encontrado la cabeza de un roedor en su hamburguesa de la cadena estadounidense. Después de unos cuantos bocados, se dio cuenta de que lo que había dentro no cuadraba con el menú y fue con la supuesta prueba directamente a la Fiscalía del Estado de México para presentar una denuncia.
El organismo estatal ha cerrado este lunes el establecimiento provisionalmente: "Debemos examinar si dentro del local se hallan restos que coincidan con los del cadáver del roedor o con los de cualquier otro". Después de presentar la denuncia y de tomar declaración con la hamburguesa de rata en mano, el comensal acudió a un hospital de la Cruz Roja para que le hicieran las pruebas correspondientes, según fuentes de la Fiscalía. El diagnóstico deberá presentarlo ante las autoridades para dar credibilidad a su denuncia.
 El miedo de encontrar una rata en cualquier McMenú ha provocado que las imágenes de los restos del roedor corrieran como la pólvora por las redes sociales.
La cadena estadounidense ha negado con rotundidad las acusaciones y han respondido una a una las decenas de quejas de los consumidores en Twitter. "Nuestra prioridad es la calidad y seguridad de alimentos. Hemos investigado rigurosamente y dichos hechos son totalmente falsos, fue una plantación de dicho animal", han repetido en cada comentario.
La Fiscalía y otros órganos de control sanitario, como la Comisión Federal para la Protección contra Riesgos Sanitarios (Cofepris), investigan si el local ha cometido un delito contra el consumo o si todo ha sido un montaje preparado por el comensal.
En abril de este año, cerraron un restaurante chino en Tijuana porque se comprobó que se estaba vendiendo carne de perro. Por estos hechos, cinco personas fueron detenidas.

El transporte público beneficia seriamente a su salud

Puede que mientras esté usted en la parada del autobús leyendo esta noticia o apretujado en el vagón del metro, el transporte público no le parezca ningún foco de buenas noticias. Sin embargo, la ciencia le contradice porque un amplísimo estudio japonés acaba de demostrar que ir a trabajar en metro o en autobús es mucho más saludable que hacerlo en coche particular.
En las reuniones científicas que la Asociación Americana del Corazón celebra cada año, un grupo de investigadores del Centro Moriguchi de Salud en Osaka (Japón) acaba de demostrar que las personas que emplean el transporte público para ir a trabajar tienen menor riesgo de diabetes, sobrepeso e hipertensión.
Curiosamente, moverse cada día en metro o en autobús tenía incluso más ventajas que hacerlo caminando o en bicicleta, probablemente, hipotetizan los autores, por las distancias que hay que recorrer desde casa a la parada más cercana.
Hisako Tsuji y su equipo analizaron a casi 6.000 ciudadanos japoneses en el año 2012 para establecer las conclusiones que acaban de presenta en Orlando. Es cierto, admiten, que todos ellos eran japoneses (con una tasa de obesidad más reducida que los estadounidenses) y tampoco es posible determinar si los usuarios de transporte público tenían una mejor salud de base que los conductores. Sin embargo, sí sostienen que esta rutina diaria puede ser una buena manera de cumplir con los requisitos diarios de actividad física que recomiendan la mayoría de guías, y que aconsejan unos 30 minutos diarios de actividad moderada (como caminar).
En total, los usuarios de metro y autobús de Osaka tenían un 44% menos riesgo de tensión arterial elevada que los conductores, un 34% menos de diabetes y un 44% menos de posibilidades de tener sobrepeso.
Pero éste no ha sido el único estudio de esta reunión científica que demuestra cómo el entorno y nuestra relación con las ciudades puede condicionar nuestra salud. Otro trabajo canadiense con más de 1.000 personas evaluadas durante 10 años ha demostrado que vivir en un barrio en el que es fácil desplazarse andando se refleja en unas mejores cifras de tensión arterial.
Para su estudio, Maria Chiu y sus colegas del Instituto de Ciencias Clínicas de Ontario (Canadá) emplearon una especie de índice de 'caminabilidad' en el que medían lo fácil o difícil que era acceder caminando a los parques, comercios o colegios de una determinada zona de la ciudad.
Mediante los historiales de salud de los participantes, los investigadores observaron que los ciudadanos que se mudaban de una zona en la que necesitaban habitualmente el coche para su vida diaria a otra en la que podían hacer los recados cotidianos caminando se traducía en un 54% menos de hipertensión.
Los autores admiten aquí de nuevo que carecían de alguna información adicional que podría haber influido en los resultados, por ejemplo, la dieta de los participantes. Aún así, insisten en que incluir los paseos y desplazamientos andando en la vida diaria es una buena manera de cumplir con el objetivo de 150 minutos semanales de ejercicio moderado que recomiendan, entre otros, la propia Academia Americana del Corazón.

Dos razones hacen que la gente vaya al trabajo aunque esté enferma

En una oficina cualquiera, hay personas realizando su trabajo con normalidad, mientras otras están en casa enfermas. Luego, hay una tercera categoría, la denominada 'presentista', que va a trabajar siempre aunque no se encuentre bien.
Un estudio, publicado en Journal of Occupational Health Psychology, intenta ahora desentrañar las razones y presiones que llevan a la gente a hacer esto, ya que existen consecuencias  evidentes tanto para la salud pública (especialmente durante periodos como la temporada de gripe) como para las empresas, que quieren obtener el máximo rendimiento de sus trabajadores.
El estudio indica que hay dos tipos diferentes de empleados que van a trabajar pese a encontrarse mal: por un lado, los que se sienten vulnerables porque su situación económica y profesional les provoca estrés, o porque sufren una enfermedad crónica; y, por otro, aquellos a los que les gusta mucho su trabajo y les resulta difícil mantenerse alejados de él.
“Trabajar mientras se está mal puede agravar los efectos de la enfermedad inicial y dar como resultado malas actitudes en el trabajo. Pero las posibles consecuencias de ausentarse propician que los empleados vayan a trabajar enfermos o que regresen antes de estar totalmente recuperados”, señala Mariella Miraglia, autora principal de la investigación.
Con el objetivo de entender mejor el presentismo laboral, los investigadores Mariella Miraglia de la Universidad de East Anglia (Reino Unido) y Gary Johns de la Universidad de Concordia (Canadá) han llevado a cabo un metaanálisis de 61 estudios anteriores con un total de 175.960 participantes.
Entre otras cosas, el dúo de investigadores descubrió que las variables correlacionadas con el presentismo “incluyen la mala salud en general y la severidad de la empresa respecto a las ausencias, aunque estén justificadas. También una exigencia alta, el estrés, la falta de recursos laborales y experiencias negativas, como la discriminación percibida".
Uno de los hallazgos clave de la investigación es que este comportamiento surge muchas veces de un gran sentido de compromiso con la empresa, algo que motiva a dar ese esfuerzo extra que atenta contra la salud.
El trabajo también señala que los empleados que están en un ambiente laboral de apoyo y con buena relación con sus supervisores, no se siente presionados para ir al trabajo durante una enfermedad. Además, están más satisfechos laboralmente y tienen mejor salud.

domingo, 1 de noviembre de 2015

El 30% de los cánceres están inducidos por la alimentación

El cúmulo de errores y mutaciones celulares que causan un cáncer no tiene un único factor impulsor. La sociedad occidental está considerada una «sociedad de riesgo», expuesta a múltiples factores inductores del cáncer. La acumulación y frecuencia con que cada individuo los afronta determinarían su estado de salud. Los investigadores explican, a partir de consensuados estudios con más de 15 años de trayectoria, que más del 25% de los cánceres -en especial, los de colon y recto, y estómago- tienen como primer desencadenante lo que comemos, la forma en que el ser humano se alimenta en función de su cultura y la oferta agrícola o ganadera del país donde vive. «Se calcula que hasta el 30% de los cánceres están vinculados a la alimentación», asegura Carlos Alberto González, epidemiólogo adscrito a la unidad de nutrición y cáncer del Institut Català d'Oncolo-gia (ICO). Otro 60% de los tumores se atribuyen al cúmulo de circunstancias ambientales, laborales y sociales que condicionan a cada individuo -capítulo que incluye la obesidad, considerada un factor de riesgo-, y el 10% restante se asocian a mutaciones genéticas heredadas.
El factor nutricional del cáncer es tal vez el más investigado. Las conclusiones del estudio sobre las carnes rojas y procesadas difundido el lunes por la OMS ni son nuevas ni están en discusión, advierte González, aunque científicos y políticos coinciden en la necesidad de situarlas donde merecen. «La carne magra, incluida la roja, es necesaria para el cuerpo humano por las vitaminas B y el hierro que aporta, pero no es conveniente tomarla más de dos o tres veces por semana», indica Carme Cabezas, subdirectora de Promoció de la Salut de la Generalitat.
Consumida a diario o con mayor frecuencia que la indicada, esta carne se convierte en un riesgo de cáncer, indica el estudio de la OMS. Y lo mismo sucede, pero con una peligrosidad muy incrementada, al consumir embutidos y jamón cocido, no así con el serrano o ibérico.
Los aditivos, conservantes, colorantes, espesantes y estabilizantes que contienen casi todos los productos no frescos, menos los cereales empaquetados, constituyen otro factor, controvertido, que relaciona cáncer y dieta. Los más cuestionados son los nitritos de ciertos embutidos. En EEUU, y en menor medida en Europa, avanza la corriente que propone seguir una alimentación que evite los productos procesados, desde el azúcar refinado hasta los yogures no artesanos y todos los envasados. Esta dieta, que en principio mantendría alejado el cáncer, no elimina el consumo de carne roja, siempre que sea de procedencia «biológica», de animales no hormonados ni tratados con antibióticos.
El riesgo cancerígeno de la carne de vacuno, roja, no surge del tratamiento a que se somete al animal, sino del pigmento que las enrojece, la miohemoglobina, explica el epidemiólogo del ICO. «Es una molécula de hierro orgánico que produce nitrosaminas, compuesto químico que se asocia con el cáncer colorrectal-afirma González-. Las nitrosaminas se unen al ADN de las células humanas e inducen mutaciones que acaban desarrollando el tumor». Los alimentos con más nitrosaminas, prosigue, son el baicon y las salchichas de frankfurt, seguidos de las carnes cocinadas sobre brasas -que desprenden hidrocarburos y aminas- y el jamón cocido, cuya salazón irrita la mucosa intestinal. «El jamón serrano no contiene nitrosaminas», asegura.
La conocida defensa médica de la alimentación mediterránea, que incluye tomar a diario fruta, verduras, frutos secos y cereales, más pescado y aceite de oliva, tiene una base científica tan sólida como todo lo anterior: se ha comprobado que las dietas en que abundan frutas y verduras ricas en vitamina C y las que contienen vitamina E (almendras, avellanas, aguacate o sésamo, entre otros) inhiben la formación de nitrosaminas. «Un estudio del ICO demostró que el consumo de alimentos ricos en vitaminas C o E suprime el efecto de las nitrosaminas en la sangre y frena el cáncer», afirma González.

Apuntan un nuevo marcador que podría influir en la migraña episódica

Los niveles totales de ceramidas podrían estar reducidos en las mujeres con migraña episódica, mientras que los niveles de otro tipo de lípido, la esfingomielina, podrían estar incrementados en estas pacientes, según un estudio publicado la semana pasada en la revista Neurology, coincidiendo con el Día Internacional contra la Migraña. 

La episodica es la migraña que produce dolor de cabeza menos de 15 días al mes. El sobrepeso, la depresión, los trastornos de sueño y, sobre todo, la automedicación y la falta de diagnóstico y tratamiento son principales factores que cronifican la migraña. Según la Sociedad Española de Neurología (SEN), cada año, un 3% de los pacientes con migraña episódica pasa a padecer migraña crónica y un 6% pasa de una migraña episódica de baja frecuencia a una de alta frecuencia. 
Por ello, la migraña crónica podría considerarse el siguiente paso en la enfermedad. La línea entre episódica y crónica es delgada, según indica a CF Patricia Pozo, coordinadora del Grupo de Estudios de Cefaleas de la SEN. "Entre los episódicos hay pacientes que ya empiezan a acercarse más a los crónicos. Los tratamientos para estos dos tipos de migraña no difieren mucho, puesto que las terapias preventivas lo que intentan es reducir la frecuencia, duración e intensidad del dolor".
Los autores del estudio de Neurology incluyeron a 88 mujeres (52 con migraña episódica y 36 controles sin dolores de cabeza). La media de edad de las pacientes con este tipo de migraña fue 33,4 años. La frecuencia media de dolores de cabeza al mes fue de 5,6 días. 
Según Cristina Alarcón, del Servicio de Neurología del Instituto de Neurociencias Avanzadas de Madrid, los investigadores "han observado que en pacientes con migraña episódica parece existir una alteración en los niveles en sangre de unos determinados lípidos, de los cuales ya se conocía su intervención en vías o circuitos del dolor y la inflamación. Este descubrimiento aporta nuevos conocimientos que nos ayudan a entender mejor uno de los múltiples mecanismos que hacen que se desarrolle la migraña, y abre as puertas al estudio de dianas terapéuticas para hallar fármacos específicos".
En la investigación en migraña en general se están estudiando las adipokinas, "unas enzimas que intervienen en el metabolismo de los esfingolípidos, que son las grasas analizadas en el estudio de Neurology y pueden, por tanto, estar relacionadas en la alteración de los niveles serios de dichos lípidos en los pacientes con migraña", indica Alarcón. Sin embargo, reconoce que hay que ser muy cautos al interpretarlo. Este trabajo ha sido realizado exclusivamente en mujeres y en un número bajo. Los resultados deben ser confirmados en otros estudios.
Medidas para evitar crisis
"El cerebro migrañas reacciona cuando hay cambios inesperados de tipo endógeno (hormonas, hidratación, frecuencia cardiaca...) y exógeno (luz, temperatura y ruido)", explica Pozo. Por eso, "lo que se aconseja es seguir rutinas, como comer a la misma hora, de manera relajada y sin excesos".
En esta idea ahonda Alarcón, al explicar que "recomendamos mantener hábitos de vida saludables, haciendo hincapié en una alimentación equilibrada y sin grandes restricciones y una buena higiene del sueño e intentar evitar tóxicos como alcohol o tabaco. El ejercicio físico habitual también ayuda a reducir las crisis de migraña, al regular el estrés". El paciente debe acudir con regularidad al neurólogo para llevar un control de su migraña y aprender a hacer un uso adecuado de los analgésicos, "ya que muchos derivan en la forma crónica por abuso o mal uso".

jueves, 29 de octubre de 2015

Identifican a una proteína clave para la reparación de tejido dañado por un derrame cerebral

Examinando tejido cerebral de ratones, monos y humanos, unos científicos han encontrado que una proteína conocida como factor de crecimiento y diferenciación 10 (GDF10) es una pieza clave en los mecanismos de reparación que siguen a un derrame.
El estudio lo ha realizado el equipo del Dr. Thomas Carmichael, de la Escuela David Geffen de Medicina, adscrita a la Universidad de California en Los Ángeles (UCLA), y ha contado con la ayuda del Instituto Nacional de Trastornos Neurológicos y Derrame Cerebral (NINDS), uno de los Institutos Nacionales de Salud de Estados Unidos.
Estos hallazgos ayudan a aclarar los mecanismos de reparación que se ponen en marcha tras un derrame cerebral. Identificar esta proteína clave aumentará un poco más el conocimiento científico sobre cómo el cerebro procura curarse a sí mismo después de los devastadores efectos de un derrame, y podría ayuda a desarrollar nuevas estrategias terapéuticas para promover la recuperación de los pacientes.
Un derrame puede suceder cuando un vaso sanguíneo cerebral se bloquea, evitando que el tejido próximo reciba los nutrientes esenciales. Cuando el tejido cerebral es privado de oxígeno y nutrientes, empieza a morir. Una vez esto ocurre, se activan mecanismos de reparación, como el brote de axones, a medida que el cerebro intenta superar los daños sufridos. Durante el brote de axones, las neuronas sanas producen nuevas proyecciones (“brotes”) que restablecen algunas de las conexiones perdidas por culpa del derrame y forman otras nuevas, lo que resulta en una recuperación parcial. Antes de este estudio, se desconocía lo que desencadenaba el brote de axones.
El GDF10 podría ser importante para una recuperación funcional después de un derrame. Los autores del estudio trataron modelos de ratón con GDF10 e hicieron que los animales realizaran varias tareas motoras para probar su recuperación. Los resultados sugieren que unos niveles superiores de GDF10 están asociados con una recuperación notablemente más rápida después del derrame. Cuando los investigadores bloquearon el GDF10, los animales no actuaron tan bien durante las tareas motoras, lo que sugiere que los mecanismos de reparación implicados no estaban operativos.

Cambio climático y proliferaciones dañinas de algas

Por culpa del calentamiento global, el futuro podría traernos más proliferaciones masivas de algas que amenazan la vida silvestre y la economía de diversas zonas del mundo. Ya era previsible desde bastante tiempo atrás, y ahora un equipo de científicos lo respalda con un nuevo estudio.
Las principales conclusiones que se extraen de la investigación son que si bien hay razones para esperar que las proliferaciones masivas de algas aumenten con el cambio climático, el escaso conocimiento científico que por ahora se tiene sobre el fenómeno limita seriamente las predicciones, y las actuales estrategias de investigación no es probable que mejoren esta capacidad.
Las observaciones empíricas sugieren que hay motivos para preocuparse mucho. La expansión hacia el norte de las especies de fitoplancton, unas ventanas estacionales más amplias para el desarrollo de proliferaciones masivas de algas, y un mayor predominio de tales proliferaciones en todo el mundo, apuntan a un futuro con mayores problemas.
La incidencia de las proliferaciones masivas de algas es extensa. Aunque las proliferaciones de fitoplancton normalmente alimentan a los ecosistemas productivos, algunas crean unas concentraciones muy bajas de oxígeno en las aguas del fondo, matando peces y otras criaturas marinas u obligándolas a emigrar fuera de la zona. Otras producen neurotoxinas potentes que dañan a los ecosistemas y que constituyen una amenaza para la salud humana.
Las pruebas obtenidas sugieren que estas proliferaciones tan destructivas, llamadas mareas rojas en el pasado, pero que más propiamente son proliferaciones dañinas de algas, están aumentando en frecuencia y gravedad, posiblemente por causas humanas. “Existe una preocupación creciente entre los científicos sobre la posibilidad de que el cambio climático pueda agravar esta tendencia”, afirma el profesor Mark Wells, de la Universidad de Maine en Estados Unidos y coautor del estudio.
Los efectos combinados de incrementar tanto la temperatura como el CO2 atmosférico están afectando a las temperaturas de la superficie marítima, a los nutrientes oceánicos, y a la acidez del agua marina, todo lo cual afecta a los ecosistemas marinos. Estos factores influyen no solo en la intensidad de las proliferaciones masivas de algas sino también en su composición. La cuestión es si el cambio climático posibilitará que especies dañinas desplacen a otras de fitoplancton que son beneficiosas para el Ser Humano. "Es de importancia crítica que aprendamos todo lo posible, y tan precisamente como sea posible, para llenar el serio vacío de conocimiento entre la actual y la futura estructura de comunidades del fitoplancton”, advierte el profesor Charles Trick, de la Universidad Occidental en London, Ontario, Canadá.

Tomates enriquecidos con compuestos útiles para la salud

Si nos dieran la oportunidad de beber 50 botellas de vino o comer un único tomate, en un solo almuerzo, ¿cuál opción elegiríamos? La elección es obvia, e ilustra que un solo tomate, de un tipo especial, puede albergar una cantidad de compuestos útiles para la salud tan grande como la extraíble de esas 50 botellas de vino.
Unos científicos han encontrado una forma de producir de modo eficiente cantidades industriales de compuestos naturales útiles para la salud, a base de cultivarlos en los tomates. Entre estos compuestos están el resveratrol, presente en el vino y del que se ha afirmado que extiende la esperanza de vida, al menos a juzgar por los resultados de algunos estudios hechos con animales, y la genisteína, un compuesto presente en la soja (o soya) del que se ha sugerido que interviene en la prevención de algunos tipos de cáncer, en particular el de mama.
El equipo internacional de Yang Zhang y Eugenio Butelli, del Centro John Innes en Norwich, Reino Unido, ha encontrado una forma de producir cantidades industriales de esos compuestos naturales útiles de manera eficiente, cultivándolos en tomates. Uno de estos tomates puede producir la misma cantidad de resveratrol que se encuentra en 50 botellas de vino tinto. Un tomate ha producido también la cantidad de genisteína que se encuentra en 2,5 kilogramos de tofu.
Zhang y Butelli han estado estudiando el efecto de una proteína llamada AtMYB12, que se encuentra en la Arabidopsis thaliana, una planta presente en la mayoría de los jardines británicos y que se emplea como modelo vegetal en numerosas investigaciones científicas.
La proteína AtMYB12 activa un amplio grupo de genes implicados en las vías metabólicas responsables de producir compuestos naturales que la planta utiliza. La proteína actúa un poco como un grifo para aumentar o reducir la producción de ciertos compuestos naturales, dependiendo de cuánta proteína se halla presente.
Lo que resultó interesante sobre el efecto de introducir esta proteína en una tomatera fue que actuó tanto para aumentar la capacidad de la planta de producir compuestos naturales (al activar la producción de fenilpropanoides) como para influir en la cantidad de energía y carbono que la planta dedicó a producirlos. En respuesta a la influencia de la proteína AtMYB12, las tomateras empezaron a generar mayores cantidades de compuestos de estas clases beneficiosas para la salud y a dedicar más energía para hacer esto en sus frutos.
La introducción tanto de la AtMYB12 como de genes de plantas que codifican para enzimas específicas para hacer resveratrol en las uvas y genisteína en las legumbres, supuso la obtención de tomates que podían producir hasta 80 miligramos de nuevo compuesto por gramo de peso en seco, demostrando que es posible un proceso a escala industrial.
Dependiendo de la variedad de tomate enriquecida, su utilidad podría estar en la alimentación, o más decantada hacia la industria farmacéutica. Las plantas medicinales con un alto valor son a menudo difíciles de cultivar y gestionar, y necesitan tiempos muy largos de cultivo para que produzcan los compuestos deseados. La nueva investigación proporciona una plataforma magnífica para producir rápidamente estos valiosos compuestos medicinales en tomates. Los compuestos deseados podrían ser aislados directamente a partir del zumo de tomate.

martes, 27 de octubre de 2015

Un bebé de 15 días muere por tos ferina en Málaga

Un bebé de 15 días murió la semana pasada por tos ferina en el Hospital Materno Infantil de Málaga, según ha confirmado la Delegación de Salud de la Junta de Andalucía, que precisa que se trata de un caso aislado y descarta un brote. El recién nacido fue ingresado el 16 de octubre en la Unidad de Vigilancia Intensiva (UVI) del centro hospitalario y falleció cuatro días más tarde por las complicaciones que le causó esta patología.
El pequeño no estaba inmunizado contra esta enfermedad porque el calendario fija la primera vacuna a los dos meses de vida. Las siguientes se administran a los cuatros meses, los seis y al año y medio de edad. Después hay un recordatorio a los seis años. Según publica este martes Málaga hoy, el ginecólogo recomendó a la madre durante el embarazo que se pusiera la vacuna para transmitir los anticuerpos al bebé hasta que estuviera inmunizado, aunque la mujer no la encontró en las farmacias. En el centro de salud le indicaron que solo está prevista para los niños.La vacuna contra la tos ferina se administra en combinación con la de la difteria y el tétanos. Andalucía no incluye en su estrategia esta inmunización en mujeres embarazadas y se prevé exclusivamente para los críos. Solo siete comunidades españolas (Cataluña, Asturias, Navarra, Valencia, País Vasco, Canarias y Extremadura) recomiendan la vacunación contra esta patología durante el embarazo entre la semana 27 y 36 de gestación.La jefa del Servicio de Salud Pública de Málaga, Yolanda González, recuerda que no existe “una posición homogénea” sobre la vacunación de mujeres embarazadas, un tema en debate “mucho tiempo” para analizar los posibles beneficios y riesgos, y que la media de fallecimientos por tos ferina en España de niños menores de tres meses oscila de media entre dos y cinco. Opina que el caso de Málaga es “puntual”, por lo que no debe conllevar un cambio, y añade que la Consejería vigila anualmente el comportamiento de esta enfermedad. Esa variación solo se produciría si la situación “lo requiriera”, es decir, si adquiriera características epidemiológicas.
La Agencia Española del Medicamento emitió una nota el pasado mayo en la que informaba de “problemas de suministro” de la vacuna de la tos ferina a nivel mundial, recuerda el presidente del Colegio de Farmacéuticos de Málaga, Francisco Florido, que constata esos problemas de abastecimiento. Hay dos marcas que comercializan estas dosis en España y en ese momento se explicó que se trabajaba “activamente” para solventar las carencias.
La Asociación Española de Pediatría (AEP) recomienda la vacunación a las madres embarazadas de forma habitual para proteger a los bebés hasta que reciban la primera inmunización. En España, actualmente se registran algo más de 3.000 casos de tos ferina al año, según la estadística del Ministerio de Sanidad, con la incidencia más alta en los menores de un año, especialmente antes de los dos meses de vida.

La carne procesada, declarada cancerígena por la OMS

La Agencia Internacional de Investigación sobre el Cáncer (IARC, por su sigla en inglés), la institución especializada en esta enfermedad de la Organización Mundial de la Salud (OMS), ha evaluado la carcinogenicidad del consumo de carne roja y carne procesada.
Los autores de esta revisión de más de 800 estudios –22 expertos de 10 países diferentes– clasificaron el consumo de carne roja como ‘probable carcinógeno para humanos’ (grupo 2A), basado en la evidencia limitada de que su ingesta provoca cáncer y una fuerte evidencia mecanicista que apoya dicho efecto carcinógeno.
Por su parte, los datos para la carne procesada son mucho más contundentes, clasificándose directamente como ‘carcinógena para humanos’ (grupo 1), basado en la evidencia suficiente de que su consumo causa cáncer colorrectal en humanos.
Así, los científicos concluyen que cada porción de 50 gramos de carne procesada consumida a diario aumenta el riesgo de cáncer colorrectal en un 18%. Los resultados se publican hoy en The Lancet Oncology.
“Para un individuo, el riesgo de desarrollar cáncer colorrectal por el consumo de carne procesada sigue siendo pequeño, pero aumenta con la cantidad de carne consumida”, explica Kurt Straif, jefe del Programa de Monografías de la IARC.
Según la OMS, carne roja es toda la carne muscular de los mamíferos, incluyendo carne de res, cerdo, cordero, caballo y cabra. Por otro lado, la carne procesada se refiere a la que ha sido transformada a través de la salazón, el curado, la fermentación, el ahumado, u otros procesos para mejorar su sabor o conservación.
Ejemplos de carnes procesadas incluyen salchichas, jamón, carne en conserva, cecina o carne seca, así como carne en lata y preparaciones y salsas a base de carne.
La carne se compone de varios componentes, como el hierro hemo, que se utiliza para crear glóbulos rojos. Pero también puede contener sustancias químicas que se forman durante su procesamiento o su cocción.
Por ejemplo, entre los productos químicos cancerígenos que se crean durante el procesamiento de carne se incluyen compuestos N-nitroso e hidrocarburos aromáticos policíclicos.
La cocción de la carne roja o procesada también produce aminas aromáticas heterocíclicas, así como otros productos químicos que incluyen hidrocarburos aromáticos policíclicos, que además se encuentran en otros alimentos y en el aire contaminado.
No obstante, a pesar de que algunos de estos productos químicos son carcinógenos conocidos o sospechosos de serlo, los expertos todavía no comprenden completamente cómo se incrementa el riesgo de cáncer por este tipo de carne.
El consumo de la carne varía mucho entre los países, desde un pequeño porcentaje hasta un 100% de habitantes que ingieren carne roja. Aunque la proporción de consumo de carnes procesadas es menor, Straif añade que su impacto sobre la incidencia del cáncer “es de importancia para la salud pública”.
Pero, ¿debemos dejar de comer carne? Desde la OMS dejan claro que comer carne tiene beneficios para la salud. Sin embargo, “muchas de las recomendaciones nacionales aconsejan a las personas limitar el consumo de carne procesada y carne roja, ya que ambos están vinculados a un mayor riesgo de muerte por enfermedades del corazón, diabetes y otras patologías”.

Hacia la reconstrucción de tejidos del corazón mediante impresión 3D

Mucha gente en el mundo está en lista de espera para recibir un trasplante de corazón. Estos pacientes a quienes su corazón les está fallando no tienen la opción de la curación, ya que el tejido cardiaco, a diferencia de otras partes del cuerpo, es incapaz de curarse una vez está dañado. En algunos casos, es factible el implante de un dispositivo artificial, pero todo lo que se aleje estructuralmente de los componentes naturales afronta diversas dificultades. Lo ideal sería poder trabajar con el material biológico mismo, preparando tejidos a la medida de lo requerido por cada corazón. Afortunadamente, unos científicos ya trabajan en una técnica para confeccionar estos parches, que podrían algún día llevarnos a un mundo en el que los trasplantes de corazón, natural o artificial, ya no sean necesarios gracias a poder reparar cualquier parte dañada o problemática de un corazón colocando el tejido idóneo en sustitución del viejo.
El equipo de Adam Feinberg y TJ Hinton, de la Universidad Carnegie Mellon en Pittsburgh, Pensilvania, Estados Unidos, ha logrado obtener imágenes por resonancia magnética de arterias coronarias e imágenes en 3D de corazones embrionarios, y bioimprimirlos tridimensionalmente con una resolución y una calidad sin precedentes a partir de materiales muy blandos, como colágenos, alginatos y fibrinas.
Las impresoras 3D tradicionales construyen objetos duros hechos habitualmente de plástico o metal, y funcionan a base de depositar material sobre una superficie, capa a capa, para crear el objeto tridimensional. Imprimir cada capa precisa del soporte lo bastante resistente de las capas inferiores, así que imprimir con materiales blandos como geles ha estado bastante limitado.
El problema de usar materiales blandos (pensemos en algo parecido a la gelatina) es que se hunden por efecto de su propio peso cuando son imprimidos en 3D en el aire.
La nueva técnica de impresión 3D del equipo de Feinberg y Hinton hace su trabajo dentro de un medio semilíquido. En esencia, se imprime con un gel dentro de otro gel, lo que permite posicionar de forma precisa el material blando que está siendo impreso, capa a capa.
Uno de los mayores avances de esta técnica, llamada FRESH, por las siglas en inglés de "Freeform Reversible Embedding of Suspended Hydrogels", es que el gel de soporte puede ser fácilmente derretido y retirado al calentarlo a temperatura corporal, lo cual no daña las delicadas moléculas biológicas o células vivas que se imprimen, al menos a juzgar por los experimentos realizados hasta ahora.
Como próximo paso, el grupo está trabajando hacia la incorporación de células cardiacas reales en estas estructuras de tejido impresas en 3D, proporcionando un andamio para ayudar a formar el músculo contráctil.
La bioimpresión es un campo en alza, pero hasta la fecha, la mayoría de las bioimpresoras 3D han costado por encima de 100.000 dólares y/o requieren conocimientos especializados para su operación, limitando una adopción más general. El grupo de Feinberg, sin embargo, ha podido poner en marcha su técnica en una serie de impresoras 3D de nivel popular, que cuestan menos de 1.000 dólares al usar hardware y software de código abierto.
“No solo es bajo el coste, sino que al usar el software de código abierto, tenemos acceso a ajustar los parámetros de impresión, optimizar lo que estamos haciendo y maximizar la calidad de lo que estamos imprimiendo”, explica Feinberg. “Nos ha permitido realmente acelerar el desarrollo de nuevos materiales e innovar en este campo. Y también estamos contribuyendo a que otros puedan hacerlo, al divulgar nuestros diseños de impresión 3D bajo una licencia de código abierto”.


domingo, 25 de octubre de 2015

Ultrasonido para acelerar la absorción corporal de un fármaco

Una nueva técnica basada en el uso de ultrasonido permite mejorar el tratamiento de ciertas enfermedades inflamatorias intestinales, al acelerar notablemente la absorción del medicamento administrado.
Empleando ondas ultrasónicas, unos investigadores del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, y del Hospital General de Massachusetts (MGH) en la misma nación, han encontrado una forma de suministrar de forma ultrarrápida fármacos al tracto gastrointestinal. Esta estrategia podría hacer más eficaz el suministro de fármacos a pacientes que sufren de enfermedades inflamatorias intestinales como la colitis ulcerosa y la enfermedad de Crohn.
Hoy en día, tales enfermedades se tratan habitualmente con fármacos administrados en forma de enema, que debe mantenerse en el colon durante horas, mientras la medicina es absorbida. Sin embargo, esto puede ser difícil para pacientes que sufren de diarrea e incontinencia. Para superar esto, el equipo del gastroenterólogo Giovanni Traverso buscó una forma de estimular una absorción más rápida del fármaco, y ha encontrado en la aplicación de ultrasonido un medio idóneo para lograrlo.
Con esta nueva técnica no se cambia cómo se administra el fármaco. Lo que se cambia es la cantidad de tiempo que el medicamento necesita estar ahí, porque la técnica ultrasónica acelera la absorción de este por el tejido.
Con investigaciones adicionales que aseguren su validez, esta técnica podría ser muy valiosa tanto en la práctica médica como en investigaciones biomédicas, permitiendo la aplicación de terapias mejoradas al tracto gastrointestinal.

Nanorredes eléctricas naturales conectando arqueas con bacterias

Se podría decir que algunos microorganismos, cuando necesitan energía, simplemente enchufan un cable a una toma de corriente. Estas células pueden satisfacer sus necesidades de energía en forma de electricidad a través de conexiones mediante nanocables naturales.
Unos investigadores han descubierto estas singulares redes naturales de suministro de electricidad, posiblemente las redes eléctricas más pequeñas del mundo, al examinar aglomeraciones celulares de microorganismos que degradan el metano. En las redes intervienen dos tipos de microorganismos unicelulares muy diferentes, que pueden degradar conjuntamente el metano. Los científicos han descubierto conexiones catalogables como cables interconectando a estas criaturas, una infraestructura esencial en los intercambios de energía.
El descubrimiento de un cableado eléctrico entre microorganismos empleando hierro como fuente de energía, en 2010, fue un hallazgo científico espectacular. De inmediato, surgió la pregunta de si el intercambio de energía eléctrica es habitual en otras reacciones químicas en las que intervienen microbios. Uno de los procesos en cuestión era la oxidación anaeróbica de metano (AOM, por sus siglas en inglés), que es responsable de la degradación de dicho gas de efecto invernadero en el lecho oceánico, y que por tanto tiene una gran relevancia para el clima terrestre. Los microorganismos implicados fueron descritos por vez primera en 2000, y desde entonces estos han sido ampliamente estudiados.
En el océano, el metano se produce por la descomposición de la biomasa muerta en los sedimentos bajo la superficie del fondo marino. El metano se eleva hacia dicho suelo, pero antes de alcanzar la columna de agua es degradado por un tipo especial de comunidad de arqueas y bacterias. Las arqueas toman el metano y lo oxidan para obtener carbonato. En el proceso, transmiten energía a sus bacterias asociadas.
El equipo de Gunter Wegener y Viola Krukenberg, del Instituto Max Planck de Microbiología Marina en Bremen, Alemania, se centró en una de estas comunidades de arqueas y bacterias cuya subsistencia se basa en la oxidación anaeróbica de metano. Estos microorganismos viven en un entorno a 60 grados centígrados.
Resultó muy difícil averiguar cómo se realizaba la transferencia de energía.
Usando microscopía electrónica en cultivos termofílicos AOM, se constató la existencia de conexiones directas canalizando electrones entre las células. También se han encontrado todos los genes necesarios para la biosíntesis de los filamentos celulares que conectan a las células. Solo cuando se añade el metano como fuente de energía se activan estos genes y se forman los cables que conectan a las bacterias con las arqueas.
Con una longitud de varios micrómetros, los cables pueden exceder en mucho la propia de las células, pero su diámetro tiene solo unos pocos nanómetros.

lunes, 5 de octubre de 2015

¿Genes víricos como causa de la esclerosis lateral amiotrófica?

La esclerosis lateral amiotrófica (ELA o ALS por sus siglas en español o en inglés, respectivamente), conocida también como enfermedad de Lou Gehrig, es una dolencia degenerativa neuromuscular que destruye las neuronas encargadas de controlar los movimientos de los músculos. No habiendo todavía una cura para ella, la enfermedad mata a la mayoría de pacientes entre tres y cinco años después de que aparezcan los primeros síntomas. Es una enfermedad más común de lo que podría parecer: solo en Estados Unidos unos 5.600 nuevos casos se diagnostican cada año.
Durante generaciones, los humanos nos hemos estado transmitiendo restos genéticos provenientes de genes retrovirales endógenos (HERVs, por sus siglas en inglés) de infecciones que pudieron aquejar a nuestros antepasados hace millones de años. Aunque casi el 8 por ciento del genoma humano normal está compuesto por estos genes, se conoce muy poco sobre su papel en la salud y la enfermedad.
El equipo del Dr. Avindra Nath, del Instituto Nacional estadounidense de Trastornos Neurológicos y Accidentes Cerebrovasculares (NINDS), uno de los Institutos Nacionales estadounidenses de Salud (NIH), ha descubierto que la reactivación de genes víricos antiguos de esa clase incrustados en el genoma humano podría ser la causa de la destrucción de neuronas en algunas de las modalidades de la esclerosis lateral amiotrófica. Los resultados sugieren una conexión entre estos casos de la enfermedad y los genes HERV.
Los resultados de la investigación también plantean la cuestión de si algunos fármacos antirretrovirales, similares a aquellos usados para refrenar al VIH (culpable del SIDA), podrían ayudar a algunos pacientes de esclerosis lateral amiotrófica.
En contadas ocasiones, pacientes de SIDA, infectados con el VIH, desarrollan síntomas parecidos a la esclerosis lateral amiotrófica. En muchos de estos pacientes, los síntomas pueden ser suprimidos mediante un tratamiento con fármacos antirretrovirales. Estudios anteriores encontraron transcriptasa inversa, una proteína codificada por genes retrovirales, en la sangre de algunos pacientes de esclerosis lateral amiotrófica, pero su papel en esta dolencia es desconocido.
Estas observaciones impulsaron al Dr. Nath y sus colaboradores a explorar la posible relación entre los retrovirus y la esclerosis lateral amiotrófica. Inesperadamente, han encontrado que ciertos retrovirus endógenos, o heredados, podrían estar implicados en la esclerosis lateral amiotrófica; las neuronas motoras podrían ser susceptibles a la activación de estos genes en dicha enfermedad.

Identifican y detallan la función de la proteína principal de un mecanismo natural sensor de luz

Un equipo de científicos estadounidenses y españoles ha descubierto y mapeado una proteína sensible a la luz que utiliza vitamina B12 para llevar a cabo funciones clave, incluyendo la regulación de genes.
El resultado, derivado del estudio de proteínas de la bacteria Thermus thermophilus, incluye al menos dos hallazgos de amplio interés.
En primer lugar, lo descubierto amplía nuestro conocimiento sobre el papel biológico de la vitamina B12, de la cual ya se sabía que ayuda a convertir la grasa en energía, y que está implicada en la formación del cerebro, pero que solo ahora ha sido identificada como miembro esencial de las proteínas fotorreceptoras, las estructuras que permiten a los organismos percibir la luz y reaccionar a ella.
En segundo lugar, la investigación describe un nuevo modo de regulación genética, en el que las proteínas sensibles a la luz juegan un papel clave. A tal fin, las bacterias han reacondicionado estructuras proteicas existentes que utilizan la vitamina B12, y las han puesto a trabajar de nuevas formas.
A largo plazo, lo descubierto en esta investigación podría tener aplicaciones prácticas, como el control de la transcripción del ADN mediante la luz, o el desarrollo de interacciones controladas entre proteínas.

lunes, 28 de septiembre de 2015

La NASA halla nuevas pruebas de agua líquida en Marte

Las imágenes aéreas tomadas de Marte se parecen mucho a las de la Tierra. Uno de los accidentes más interesantes son unas estrías en el terreno que se precipitan colina abajo y que intuitivamente parecen cauces de agua. Estos cursos aparecen y desaparecen del terreno, lo que refuerza la idea de que sea el agua estacional la que los forme. Pero de la intuición a la realidad hay un enorme paso y hasta el momento no se ha podido demostrar que esas grietas se deban realmente al agua líquida, cuya existencia sería clave para la posibilidad de que haya vida en el planeta rojo.
Hoy se publica un nuevo estudio que aporta importantes pruebas para afirmar que en estas formaciones de Marte hay agua líquida, muy probablemente salada. Los responsables del trabajo, publicado en Nature Geoscience, han analizado píxel a píxel las imágenes del planeta tomadas por la sonda MRO de la NASA. Hasta ahora, el problema con estos accidentes geográficos es que tienen solo unos pocos metros de ancho, muy cerca del límite de detección de las cámaras a bordo de la MRO.
Los datos se presentan hoy durante una conferencia de prensa organizada por la NASA y en la que anunciaba “la resolución del misterio de Marte”. No hace falta ser un experto en astrobiología para juzgar lo cerca o lo lejos que se quedan los resultados de las expectativas.
El nuevo trabajo se centra en los datos tomados por CRISM, un espectrómetro de imagen que permite identificar los minerales y otros compuestos que hay en la superficie marciana. El equipo ha desarrollado su propia técnica para poder analizar las variaciones que hay dentro de cada píxel en las imágenes del MRO y así analizar en detalle la diferente composición de los canales comparado con el terreno circundante. El trabajo se ha centrado en los cráteres Palikir, Hale y Horowitz y el Coprates Chasma, todos en el hemisferio sur del planeta y todos conocidos por estas formaciones.
Los resultados muestran la presencia de sales hidratadas. Las sales permiten que el agua permanezca líquida a temperaturas más bajas. En abril, otro estudio del equipo científico a cargo del robot Curiosity ya había señalado que en el cráter Gale se puede formar agua líquida gracias a un tipo de sales conocidas como percloratos. Siguiendo la misma línea, los responsables del nuevo estudio explican que la presencia de percloratos y cloratos probablemente implica que se forma agua líquida y que esta arrastra los minerales corriente abajo. El agua se formaría en las estaciones más cálidas y estaría en forma de salmueras, la misma mezcla de agua y sales que proponía en equipo del Curiosity.

En busca de vida

Estos datos “fortalecen la hipótesis” de que en algunas pendientes de terreno donde se dan temperaturas altas se “está produciendo agua líquida en el Marte contemporáneo”, señalan los autores del nuevo trabajo. El estudio, cuyo primer firmante es Lujendra Ojha, del Instituto Tecnológico de Georgia (EE UU) y en el que han participado investigadores de la NASA, menciona que en el desierto de Atacama (Chile), un análogo de Marte en la Tierra, la presencia de sales permiten la existencia de comunidades microbianas. Advierten, eso sí, de que en los terrenos analizados de Marte la actividad de las soluciones salinas puede ser demasiado débil como para sustentar vida.
“Este artículo apoya los planteamientos sobre un Marte geológicamente vivo con posible actividad acuosa actual que generaría una escorrentía efímera de estas salmueras, tal vez relacionada con un posible ciclo hidrológico”, opina Jesús Martínez-Frías, investigador del Instituto de Geociencias (CSIC-UCM) y miembro del equipo científico de la misión NASA-MSL (rover Curiosity). Los resultados también son importantes para el estudio de la “habitabilidad de Marte”, resalta. “En la superficie de Marte las condiciones son muy hostiles para la vida , pero estos nuevos datos sobre la posible existencia de agua líquida actual subsuperficial respaldan que la habitabilidad es mucho más favorable bajo el regolito marciano, que es donde habrá que concentrar los esfuerzos futuros en la búsqueda de vida”, opina.

Disminución reciente de fitoplancton marino en el hemisferio norte

Las aguas marítimas del hemisferio norte han experimentado descensos notables en ciertos tipos de vida vegetal microscópica, en la base de la cadena alimentaria marina, según un nuevo estudio llevado a cabo por el equipo de la oceanógrafa Cecile Rousseaux, de la USRA (Universities Space Research Association), y del Centro Goddard de Vuelos Espaciales de la NASA, en Greenbelt, Maryland, Estados Unidos.
Las diatomeas, el tipo más grande de algas de fitoplancton, han disminuido más de un 1 por ciento anual desde 1998 hasta 2012 globalmente, con pérdidas notables acaecidas en el Pacífico Norte, el Índico Norte y el Índico Ecuatorial. La reducción en la población podría disminuir la cantidad de dióxido de carbono extraído de la atmósfera y transferido hasta las profundidades marinas donde queda almacenado a largo plazo.
El fitoplancton necesita dióxido de carbono (CO2) para la fotosíntesis, exactamente como los árboles. El dióxido de carbono de la atmósfera se disuelve en agua marina fría. Durante una proliferación masiva de fitoplancton, que puede extenderse a lo largo de cientos de kilómetros y ser vista desde el espacio, los diminutos organismos toman el CO2 disuelto y lo convierten en carbono orgánico, una forma que los animales pueden utilizar como alimento para nutrirse y crecer. Ello constituye la base esencial de la red alimentaria marina. Después, cuando la célula de fitoplancton muere, se hunde hasta el fondo marino, llevándose con ella el carbono en su cuerpo.
Dado que son más grandes que otros tipos de fitoplancton, las diatomeas, cuando mueren, pueden hundirse más rápidamente que los ejemplares de tipos con estructura más pequeña. Una porción circulará de regreso a la superficie debido a las corrientes oceánicas, y, como fertilizante, alimentará otra proliferación de fitoplancton. Pero el resto se depositará en el fondo marino, kilómetros más abajo, donde se acumulará en el sedimento y será almacenado durante miles o millones de años. El proceso es una de las opciones de almacenamiento a largo plazo para el carbono retirado de la atmósfera.

domingo, 27 de septiembre de 2015

Modificaciones artificiales en virus que los convierten en armas antibacterianas para combatir infecciones

En la búsqueda de nuevas formas de matar bacterias dañinas, bastantes grupos de científicos están recurriendo a un depredador natural de estas: virus que infectan bacterias. Realizando los ajustes adecuados en el genoma de estos virus, conocidos como bacteriófagos, los investigadores esperan adaptarlos para que ataquen selectivamente a las clases de bacterias patógenas escogidas como blancos de ataque.
Para ayudar a lograr este objetivo, unos ingenieros biológicos del Instituto Tecnológico de Massachusetts (MIT) de Estados Unidos, encabezados por Timothy Lu, profesor de ingeniería electrónica y ciencias de la computación, así como de ingeniería biológica, han ideado un nuevo sistema para modificar genéticamente virus, con miras a usarlos en ataques selectivos contra bacterias nocivas. Esta estrategia podría generar nuevas armas contra bacterias para las cuales no existen antibióticos efectivos.
Estos bacteriófagos modificados están diseñados de una forma que es bastante modular. Es factible sacar genes y recolocarlos de manera que el virus resultante siga siendo funcional pero tenga nuevas propiedades.
En experimentos recientes, los investigadores modificaron virus capacitándolos para atacar de manera selectiva y contundente a las bacterias patógenas Yersinia y Klebsiella, así como a varias cepas de E. coli. Todas forman parte de un grupo conocido como bacterias gram negativas, contra las cuales hay pocos antibióticos nuevos. Este grupo incluye asimismo microbios que pueden causar infecciones respiratorias, urinarias y gastrointestinales, incluyendo neumonía, sepsis, gastritis y legionelosis.
Una ventaja de los virus modificados es que, a diferencia de muchos antibióticos, son muy específicos con respecto a sus blancos de ataque. Los antibióticos pueden matar mucha de la flora bacteriana beneficiosa de nuestro intestino. En cambio, mediante virus, es factible aniquilar solo a bacterias muy específicas.
Estos virus bacteriófagos podrían también ser utilizados para “editar” comunidades microbianas, como la población de bacterias que vive en el intestino humano. Existen billones de células bacterianas en el tracto digestivo humano, y si bien muchas de estas son beneficiosas, algunas pueden causar enfermedades. Por ejemplo, algunos informes han relacionado la enfermedad de Crohn con la presencia de ciertas cepas de E. coli. Sería muy útil, en experimentos, poder eliminar miembros específicos de la población bacteriana y ver qué sucede, deduciendo así cuál es su función en el microbioma. A más largo plazo, puede ser viable diseñar un virus específico que extermine a un miembro demasiado peligroso de la población bacteriana pero que no mate a los otros, aunque se necesita más información sobre el microbioma para diseñar tales terapias de manera efectiva.

¿Cuándo comenzó a manifestarse el calentamiento global?

Hoy en día, tenemos a nuestro alrededor muchas indicaciones de que hay un cambio climático global en marcha, pero ¿cuándo comenzaron a aparecer las primeras? Al principio, pasaron desapercibidas, y ahora unos investigadores han determinado por vez primera de manera bastante inequívoca cuándo y dónde aparecieron las primeras señales claras de calentamiento global en el registro de temperaturas, y dónde y cuándo aparecerán señales análogas pero en el registro de pluviosidad, manifestadas en forma de episodios de lluvia extrema.
El equipo de Andrew King, del Centro de Excelencia para la Ciencia del Sistema Climático, dependiente del Consejo de Investigación Australiano (ARC, por sus siglas en inglés), ha determinado la existencia de signos claros de calentamiento global en los trópicos durante la década de 1960, mientras que en partes de Australia, Sudeste de Asia y África fueron visibles tan pronto como en los años 40.
Más cerca de los polos, la aparición del cambio climático en el registro de temperaturas se produjo más tarde. En cualquier caso, en el periodo 1980-2000 dicho registro en la mayoría de las regiones del planeta ya estaba mostrando señales claras de calentamiento global.
Una de las pocas excepciones a esta clara aparición de señales de calentamiento global se encontró en amplias zonas del territorio continental de Estados Unidos, en particular en la costa este y hacia el norte a través de los estados centrales. Estas regiones no han manifestado aún señales obvias de calentamiento según los modelos, pero se prevé que aparezcan en la próxima década.
Si bien los registros de temperatura analizados mostraban por regla general indicaciones claras de calentamiento global, los episodios de lluvia extrema aún no han dejado su marca de manera inequívoca. Los modelos mostraron un incremento general en las lluvias extremas pero aún demasiado leve como para destacarse de manera inequívoca por encima de lo que cabe esperar de la variabilidad natural.
Los autores del estudio creen que los primeros episodios de grandes precipitaciones identificables claramente como manifestaciones del cambio climático global aparecerán durante los inviernos en Rusia, Canadá y el norte de Europa a lo largo de los próximos 10 a 30 años.

Descodifican el genoma de un “fósil viviente”

Se ha logrado descodificar el primer genoma de un braquiópodo del género Lingula, de un ejemplar de la especie Lingula anatina recogido en aguas próximas a la isla de Amami, Japón, y los resultados de un análisis de los más de 34.000 genes que constituyen el genoma del L. anatina revelan que a pesar de la reputación de “fósil viviente” que tienen los miembros del género Lingula, su genoma está evolucionando activamente.
El trabajo es obra de un grupo de científicos del Instituto de Ciencia y Tecnología de Okinawa (OIST), la Universidad de Nagoya y la de Tokio, todas estas instituciones en Japón.
Desde hace unos 500 millones de años hasta hace 250 millones, los braquiópodos, también conocidos como "conchas-lámpara", eran abundantes en los océanos de la Tierra. Hoy, estas criaturas provistas de concha que superficialmente parecen almejas, raramente se encuentran, perdurando sobre todo en hábitats ocultos y en ciertas regiones subpolares de los océanos. Pero el registro fósil, generalmente dotado de braquiópodos de formas diversas, ofrece un testimonio impresionante de la gloria pasada de estos animales.
Los braquiópodos representan uno de los primeros ejemplos conocidos de biomineralización animal, un proceso por el cual organismos vivos fortalecen o endurecen sus tejidos con minerales. Los fósiles más antiguos descubiertos de braquiópodos datan del período Cámbrico temprano, hace aproximadamente 520 millones de años. Los braquiópodos se extendieron rápidamente por todo el mundo y dominaron los mares durante la era Paleozoica y, gracias a sus conchas mineralizadas, dejaron abundantes fósiles.
Los braquiópodos del género Lingula han cambiado tan poco en apariencia desde el período Silúrico (hace entre 443 y 419 millones de años) que Charles Darwin se refirió a ellos como “fósiles vivientes”. Este término induce a la gente a menudo a creer equivocadamente que estos animales ya no evolucionan, algo que el actual estudio ha desmentido de manera inequívoca.