miércoles, 26 de noviembre de 2014

La obesidad y el sobrepeso causan medio millón de casos de cáncer al año

Una mujer midiéndose la cintura.
Cerca de medio millón de nuevos casos de cáncer que se producen cada año se pueden atribuir al alto índice de masa corporal. Es la principal conclusión de un estudio que indica que el sobrepeso y la obesidad se han convertido en un factor de riesgo responsable de un 3,6% de todos los nuevos casos de cáncer en 2012.
La investigación, publicada en la revista The Lancet Oncology, ha sido llevada a cabo por la Agencia Internacional para la Investigación sobre el Cáncer (IARC), la institución especializada en cáncer de la Organización Mundial de la Salud (OMS), según recoge Sinc.
El índice de masa corporal (IMC), es una medida que se calcula dividiendo el peso en kilogramos por el cuadrado de la altura en metros. La OMS define el sobrepeso como un IMC mayor o igual a 25 kg/m2, y la obesidad como un IMC mayor o igual a 30 kg/m2.
Un alto índice de masa corporal es un predictor de riesgo conocido para diversos tipos de cáncer (esófago, colon, recto, riñón, páncreas, vesícula biliar, mama posmenopáusico, ovario y endometrio), así como para otras enfermedades no transmisibles, como patologías cardiovasculares y diabetes.
Más incidencia en países ricos
Así, este nuevo análisis muestra llamativas disparidades mundiales. El cáncer debido al sobrepeso y la obesidad es actualmente mucho más común en los países más desarrollados (393.000 casos, 5,2% de todos los nuevos casos de cáncer en estos países) que en los países menos desarrollados (88.000 casos, el 1,5% de los nuevos casos).
Por su parte, Norteamérica sigue siendo el territorio más afectado, con 111.000 cánceres relacionados con la obesidad en 2012, lo que representa el 23% de la carga total de cáncer mundial vinculado a un IMC alto.
También en Europa la proporción de estos cánceres es grande, sobre todo en Europa del Este (65.000 casos, el 6,5% de todos los nuevos casos).
Aunque en la mayoría de los países asiáticos esta proporción no es grande, sí se traduce en un considerable número absoluto de casos debido al gran tamaño de la población. Por ejemplo, en China cerca de 50.000 casos (1,6%) de cáncer en mujeres y hombres están asociados con el sobrepeso y la obesidad.
En cambio, la contribución del sobrepeso y la obesidad a la carga del cáncer sigue siendo baja en África (7.300 casos, 1,5% de todos los nuevos casos de cáncer en el continente).
"Mientras que el número de casos de cáncer asociado sigue siendo más alta en los países ricos, son ya visibles efectos similares en algunas partes del mundo en desarrollo", explica Isabelle Soerjomataram, una de las autoras del estudio.
Más mujeres afectadas
Los países con mayor carga de cáncer atribuible al sobrepeso y a la obesidad en mujeres son Barbados (12,7%), República Checa (12,0%) y Puerto Rico (11,6%) son los más afectados. Entre los hombres, República Checa (5,5% de los nuevos casos de cáncer del país), Jordania (4,5%), Reino Unido (4,4%) y Malta (4,4%).
En Estados Unidos, uno de los países más aquejados por estos cánceres asociados con un IMC alto, el 3,5% y 9,5% de los nuevos casos están relacionados con el exceso de peso corporal en hombres y mujeres, respectivamente.
El estudio pone de manifiesto que la proporción de cánceres relacionados con la obesidad es mayor en las mujeres que en los hombres, con una proporción del 5,3 y 1,9%, respectivamente.
"Las mujeres se ven desproporcionadamente afectadas por cánceres relacionados con la obesidad", apunta Melina Arnold, otra de las autoras del estudio.
"Por ejemplo, para el cáncer de mama después de la menopausia -el cáncer más común en las mujeres en todo el mundo-, el estudio sugiere que el 10% de estos cánceres se podrían haber evitado por tener un peso corporal saludable".
Los cánceres de endometrio, colon y mama representan casi tres cuartas partes (73%) de todos los cánceres ligados al IMC alto en las mujeres. En los hombres, los cánceres de riñón y colon juntos representan dos tercios (66%) de todos los cánceres asociados con un IMC alto.
Prevenir es importante
Según el trabajo, reducir el sobrepeso y la obesidad en la población podría tener beneficios significativos para la salud, incluyendo la reducción de la carga del cáncer.
El estudio también muestra que una cuarta parte de todos los cánceres atribuibles al sobrepeso y la obesidad en todo el mundo (118.000 casos) se podría haber evitado si las poblaciones simplemente hubieran mantenido su IMC de hace 30 años.
"Se espera que el número de cánceres relacionados con la obesidad y el sobrepeso en el mundo aumente junto con el desarrollo económico", añade Christopher Wild, director del IARC.
"Es importante establecer medidas de control de peso eficientes para frenar el elevado número de cánceres asociados y evitar que los problemas de los países ricos se repitan en los que están desarrollándose rápidamente", ha concluido.

Vía: http://www.rtve.es/noticias/20141126/obesidad-sobrepeso-causan-medio-millon-casos-cancer-ano/1055204.shtml

Un 75% de los canarios, en contra de las prospecciones, según una encuesta

Mientras el buque Rowan Renaissance continúa realizando las catas a 54 kilómetros de las costas de Fuerteventura y Lanzarote, el Gobierno de Canarias ha desvelado que tres de cada cuatro canarios no ve con buenos ojos las prospecciones petrolíferas realizadas desde hace semanas en todo el Archipiélago. El dato proviene de una encuesta encargada por el propio Gobierno regional y que sirve de sucedáneo del referéndum, primero, y consulta después, que no se han podido realizar porque el Tribunal Constitucional ha suspendido ambas iniciativas de forma cautelar.
El sondeo, para el que se han encuestado a 2.772 personas en todas las Islas, concluye que el 75% está en contra de las prospecciones petrolíferas en Canarias y apuesta por un modelo sostenible que respete el principal sector económico canario: el turismo. El resultado de esta encuesta, elaborada por universidades públicas de Canarias, indica también que el 15% de los encuestados es partidario de las prospecciones petrolíferas que lleva a cabo Repsol, mientras que un 9% no opina.
La encuesta consta de diez preguntas sobre las prospecciones, sobre la reacción en este asunto del Gobierno canario y sobre la relación entre los modelos energéticos, turísticos y la calidad de vida. El trabajo, que empezó en Lanzarote a principios de mes y se fue extendiendo al resto de islas, ha sido coordinado por José Luis Rivero Ceballos, catedrático de la Universidad de La Laguna y expresidente del Consejo Económico y Social de Canarias.
A la luz de los datos, el presidente del Gobierno de Canarias, Paulino Rivero, ha insistido en lo que considera un atropello por parte del Gobierno central al no escuchar a la voluntad de las Islas y advirtió de que se no se tiene en cuenta “la oposición del pueblo canario a las prospecciones, se rebelará”. El presidente canario considera que "no están enfrentados los intereses generales de España con los de Canarias" y que lo que hay sobre la mesa "es el choque frontal de los intereses de una multinacional con los intereses de los canarios". En este sentido, ha alertado del daño que el sector turístico podría sufrir "por la codicia de una multinacional, codicia que cuenta con la complicidad del Gobierno del Estado".

Vía: http://politica.elpais.com/politica/2014/11/24/actualidad/1416838609_904766.html

El diagnóstico tardío sigue siendo el talón de Aquiles del VIH en España

El número de nuevas infecciones por VIH en España se mantiene estable desde hace cuatro años, pero también lo hace el porcentaje de casos diagnosticados de forma tardía, que vuelve a rozar el 50% (aunque ha disminuido de forma no estadísticamente significativa desde el año pasado). Este dato hace difícil reducir las nuevas infecciones ya que, según los expertos, son los seropositivos diagnosticados tardíamente la principal fuente de las mismas. La razón: las personas que reciben tratamiento con antirretrovirales reducen drásticamente las posibilidades de transmitir el VIH.
Las nuevas estadísticas sobre VIH en España las han presentado hoy en rueda de prensa la directora general de Salud Pública, Calidad e Innovación del Ministerio de Sanidad, Servicios Sociales e Igualdad (MSSSI), Mercedes Vinuesa y la subdirectora general de Promoción de la Salud y Epidemiología, Elena Andradas con motivo del Día Mundial del Sida 2014, que se celebrará el próximo 1 de diciembre.
En el año 2013 se notificaron un total de 3.278 nuevos diagnósticos de infección por VIH, pero el 46% fueron localizados de manera tardía. Por esta razón, destacó Andradas, la principal prioridad del Plan Nacional de Sida y las comunidades autónomas es rebajar este porcentaje, que en 2012 fue ligeramente superior, cercano al 48%. "Ponemos especial énfasis porque son los transmisores de nuevas infecciones", subrayó Andradas que aclaró que "el objetivo principal" sigue siendo disminuir el número de nuevas infecciones.
Los casos notificados de VIH en 2013 suponen una tasa de 10,3 por 100.00 habitantes, una cifra que sitúa a España a niveles "similares a los países del entorno pero superiores a la media europea". Todas estas razones explicarían el lema escogido por el MSSSI para este Día Mundial: "El sida no es algo del pasado. Tenlo presente".
En los datos aportado por el Ministerio se ha puesto de manifiesto que el 80% de las nuevas infecciones son de transmisión sexual, mientras que un 4% corresponden a usuarios de drogas por vía parenteral y menos de un 1% a transmisión vertical, de madre a hijo. Se desconoce la vía de adquisición de un 15% de los nuevos casos diagnosticados.
De entre los grupos con conductas de riesgo, sigue siendo el más preocupante el de hombres que tienen sexo con hombres (HSH), que supone el 51,2% de los nuevos diagnósticos, frente al 28,5% de las personas con relaciones heterosexuales. Los varones siguen siendo los protagonistas de la infección, ya que el 85% de los nuevos diagnósticos se dio en este género y el mayor número de caso entre los 30 y los 34 años.
Andradas comentó que los HSH son un "grupo prioritario" para el Ministerio en el que "se han concentrado muchos esfuerzos" aunque, destacó, son grupos "muy sensibilizados", lo que quizás podría explicar que sean los menos afectados por el diagnóstico tardío.
Respecto a posibles medidas para resolver el hecho de que sigue habiendo una falta de uso del preservativo, la técnico del Ministerio descartó que se estuviera planteando aprobar el uso de la terapia preexposición aunque, anunció, sí se está analizando el uso de quimioprofilaxis postexposición, asunto sobre el que se publicarán guías próximamente. "Nosotros seguimos concentrados en promover el uso del preservativo", declaró Andradas.
Entre los datos positivos que se extraen de este año, un descenso entre las personas nacidas fuera de España, cuyos nuevos diagnósticos han bajado del 41% en 2008 al 35,6% en 2013.
También es positivo el porcentaje de personas diagnosticadas con la infección que están sometidos a tratamiento y que supera el 90% de los seropositivos.
Sin embargo, se calcula que entre el 25% y el 30% de la población infectada por el VIH en España desconoce su situación, por lo que no pueden tratarse y son perfectos candidatos a trasmitir el virus, lo que hace insistir al Ministerio en la necesidad de hacerse la prueba del VIH, para lo que han llevado a cabo distintos acuerdos con comunidades autónomas para reforzar las sospechas y el diagnóstico del VIH. Entre ellas, Andradas ha destacado el estudio piloto en Centros de Atención Primaria que se está realizando en siete comunidades autónomas (Madrid, Andalucía, Valencia, Baleares, Galicia, Canarias y País Vasco) y la ciudad autónoma de Ceuta y que pretende que los médicos de familia animen a sus pacientes a hacerse la prueba del VIH.

Vía: http://www.elmundo.es/salud/2014/11/26/5475d969ca47417a668b4570.html

Red piloto de suministro eléctrico nutrida esencialmente de energías renovables

En el marco de un ambicioso proyecto empresarial, un equipo de ingenieros de la Universidad Tecnológica Nanyang (NTU) en Singapur, construirá una pequeña red híbrida de suministro eléctrico que integrará múltiples fuentes de energía a gran escala, esencialmente renovables.
La red, primera en la región, probará y demostrará la integración de energía solar, eólica, mareomotriz y otras, y asegurará que esas fuentes de energía operan bien juntas.
La red será emplazada en el vertedero de basura de la isla de Semakau, y se espera que produzca energía en el rango del megavatio (MW), lo cual es suficiente para pequeñas islas, pueblos aislados, y sistemas de abastecimiento energético de emergencia. Esto permitirá energizar unos 250 apartamentos de 4 habitaciones, que consumen juntos un pico de 1 MW.
El proyecto ya se ha puesto en marcha oficialmente, con el apoyo del gobierno de Singapur, y la participación de las compañías Accenture, Alstom, Class NK, DLRE, GDF Suez, Renewable Energy Corporation, Schneider Electric, Trina Solar, Varta y Vestas.
La red eléctrica se montará en dos fases.
En la primera fase, se construirán, en el vertedero de Semakau, paneles solares fotovoltaicos y aerogeneradores, así como instalaciones para el almacenamiento de energía excedente destinada a su uso en momentos de baja generación energética. Esto último es muy importante, dado que un problema común de las fuentes de energía renovables es que la suministran de forma intermitente. La red híbrida pretende asegurar un suministro de energía estable y duradero, a través de la integración de varios sistemas de almacenamiento y de control inteligente de la energía.
La segunda fase del proyecto incluirá la construcción de instalaciones de energía mareomotriz (generación de electricidad a partir de la fuerza mecánica de las mareas) alrededor del perímetro costero del vertedero de Semakau y la isla de Saint John (Pulau Sakijang Bendera).
Finalmente la infraestructura de la primera fase se integrará con la de la segunda, y la red estará completa.
Si todo va bien, esta red será una demostración de la viabilidad de instalar redes similares para ayudar a proporcionar electricidad a comunidades en islas pequeñas u otras zonas de difícil acceso, que no tienen acceso al suministro eléctrico. Además servirá como ensayo general para abordar la instalación de redes mucho más grandes, destinadas a zonas urbanas amplias.

Vía: http://noticiasdelaciencia.com/not/12045/red-piloto-de-suministro-electrico-nutrida-esencialmente-de-energias-renovables/

¿Cuándo apagaste el móvil por última vez?

La vida de la batería en los smartphones es un asunto pendiente para los fabricantes. Mientras más potentes son los terminales, más energía agotan. Sin embargo, a pesar de este panorama, la mayoría de los jóvenes españoles siempre mantiene su móvil encendido. De hecho, 67,4% ha confesado que nunca apaga el teléfono por voluntad propia, es decir, que el terminal sólo se apaga cuando agota su batería y por alguna razón, el usuario no puede conectarlo a una fuente de energía.
Esto es lo que se desprende del último estudio realizado por Tuenti Móvil y la compañía de investigación de mercados IPSOS sobre hábitos de uso y opinión de los jóvenes con respecto a internet en el móvil.
Según este estudio, un 74,4% de los jóvenes entre 16 y 35 años encuestados afirma que nunca apaga el móvil o no recuerda cuándo fue la última vez que lo hizo. Tuenti Móvil señala que esta es una señal del grado de integración de los smartphones en la vida cotidiana de los usuarios.
Tuenti Móvil preguntó a pie de calle si recordaban la última vez que había mantenido su equipo apagado. Por sorpresa, señalan, la mayoría no recordaba la fecha exacta.
Aunque el móvil siempre lo mantengan encendido, no quiere decir que siempre esté sonando. Solo un 6,6% de los encuestados decide no «silenciar» su móvil, en comparación con el 94,4% que sí lo hace. Entre las personas que decide usar su teléfonos en «silencio», un 74% lo hace porque se encuentre en clases o en el trabajo, y un 19,3% lo mantiene en silencio siempre.
Destaca también que aunque no recuerdan la fecha en que han apagado el teléfono, reconocen que la carga de una batería les dura un día (68%). Solo un 0.9% dice que la batería le dura tres días o más. Destacan que en estos casos, lo más probable es que su teléfono no tenga conexión de datos.
El perfil del usuario encuestado para este estudio se conecta diariamente a internet desde su smartphone o tablet con plan de datos o tarifa plana (84.7%), pasa más de 30 minutos chateando (57%) o en redes sociales (53.5%) y apenas envía SMS o ve películas en el dispositivo móvil.
 

martes, 25 de noviembre de 2014

Sí o no... Las dos caras del «fracking»

«Fracking» sí, «fracking» no, he ahí la cuestión. Y como cualquier dualidad de situaciones, las ventajas y los inconvenientes están sobre la mesa. El caso es que la energía en la sociedad actual se ha convertido en un bien esencial para el crecimiento de cualquier economía desarrollada. Pero debe ser competitiva, barata y abundante. Y, en España, no lo es.
Aquí es cuando aparece el «fracking», nombre con el que se conoce la extracción de gas y petróleo no convencional mediante fracturación hidráulica. Se trata de explotar el hidrocarburo acumulado en los poros y fisuras de ciertas rocas sedimentarias estratificadas de grano fino o muy fino, generalmente pizarras o margas, cuya poca permeabilidad impide el movimiento del gas a zonas de más fácil extracción.
¿Los contras? Aquellos que no ven con buenos ojos esta técnica aseguran que para realizar extracciones son necesarios cientos de pozos ocupando amplias áreas e inyectar en ellos millones de litros de agua cargados con un cóctel químico y tóxico para extraerlo. Otros estudios inciden en los trastornos que puede causar a las poblaciones de los alrededores, un problema mayor en Europa, donde las poblaciones están más concentradas.
Mientras, los «profracking» recuerdan que la tecnología está absolutamente probada con éxito, y se desarrolla de manera eficiente y segura en más de 10.000 pozos anuales en Estados Unidos. Además, estiman que ahorraría a Europa 900.000 millones en su objetivo de reducir importaciones y emisiones de CO2 a 2050 combinado con aquellas energías renovables que ya no necesitan subvención.
Empleo «a granel»
Para Gonzalo Escribano, director del programa de energía del Real Instituto Elcano, la utilización del «fracking» en España sería muy útil «para reducir la dependencia exterior de nuestro país en hidrocarburos y por el valor económico de esa eventual producción». Ahora bien, especifica que el potencial que tendría España en este terreno es «relativamente reducido. Aunque la industria es muy optimista las estimaciones de recursos y sobre todo el contexto sociocultural no son ni de lejos tan propicios como en EE.UU».
Los datos que circulan entre los expertos toman como referencia que en el mercado norteamericano trabajan 1.700.000 trabajadores en 400.000 pozos, es decir, 4,25 por pozo. Estos mismos técnicos sostienen que en España se podrían crear unos 50.000-60.000 empleos. Haciendo la misma regla de tres, el sector estima que se explotarán en España unos 13.500 pozos para llegar a esas cifras.
Pero hay más datos que decantan la balanza del lado de las ventajas. Así, desde que la revolución del «fracking» comenzó en Estados Unidos, el precio del gas allí ha caído más de un 44%, mientras en Europa subía un 23% de media. «Eso es un estímulo de verdad. No es una cuestión irrelevante. El coste de la energía supone casi el 30% de los costes totales de las industrias en Europa», apunta el economista y experto en energía, Daniel Lacalle, autor de «La Madre de todas las Batallas». España importa casi el 55% de su gas de Argelia y depende, para tener flexibilidad, de países que cobran por su gas precios muy superiores a lo que costaría el gas pizarra. Incluso asumiendo un coste que duplicase al gas americano, el gas nacional seguiría siendo mucho más competitivo. Casi un 40% inferior al gas licuado importado.
Además, nuestro país cuenta con importantes reservas de gas pizarra, concentradas en regiones afectadas por un paro cercano al 30%, y que necesitan como el agua recibir inversiones. La industria del petróleo no solo atrae inversiones sin subvenciones, sino que crea empleo cualificado, además de traer extranjeros expatriados de alto poder adquisitivo. «España necesita inversión y crear empleo ya -demanda Lacalle-. Rechazar capital es un lujo que no nos podemos permitir. Escondernos en el "no en mi jardín" subvencionando costes esperando que algún día la demanda crezca y nuestro bolsillo lo pague, solo nos hunde más en la desindustrialización y falta de competitividad en la que estamos. No nos dejemos llevar por historias de miedo y soluciones mágicas. Tenemos soluciones en casa».
Pros y contras sobre la mesa. ¿«Fracking» sí, «fracking» no? Lo que importa es tener una factura final baja.

Vía: http://www.abc.es/economia/20141120/abci-caras-fracking-201411192205.html

Nuevos datos sobre la naturaleza de la materia oscura

Una investigación realizada por científicos de la Universidad de Granada, en España, puede contribuir a determinar la naturaleza de la materia oscura, uno de los mayores misterios de la Física que, como es sabido por sus efectos gravitatorios, constituye más del 80% de la masa del universo.
En un artículo publicado en la prestigiosa Physical Review Letters, Adrián Ayala y su directora de tesis Inmaculada Domínguez, ambos pertenecientes al grupo “FQM-292 Evolución Estelar y Nucleosíntesis” de la UGR, han logrado poner límites a las propiedades de una de las partículas candidatas a materia oscura: los axiones.
En este trabajo también han participado Maurizio Giannotti (Universidad de Barry, Estados Unidos), Alessandro Mirizzi (Deutsches Elektronen-Synchrotron, DESY, Alemania) y Oscar Straniero (Instituto Nacional de Astrofísica, INAF-Observatorio Astronómico de Teramo, Italia). Esta investigación es una muestra de la cada vez más intensa colaboración entre físicos de partículas y astrofísicos, que da lugar a una ciencia relativamente nueva: la denominada “física de astropartículas”.
En este trabajo, los científicos han utilizado las estrellas como laboratorios de física de partículas: a las altas temperaturas del interior estelar, los fotones pueden convertirse en axiones que escapan al exterior, llevándose energía.
“Esta pérdida de energía puede tener consecuencias, observables o no, en algunas fases de la evolución estelar”, explica Adrián Ayala. “En nuestro trabajo, hemos realizado simulaciones numéricas (por ordenador) de la evolución de una estrella, desde su nacimiento hasta que agota en su interior el hidrógeno y posteriormente el helio, incluyendo los procesos de producción de axiones”.
Los resultados indican que la emisión de axiones puede disminuir significativamente el tiempo de la combustión central de helio, la llamada fase HB (Horizontal Branch): la energía que se llevan los axiones se compensa con energía procedente de la combustión nuclear, consumiéndose el helio más rápidamente.
“Basándonos en esta influencia sobre los tiempos característicos de evolución, podemos acotar la emisión de axiones, ya que una emisión alta implica una fase HB rápida, disminuyendo la probabilidad de observar estrellas en esta fase”, afirma Inmaculada Dominguez.
La alta calidad de las observaciones recientes de cúmulos globulares permite contrastar los resultados de las simulaciones numéricas realizadas en este trabajo con los datos. “Comparando el número de estrellas observadas en la fase HB con el número de estrellas observadas en otra fase no afectada por los axiones, como la fase llamada RGB (Red Gian Branch), hemos estimado la tasa máxima de emisión de axiones”.
La producción de axiones depende de la constante de acoplamiento axión-fotón que caracteriza la interacción entre el axión y los fotones. “Hemos obtenido un límite máximo para esta constante que es el más restrictivo de los hallados hasta la fecha, tanto teórica como experimentalmente”, señalan los investigadores de la UGR.
Los autores de este trabajo apuntan que la precisión en la determinación de la constante de acoplamiento por el método utilizado “depende críticamente de la precisión con que se pueda estimar el contenido de helio inicial de las estrellas del cúmulo globular”.

Vía: http://noticiasdelaciencia.com/not/12029/nuevos-datos-sobre-la-naturaleza-de-la-materia-oscura/

La cooperante trasladada a España sigue sin síntomas de ébola

La médico cooperante española repatriada desde Mali tras haberse pinchado accidentalmente la madrugada del jueves pasado con una aguja que había estado en contacto con material contagiado por ébola sigue sin síntomas de haber contraído la enfermedad, según han indicado a Efe fuentes sanitarias.
La profesional sanitaria, miembro de la ONG Médicos sin Fronteras (MSF), permanece sin aislamiento en la sexta planta del Hospital Carlos III de Madrid, donde continuará en observación hasta que se cumplan 21 días del contacto de riesgo, considerado el tiempo máximo para desarrollar el virus.
La médico llegó al Carlos III la mañana del viernes, procedente de la base aérea de Torrejón tras ser trasladada en un vuelo abonado con el seguro contratado por la ONG para este tipo de emergencias.
En su situación, la cooperante no es una paciente, porque no está enferma -no presenta fiebre-, sino un contacto de ébola de alto riesgo en observación.
Por ello, no ha sido sometida a ningún tipo de prueba para conocer si contrajo el virus, que se le practicaría solo si llega a presentar los síntomas propios de la enfermedad.
El equipo médico que la atiende dispone de «todas las alternativas de profilaxis y terapéuticas que, de forma experimental, se están utilizando en el mundo: vacuna experimental, antivirales y plasma», según aseguró el viernes en el Senado la secretaria general de Sanidad, Pilar Farjas.
 

jueves, 20 de noviembre de 2014

Uno de cada cinco cánceres de pulmón se da ya en no fumadores

Manifestación contra la polución en Tetovo, Macedoniam, en noviembre...
Los oncólogos han advertido hoy de un aumento del cáncer de pulmón en no fumadores, de tal forma que ya uno de cada cinco pacientes con este tipo de tumor, uno de los de mayor incidencia y mortalidad, no ha probado nunca un cigarrillo, y entre las causas de ese aumento está la contaminación.
Estos son algunos de los temas que se debatirán en el VII Simposio Internacional del Grupo Español de Cáncer de Pulmón (GECP), que ha presentado hoy una radiografía del impacto social y sanitario de esta patología, por la que mueren 21.118 españoles cada año, un 82 % hombres y el resto de mujeres.
Estas cifras suponen la suma de las muertes causadas por el cáncer de colón, de mama y páncreas juntos, según ha señalado el doctor Bartomeu Massuti, secretario de este grupo multidisciplinar de investigación clínica del cáncer de pulmón, que está formado por 368 médicos de toda España, entre oncólogos, cirujanos y otros profesionales sanitarios.
La mayoría de pacientes con cáncer de pulmón son antiguos fumadores o fumadores activos, pero la proporción de pacientes que no han probado un pitillo se está incrementando hasta situarse en un 20 %, según Massuti, jefe de Oncología del hospital general de Alicante, y Mariano Provencio, jefe de oncología del hospital Puerta de Hierro de Majadahonda.
La contaminación, como factor de riesgo potencial, es una de las causas de este aumento, según reflejan algunas investigaciones a las que alude este grupo y que indican que el número de fallecidos por este tipo de cáncer aumenta alrededor de un 8 % en las ciudades que sufren más niveles de polución.
Antes que esta causa figuran otras de tipo genético moleculares, pero si identifican las alteraciones en los enfermos en estado avanzado y son tratados de forma adecuada, su supervivencia excede en más de un año a los otros cánceres de pulmón.
La segunda causa es el tabaquismo pasivo; la tercera, según los especialistas, la polución, y, después, figura el nivel de radón (un gas radiactivo que se forma en el suelo).
En el informe que han presentado sobre el cáncer de pulmón, también se alerta del aumento de esta enfermedad en las mujeres que ha hecho que este tumor se sitúe en el cuarto en incidencia en ellas.
Las cifras ofrecidas por el doctor Provencio no dejan lugar a dudas: en los últimos seis años se ha producido un aumento de la mortalidad del 50 % en las mujeres, mientras que en hombres se ha mantenido estable.
Hace más de diez años la proporción del cáncer de pulmón entre hombres y mujeres era de 7 a 1 y actualmente la distancia se ha reducido de 4 a 1.
La incidencia en España en los hombres alcanzó su pico más alto en la segunda mitad de la década de los noventa y va en descenso, pero en mujeres sigue ascendiendo, entre otros motivos, por la incorporación de la mujer al hábito tabáquico.
La ley antitabaco ha permitido reducir un 25 % la tasa de fumadores de forma global, pero en las mujeres no se ha notado de forma clara la disminución del tabaquismo.
El porcentaje de ex fumadoras es similar al de 2001, antes de la puesta en marcha de la ley; de ahí que los especialistas aboguen para que se adopten medidas para que frenen el consumo.
Los efectos de la ley antitabaco en la incidencia del cáncer de pulmón se verán, según los oncólogos, dentro de 30 años, y ahí se comprobará cómo ha afectado en las mujeres, pero también en otro grupo de edad que preocupa a los médicos.
Se trata de los jóvenes españoles de entre 15 a 24 años, un tramo de edad en el que es casi idéntica la proporción de fumadores hombres y mujeres.

Vía: http://www.elmundo.es/salud/2014/11/20/546df3ebe2704eb1178b4574.html

Comer comida con grasas trans también perjudica a la memoria

¡Notición!:... Comer comida con grasas trans también perjudica a la memoria
Ya no solo al peso, sino que la comida que a veces no podemos resistir también afecta a la memoria. Esto ha sido el resultado de un estudio de la Universidad de California-San Diego, Estados Unidos.
La comida basura, la bollería y los alimentos de producción industrial las llevan. Los efectos son negativos. Como sabemos, la bollería industrial es uno de los productos con más grasas trans, que a día de hoy siguen cosechando la mala fama que les ha ido acompañando a lo largo de toda su historia. Un estudio presentado en las Sesiones Científicas de 2014 de la Sociedad Americana del Corazón dedujo las grasas que se encuentran en algunas galletas, tortas y alimentos procesados, podrían tener un efecto perjudicial sobre la memoria.
La investigación se le realizó a 1.000 hombres sanos, y los que consumieron más mostraron un peor rendimiento en una prueba de memoria, una asociación que se mantuvo incluso tras tener en cuenta cuestiones como la edad, la educación, el grupo étnico y la depresión.
"Las grasas trans estuvieron más fuertemente relacionadas a una peor memoria en los hombres jóvenes y de mediana edad durante sus años de trabajo y de progreso de su carrera", explica Beatrice A. Golomb, autora principal y profesora de Medicina en la Universidad de California-San Diego, Estados Unidos. "Desde el punto de vista de la salud, el consumo de grasas trans se ha relacionado con mayor peso corporal, más hostilidad y las enfermedades del corazón. Mientras las grasas trans aumentan la vida útil de los alimentos, reducen la vida útil de la gente", añade.
Golomb y su coautor realizaron un estudio a adultos que no habían sido diagnosticados con enfermedades del corazón, incluyendo a hombres de 20 años y mujeres posmenopáusicas. Los participantes completaron un cuestionario dietético y los investigadores estimaron su consumo de grasas trans. Para evaluar su memoria, se les presentó una serie de 104 tarjetas con palabras y tenían que indicar si cada palabra era nueva o repetida de una tarjeta anterior.
Los científicos vieron que entre los hombres menores de 45 años de edad, aquellos que comían más grasas trans mostraron notablemente peor rendimiento en la prueba de recordar palabras, una asociación que se mantuvo con fuerza incluso tras tener en cuenta la edad, la educación, el grupo étnico y la depresión.
Cada gramo adicional de grasas trans consumidas al día se asoció con un estimado de una reducción de 0,76 palabras recordadas correctamente. Para los que tomaban la mayor cantidad de grasas trans, esto se tradujo a un estimado de 11 palabras menos en comparación con los adultos con menor ingesta de grasas trans. El número medio de palabras recordadas correctamente era 86.
"Los alimentos tienen diferentes efectos sobre el estrés oxidativo y la energía de las células", dice Golomb. En un estudio anterior, estos expertos descubrieron que el chocolate, un alimento que es rico en antioxidantes está vinculado a una mejor memoria de palabras en adultos jóvenes y de mediana edad. En este trabajo, se analizó si las grasas trans, que son prooxidantes y están vinculadas de manera adversa a la energía celular, pueden mostrar el efecto contrario.

Vía: http://www.ideal.es/gente-estilo/201411/20/noticion-comer-comida-grasas-trans-tambi%C3%A9n-perjudica-memoria-20141120145024.html

Reliquias geológicas de la formación de la Tierra conservadas dentro de ésta

La mayoría de los volcanes están ubicados en la frontera entre dos placas tectónicas, y se originan cuando esas placas chocan o divergen. Sin embargo, existen volcanes que no se encuentran en los límites de placas, sino en puntos calientes que presentan mayor actividad volcánica que sus alrededores y son generados por un derretimiento anómalo en un sector del manto terrestre.
Las placas tectónicas se mueven aproximadamente a la velocidad a la que crecen las uñas de nuestras manos (7 centímetros al año) (3 pulgadas) y esto hace que finalmente un volcán intraplaca se aleje de su punto caliente y se extinga. Otro volcán surge en lugar del anterior sobre el punto caliente, y el proceso continúa repitiéndose y formando una cadena de volcanes.
El resultado final es una serie de volcanes cuyas edades respectivas siguen una tendencia lineal progresiva. En la placa del Pacífico, el más joven está al este, y al avanzar hacia el oeste los volcanes son más antiguos y más profundamente erosionados.
El equipo del geoquímico Matthew Jackson, de la Universidad de California en Santa Bárbara, Estados Unidos, se valió de mediciones de alta precisión de isótopos de helio y plomo para desentrañar la composición química y la geometría del penacho procedente del manto terrestre responsable de alimentar a los volcanes en islas de Samoa.
La investigación ha revelado que en ciertos puntos del interior de la Tierra, como la zona analizada, todavía se conservan vestigios de la formación inicial del planeta. Esos puntos calientes volcánicos, a menudo cadenas de islas volcánicas como Samoa, pueden contener vestigios de la infancia del sistema solar que de alguna manera han sobrevivido durante miles de millones de años.

Vía: http://noticiasdelaciencia.com/not/11997/reliquias-geologicas-de-la-formacion-de-la-tierra-conservadas-dentro-de-esta/

miércoles, 19 de noviembre de 2014

El CERN descubre dos nuevas partículas nunca vistas

El CERN descubre dos nuevas partículas nunca vistas
Los responsables del experimento LHCb del Gran Colisionador de Hadrones (LHC) del CERN ha anunciado este miércoles el descubrimiento de dos nuevas partículas de la familia bariónica, las formadas por quarks.
Estas partículas, conocidas como Xi_b'- y Xi_b*-, fueron predichas por el modelo de quarks, pero no habían sido vistas hasta ahora. Al igual que los protones que acelera el LHC, las nuevas partículas son bariones hechos de tres quarks y unidos por la fuerza nuclear fuerte (una de las cuatro interacciones fundamentales en la naturaleza). Sin embargo, los tipos de quarks son diferentes.
Las nuevas partículas Xib contienen ambas un quark belleza (b), un extraño (s) y uno abajo (d), mientras que el protón está formado por dos quarks arriba (u) y un abajo (d). Debido a la masa de los quarks b, estas partículas son seis veces más masivas que un protón.
Sin embargo, los expertos apuntan que las partículas son más que la suma de sus partes, ya que su masa depende también de cómo están configuradas. Cada uno de los quarks tiene una propiedad llamada espín. En Xi_b'-, los espines de los dos quarks más ligeros apuntan en direcciones opuestas, mientras que en Xi_b*- están alineados.
Esta diferencia hace un poco más pesada a la partícula Xi_b*-. "La naturaleza ha sido generosa y nos ha dado dos partículas por el precio de una", ha declarado uno de los responsables del experimento, Matthew Charles.
Este científico ha explicado que el Xi_b'- tiene una masa cercana a la suma de sus productos de desintegración y, si fuese un poco más ligera, no se habría visto nada. "Es un resultado emocionante. Gracias a la excelente capacidad de identificación de hadrones del LHCb, único entre los experimentos del LHC, hemos sido capaces de identificar una señal muy clara sobre el fondo", ha apuntado el investigador Steven Blusk.
Además de las masas de estas partículas, cuyo hallazgo ha sido publicado en Physical Review Letters, el equipo de investigación estudió sus tasas de producción y las anchuras de su desintegración (una medida de su estabilidad), entre otros detalles.
Encajan en las predicciones
Los resultados encajan con las predicciones de la Cromodinámica Cuántica (QCD), parte del Modelo Estándar de Física de Partículas, la teoría que describe las partículas elementales y sus interacciones.
Comprobar la QCD con gran precisión es clave para mejorar el entendimiento de la dinámica de quarks, modelos que son muy difíciles de calcular. "Si queremos encontrar nueva física más allá del Modelo Estándar, necesitamos primero una imagen precisa", dijo el coordinador de Física del LHCb Patrick Koppenburg.
A su juicio, "estos estudios de alta precisión nos ayudan a diferenciar entre efectos del Modelo Estándar y cualquier otra cosa nueva o inesperada en el futuro".
Las medidas fueron realizadas con los datos tomados en el LHC durante 2011-2012. Actualmente está siendo preparado tras su primer parón largo, para operar a energías mayores y con haces más intensos. Está previsto que comience a funcionar de nuevo en la primavera de 2015.
La colaboración LHCb está formada por 670 científicos y 250 técnicos e ingenieros de 65 instituciones representando a 16 países, entre ellos España. En este experimento participan la Universidad de Santiago de Compostela (USC), la Universidad de Barcelona (UB), la Universidad Ramón Llull (URL), y recientemente se ha incorporado el Instituto de Física Corpuscular (IFIC, CSIC-UV).

Vía: http://www.lavanguardia.com/ciencia/20141119/54420018349/cern-descubre-dos-nuevas-particulas-nunca-vistas.html

La sonda Philae encontró moléculas orgánicas antes de entrar en hibernación

Primera imagen captada por Philae del cometa HANDOUT
El instrumental científico de la sonda Philae de la misión Rosetta ha encontrado compuestos orgánicos en la superficie del cometa 67P Churyumov-Gerasimenko. Los ha detectado el experimento COSAC, un sensor capaz de olfatear la sutil atmósfera de esta roca helada y determinar qué clase de moléculas la forman. Según confirmaron investigadores de la agencia espacial alemana al diario estadounidense Wall Street Journal, han identificado moléculas orgánicas, los bloques fundamentales de la vida. Todavía trabajan para interpretar los resultados y determinar su alcance.
Las moléculas orgánicas son aquellas formadas, cuando menos, por átomos de carbono e hidrógeno. La interrelación entre estos dos elementos permite crear compuestos grandes, complejos, especializados y estables que incorporan otras muchas sustancias elementales. Son la pieza clave de la vida. Ahora, la sonda Philae ha entregado la primera evidencia recogida in situ de que estos compuestos se encuentran también en los cometas -aunque ya había evidencias indirectas gracias a misiones anteriores-.
Una de las hipótesis que tratan de explicar cómo pudo surgir la vida en la Tierra defiende que las primeras moléculas orgánicas llegaron del espacio a base de impactos de meteoritos y cometas contra el planeta primigenio. Ya en la superficie del planeta, estas se habrían combinado y habrían creado moléculas capaces de replicarse. Es posible que incluso el agua llegase de esa forma -los cometas son grandes bloques compuestos por hielo y polvo-. El reciente descubrimiento de la sonda Philae da nuevas alas a esta teoría, que todavía no es más que eso.
No fue su único hallazgo. El módulo de Rosetta también encontró en la superficie del cometa 67P/ Churyumov-Gerasimenko un material muy duro con una temperatura de 170 grados centígrados bajo cero, probablemente rico en hielo. «Esto es una sorpresa que no esperábamos encontrar, hielo con tal dureza debajo de la superficie», ha explicado Tilman Spohn, del Centro Aeroespacial Alemán (DLR), investigador principal para el instrumento MUPUS de Philae, uno de los diez emplazados a bordo del aterrizador.
Durante la noche del 13 al 14 noviembre de 2014, cuando la sonda Philae aún tenía baterias para funcionar, el instrumento MUPUS se desplegó desde del módulo de aterrizaje para taladrar alrededor de 40 centímetros en la superficie del cometa. Esto no tuvo éxito, aunque se incrementó gradualmente la energía hasta el nivel más alto disponible. «El uso de mediciones comparativas realizadas en el laboratorio indica que el taladro había encontrado una capa dura como el hielo bajo una gruesa capa de 10 a 20 centímetro de polvo», ha apuntado Spohn. El sensor de infrarrojos incorporado en el instrumento encontró que la capa de recubrimiento de polvo tenía baja inercia térmica. «El equipo que cree bajo la capa de polvo muy porosa, hay hielo», ha indicado el investigador. Este hielo contiene polvo y podría incluso ser bastante poroso, pero habiendo sido sometido sinterización térmica a lo largo de siglos a millones de años, sus ingredientes han quedado fusionados por repetidos cambios de temperatura.
En cuanto al destino final de la sonda Philae es probable que por lo menos esté a un kilómetro de distancia de la posición de destino, probablemente en frente de una pared compuesta de hielo. A pesar de accidentado aterrizaje, el equipo de control pudo trabajar de forma fiable en los 10 instrumentos a bordo del módulo de aterrizaje y obtener datos. «Estamos muy contentos de que había muchas mediciones y pueden ser usadas actualmente en el proceso de análisis de los datos», dice Spohn.
La sonda Philae no tuvo un placentero viaje durante su descenso al cometa 67P el pasado 12 de noviembre, tras una década de viaje espacial dentro de Rosetta. Tras siete horas de aproximación rebotó dos veces en su superficie -la primera hasta un kilómetro de altura- antes de quedarse atascada, medio tumbada y solo con dos patas fijada a la superficie, a los pies de un acantilado. En esta posición, sus paneles solares apenas reciben la energía necesaria del sol para recargar sus baterías
Tras 57 horas de frenéticas operaciones científicas, la sonda Philae envió toda la información obtenida a Rosetta y entró en modo de hibernación. Unos momentos antes los investigadores lograron desplazarla un poco, de forma que esperan que, en seis o siete meses, le llegue suficiente luz como para reactivarla y seguir la misión.
 

La marea meteorológica del mar Mediterráneo aumenta más de un milímetro al año desde 1989

Una nueva base de datos desarrollada por la Universidad de Cantabria (España) arroja datos de la variación del nivel del mar debida a los cambios atmosféricos en el sur de Europa desde 1948 hasta 2009. En las dos últimas décadas, esta componente se ha incrementado sobre todo en la cuenca mediterránea.
“La componente meteorológica del nivel del mar o marea meteorológica es la variación del nivel del mar como consecuencia de los cambios atmosféricos, en concreto, cambios en la presión atmosférica y en el viento en la superficie marina”, explica a Sinc Alba Cid, autora principal de un estudio, publicado en la revista Climate Dynamics, que analiza esta componente del nivel del mar durante 62 años.
Cid y su equipo del Instituto Hidráulico Ambiental de la Universidad de Cantabria han generado –a largo plazo y en alta resolución– dos series temporales de marea meteorológica en las cuencas atlánticas y mediterráneas del sur de Europa, y en las islas Canarias.
En total, han analizado las tendencias desde 1948 hasta 2009, reflejadas en una nueva base de datos de Marea Meteorológica Global (GOS, por sus siglas en inglés). La herramienta de simulación que han utilizado es el modelo numérico ROMS, desarrollado por la Universidad de Rutgers (EE UU).
Los resultados son muy diferentes en función del periodo. “Las tendencias de 1948 a 2009 son muy pequeñas y de signo negativo en toda el área analizada, lo que significa que la marea meteorológica ha disminuido durante este intervalo temporal”, apunta Cid.
En la costa africana del Atlántico, la del Adriático y el noreste de la cuenca levantina, la componente meteorológica del nivel del mar ha disminuido 0,35 milímetros cada año durante ese periodo. Las tendencias son más débiles en las costas españolas del Atlántico norte y a lo largo de la costa africana en la cuenca este del Mediterráneo.
Sin embargo, para las dos últimas décadas, de 1989 a 2009, las tendencias son positivas, es decir el nivel del mar ha aumentado, y de mayor magnitud. Las mareas presentan valores inferiores a los 0,5 mm por año en la cuenca atlántica y de más de 1 mm al año en varias zonas de las costas mediterráneas.
La base de datos GOS también diferencia entre verano e invierno en cada serie temporal. Según el estudio, las tendencias observadas en invierno son negativas en todo el territorio analizado. La disminución del nivel del mar es más patente (de 1 mm anual) en el centro del Mediterráneo y el Adriático.
En verano, el nivel del mar aumenta, sobre todo en el Atlántico Norte, las costas españolas del Mediterráneo y las costas de Túnez. “Aunque también se observan durante esta estación tendencias negativas de 0,3 mm al año a lo largo de la costa africana del Atlántico”, recalcan los investigadores en el trabajo.
Para validar los resultados de las simulaciones numéricas, los investigadores han comparado los datos generados cada hora desde el año 1948 hasta el 2009 en 58 localizaciones en áreas costeras de España, Portugal, Francia, Italia e islas Canarias, con datos reales medidos por mareógrafos y satélites. “Los resultados han permitido calcular estas tendencias a largo plazo”, añade Cid.

Vía: http://noticiasdelaciencia.com/not/11980/la-marea-meteorologica-del-mar-mediterraneo-aumenta-mas-de-un-milimetro-al-ano-desde-1989/

La comparación de los genomas del ratón y del humano, clave para el estudio de enfermedades

Los ratones se llevan utilizando como modelo de investigación desde...
A inicios del siglo XXI, la secuenciación de los genomas de diferentes especies permitió saber numéricamente cuánto nos parecemos o nos diferenciamos de ellas. Sin embargo, en esto del ADN lo cualitativo importa más que lo cuantitativo. De hecho, el grano de arroz cuenta con unos 50.0000 genes mientras que los humanos sólo tenemos unos 30.000. Por este motivo, diferentes proyectos tratan de ir más allá de las cifras y pretenden conocer los diferentes funcionamientos del genoma en cada especie animal. Ahora un consorcio internacional de investigadores ha terminado un trabajo que compara los elementos funcionales del genoma del ratón y del hombre y ofrece detalles sobre las diferencias y similitudes entre ambos. A través de esta comparación se podrá entender por qué algunos fármacos funcionan de manera diferente en ratones que en personas, qué se puede esperar si se estudia una enfermedad en los roedores o cuándo conviene usar otro animal para analizar aspectos básicos de alguna parte de nuestra biología.
El Consorcio ENCODE, acrónimo de ENcyclopedia Of DNA Elements, se trata de un proyecto de análisis exhaustivo del genoma humano. Se inició en 2003 en Estados Unidos y ahora participan unos 30 centros de distintos países -incluido España-. A lo largo de estos años, se han identificado el número de genes que tienen los humanos y otros animales pero, su trabajo ha ido a más. El último paso ha sido el que recogen ahora de forma simultánea varias de las más prestigiosas revistas biomédicas: la comparación del genoma del ratón y del humano.
El análisis comparativo de la funcionalidad de los dos genomas ha encontrado que hay un 'lenguaje' común que usan las células a nivel molecular pero que es lo suficientemente flexible como para cambiar su estructura y adecuarse a procesos y funciones que son totalmente distintas entre las dos especies. Por ejemplo, ciertos sistemas como el inmunitario, procesos como el metabolismo o la respuesta al estrés son muy diferentes en unos y en otros. 
"La mayoría de las diferencias entre ratones y humanos proceden de la regulación de la actividad genética, no de los genes en sí mismos", explica en un comunicado Michael Beer, profesor de ingeniería biomédica en la Facultad de Medicina de la Universidad Johns Hopkins, en Baltimore (EEUU), y uno de los miembros del Consorcio ENCODE cuyos resultados publican simultáneamente varias de las más prestigiosas revistas médicas, como Nature, Sciencie o Genome Research, entre otras. "Porque el ratón es un importante modelo para la investigación de la biología humana, tenemos que comprender estas diferencias para interpretar mejor nuestros resultados".
Como explica a EL MUNDO Roderic Guigó, uno de los investigadores principales del trabajo y coordinador del programa Bioinformática y Genómica en el Centro de Regulación Genómica (CRG), "este trabajo sienta las bases moleculares para entender qué partes de la biología humana están representadas en la biología del ratón y qué partes no. Hay procesos que están más conservados entre las dos especies y otros menos como los relacionados con el sistema inmunitario, entre otros. Por tanto, se podría decir que para estudiar la respuesta a las infecciones tal vez el ratón no sea un buen modelo, esto es lo que hay que ver ahora".
Para analizar en detalle estos genomas, el equipo de investigadores estudió 124 tipos de células y tejidos del ratón, incluidos corazón, cerebro, sangre, riñón, hígado y piel. Ese trabajo dio lugar a miles de datos sobre las regiones del ADN que están activas -más abiertas y accesibles- y donde se producen las proteínas. A través de diferentes modelos matemáticos, se pudo identificar las regiones regulatorias que son comunes entre las dos especies. Ese análisis mostró que mientras los genes del ratón involucrados en procesos intracelulares -como la producción de proteínas- tienen un patrón de actividad muy similar al de los humanos, la actividad de los genes murinos vinculados a la superficie celular es muy diferente, lo que tiene implicaciones en el estudio de la comunicación celular, la inmunidad y ciertas enfermedades.
"Hay genes cuya expresión está muy conservada entre humano y ratón, por ejemplo el corazón humano se expresa muy parecido que el de ratón, también ocurre lo mismo en el pulmón. Pero hay otros genes que se expresan de forma más parecida entre distintos tejidos humanos y de forma muy diferente en los de ratones, es decir, son específicos para cada especie y no para cada órgano, como se pensaba antes", explica Guigó.
El conocimiento generado por este consorcio, una hoja de ruta sobre la funcionalidad de los genes de estas dos especies, podrá ser utilizado y explotado ahora por numerosos grupos científicos de todo el mundo. "Estos resultados construyen una base para que muchos otros investigadores aprovechen esa información y marca un hito sobre cómo progresa la ciencia. Son clave para futuros estudios, porque pueden ayudar a refinar los modelos de investigación de enfermedades humanas y a una mayor extrapolación de lo que vemos en ratones para la mejor comprensión de nuestra fisiopatología", afirma Isabel Varelo-Nieto, investigadora del CIBER de Enfermedades Raras (CIBERER) y del Instituto de Investigaciones Biomédicas del CSIC.
Además de este conocimiento, Varelo-Nieto destaca que proyectos de este calibre "hacen que se desarrollen herramientas tecnológicas que luego se podrán aplicar de forma más barata y sencilla en otros proyectos. Además, la información generada es pública y eso hace que repercuta tanto en la investigación, y que todo esto acabe revirtiendo en la sociedad".
De la misma opinión es Lluis Montoliu, investigador del Centro Nacional de Biotecnología (perteneciente al CSIC) y del CIBERER, cuyo grupo investiga, a través de un modelo de ratón modificado genéticamente, una enfermedad rara. "La relevancia que le doy a estos resultados es además de entender cómo funcionan los genes es su aplicación en diagnosis, en la enfermedad".
Sin embargo, las diferencias detectadas ahora o las que ya se sabían apuntan que el ratón no es un buen modelo de investigación para las enfermedades neurodegenerativas propias del envejecimiento, tampoco para determinados tipos de cáncer como el de colon, aunque precisamente el cáncer es uno de los procesos que se podrá estudiar mejor a partir de los resultados obtenidos con ENCODE.

Vía: http://www.elmundo.es/salud/2014/11/19/546cd202ca474129178b4570.html

Una terapia contra el cáncer a partir de nanopartículas que se insertan en los tumores

Un tratamiento que aporta una nueva forma de luchar contra el cáncer está siendo desarrollado por equipos de investigadores. Se trata de Bakht Mohamadreza y Mahdi Sadeghi de la Universidad islámica Azad de Irán. En este estudio también participan los académicos de la Facultad de Ingeniería de la Universidad de Talca (Chile), Claudio Tenreiro y Mauricio Arenas.
El trabajo científico consiste en la producción de nanopartículas emisoras de partículas beta (electrones), las cuales logran eliminar un tumor desde su centro.
El profesor Claudio Tenreiro, decano de la Facultad de Ingeniería, explicó que la técnica consiste específicamente en detectar y generar las nanopartículas para utilizarlas en el tratamiento de esa enfermedad. Se utiliza oro y un elemento químico llamado praseodimio, entre otros, los cuales pueden ser transformados en lo que se denomina emisores beta puros.
Este elemento es posible activarlo, para generar el emisor beta, y se inserta en el tumor, neutralizando las células nocivas desde adentro, logrando que el daño de los tejidos sea mucho más localizado, dado lo limitado del rango del movimiento del electrón en un medio.
“Los tratamientos convencionales utilizan técnicas que producen daño colateral, ya que concentran la radiación en el tumor, pero para ello se deben atravesar zonas de tejido sano. Pero la idea de las nanopartículas es que uno las coloca en el tumor propiamente tal y ésta interactúa solo con la zona vecina donde es emitida, matando solamente el tejido que la rodea”, explicó Tenreiro.
Agregó que inicialmente se creyó que la terapia podía ayudar especialmente en aquellos casos donde no se pudiera operar, como cánceres en ciertas zonas del cerebro, ya que se usa un sistema denominado “nanobraquiterapia”, que inserta pequeñas “agujas” para el tratamiento, por ejemplo, de Iridio.
El trabajo de investigación de los profesores Tenreiro y Arenas, está en la primera fase de la terapia, que es la creación de estas nanopartículas y su activación, para que posteriormente un equipo de especialistas médicos las inserten en el tumor de un paciente.
“Llevamos un tiempo produciendo las nanopartículas. Lo primero es la técnica para generar aquellos materiales que puedan ser transformados en emisores beta puro (electrones). Las técnicas tradicionales utilizan rayos gamma que atraviesan muchos tejidos, depositando energía en la medida que los traspasan, similar a lo que ocurre con un rayo X, o con partículas de alta energía. Mientras que en los emisores beta, el daño es mucho menor y el proceso ocurre en un tiempo determinado, matando a las células cancerígenas. Luego de la emisión del beta, el elemento queda estable y es desechado a través del metabolismo normal”, sostuvo el profesor Tenreiro.
El profesor Mauricio Arenas de la carrera de Ingeniería en Bioinformática está trabajando en la evaluación de la forma de las nanopartículas, a través de microscopía electrónica. “De esta manera se puede estandarizar el protocolo de producción de éstas”, explicó Arenas.
Además, actualmente están desarrollando técnicas para la sintetización de estas unidades de manera biológica a través de microorganismos.
Uno de los aspectos importantes es que la vida media del elemento que se utiliza en la zona con cáncer debe ser corta, para que la radioactividad no quede circundando en la persona por mucho tiempo, y que solo tenga el efecto requerido y luego se transforme en un isotopo estable.
Entre los compuestos que se están estudiando está el praseodimio, el que de acuerdo al académico “tiene bastante futuro en el tratamiento de cáncer ya que hay un conjunto de tipos de cáncer en los que éstos tienen un efecto importante”, contó.
En este caso, el isotopo radiactivo tiene una vida útil de 19 horas, lo que permite que actúe sobre el tumor y luego se acabe el efecto en pocas horas, dependiendo del momento de aplicación, saliendo desde el tumor como una partícula estable que no daña al resto de los tejidos.
Otro de los materiales con los que se ha trabajado es el oro, ya que de acuerdo a los estudios, se pueden controlar adecuadamente los tamaños de las nanopartículas y eso es relevante si se requiere, por ejemplo, la retención de éstas en la pared celular del tumor.
Además, con este compuesto se pueden utilizar dos técnicas de manera simultánea, que el equipo de científicos está estudiando: la definida anteriormente y la termoterapia que consiste en insertar la nanopartícula, y luego con radiofrecuencia calentarla para lograr que a una temperatura superior a los 42 grados muera la célula dañina donde se insertó el oro.
“La idea es que si el tumor se detecta de manera temprana, se elimine con estas terapias y se saca, manteniendo un control de éste, impidiendo el crecimiento y la diseminación de las células cancerígenas”, precisó Tenreiro.

Vía: http://noticiasdelaciencia.com/upload/img/periodico/img_23590.jpg

¿Sofosbuvir o simeprevir? Condiciones de uso de los fármacos para la hepatitis C

Simeprevir, fármaco contra la hepatitis C
Sofosbuvir y simeprevir, los revolucionarios fármacos para la hepatitis C son ya una realidad en España. Conviene que los enfermos conozcan estos dos medicamentos y cuál de ellos resulta más adecuado en cada caso. La Agencia Española de Medicamentos y Productos Sanitarios, dependiente del Ministerio de Sanidad, ha publicado los informes de posicionamiento terapéutico de los dos fármacos, que determinan en qué pacientes se puede prescribir su uso.Aprobados hace unos meses, ambos fármacos pertenecen a la familia de los inhibidores de la proteasa y los expertos reclamaban su financiación pública dentro del Sistema Nacional de Salud (SNS) tras haber demostrado una eficacia muy elevada. Sin embargo, el departamento de Ana Mato retrasó durante meses esta decisión dado su elevado precio.
Comercializado por Gilead como 'Sovaldi', el sofosbuvir se puede usar frente a los seis genotipos del virus y se considera un fármaco con un "valor terapéutico añadido" en comparación con los estándares actuales de tratamiento, tras haber demostrado "tasas elevadas de respuesta viral sostenida, un buen perfil de seguridad y menor duración de tratamiento".
Pese a ello, Sanidad ha determinado que este fármaco contra la hepatitis debe usarse en aquellas situaciones clínicas en las que existe necesidad de tratamiento debido al avanzado estado de la enfermedad "y no existen alternativas terapéuticas o bien las existentes no son adecuadas debido a problemas de seguridad".En concreto, se trata de pacientes en lista de espera de trasplante hepático, "tan pronto como se incluyan" y con una duración mínima de tratamiento de 12 semanas; en pacientes ya trasplantados (durante 24 ó 48 semanas según la gravedad); en pacientes cirróticos F4, ante el "alto riesgo" de complicaciones hepáticas; y en quienes esté contraindicado el interferón o haya fracasado el tratamiento con otros inhibidores de la proteasa.En este último caso, Sanidad reconoce que "a pesar de la ausencia de datos del uso de sofosbuvir", estos pacientes no tienen otra alternativa terapéutica, por lo que se podría utilizar "independientemente del grado de fibrosis hepática". Para el resto de casos en los que hay necesidad de tratamiento, Sanidad destaca que este fármaco se considera una opción "con valor terapéutico añadido en base a eficacia o seguridad", si bien destacan que "este grupo es el más numeroso en términos absolutos y, por otro lado, existen alternativas terapéuticas".
Además, el informe del otro de los fármacos, el simeprevir, comercializado por Janssen como 'Olysio', recoge la posibilidad de combinar ambos fármacos junto con ribavirina durante 12 semanas "en aquellos pacientes que no toleran o no son candidatos al tratamiento con interferón y existe una necesidad de tratamiento urgente", ya que en esos casos el tratamiento debe basarse en combinaciones de antivirales directos.
Por otro lado, el informe de este fármaco también admite que apenas existen datos de su eficacia en pacientes en lista de espera de trasplante, ya trasplantados o con cirrosis avanzada. Sin embargo, Sanidad considera que el simeprevir puede considerarse como una alternativa terapéutica a los dos inhibidores de la proteasa que ya había en el mercado en pacientes con genotipo 1, que es el más frecuente en Europa (más del 70% de los casos), ya que "parece tener un mejor perfil de seguridad y ofrece una pauta de tratamiento más cómoda para el paciente".En estos casos se usaría como triple terapia en combinación con ribavirina e interferón pegilado, también en pacientes naïve o no tratados y con recidiva, a excepción de si presentan poliformismo basal Q80K.Al igual que sofosbuvir, y a diferencia de otros inhibidores de la proteasa disponibles, simeprevir puede utilizarse en pacientes infectados por el genotipo 4 y en combinaciones libres de interferón, pero "con los mismos criterios de priorización en función de las características individuales de cada paciente, gravedad y grado de fibrosis".

Vía: http://www.20minutos.es/noticia/2300461/0/hepatitis-c/nuevos-farmacos/sofosbuvir-simeprevir/

domingo, 16 de noviembre de 2014

Philae envía datos clave antes de apagarse

El módulo Philae sobre la superficie del cometa...«Estoy un poco cansado, ¿habéis cogido todos mis datos? Es posible que me eche una siesta...»
Philae anunciaba así ayer, vía Twitter, que tal y como apuntaban los pronósticos de los científicos de la Agencia Espacial Europea (ESA), sus baterías estaban dando ya sus últimos coletazos.
Tras siete horas de descenso y después de 10 años de viaje a bordo de la nave Rosetta, el módulo Philae se convertía el pasado miércoles en el primer artefacto humano que conseguía posarse sobre un cometa. Europa hacía historia y conseguía así un éxito sin precedentes.
Sin embargo, no todo salió tal y como estaba previsto en la que ya se ha convertido en la misión más emblemática de la ESA, ya que un fallo en los arpones hizo que Philae aterrizase en un punto distinto al inicialmente previsto, con mucha menos luz, por lo que no ha podido cargar sus baterías.
De haber aterrizado en Agilkia, el punto que los científicos habían indicado como idóneo, Philae habría recibido siete horas de luz solar, frente a la insuficiente hora y media que le llegaba en el lugar donde finalmente se posó.
Con la esperanza de que pudiera recibir más luz y cargar así sus exhaustas baterías, la agencia realizó la pasada noche una maniobra de «elevación y giro» de su tren de aterrizaje para conseguir que el módulo pudiera acceder mejor a los rayos solares. «¡Parece un cometa totalmente distinto desde este ángulo!», tuiteaba ayer Philae tras haber rotado con éxito 35 grados.
Una vez realizada esta operación, y antes de que entrase finalmente en estado de hibernación a la 1.36 horas, Philae consiguió otro de sus objetivos: activar el resto de sus instrumentos y enviar valiosos datos que serán analizados por expertos de la ESA.
El robot logró poner en marcha su espectómetro químico y taladrar la superficie del cometa. De esta forma, se podrán determinar aspectos como la densidad del cometa, su temperatura o la composición del suelo.
«Esta máquina trabaja magníficamente en condiciones difíciles y podemos estar plenamente orgullosos del éxito científico increíble que Philae ha representado», declaraba anoche desde la sala de control de operaciones de la ESA en Darmastadt (Alemania) Stephan Ulamec, responsable del aterrizaje.
Porque a pesar de este «apagón», la misión no acaba aquí, ya que el aterrizaje de Philae era solo una parte de este gran proyecto. La sonda Rosetta seguirá al cometa en su viaje hacia el Sol y observará cómo reacciona ante el calor.
En el trayecto, Philae continuará en «modo reposo» sobre el cometa 67P/Churyumov Gerasimenko. No obstante, y aunque esta posibilidad no se puede asegurar, no se descarta al 100% que Philae vuelva a despertar, ya que aún existe la esperanza de que sus baterías puedan cargarse a medida que el cometa vaya recibiendo más luz en su avance hacia el Sol.
«Has hecho un gran trabajo Philae, has conseguido algo que ninguna nave espacial había hecho antes». Así se despedía anoche -también vía Twitter- la misión Rosetta de este robot que ha hecho historia, minutos antes de que agotara su energía.
A partir de ahora, Rosetta continuará su misión -que está programada hasta diciembre de 2015 y ha costado 1.300 millones de euros- de averiguar más sobre la formación del Sistema Solar hace 4.600 millones de años.

Vía: http://www.elmundo.es/ciencia/2014/11/16/5468c64fe2704e5d338b4572.html

Arranca la búsqueda de petróleo en Canarias

Un pescador porta el dibujo de una plataforma petrolífera.Las coordenadas 28º 33' 34'' N; 13º 11' 36'' W marcan un punto del océano Atlántico desde el que no se alcanza a divisar ninguna costa. Hasta hace unos años no era más que un lugar cualquiera en medio de un mar, una ola que no va a ninguna parte. Pero nunca un espacio banal y silencioso en algún sitio a medio camino entre Fuerteventura y Marruecos ha despertado tantas emociones encontradas, ha movido tantos intereses y ha creado tanto alboroto como este. Es el punto donde comenzarán mañana las primeras prospecciones en busca de petróleo realizadas en aguas canarias.
Han pasado más de 12 años desde que Repsol dio los primeros pasos burocráticos para investigar si el subsuelo marino frente a las islas de Lanzarote y Fuerteventura alberga o no hidrocarburos atrapados entre sus rocas a miles de metros de profundidad. El proceso administrativo no ha estado exento de problemas de todo tipo, como una sentencia contraria del Tribunal Supremo por un defecto de forma o una paralización de siete años entre 2004 y 2011, los años de Gobierno de José Luis Rodríguez Zapatero.
Pero, tras un viaje de varias semanas desde Angola, donde realizó su última prospección, el barco Rowan Renaissance, que realizará las perforaciones en busca de petróleo y gas para la petrolera española, llegó ayer a ese punto de la discordia situado a 51 kilómetros de las costas majoreras, un lugar que la compañía ha bautizado con el nombre de Sandía. Pero no será el único pozo que se perforará en aguas canarias. El pasado 29 de mayo de 2014 el Ministerio de Agricultura, Alimentación y Medio Ambiente aprobó la Declaración de Impacto Ambiental no sólo del proyecto Sandía, sino de otros ocho más en ubicaciones colindantes y denominados también con nombres de frutas y hortalizas.
Sin embargo, las operaciones no se harán sin la oposición de los grupos ecologistas. El barco que Repsol utilizará para realizar las perforaciones -que no es de su propiedad y cuyo alquiler cuesta alrededor de 800.000 euros cada día- fue recibido ayer por el rompehielos de Greenpeace Artic Sunrise, la misma embarcación que fue retenida por Rusia durante 10 meses en Siberia, y 30 miembros de su tripulación encarcelados durante 71 días, precisamente por hacer una protesta frente a la primera plataforma petrolífera instalada en el Ártico, propiedad de Gazprom.
De momento, en los planes de Repsol sólo está investigar en busca de petróleo o gas en dos puntos, el ya citado Sandía y otro llamado Chirimoya, situado un poco más al sur, pero también a una distancia de 52 kilómetros de las playas de Caleta de Fuste (Fuerteventura), donde turistas de decenas de nacionalidades pasean en chanclas y camiseta de tirantes aprovechando las altas temperaturas que está dejando este año el otoño en las islas. Aunque el Rowan Renaissance ocupa un área similar a la de dos campos e fútbol como el del Santiago Bernabéu y su torre de perforación mirará la superficie marina desde cerca de 80 metros de altura -similar a la de la Catedral de Burgos-, la distancia a la que se harán las perforaciones hará imposible que pueda verse desde una tumbona de cualquier playa del este de las islas de Fuerteventura o Lanzarote.
El proyecto ha enfrentado a los Gobiernos canario y nacional en una batalla dialéctica y política en ocasiones desquiciada y que en muchos casos ha estado desprovista de argumentos basados en criterios técnicos o científicos. Pero el debate es real. A cada argumento bien fundamentado le corresponde una réplica bien construida si se acude a las fuentes técnicas.
Mientras ingenieros, geólogos y expertos en exploración y producción de hidrocarburos destacan la seguridad del proyecto y sus ventajas económicas y estratégicas para el país; biólogos, ornitólogos y oceanógrafos muestran sus preocupaciones sobre el posible impacto ambiental que pueda tener la exploración petrolífera sobre los ecosistemas marinos y la fauna y flora asociada a ellos. Además, los ecologistas no tiemblan al señalar el riesgo de que ocurra un posible accidente que se transforme en una marea negra. El de la plataforma 'Deepwater Horizon', propiedad de la compañía BP, en el Golfo de México en 2010 está aún muy reciente. Aunque aquel desastre ambiental ocurrió durante la fase e producción de crudo y no en la de exploración o investigación como la que comenzará estos días Repsol en Canarias, un momento en el que, según los expertos de la industria, el riesgo de accidente es mucho menor.
Entre tanto, Marruecos ha cosido sus aguas territoriales de permisos de exploración desde el Estrecho de Gibraltar hasta la frontera con Mauritania. Además, permite a las empresas petroleras que encuentren crudo explotarlo durante 10 años sin pagar ni un euro de impuestos por la cesión del territorio y del recurso energético. En España, en cambio, se está estudiando la creación de un canon del 8%, aunque esa medida se aprobaría rebajando el Impuesto de Sociedades del 35% al 30%. La fiebre del oro negro marroquí ya ha comenzado a dar sus frutos. El pasado miércoles, la compañía angloturca Genel anunciaba el hallazgo de petróleo ligero -de 26 API, una medida que supone una buena noticia para el futuro comercial de la zona- en el pozo de Sidi Moussa 1, situado a 230 kilómetros de Sandía.

Los campos magnéticos detectados en un meteorito dan pistas del origen de los planetas

Recreación de un meteorito.
Un equipo científico, encabezado por un estudiante de posgrado del Instituto Tecnológico de Massachusetts (MIT), ha descubierto campos magnéticos en trozos del meteorito primitivo Semarkona, lo que da pistas de la formación de los planetas. 
Así, estos campos magnéticos habrían tenido una papel fundamental en algunos de los procesos de formación planetaria. Habría sido a través de la rápida acreción de material del disco hacia una estrella central y la formación de los primeros sólidos.
El estudio, publicado en la revista Science, se basa en unas mediciones del meteorito que apuntan que un factor importante en la formación del sistema solar son las ondas de choque que viajan a través de la nube de gas polvoriento alrededor del Sol, recién creado.
Mediciones sin precedentes
"Las mediciones realizadas son asombrosas y no tienen precedentes", ha comentado Steve Deschm, coautor del estudio. "No solo han medido diminutos campos magnéticos miles de veces más débiles de los que puede detectar una brújula, sino que han mapeado la variación de los campos magnéticos registrados por el meteorito, milímetro a milímetro".
El sistema solar se formó hace unos 4.500 millones de años y se cree que surgió de un proceso desordenado, en el que dejó muchos restos que han podido estudiar los investigadores.
Entre las piezas que han aportado más información están los meteoritos más antiguos, primitivos y menos alterados, llamados condritas.
Son trozos de asteroides, rotos por las colisiones, que han permanecido relativamente sin alteraciones desde que se formaron en el nacimiento del sistema solar. Están formados por pequeños granos de piedra, llamados cóndrulos, de apenas un milímetro de diámetro.

Los cóndrulos se formaron a través de eventos de fusión rápida en la nube de gas polvoriento -la nebulosa solar- que rodeaba al joven Sol.
Análisis de los cóndrulos
Los científicos se centraron específicamente en los campos magnéticos incrustados en los granos de polvo de olivino, que contienen abundante mineral de hierro. Tenían un campo magnético de aproximadamente 54 microtesla, similar al campo magnético en la superficie de la Tierra, que oscila de 25 a 65 microtesla.
Mientras que en análisis anteriores se midieron minerales contaminados por el campo magnético de la Tierra, "los nuevos experimentos sondean minerales magnéticos en cóndrulos que nunca se midieron antes", ha indicado Deschm. "También muestran que cada cóndrulo se magnetiza como un pequeño imán de barra, pero con un 'norte' que apunta en direcciones al azar", ha aclarado.

Vía: http://www.rtve.es/noticias/20141114/campos-magneticos-detectados-meteorito-dan-pistas-del-origen-planetas/1048086.shtml

jueves, 13 de noviembre de 2014

Riesgo de 'apagón' en el robot Philae de la misión Rosetta

Las 'patas' del robot son visibles en la primera imagen...
El robot Philae ha pasado ya sus primeras 24 horas en el cometa 67P/Churyumov Gerasimenko, donde aterrizó el miércoles tras un viaje de diez años a bordo de la nave Rosetta y después de un emocionante descenso de siete horas. El robot se puso manos a la obra en cuanto llegó al cometa, pero el lugar en el que se encuentra ahora, que no es el que habían elegido los investigadores, está dificultando su misión científica porque no le está proporcionando luz suficiente para recargar sus baterías solares.
El robot, que se encuentra «estable» y enviando «gran cantidad de fantásticos datos», según los responsables de la misión, debería haberse quedado anclado en el primer punto en el que se posó. Sin embargo, al no desplegarse los arpones que le hubieran sujetado, dio varios saltos, de modo que fue desplazándose.
Según los datos recabados por los instrumentos, se posó en tres lugares distintos, a las 16:33, 18:26 y 18:33 horas respectivamente. Por ello, aunque desde un punto de vista operativo está funcionando adecuadamente, existe preocupación por la misión del robot a largo plazo.
Contentos, aunque visiblemente cansados porque pasaron la noche analizando los datos para intentar determinar el lugar exacto en el que está el robot y averiguar por qué no se activaron los arpones, los científicos de la Agencia Espacial Europea (ESA) volvieron a comparecer este jueves para explicar tanto los contratiempos que están surgiendo como los logros.
«Ayer dijimos que habíamos aterrizado dos veces. En realidad fueron tres», volvió a bromear Stephan Ulamec, jefe del robot Philae, que admitió que aún no saben la razón por la que los arpones no se desplegaron. En el momento del aterrizaje, el robot viajaba a una velocidad de un metro por segundo.
Las comunicaciones entre el robot y la sonda funcionan bien, sus instrumentos trabajan y transmiten datos correctamente y, a pesar de que no está anclado a la superficie, Philae parece estable, en un punto que se cree que está a un kilómetro de distancia del lugar inicial del aterrizaje. Sin embargo, los científicos afirmaron que no saben dónde se encuentra exactamente.
El principal problema de la nueva ubicación es que demasiado oscura, por lo que no puede alimentar los paneles solares con los que recargaría sus pilas solares, que son las que tendrá que usar una vez se agote la batería primaria de litio con la que hizo las maniobras de separación de la nave Rosetta y los primeros experimentos. Esa batería primaria le durará 60 horas.
El plan era que cargara sus paneles solares para poder trabajar durante unos tres meses, desde un mismo emplazamiento, al que se habría quedado anclado con los arpones. Las seis horas de luz diaria que recibiría en el punto Agilkia (el elegido para el aterrizaje) fue uno de los factores decisivos para que los científicos lo seleccionaran entre la decena de lugares que barajaron. En el nuevo emplazamiento, se cree que recibe poco más de una hora de luz, un tiempo insuficiente para la recarga.
Si el robot se quedará sin energía y se apagara, sería un apagón temporal que no supondría la muerte de la misión. Según explicaron los científicos, cabría la posibilidad de que a medida que el cometa fuera aproximándose al Sol, sus baterías fueran recargándose al recibir más luz y Philae se volviera despertar.
Aunque Ulamec explicó que es técnicamente posible intentar mover el robot a una zona más favorable, de momento descartan hacerlo porque no saben si, dando otro salto, se situaría en un área más adecuada. Además, cree que no tienen tiempo y energía suficiente para planear la estrategia.

El módulo Philae de Rosetta aterriza por fin en el cometa 67P

La misión Rosetta de la Agencia Espacial Europea (ESA) ha aterrizado su robot Philae en un cometa, la primera vez en la historia que se logra una hazaña así. Después de una tensa espera durante el descenso de siete horas a la superficie del cometa 67P / Churyumov-Gerasimenko, la señal que confirmó el éxito del aterrizaje llegó a la Tierra a las 17:03h (hora peninsular española).
En realidad el acontecimiento del 'acometizaje' se ha producido media hora antes del anuncio, pero como las señales de radio tardan 28 minutos y 20 segundos en recorrer los más de 500 millones de kilómetros que separan la Tierra del transmisor de Rosetta, a donde llegan los datos de Philae, los científicos han tenido que contener la emoción durante un tiempo.
Ahora están satisfechos, aunque han detectado un problema, cuyas consecuencia analizarán en la próximas horas: los arpones de Philae no se han disparado según lo previsto, por lo que el robot está anclado de forma menos segura que la calculada por los ingenieros. Tan solo está sujeto con tornillos y la débil fuerza de la gravedad.
En cualquier caso la confirmación del 'cometizaje' fue transmitida a través del orbitador Rosetta a la Tierra y llegó simultáneamente a la estación terrestre de la ESA en Malargüe, Argentina, y la estación que tiene la NASA en Robledo de Chavela, en Madrid.
La señal fue confirmada de inmediato en el Centro de Operaciones Espaciales de la ESA  (ESOC) en Darmstadt y el Centro de Control del lander o ‘aterrizador’ (DLR) en Colonia, ambos en Alemania. Los primeros datos de los instrumentos también se transmitieron al Centro de Navegación, Operaciones y Ciencia de Philae de la Agencia Espacial CNES de Francia en Toulouse.
"Nuestra ambiciosa misión Rosetta se ha asegurado un lugar en la historia; no sólo es la primera en encontrarse y orbitar un cometa, sino también la primera en poner un módulo de aterrizaje a la superficie de un cometa", señala Jean-Jacques Dordain, director General de la ESA.
"Después de más de 10 años viajando por el espacio, ahora estamos haciendo el mejor análisis científico de uno de los más antiguos restos de nuestro sistema solar", añade Álvaro Giménez, director de Ciencia y Exploración Robótica de la ESA.
Por su parte, Stephan Ulamec, coordinador del lander desde el centro alemán DLR, adelanta: "En las próximas horas vamos a conocer exactamente dónde y cómo hemos aterrizado, y vamos a empezar a obtener tanta ciencia como nos sea posible de la superficie de este mundo fascinante". De hecho los instrumentos del robot han empezado a recoger y transmitir datos desde que comenzó su descenso. En cuanto al aterrizaje, los técnicos creen que elvehículo podría haberse posado hasta en tres ocasiones, después de rebotar y no quedar anclado como estaba previsto.
El lugar de aterrizaje, llamado Agilkia, se encuentra en la cabeza de este cometa de doble lóbulo y fue elegido sólo seis semanas después de la llegada de la sonda, que envió las imágenes y los datos recogidos a entre 30 y 100 km del objeto. Las fotografías pronto revelaron que 67P está lleno de rocas, acantilados y precipicios , así como pozos, con chorros de gas y polvo que fluyen desde la superficie.
La sonda Rosetta fue lanzada el 2 de marzo de 2004 y viajó 6.400 millones de kilómetros a través del sistema solar antes de llegar el 6 de agosto de 2014 alrededor de este cometa, al que seguirá a lo largo de todo el año que viene.

El cambio climático aumentará un 50% las tormentas con relámpagos

Relámpagos provocados por una tormenta eléctrica en Madrid.
A la larga y creciente lista de futuros problemas derivados del cambio climático, podemos añadir hoy una nueva: relámpagos, muchos más relámpagos. Un trabajo publicado esta semana por la revista Science logra predecir la cantidad de relámpagos en una tormenta a partir de tan sólo dos variables y, además, vaticina un aumento considerable de la actividad eléctrica provocado por el aumento de la temperatura global en este siglo.
El número de relámpagos -los que van de cielo a tierra- sufrirá un incremento del 12% por cada grado centígrado más en la temperatura media del globo, alcanzando en el año 2100 un 50% más que en la actualidad. Una previsión meteorológica digna del Capitán Haddock que puede complicar los incendios forestales y trastocar la química atmosférica.
¿Por qué hay tormentas, igualmente suaves o de idéntica violencia, que sin embargo tienen diferente actividad eléctrica? Para ello, debemos entender primero qué causa los relámpagos. «Lo primero que necesitas es agua en tres fases al mismo tiempo: líquido, vapor y sólido, o sea, hielo. Y lo segundo que necesitas es que las corrientes [de aire] hacia arriba sean lo suficientemente fuertes como para sostener el agua y el hielo [en la nube]», explica a EL MUNDO David Romps, autor principal del estudio y profesor asistente del Departamento de Ciencias Planetarias y de la Tierra en la Universidad de Berkeley, California.
El modelo de Romps y sus colaboradores, para predecir cuántos relámpagos habrá en una zona concreta, multiplica dos variables muy conocidas en la meteorología: las precipitaciones y el CAPE [Energía Potencial Convectiva Disponible, por sus siglas en inglés]. La medida de las precipitaciones no es nada nuevo, se obtiene combinando lecturas de radar y de estaciones meteorológicas en todo el territorio.
El CAPE da una idea de lo rápido que una nube se elevará y se obtiene sin necesidad de esperar a la tormenta, a partir de datos de humedad y temperatura atmosféricas gracias a los datos de una masiva colaboración de científicos que en más de mil puntos de la geografía norteamericana liberan dos veces al día globos meteorológicos.

Vía: http://www.elmundo.es/ciencia/2014/11/13/5464ff77ca4741963f8b4572.html