Mostrando entradas con la etiqueta física. Mostrar todas las entradas
Mostrando entradas con la etiqueta física. Mostrar todas las entradas

martes, 16 de febrero de 2016

¿Cómo cambiarán nuestras vidas las ondas gravitacionales?

¿Cómo cambiarán nuestras vidas las ondas gravitacionales?José Alberto Ruiz Cembranos, físico de partículas y cosmología de la Universidad Complutense de Madrid (UCM), explica la complejidad del logro: «Cuando una onda gravitatoria atraviesa uno de los detectores, genera un cambio minúsculo de una parte en 1021 en la longitud del brazo que esta tecnología ha sido capaz de detectar. Para comprender la precisión de esta tecnología, sería como detectar un cabello humano a 10 años luz de distancia». Unos 900 científicos de decenas de países colaboraron en el desarrollo de dispositivos para alcanzar esa precisión, dedicándose cada uno a resolver un problema. Uno de ellos era el instrumental óptico que debía medir ondas muy débiles. Los expertos que lo diseñaron crearon una compañía, Stanford Photo-Thermal Solutions, que ya vende sistemas para seguridad del hogar, fotografía, gafas e instrumental médico. Algo similar ocurrió con el láser que utilizó el proyecto LIGO, que ya está disponible a nivel industrial para procesamiento de materiales como LED (diodo emisor de luz), microchips y circuitos de smartphones más económicos y precisos. Las señales de las ondas gravitacionales tienen lo que se denomina un chirp (gorjeo) específico, en amplitud y frecuencia. LIGO ha desarrollado un algoritmo que lo reconoce filtrándolo entre todo el «ruido» que recibe. Ese mismo algoritmo se está utilizando para radares o tecnología de sonar, cuyos impactos abarcan desde la exploración oceanográfica hasta la detección de terremotos.
Martin Fejer, profesor de Física Aplicada de la Universidad de Stanford, asegura que la señal recibida «era enorme. Se trata de más energía de la que el Sol liberará en toda su vida y ocurrió en apenas la quinta parte de un segundo». ¿Podremos aprovecharnos de esa energía? Asumir que eso será imposible es obviar las experiencias previas. Un ejemplo de ello es Lord Kelvin, el noble inglés que a los 10 años fue admitido en la Universidad de Glasgow, que a los 20 publicó artículos tan innovadores en matemáticas puras que los firmaba con un seudónimo para no avergonzar a sus profesores o que formuló la segunda ley de la termodinámica entre otras maravillas. Pues ese mismo Kelvin, el que patentó cerca de 70 inventos, aseguró a inicios del siglo XX que «ya no hay nada nuevo que descubrir en física. Todo lo que queda son mediciones cada vez más precisas». Cinco años más tarde Einstein publicaba la Teoría de la Relatividad y transformaba la física.
En primera instancia, el uso de las ondas gravitacionales permitirá convertir el universo en un laboratorio. En el centro de ciertas estrellas, como las de neutrones, ocurren fenómenos extraordinarios relacionados con la física nuclear y la termodinámica pero que son imposibles de reproducir en un laboratorio. Esto podría traducirse en importantes innovaciones y desarrollos en el área de la fusión nuclear, un tipo de energía que precisa enormes cantidades de calor, pero que no genera ningún desecho radiactivo.
La energía solar, en particular la eficiencia a la hora de convertir los rayos solares en electricidad, también podría cambiar a mejor. El proyecto LIGO utilizó unos espejos, suspendidos de hilos de cristal destinados a reducir el «ruido». Se trata de una nueva técnica, creada por expertos de las universidades de Glasgow y Stanford que no sólo une los hilos de cristal a los espejos, sino que permite diferenciar las ondas gravitacionales de los cambios de temperatura. El proceso ya se ha transferido a la industria óptica y facilitaría la concepción de paneles más eficientes. La reducción de ruidos y la posibilidad de visualizar objetos distantes o de tamaño nanométrico podrían tener un impacto en la industria médica como detector no sólo de tumores, sino de células malignas a nivel individual.
Finalmente, ya en el terreno de un futuro que hoy parece de ciencia ficción, la confirmación de la existencia de estas ondas sería un posible pasaje a los viajes a la velocidad de la luz. Así lo afirma Viktor Toth, físico de la Universidad de Ontario (Canadá): «Podríamos utilizarlas para deformar el espacio-tiempo y recurrir a un dispositivo Alcubierre. A nivel local jamás se excedería la velocidad de la luz, pero para un testigo externo, la “ola” nos permitiría ir mucho más rápido». El dispositivo mencionado lleva el nombre de un científico mexicano que desarrolló un modelo matemático que afirma que es posible viajar a velocidades superlumínicas sin violar las leyes físicas; básicamente se trata de surfear la ola producida por las ondas gravitacionales. Pero para eso falta mucho tiempo... diría Kelvin.
 

martes, 25 de noviembre de 2014

Nuevos datos sobre la naturaleza de la materia oscura

Una investigación realizada por científicos de la Universidad de Granada, en España, puede contribuir a determinar la naturaleza de la materia oscura, uno de los mayores misterios de la Física que, como es sabido por sus efectos gravitatorios, constituye más del 80% de la masa del universo.
En un artículo publicado en la prestigiosa Physical Review Letters, Adrián Ayala y su directora de tesis Inmaculada Domínguez, ambos pertenecientes al grupo “FQM-292 Evolución Estelar y Nucleosíntesis” de la UGR, han logrado poner límites a las propiedades de una de las partículas candidatas a materia oscura: los axiones.
En este trabajo también han participado Maurizio Giannotti (Universidad de Barry, Estados Unidos), Alessandro Mirizzi (Deutsches Elektronen-Synchrotron, DESY, Alemania) y Oscar Straniero (Instituto Nacional de Astrofísica, INAF-Observatorio Astronómico de Teramo, Italia). Esta investigación es una muestra de la cada vez más intensa colaboración entre físicos de partículas y astrofísicos, que da lugar a una ciencia relativamente nueva: la denominada “física de astropartículas”.
En este trabajo, los científicos han utilizado las estrellas como laboratorios de física de partículas: a las altas temperaturas del interior estelar, los fotones pueden convertirse en axiones que escapan al exterior, llevándose energía.
“Esta pérdida de energía puede tener consecuencias, observables o no, en algunas fases de la evolución estelar”, explica Adrián Ayala. “En nuestro trabajo, hemos realizado simulaciones numéricas (por ordenador) de la evolución de una estrella, desde su nacimiento hasta que agota en su interior el hidrógeno y posteriormente el helio, incluyendo los procesos de producción de axiones”.
Los resultados indican que la emisión de axiones puede disminuir significativamente el tiempo de la combustión central de helio, la llamada fase HB (Horizontal Branch): la energía que se llevan los axiones se compensa con energía procedente de la combustión nuclear, consumiéndose el helio más rápidamente.
“Basándonos en esta influencia sobre los tiempos característicos de evolución, podemos acotar la emisión de axiones, ya que una emisión alta implica una fase HB rápida, disminuyendo la probabilidad de observar estrellas en esta fase”, afirma Inmaculada Dominguez.
La alta calidad de las observaciones recientes de cúmulos globulares permite contrastar los resultados de las simulaciones numéricas realizadas en este trabajo con los datos. “Comparando el número de estrellas observadas en la fase HB con el número de estrellas observadas en otra fase no afectada por los axiones, como la fase llamada RGB (Red Gian Branch), hemos estimado la tasa máxima de emisión de axiones”.
La producción de axiones depende de la constante de acoplamiento axión-fotón que caracteriza la interacción entre el axión y los fotones. “Hemos obtenido un límite máximo para esta constante que es el más restrictivo de los hallados hasta la fecha, tanto teórica como experimentalmente”, señalan los investigadores de la UGR.
Los autores de este trabajo apuntan que la precisión en la determinación de la constante de acoplamiento por el método utilizado “depende críticamente de la precisión con que se pueda estimar el contenido de helio inicial de las estrellas del cúmulo globular”.

Vía: http://noticiasdelaciencia.com/not/12029/nuevos-datos-sobre-la-naturaleza-de-la-materia-oscura/

miércoles, 19 de noviembre de 2014

El CERN descubre dos nuevas partículas nunca vistas

El CERN descubre dos nuevas partículas nunca vistas
Los responsables del experimento LHCb del Gran Colisionador de Hadrones (LHC) del CERN ha anunciado este miércoles el descubrimiento de dos nuevas partículas de la familia bariónica, las formadas por quarks.
Estas partículas, conocidas como Xi_b'- y Xi_b*-, fueron predichas por el modelo de quarks, pero no habían sido vistas hasta ahora. Al igual que los protones que acelera el LHC, las nuevas partículas son bariones hechos de tres quarks y unidos por la fuerza nuclear fuerte (una de las cuatro interacciones fundamentales en la naturaleza). Sin embargo, los tipos de quarks son diferentes.
Las nuevas partículas Xib contienen ambas un quark belleza (b), un extraño (s) y uno abajo (d), mientras que el protón está formado por dos quarks arriba (u) y un abajo (d). Debido a la masa de los quarks b, estas partículas son seis veces más masivas que un protón.
Sin embargo, los expertos apuntan que las partículas son más que la suma de sus partes, ya que su masa depende también de cómo están configuradas. Cada uno de los quarks tiene una propiedad llamada espín. En Xi_b'-, los espines de los dos quarks más ligeros apuntan en direcciones opuestas, mientras que en Xi_b*- están alineados.
Esta diferencia hace un poco más pesada a la partícula Xi_b*-. "La naturaleza ha sido generosa y nos ha dado dos partículas por el precio de una", ha declarado uno de los responsables del experimento, Matthew Charles.
Este científico ha explicado que el Xi_b'- tiene una masa cercana a la suma de sus productos de desintegración y, si fuese un poco más ligera, no se habría visto nada. "Es un resultado emocionante. Gracias a la excelente capacidad de identificación de hadrones del LHCb, único entre los experimentos del LHC, hemos sido capaces de identificar una señal muy clara sobre el fondo", ha apuntado el investigador Steven Blusk.
Además de las masas de estas partículas, cuyo hallazgo ha sido publicado en Physical Review Letters, el equipo de investigación estudió sus tasas de producción y las anchuras de su desintegración (una medida de su estabilidad), entre otros detalles.
Encajan en las predicciones
Los resultados encajan con las predicciones de la Cromodinámica Cuántica (QCD), parte del Modelo Estándar de Física de Partículas, la teoría que describe las partículas elementales y sus interacciones.
Comprobar la QCD con gran precisión es clave para mejorar el entendimiento de la dinámica de quarks, modelos que son muy difíciles de calcular. "Si queremos encontrar nueva física más allá del Modelo Estándar, necesitamos primero una imagen precisa", dijo el coordinador de Física del LHCb Patrick Koppenburg.
A su juicio, "estos estudios de alta precisión nos ayudan a diferenciar entre efectos del Modelo Estándar y cualquier otra cosa nueva o inesperada en el futuro".
Las medidas fueron realizadas con los datos tomados en el LHC durante 2011-2012. Actualmente está siendo preparado tras su primer parón largo, para operar a energías mayores y con haces más intensos. Está previsto que comience a funcionar de nuevo en la primavera de 2015.
La colaboración LHCb está formada por 670 científicos y 250 técnicos e ingenieros de 65 instituciones representando a 16 países, entre ellos España. En este experimento participan la Universidad de Santiago de Compostela (USC), la Universidad de Barcelona (UB), la Universidad Ramón Llull (URL), y recientemente se ha incorporado el Instituto de Física Corpuscular (IFIC, CSIC-UV).

Vía: http://www.lavanguardia.com/ciencia/20141119/54420018349/cern-descubre-dos-nuevas-particulas-nunca-vistas.html

lunes, 10 de noviembre de 2014

¿Por que es tan difícil obtener energía de la fusión nuclear?

Hace unos días se publicó en El Mundo un magnífico artículo sobre la fusión Nuclear y la construcción del ITER en Cadarache, en la Occitania francesa. Llevamos esperando 60 años a que los físicos del plasma consigan algún avance en la fusión controlada, y mantenida a lo largo del tiempo del hidrógeno, que pueda proporcionar energía de sobra y más barata que la que nos llega del reactor natural de fusión que es el Sol, todos los días del año a la superficie de la Tierra de forma totalmente gratuita.
En la historia de la tecnología humana los desarrollos se han logrado, una vez puestos a ello, en no más de una década. Cuando se intenta poner en marcha una nueva tecnología y se emplea en ello más de seis décadas sin resultado alguno, es evidente que esa tecnología no puede ponerse en marcha. Eso sí, subvenciones para el intento, 60 años de ellas y sustanciosas.
En el Sol la fusión se produce mediante explosiones incontroladas, mediante secuencias continuas de bombas de hidrógeno. El problema de la fusión en la Tierra es que la queremos controlada.
Para establecer la fusión entre dos isótopos pesados del hidrógeno, dos núcleos de tritio, hace falta que éstos se acerquen mucho entre sí, que se acerquen tanto que la repulsión eléctrica entre los protones cargados positivamente pueda ser superada de forma que los neutrones del tritio se combinen con los protones para formar el átomo neutro del helio, liberando energía de sobra en el proceso.
En el Sol este acercamiento está producido, a través de un sistema muy complejo de interacciones, por la fuerza de la gravedad. En la Tierra, en el ITER de Cadarache se quiere conseguir ese acercamiento mediante choques brutales de los iones lanzados unos contra otros dentro de anillos toroidales como dos camiones de decenas de toneladas que se dirigiesen a chocar directamente a 300 km/h. La diferencia está en las masas de los núcleos de tritio y las velocidades de decenas de miles de kilómetros por hora.
Ahora bien, ni los seres humanos ni la naturaleza somos capaces de controlar el movimiento de los iones individuales, ni de tritio ni de ningún otro elemento. Las reacciones en el Sol, cuando se unen dos núcleos de tritio, son aleatorias, de la misma manera que en las contadas ocasiones en las que se ha producido la fusión en los laboratorios humanos, ha sido producto de la casualidad al lanzar trillones de núcleos unos contra otros.
La diferencia entre el Sol y la Tierra es que allí las explosiones nucleares son la fuente de la energía, pero en la Tierra no las podemos aceptar. Se trata pues de mantener el flujo de núcleos de tritio equilibrado de manera exquisita para que sus energías permitan la fusión, pero no la explosión nuclear.
Ni la naturaleza ni los seres humanos somos capaces de esa precisión en nuestra capacidad de control.
La idea tras el ITER es un producto de la mentalidad del siglo XX, derivada del pensamiento filosófico desarrollado en Europa desde 1600: Determinismo y soluciones finales.
En 1600 tras la reforma protestante y la contrarreforma católica, la ciencia comenzó su andadura. Se trataba de poner en marcha el conocimiento de la naturaleza mediante la razón validada siempre por el experimento,  como lo opuesto a la forma tradicional de verdades reveladas nunca se sabe a quien y nunca se sabe por parte de quien.
Pero a pesar de ser una forma de conocimiento que rechaza la revelación, la ciencia asumía, implícitamente, las ideas de causa eficiente, finalidad y determinismo, a lo que se añadió, en el siglo XIX, la idea de solución 'final' equivalente a una revelación pero alcanzada mediante el razonamiento. Viejos esquemas culturales trasplantados a una forma de razonamiento que se pretendía nueva.
Según esa filosofía implícita, la ciencia (según dicen Hawking, Penrose, Gell-Mann, y muchos otros) puede alcanzar modelos definitivos y finales de un universo que comenzó con una creación, aleatoria o volitiva, pero una creación concreta, en la ciencia, el Big Bang.
Parece que el ser humano vuelve una y otra vez a las mismas ideas primitivas, a pesar de sus supuestos avances mentales. Quizás no podemos, con el cerebro que tenemos, pensar de otra manera.
Pues bien, la idea del ITER deriva de estas ideas de soluciones finales y deterministas (aunque se sabe que los núcleos describen, dentro del reactor de Cadarache, trayectorias aleatorias). Se vende, y muchos físicos piensan que es real, la posibilidad de control absoluto de la naturaleza, rechazando la inevitable aleatorieidad de la misma.
El gas de núcleos de tritio a muy alta temperatura (plasma)  confinado en trayectorias toroidales dentro de un anillo envuelto en bobinas de cobre que crean campos magnéticos muy complicados, debe circular sin contaminación por otros átomos, sobre todo átomos pesados (hierro, cobre, metales diversos) que al absorber energía enfriarían el plasma. Esta es la razón de lo que se cuenta en el artículo citado de El Mundo de un recinto absolutamente sellado y, se supone, absolutamente limpio.
El problema real es que el ser humano no puede dejar nada absolutamente limpio, porque no puede manipular átomo a átomo los cuerpos y los sistemas macroscópicos. Hoy día podemos emitir electrones uno a uno de ciertas fuentes, pero una vez emitidos no podemos controlar sus trayectorias de manera exacta, pues las interacciones con el resto de los átomos del universo, a través de sus campos electromagnéticos, hacen que esas trayectorias tengan un fuerte componente aleatorio (que es, finalmente, lo que significa el principio de indeterminación de Heisenberg).
El dilema de la fusión es que es preciso el control atómico de unas trayectorias macroscópicas bajo la ligadura de la indeterminación y la existencia de quintillones de átomos y sus campos electromagnéticos en los contenedores del plasma.
La filosofía determinista y de resultados finales afirma (y consigue muchísimo dinero, pues los que tienen las llaves de las cajas fuertes llevan también esa filosofía firmemente embebida en sus mentes) que es posible controlar lo incontrolable. Sesenta años de tremendos esfuerzos muestran que no lo es.
Reconocer ésto es reconocer el fracaso, no de la ciencia, sino de una cierta filosofía que no deriva de la misma ciencia, sino de las ideas religiosas de los siglos anteriores.  Si la ciencia no tiene, ni puede tener el control total de la naturaleza, tampoco puede tener el control total de la vida. Si se reconoce ésto, ¿Con que cara se presentan a pedir el voto unas personas que lo hacen afirmando que tienen la solución a todos los problemas?
La realidad es que no hay soluciones finales, y que las soluciones parciales son bastante chapuceras, pero son las que hay.  La respuesta a esta realidad de la naturaleza es el principio de precaución: Si no hay nada seguro, establezcamos multitud de soluciones alternativas para garantizar no el funcionamiento perfecto, sino el mejor funcionamiento de entre los posibles que no son nunca los definitivos. Mantengamos la dinámica de correcciones constantes a nuestras trayectorias, sabiendo que aún con esas correcciones nunca seguiremos la trayectoria ideal, aunque quizás nos aproximemos a ella.
Un ejemplo quizás aclare lo que estoy escribiendo. En Julio de 2013 descarriló un tren Alvia en la estación de Santiago de Compostela. De las investigaciones posteriores se llegó al conocimiento de que los constructores y administradores de Renfe/ADIF habían asumido la solución final de que el maquinista no podía fallar: La idea determinista de cierta ingeniería. La realidad es los maquinistas fallan, como fallan los sistemas mecánicos. Colocar en el tren muchos sistemas de control: 1) Velocidad máxima según la posición del tren marcada mediante varios GPS independientes, 2) Detección de la curvatura de las vías y reducción inmediata d la velocidad a un máximo de acuerdo con esa curvatura, 3) Señales constantes de radio para el control de la atención del maquinista, etc., pueden reducir el riesgo de accidentes en varios órdenes de magnitud, sin aumentar apreciablemente los costes de fabricación y mantenimiento de los trenes.
Pero hacer ésto, como pensar que la fusión nuclear -controlada- no es una solución para el ansia humana de energía, es entrar en otra etapa mental de la humanidad: una etapa que reconoce la aleatoriedad intrínseca de la naturaleza, y la necesidad imprescindible de diseñar todos nuestros aparatos y formas de vida de acuerdo con ella, reconociendo una y otra vez que ''haremos lo imposible, pero nunca podremos garantizar nada de forma total''.

Vía: http://www.elmundo.es/blogs/elmundo/elporquedelascosas/2014/11/09/por-que-es-tan-dificil-obtener-energia.html

¿Y si el bosón de Higgs no hubiese sido descubierto?

Hace más de dos años el CERN anunció el descubrimiento de una nueva partícula subatómica, el bosón de Higgs, la partícula de Dios, por el cual uno de los que la predijeron hace ya 50 años, Peter Higgs, recibió el Premio Nobel de Física. Sin embargo, se sigue debatiendo si los hallazgos del CERN de verdad estaban hablando de dicha partícula.
El 4 de julio del 2012, el director general del CERN, Rolf Heuer, anunciaba que su equipo había detectado “una partícula consistente con el bosón de Higgs” y que el descubrimiento había sido confirmado por dos experimentos separados (ATLAS y CMS). Sin embargo, Heuer notó que se requería confirmar que efectivamente hablaban de la llamada “partícula de Dios”.
Ahora, en una investigación publicada la semana pasada en la revista Physical Review D, Mads Toudal Frandsen, profesor asociado en la Universidad del Sur de Dinamarca, en el Centro de Cosmología  Fenomenológica de partículas físicas, y sus colegas, dijeron que los datos existentes sobre la partícula de Dios no eran concluyentes. Escribieron que era posible que el CERN  hubiese hallado el bosón de Higgs pero que igualmente lo hallado fuese otra cosa.
Y aunque los investigadores hacen notar que hay muchos cálculos que indican que la partícula descubierta en el Gran Colisionador de Hadrones (LHC) es efectivamente el bosón de Higgs, no hay evidencia concluyente al respecto. Sin embargo, en lo que todos los físicos parecen estar de acuerdo es que los experimentos mostraron una partícula nunca antes vista.
“Los datos del CERN se toman en general como evidencia de que la partícula hallada es la de Higgs. Y es cierto que la partícula de Higgs puede explicar los datos pero se habrían podido obtener estos datos de otras partículas”. Frandsen explica: “los datos actuales no son suficientemente precisos para determinar qué partícula es”. Y añade, “podría ser un número de otras partículas. Creemos que podrían ser las llamadas partículas techni-higgs, las cuales son en muchos sentidos similares a la partícula de Higgs. Una partícula techn-Higgs no es una partícula elemental. En lugar de eso, consiste en los llamados techni-quarks, los cuales se piensa, son elementales”.
Frandsen ha explicado que los techni-quarks podrían unir de una forma muy variada a diferentes objetos, algunos que podrían ser consideradas precisamente estas partículas techni-higgs, mientras otras podrían formar incluso la materia oscura. Por ende, el y sus colegas creen que los físicos encontrarán pronto muchas partículas diferentes, cada una construida a partir de los techni-quarks, en el LHC.
La partícula techni-higgs y la partícula de Higgs podrían ser confundidas fácilmente en los experimentos, explicó el investigador. Y aunque son similares, son dos partículas diferentes que pertenecen a dos grandes teorías de cómo el Universo fue creado. Y aunque el bosón de Higgs es la pieza faltante en el modelo estándar de la fisica de partículas, si existe, podría requerir de la presencia de una fuerza que las una en un todo para formar la partícula por sí misma.
“Ninguna de las cuatro fuerzas conocidas de la naturalez (gravedad, fuerza electromagnética, fuerza nuclear fuerte y débil), son buenas para juntar los techni-quarks” y agregó “debe haber aún una fuerza de la naturaleza aún no descubierta. esta es la llamada fuerza technicolor”. Con respecto entonces a lo que se halló en el CERN, el investigador dice que podría ser la partícula de Higgs, efectivamente, o bien la partícula techni-higgs compuesta de dos techni-quarks. Frandsen piensa que más datos del CERN probablemente podrían determinar de qué partícula se trata. Se requeriría tal vez de un acelerador más poderoso para observar directamente a los techni quarks.

Vía: http://www.unocero.com/2014/11/10/y-si-el-boson-de-higgs-no-hubiese-sido-descubierto/cern00-2/

martes, 4 de noviembre de 2014

Miden la masa de la materia oscura presente en nuestra galaxia

Un equipo de científicos de instituciones australianas ha hecho una nueva medición de la materia oscura en nuestra galaxia, la Vía Láctea. La medición indica que el peso de la materia oscura en nuestra galaxia es 800.000.000.000 veces la masa del Sol. Este valor es aproximadamente la mitad del que una parte importante de la comunidad científica había asumido hasta ahora.
La medición se hizo examinando, por vez primera, datos correspondientes a la periferia de la galaxia. El trabajo lo ha realizado el equipo de Prajwal Kafle, del nodo que el Centro Internacional de Investigación en Radioastronomía (ICRAR) tiene en la Universidad de Australia Occidental, así como Sanjib Sharma, Geraint Lewis y Joss Bland-Hawthorn, de la Universidad de Sídney.
La materia del universo tal como la conocemos, o sea la que integra todo lo que vemos a nuestro alrededor, desde estrellas y planetas a nuestros propios cuerpos, solo conforma aproximadamente el 4 por ciento de todo el universo. Alrededor de un 25 por ciento es materia oscura, y el resto es energía oscura.
La nueva medición parece haber resuelto un misterio de la cosmología que ha desconcertado a la comunidad científica durante casi dos décadas.
El modelo de formación galáctica más aceptado por los cosmólogos, conocido como Modelo de la Materia Oscura Fría Lambda, ha venido prediciendo que alrededor de la Vía Láctea debería haber una cantidad de galaxias satélite de tamaño modesto pero no minúsculo, o sea bien perceptibles desde la Tierra, muy superior a la cantidad de galaxias de ese tipo que realmente está presente. ¿Por qué no concuerda la predicción con lo que vemos?
La clave parece estar en que la masa de la materia oscura presente en nuestra galaxia no fue calculada con la suficiente precisión. Si se utiliza el nuevo valor obtenido por el equipo de Kafle, el modelo predice que debería haber solo tres galaxias satélite de tamaño apreciable a nuestro alrededor, que es precisamente lo que vemos; la Gran Nube de Magallanes, la Pequeña Nube de Magallanes y la Galaxia Enana Elíptica de Sagitario.
En la investigación también se ha determinado que la velocidad de escape necesaria para abandonar la galaxia es de 550 kilómetros por segundo, o sea unos dos millones de kilómetros por hora.

Vía: http://noticiasdelaciencia.com/not/11853/miden-la-masa-de-la-materia-oscura-presente-en-nuestra-galaxia/

Fabiola Gianotti, la primera mujer que dirigirá el CERN

Fabiola Gianotti, junto a un detector del acelerador de partículas...
El Consejo del CERN (Laboratorio Europeo de Física de Partículas) ha elegido este martes a la física italiana Fabiola Gianotti como su directora general, lo que la convertirá en la primera mujer en dirigir la institución. Su mandato comenzará el 1 de enero de 2016 y durará 5 años.
La decisión de elegir a Gianotti fue "rápida", especifica el centro en un comunicado, recordando que había tres candidatos en liza. "Fue la visión de Gianotti sobre el futuro del CERN como un laboratorio-acelerador líder en el mundo, junto a su profundo conocimiento del CERN y de las partículas experimentales que nos llevó a este resultado", explicó Agnieszka Zalewska, presidente del Consejo.
"Fabiola Gianotti es una elección excelente para ser mi sucesora. Será un placer trabajar con ella durante 2015, año de transición. Y estoy seguro que el CERN quedará en excelentes manos", dijo Rolf Heuer, el director general actual.
Gianotti recordó que "el CERN es un centro científico de excelencia y una fuente de orgullo y de inspiración para físicos de todo el mundo. El CERN es también una cuna para la tecnología y la innovación, una fuente de conocimiento y de educación, y un ejemplo brillante y concreto de cooperación científica en el mundo".
Gianotti fue la directora de ATLAS, uno de los experimentos-detectores que ayudaron a confirmar la existencia del bosón de Higgs, que confirma la teoría que explica la física tal y como la entendemos. Este descubrimiento dio paso a que François Englert y Peter Higgs ganaran el premio Nobel en 2013.
El CERN fue fundado en 1954 y lo conforman 21 Estados, aunque en sus instalaciones trabajan 2.530 científicos de más de un centenar de países.

Vía: http://www.elmundo.es/ciencia/2014/11/04/5458fd58ca474180458b4572.html

domingo, 19 de octubre de 2014

El campo magnético de la Tierra podría invertir su orientación en el transcurso de la vida de una persona

Imagine si en el futuro todas las brújulas apuntasen hacia el polo sur en vez de hacia el norte. No es tan extraño como suena. El campo magnético de la Tierra se ha invertido, si bien no de un día para otro, muchas veces a lo largo de la historia del planeta. Este campo magnético, como el de un típico imán con forma de barra, mantiene casi la misma intensidad durante miles o incluso millones de años. Sin embargo, por razones del todo desconocidas, en ocasiones se debilita e invierte su dirección. Se venía asumiendo que un cambio de este tipo es un proceso que dura varios miles de años.
Ahora, un nuevo estudio hecho por un equipo de científicos de Italia, Francia y Estados Unidos, demuestra que la última inversión magnética de hace 786.000 años ocurrió en realidad muy rápido, en menos de 100 años, aproximadamente un vida humana.
El descubrimiento hecho por el equipo de Paul Renne y Courtney Sprain, de la Universidad de California en Berkeley, Estados Unidos, y Leonardo Sagnotti del Instituto Nacional de Geofísica y Vulcanología de Roma, en Italia, llega en un momento en el que hay evidencias de que la intensidad del campo magnético terrestre está disminuyendo 10 veces más rápido que lo normal, llevando a los geofísicos a predecir su inversión en el plazo de unos pocos miles de años.
Aunque una inversión magnética es un fenómeno de importancia capital y alcance planetario, no existen catástrofes documentadas asociadas con inversiones previas, a pesar de que se ha investigado mucho en el registro geológico y el biológico. Hoy en día, sin embargo, tal inversión podría potencialmente causar estragos en nuestras redes de suministro eléctrico, generando corrientes que podrían desactivarla.
Y dado que el campo magnético de la Tierra protege a la vida frente a las partículas energéticas del Sol y de los rayos cósmicos, que son capaces de provocar mutaciones genéticas, un debilitamiento o pérdida temporal de este escudo antes de una inversión estable nos dejaría más expuestos a tales partículas, con el resultado de un riesgo muchísimo mayor que el actual de padecer cáncer, lo que nos obligaría a salir a la calle enfundados en trajes protectores y a tomar otras medidas nunca antes vistas. El peligro para la vida sería aún mayor si las inversiones fueran precedidas por largos períodos de comportamiento magnético inestable.

Vía: http://noticiasdelaciencia.com/not/11703/el-campo-magnetico-de-la-tierra-podria-invertir-su-orientacion-en-el-transcurso-de-la-vida-de-una-persona/

lunes, 15 de septiembre de 2014

Los científicos logran por vez primera capturar el sonido de un átomo

http://img4.wikia.nocookie.net/__cb20111030055408/quimica/es/images/e/e2/Stylised_Lithium_Atom.png
Investigadores de la Universidad Tecnológica de Chalmers lograron, por primera vez, capturar el sonido de un átomo. Los expertos explicaron que, manipulando este sonido en el nivel cuántico, se podrán obtener nuevos descubrimientos para la computación.
La interacción entre los átomos y la luz es bien conocida y fue ampliamente estudiada en el campo de la óptica cuántica. Sin embargo, lograr el mismo tipo de interacción con las ondas del sonido fue para los investigadores un gran desafío.
“Hemos abierto una nueva puerta en el mundo cuántico al hablar y escuchar a los átomos”, señaló el autor principal del trabajo, Per Delsing.
“Nuestro objetivo a largo plazo es aprovechar la física cuántica para beneficiarnos de sus leyes, por ejemplo en ordenadores muy rápidos. Hacemos esto al hacer circuitos eléctricos que obedecen a leyes cuánticas, que podemos controlar y estudiar”, añadió.
Para este trabajo, publicado en ‘Science’, los científicos crearon un átomo artificial que, al igual que los reales, puede ser cargado con energía que emite, posteriormente, en forma de partícula. Esta es, generalmente, una partícula de luz, pero el átomo del experimento de Chalmers está diseñado para emitir y absorber energía en forma de sonido.
Así, el átomo, con un tamaño de tan solo 0,01 milímetros, se situó en un lateral de un material superconductor. Después dirigieron ondas acústicas sobre la superficie del material, reflejaron las oscilaciones del átomo y grabaron el resultado con un diminuto micrófono.
“Hemos detectado el sonido más débil que es posible captar”, indicó otro de los responsables del estudio, Martin Gustafsson. En este sentido, explicó que cuando se manipula un átomo, este crea un sonido, “un fonón cada vez”.
El sonido es tan débil que los investigadores no pudieron siquiera oírlo, sólo captar sus ondas con circuitos similares a los utilizados hoy en día en ordenadores cuánticos.

Vía: http://www.eladelantado.com/noticia/internacional/198680/los_cientificos_logran_por_vez_primera_capturar_el_sonido_de_un_atomo

martes, 9 de septiembre de 2014

Hawking, Higgs y la (improbable) destrucción del Universo

Stephen Hawking (i) y Garik Israelian, durante la presentación del...Stephen Hawking está de crucero. Zarpó el domingo de Southampton (Reino Unido) con destino a Tenerife para participar en la segunda edición del festival Starmus, que se celebrará en la ciudad canaria del 22 al 27 de septiembre. Pero antes de subir al barco, el astrofísico británico volvió a dejar patente su gran capacidad para generar titulares y expectación sobre asuntos tan complejos como la física de partículas.
Hawking ha escrito el prólogo del libro Starmus, 50 años del hombre en el espacio, que fue presentado en esa localidad británica. En su introducción, repasa los acontecimientos más importantes que han ocurrido en el mundo de la física desde 2011, cuando se celebró la primera edición de ese certamen dedicado a la astronomía para aficionados. Y es ahí cuando el científico de Cambridge teoriza y especula sobre las consecuencias del descubrimiento del bosón de Higgs y la nueva física que se abre con su hallazgo en el LHC, el gran acelerador del Laboratorio Europeo de Física de Partículas (CERN).
El bosón de Higgs es la partícula elemental que confiere masa a la materia que compone el Universo. Su hallazgo, anunciado el 4 de julio de 2012, se considera un hito histórico, pues era la única partícula del Modelo Estándar (el que describe toda la físíca) cuya existencia no había podido ser demostrada. Peter Higgs y François Englert, que predijeron su existencia hace 40 años, recibieron el año pasado el Nobel de Física.
"El [campo de] Higgs tiene la preocupante característica de que podría convertirse en metaestable a energías superiores a 100.000 millones de gigaelectronvoltios [100 millones de TeV]. Esto podría significar que el Universo podría sufrir una catastrófica desintegración [o desmoronamiento] de nuestro vacío [vacuum decay, en inglés], con una burbuja de vacío expandiéndose a la velocidad de la luz. Esto podría ocurrir en cualquier momento y no lo veríamos venir. Afortunadamente, el tiempo estimado para [que se produjera] ese desmoronamiento es mayor que la edad del Universo", escribe Hawking en el prólogo de ese libro, que presentó junto al astrofísico Garik Israelian, director de Starmus.
Como aclara el investigador del Instituto de Física de Altas Energías (IFAE) de Barcelona, José Ramón Espinosa, uno de los científicos que obtuvo los resultados que menciona Hawking en el prólogo, el astrofísico "se refiere al campo de Higgs y a su comportamiento a energías extremadamente altas, no a la partícula que se creó en el LHC".

Vía: http://www.elmundo.es/ciencia/2014/09/09/540d711bca4741ed688b4575.html

martes, 20 de mayo de 2014

Descubren cómo convertir luz en materia de manera directa

[Img #19923]Unos físicos han descubierto cómo crear materia a partir de luz, un logro que se creía imposible cuando la idea se planteó por vez primera hace 80 años.
La teoría Breit-Wheeler, presentada en 1934 por los dos físicos de cuyos respectivos apellidos toma su nombre, propuso que debía ser posible convertir luz en materia mediante el choque de sólo dos partículas de luz (fotones), para crear un electrón y un positrón, el método más simple predicho para conseguirlo. Se encontró que el cálculo estaba bien fundamentado desde el punto de vista teórico, pero Breit y Wheeler nunca esperaron que alguien demostrase físicamente su predicción, ya que se consideraba que no había medios técnicos plausibles para poner en marcha el singular proceso. Nunca ha sido observado en el laboratorio, y los experimentos anteriores para intentar generar el proceso y observarlo debidamente han precisado la adición de masivas partículas de alta energía.
La nueva investigación, a cargo del equipo de Oliver Pike, del Imperial College de Londres en el Reino Unido, muestra por primera vez cómo podría demostrarse en la práctica la teoría Breit-Wheeler. Este "colisionador fotón-fotón" que convertiría la luz directamente en materia utilizando tecnología que ya está disponible, sería un nuevo tipo de experimento de física de altas energías. Este experimento recrearía un proceso que fue importante en los primeros 100 segundos de existencia del universo y que también se percibe en los estallidos de rayos gamma, que son las explosiones más grandes en el universo y están cargadas de muchos misterios.
La demostración de la teoría de Breit y Wheeler proporcionaría la última pieza del rompecabezas de la física que describe las formas más simples en las que luz y materia interactúan.

Vía: http://noticiasdelaciencia.com/not/10429/descubren_como_convertir_luz_en_materia_de_manera_directa/

miércoles, 30 de abril de 2014

Propiedades magnéticas inesperadas en un compuesto de hierro

[Img #19579]Unos científicos han observado en un compuesto de hierro propiedades magnéticas asociadas habitualmente a las que se observan en los elementos químicos conocidos como Tierras Raras. Lo llamativo es que este nuevo compuesto basado en el hierro no contiene ningún elemento de este tipo. Las citadas propiedades magnéticas se dan cuando el átomo de hierro se posiciona entre dos átomos de nitrógeno.
En los imanes modernos, el hierro les proporciona importantes cualidades, entre ellas la derivada de que ese metal es abundante y barato. Pero la receta del imán debe también incluir elementos Tierras Raras, que otorgan “permanencia” a los imanes, o la capacidad de mantener fija la dirección de su campo magnético (lo que constituye un ejemplo de anisotropía). El reto es que los materiales Tierras Raras son caros. Por tanto, la próxima generación ideal de imanes permanentes debería basarse más en hierro y otros materiales abundantes y menos en Tierras Raras.
El descubrimiento hecho por el equipo del físico Paul Canfield, del Laboratorio gubernamental de Ames, en Iowa, Estados Unidos, abre la posibilidad de alcanzar pronto esa meta, impulsando así avances notables en campos que van desde el de los motores en automóviles eléctricos o híbridos, hasta el de las turbinas eólicas de alta eficiencia.
El compuesto de hierro no era fácil de prever. El uso de uno de los componentes, el nitrógeno, en una disolución, no había sido aún bien explorado porque, dado que normalmente pensamos en él como un gas, resultaba difícil asumir que podía haber un modo práctico de agregarlo en una disolución. Sin embargo, Canfield, Anton Jesche y sus colaboradores encontraron que el litio parecía ser capaz de mantener al nitrógeno en la disolución deseada. Así pues, los científicos mezclaron litio y polvo de nitruro de litio, y funcionó. Se logró elaborar la disolución deseada.
Entonces, el grupo añadió hierro y, para su sorpresa, éste se disolvió.
Normalmente, el hierro y el litio no se mezclan. Parece que añadir nitrógeno al litio en la disolución permite que el hierro se incorpore del modo deseado.
Los cristales individuales resultantes proporcionaron aún más sorpresas: el campo externo contrario necesario para invertir la magnetización era de más de 11 teslas, tanto como un orden de magnitud superior a lo que se encuentra habitualmente en cristales individuales.

Vía: http://noticiasdelaciencia.com/not/10245/propiedades_magneticas_inesperadas_en_un_compuesto_de_hierro/

lunes, 31 de marzo de 2014

Logran filtrar luz por su dirección

[Img #19056]Las ondas de luz pueden definirse a través de tres características fundamentales: su color (o longitud de onda), la polarización y la dirección. Mientras que es fácil filtrar selectivamente la luz según su color o polarización, hacerlo basándose en la dirección de propagación ha estado fuera del alcance de la ciencia, hasta ahora.
Por vez primera, se ha conseguido producir un sistema que permite que la luz de cualquier color lo atraviese sólo si incide en él con un ángulo específico; la técnica refleja toda la luz que viene de las otras direcciones. Este nuevo método podría acabar llevando hacia avances en tecnología fotovoltaica solar, detectores para telescopios y microscopios, y filtros de privacidad para pantallas.
La nueva estructura consiste en una superposición de capas ultrafinas de dos materiales que se alternan. El grosor de cada capa es controlado de forma precisa. En configuraciones de dos materiales por capas, es habitual que en la unión entre ambos se den  algunas reflexiones. Pero en estas uniones, existe un ángulo “mágico” conocido como Ángulo de Brewster (llamado así en honor al físico escocés Sir David Brewster), y cuando un haz de luz llega exactamente con ese ángulo y con la polarización adecuada, no se produce reflexión.
Si bien la cantidad de luz reflejada en cada una de esas uniones es pequeña, combinando muchas capas con las mismas propiedades, se puede reflejar la mayor parte de la luz, excepto aquella que llega exactamente con el ángulo y polarización adecuados.
Utilizando una superposición de unas 80 capas alternas de grosor específico, el equipo de Shen y Soljačić consiguió reflejar luz en casi todos los ángulos, y con todos los colores del rango de la luz visible.
Trabajos anteriores habían demostrado formas de reflejar selectivamente toda la luz incidente excepto la de un ángulo concreto, pero esos métodos estaban limitados a un estrecho rango de colores. La amplitud del nuevo sistema, que lo convierte así en plenamente funcional,  se presta a muchas aplicaciones potenciales.

Vía: http://noticiasdelaciencia.com/not/9975/logran_filtrar_luz_por_su_direccion/

lunes, 17 de marzo de 2014

Histórico hallazgo que avala la teoría del Big Bang

Físicos estadounidenses anunciaron hoy haber detectado por primera vez las ondas de gravedad que recorrieron el espacio justo después del Big Bang, un descubrimiento histórico que consolida esta teoría del origen del universo hace 14 millones de años. Esta primera observación de estas ondas gravitatorias primordiales, previstas en la teoría de la relatividad de Albert Einstein, confirman la expansión extremadamente rápida del universo en la primera fracción de segundo de su existencia, una fase llamada inflación cósmica. Esta teoría había sido enunciada inicialmente en 1979 por el físico estadounidense Alan Guth.
La "primera evidencia directa de inflación cósmica" fue observada mediante un telescopio situado en la Antártida, tras observaciones del fondo cósmico de microondas, bajas radiaciones remanentes del Big Bang. "Este es el lugar en la Tierra más cercano al espacio, donde el cielo es más seco, más claro y más estable", explicaron los autores del estudio. "Es ideal para observar las microondas difusas provenientes del Big Bang".
"La detección de esta señal es uno de los objetivos más importantes en cosmología actualmente y es resultado de una enorme cantidad de trabajo llevado a cabo por muchos investigadores", dijo John Kovac, del Centro de Astrofísica (CfA) de la Universidad de Harvard y el Instituto Smithsonian, jefe del equipo BICEP2 (Background Imaging of Cosmic Extragalactic Polarization) que hizo este descubrimiento. "Era como encontrar una aguja en un pajar, pero en su lugar hemos hallado una barra de metal", dijo el físico Clem Pryke, de la Universidad de Minnesota, jefe adjunto del equipo. Para el físico teórico Avi Loeb, de la Universidad de Harvard, este avance "aporta un nuevo esclarecimiento sobre algunas de las cuestiones más fundamentales para saber por qué existimos y cómo comenzó el universo". "Estos resultados no solo dan una prueba irrefutable de la inflación cósmica, sino que también informan de ese momento de rápida expansión del universo y de la potencia de este fenómeno", explicó. Los datos "confirman la profunda relación entre la mecánica cuántica y la teoría de la relatividad general", destacaron los astrofísicos. La física cuántica describe fenómenos a escala atómica que la relatividad general no puede explicar.

Vía: http://www.eltribuno.info/salta/383741-Historico-hallazgo-que-avala-la-teoria-del-Big-Bang-.note.aspx 

miércoles, 19 de febrero de 2014

Registrada la masa atómica más precisa del electrón

El último dato sobre la masa atómica del electrón facilitado por el grupo de trabajo del Comité de Información para Ciencia y Tecnología (CODATA) que se dedica a las constantes fundamentales era 0,00054857990943(23) –medido en unidades de masa atómica unificada (u)–.
Ahora, un equipo alemán liderado desde el Instituto Max-Planck de Física Nuclear ha calculado que ese valor es 0,000548579909067(14)(9)(2), donde los números entre paréntesis corresponden respectivamente a la incertidumbre estadística, sistemática y teórica. En gramos, la masa atómica del electrón ronda los 9,109 x 10-28.
La nueva medida es 13 veces más precisa que la anterior, según publican los autores en la revista Nature. Para obtenerla han utilizado una triple trampa de Penning, un dispositivo donde se estudian partículas cargadas mediante campos magnéticos y eléctricos, y la base teórica ha sido la electrodinámica cuántica.
La masa del electrón es una medida clave de la física fundamental, ya que es responsable de la estructura y propiedades de átomos y moléculas. “Es un parámetro importante para el modelo estándar de la física (que explica los componentes básicos de la materia y sus interacciones)”, subraya a Sinc Sven Sturm, el primer autor del trabajo.
“Una manera de buscar nueva física es comparar las predicciones del modelo estándar con resultados experimentales precisos –añade–, y el elemento de unión entre las predicciones y los resultados experimentales son las constantes fundamentales como la masa del electrón, por lo que este dato permitirá tener una visión mucho más detallada para esa nueva física”.
La unidad de masa atómica se define como la doceava parte de la masa de un átomo de carbono-12. Para la partícula del estudio, los investigadores la han calculado al medir un solo electrón unido a un ion de referencia (un núcleo de carbono desnudo) de masa atómica conocida.
“El nuevo valor para la masa atómica del electrón es un eslabón en una cadena de medidas que permitirá hacer un test del modelo estándar de la física de partículas con una precisión superior a una parte por trillón, además del impacto que tiene en los datos de otras constantes fundamentales”, destaca también en Nature el investigador Edmund G. Myers, de la Universidad Estatal de Florida (EE UU).

Vía: http://www.agenciasinc.es/Noticias/Registrada-la-masa-atomica-mas-precisa-del-electron

viernes, 14 de febrero de 2014

Casi cien mil nuevas fuentes cósmicas de rayos X

[Img #18241]En ocho años de observaciones, el satélite astronómico Swift, de la NASA en colaboración con instituciones del Reino Unido e Italia, ha reunido información suficiente como para permitir que un equipo internacional de investigación, dirigido desde la Universidad de Leicester en el Reino Unido, haya confeccionado un enorme catálogo de las fuentes cósmicas de rayos X conocidas en el universo. El catálogo contiene unas 150.000 fuentes de rayos X de alta energía (esencialmente estrellas y galaxias), de las cuales hay casi 100.000 previamente desconocidas y de las cuales ahora se conoce su existencia y su ubicación.
Las estrellas y las galaxias emiten rayos X debido a que los electrones en ellas se mueven a velocidades extremadamente altas, ya sea porque están muy calientes (a más de un millón de grados), o porque los aceleran potentísimos campos magnéticos. La causa última suele ser la gravedad; el gas puede comprimirse y calentarse de manera tremenda a medida que se acerca a un agujero negro, una estrella de neutrones o una enana blanca. También puede ocurrirle esto cuando está atrapado en los turbulentos campos magnéticos de estrellas como nuestro Sol.
Es previsible que la mayoría de las fuentes de rayos X descubiertas en los datos del Swift por el equipo de Phil Evans, de la Universidad de Leicester, señalen la presencia de agujeros negros supermasivos en los centros de las grandes galaxias observadas a varios millones de años-luz de la Tierra, pero el catálogo también contiene objetos con actividad temporal (las ráfagas de corta duración de rayos X) que pueden corresponder a supernovas o a erupciones solares de estrellas.
El satélite astronómico Swift fue lanzado al Espacio en noviembre de 2004. Desde entonces, el Swift ha realizado una gran labor, permitiendo a la humanidad asomarse al cosmos de un modo nunca antes conseguido, y ayudando a aclarar algunos misterios y a descubrir la existencia de otros.

Vía: http://noticiasdelaciencia.com/not/9574/casi_cien_mil_nuevas_fuentes_cosmicas_de_rayos_x/

jueves, 13 de febrero de 2014

Un laboratorio de EE UU alcanza un nuevo hito en la fusión nuclear

[Img #18212]La fusión nuclear, la misma que activa a las estrellas, podría ser la fuente de energía ilimitada y barata del futuro, pero para ello las centrales de este tipo (distintas a las actuales de fisión nuclear) tendrían que generar más energía de la que consumen.
Esto todavía no se ha conseguido, pero en la instalación National Ignition Facility (NIF) del Lawrence Livermore National Laboratory de EE UU han dado un nuevo paso. Por primera vez han logrado en una reacción de fusión liberar más energía que la que absorbe el combustible utilizado (de deuterio-tritio, dos isótopos del hidrógeno).
De momento han conseguido esta ‘ganancia’ a nivel del combustible, según publican en la revista Nature, pero el gran reto es obtenerla para todo el sistema, de tal forma que la energía total que entre sea superada por la producida.
"Realmente es emocionante ver cómo de forma sostenida aumenta la contribución a la producción del proceso, aunque queda trabajo por hacer y problemas de física que necesitan ser abordados antes de que lleguemos al final", comenta el primer autor del trabajo, Omar Hurricane.
Para realizar este experimento se ha empleado el método del confinamiento inercial –a diferencia de otras instituciones, como el ITER, donde se opta por el confinamiento magnético–. En esta técnica los científicos estadounidenses emplean 192 láseres para calentar y comprimir las pequeñas pastillas de combustible, hasta que implosionan.
De esta forma se genera el plasma y la energía, y en esta ocasión el rendimiento de las reacciones ha sido alrededor de diez veces superior al conseguido en otros experimentos anteriores.

Vía: http://noticiasdelaciencia.com/not/9561/un_laboratorio_de_ee_uu_alcanza_un_nuevo_hito_en_la_fusion_nuclear/

lunes, 10 de febrero de 2014

El CERN busca al sucesor del LHC a largo plazo

[Img #18147]Aunque se concibió originalmente en los años 80, el LHC (gran colisionador de hadrones) requirió otros 25 años para hacerse realidad. Este acelerador de 27 km de circunferencia, es distinto a cualquier otro y ya está en el principio de un programa que se espera continúe durante otros 20 años.
Incluso ahora, mientras continúan los trabajos dirigidos a su puesta en marcha en 2015, se realizan planes detallados para una actualización a gran escala con el objetivo de incrementar la luminosidad y explotar el LHC a su máximo potencial. El denominado HL-LHC (del inglés High Luminosity) es la prioridad del CERN en este sentido, e incrementará el número de colisiones acumuladas en los experimentos en un factor 10 a partir de 2024.
Pero la física de partículas requiere una visión todavía a más largo plazo, por lo que el CERN está iniciando un estudio para explorar un proyecto centrado en una nueva generación de aceleradores de partículas circulares con una circunferencia de 80 a 100 kilómetros.
El programa para el futuro colisionador circular (FCC, por sus siglas en inglés) se centrará especialmente en estudios para un colisionador de hadrones (partículas compuestas por quarks como los protones), similar al LHC aunque capaz de alcanzar energías sin precedentes en la región de los 100 TeV. Será un digno sucesor del colisionador actual, cuya energía de colisión alcanzará los 14 TeV.
El estudio del FCC procede de las recomendaciones de la Estrategia Europea de Física de Partículas publicada en mayo de 2013, cuyo estudio de viabilidad se realizará mediante proyectos de investigación básica en el CERN durante los próximos 5 años. Este proyecto comenzará con una reunión internacional en la Universidad de Ginebra del 12 al 15 de febrero próximos y sus sesiones serán retransmitidas por webcast.
Esta iniciativa irá en paralelo con el estudio que se lleva desarrollando durante años de otro colisionador, el lineal compacto o CLIC, por sus siglas en inglés. El objetivo del estudio de CLIC es investigar el potencial de un colisionador lineal basado en una nueva tecnología de aceleradores.
"Todavía sabemos muy poco del bosón de Higgs, y nuestras búsquedas de energía oscura y supersimetría continúan”, dice Sergio Bertolucci, director de Investigación y Computación del CERN. “Los próximos resultados del LHC serán cruciales para mostrarnos el camino a seguir en la investigación en el futuro, y cuál será el tipo de acelerador más adecuado para responder las nuevas cuestiones que aparecerán pronto".
"Tenemos que sembrar las semillas de las tecnologías del mañana hoy, así que estamos listos para tomar decisiones en unos años", añade el director de Aceleradores y Tecnología, Frédérick Bordry.
Vía: http://noticiasdelaciencia.com/not/9526/el_cern_busca_al_sucesor_del_lhc_a_largo_plazo/

lunes, 9 de diciembre de 2013

El LHC se prepara para el reto de la materia oscura

El LHC está formado por un anillo de 27 kilómetros, que salta indiscriminadamente las fronteras suizas y francesas, y que contiene imanes superconductores ultrafríos que dirigen protones por su interior. Estos protones dan unas 11.000 vueltas por segundo, de ahí que sea de gran importancia mantener el tubo en ultra alto vacío, para evitar que estas partículas de alta energía acaben "colisionando contra un átomo residual", según ha explicado el responsable del departamento de vacío del CERN, Juan Miguel Jiménez, quien ha apuntado que el LHC es el lugar "más vacío del Sistema Solar".
   Estos protones viajan a velocidades cercanas a la de la luz en direcciones opuestas en tubos de haz separados. Deben refrigerarse a una temperatura inferior a la del espacio exterior (-270 grados centígrados, cerca del cero absoluto), sin embargo, cuando las partículas colisionan entre sí se generan temperaturas 100.000 veces más calientes que el interior del Sol.
   A la vista, el LHC es como una cebolla. El anillo está rodeado de capas formadas por diferentes detectores, de silicio o de gas (o de ambos) y de sistemas informáticos que recogen los miles de millones de datos que va generando el choque de las partículas. Los detectores van localizando tanto la situación de las partículas después del choque --la trayectoria que toman-- y los 'residuos' en los que se convierten.
   En este sentido, el físico del experimento CMS, Jesús Puerta-Pelayo, ha explicado que el colisionador funciona como una cámara digital "ultra potente y ultra precisa y utra inteligente" que hace 40 millones de fotografías (que sería el número de colisiones) por segundo y se queda sólo con los datos más interesantes.
   "De los 40 millones de colisiones la mayoría son procesos conocidos y no se guardan. Con la electrónica que existe en el LHC, es el propio aparato el que sabe si la 'foto' que se ha tomado sirve o no", ha señalado. El sistema utilizado es similar "al que se utiliza en facebook para reconocer caras", los detectores van captando datos interesantes hasta llegar a la conclusión", ha añadido.
   Concretamente, de todas las colisiones sólo unos 100.000 sucesos son los que acaban analizándose en la sala de datos en donde también se hace una selección más fina, todo de manera informática.

LOS EXPERIMENTOS "HERMANOS" ATLAS Y CMS

   El descubrimiento del Bosón de Higgs se hizo "de manera paralela" en dos de los cuatro experimentos que se encuentran en el LHC: CMS y ATLAS. Puerta ha indicado que "aunque son experimentos rivales, en realidad son hermanos, porque si los dos no ven los mismos resultados es que algo falla en uno de ellos".
   "Es el mismo canal, pero las investigaciones se hacen de manera independiente. Si dos experimentos que no tienen nada que ver el uno con el otro dan los mismo resultados es un éxito", ha destacado Puerta-Pelayo.
   Tanto ATLAS como CMS están diseñado para investigar una amplia gama de la física, no sólo la búsqueda del bosón, sino también partículas que podrían conformar la materia oscura. La diferencia entre ambos se centra en las técnicas de detección que utilizan y sus diseños.
   "CMS tiene un campo magnético mucho más potente y ATLAS es mas grande para medir las trazas durante más tiempo, esa es la diferencia básica, pero la resolución y la capacidad para descubrir, sobre el papel, son las mismas", ha indicado Garoe González, físico de ATLAS.
   Actualmente, el LHC está parado hasta 2015. Según ha indicado Puerta, se hará un encendido previo en el mes de mayo, pero el colisionador no empezará a trabajar de nuevo hasta marzo de 2015. En este tiempo se realizarán mejoras tecnológicas y empezará, según ha indicado los expertos, "una nueva etapa" para el centro.

PRÓXIMO PASO: LA MATERIA OSCURA

   Según han explicado los físicos, uno de los próximos retos del LHC es la materia oscura, de la que apenas se sabe nada. "Lo único que sabemos de ella es que es oscura que no interacciona electromagnéticamente", ha indicado Puerta-Pelayo, quien ha explicado que la poca información ha sido recogido de "cómo esta materia actúa con las galaxias a nivel cosmológico".
   "Hay teorías que predicen partículas que podrían ser candidatas a formar parte de la materia oscura, una de ella es la supersimetría, una partícula ligera, estable y masiva que no interacciona electromagnéticamente y es lo que estamos buscando", ha apuntado. "Si demostramos que la supersimetría existe podremos ver si esta partícula masiva es uno de los ingredientes del Universo", ha añadido, aunque ha reconocido que "aún no se ha visto nada".

Vía: http://www.europapress.es/ciencia/noticia-lhc-prepara-reto-materia-oscura-20131209165643.html

Astrofísicos españoles descubren una galaxia detenida en el tiempo

Se formó en los albores del cosmos y ha permanecido inalterada desde entonces, por lo que constituye una ventana única al universo primitivo

Investigadores del Instituto de Astrofísica de Canarias (IAC) han descubierto que la galaxia cercana NGC 1277, situada en el cúmulo de galaxias de Perseo, se encuentra exactamente igual que cuando el Universo tenía solo 2.000 millones de años, apenas un «bebé» (el 15% de su edad actual). Por motivos desconocidos, esta galaxia «reliquia» se quedó aislada en ese momento de su entorno y ha permanecido inalterada hasta hoy, detenida en el tiempo. Según los investigadores, ofrece la posibilidad única de asomarse al Universo tal y como era en esa etapa temprana.
«Por alguna razón que desconocemos, las fuentes tradicionales de gas y estrellas que suelen tener el resto de galaxias se cortaron en el caso de esta galaxia reliquia. Así, este objeto se quedó sin el flujo de nuevo material que forma las estrellas y ha permanecido como congelada en el tiempo», señala el autor principal del trabajo, Ignacio Trujillo.
El descubrimiento, que se publicará en Astrophysical Journal Letters y que se encuentra ya accesible en Arxiv.org,estudiar el universo primitivo con un detalle sin precedente: los procesos físico-químicos, las estructuras y la dinámica que dieron lugar a las primeras galaxias y agrupaciones de estrellas.
abre una ventana para
«Al descubrir una galaxia que apenas ha tenido contacto con el resto, y al estar tan cerca de nosotros, con nuestros telescopios actuales podemos estudiar sus propiedades con una precisión que resultaría imposible si quisiéramos estudiar el mismo objeto de manera directa tal y como era en el universo primitivo. En ese caso, al encontrarse tan lejos de nosotros apenas nos llegaría luz de él», explica el investigador.
El estudio combina datos tomados con el telescopio espacial Hubble y de espectroscopia profunda obtenida con el telescopio William Herschel, en el Observatorio del Roque de los Muchachos, en la isla de La Palma. A partir de esta información, los investigadores han concluido que el objeto analizado es muy viejo, rico en metales y que se formó en solo unos pocos millones de años. Esto supone que la cantidad de nuevas estrellas que se originaban en las etapas iniciales de esta galaxia era muy alta, de unas mil masas solares al año. «Si nuestras medidas son correctas, las tasas de formación estelar en el universo primitivo eran mil veces más grandes que las de nuestra propia galaxia en la actualidad, donde se forma aproximadamente un sol cada año», apunta Trujillo.

Estrellas a 400 km por segundo

La dinámica de esta galaxia, que posee un agujero ultramasivo en su centro, es también extraordinaria. Por un lado, en su parte central las estrellas se mueven de manera caótica con velocidades que superan los 400 kilómetros por segundo, lo que supone la vertiginosa cifra de casi un millón y medio de kilómetros por hora (un cohete a esa velocidad tardaría solo 15 minutos en llegar a la Luna). Mientras, en su parte externa el movimiento parece más organizado y sus estrellas rotan con velocidades de 300 kilómetros por segundo.