5/28/2008

LA VELOCIDAD DE LA LUZ Y OTRAS IDEAS....


La constancia de la velocidad de la luz no está exenta de incertidumbre.

La velocidad de la luz es considerada como una constante fundamental de la Naturaleza. Sin embargo, de acuerdo con la teoría de la Transmultiversalidad, el hecho de que toda forma de existencia esté en constante transformación o diferenciación, implica la imposibilidad de fenómenos repetibles. Visto así, el espacio y los relojes no permanecen invariables y desde esta perspectiva la determinación de valores constantes en un contexto espacio-temporal siempre está ligada a la incertidumbre. Esto implica, desde luego, una contradicción medular entre la Transmultiversalidad y las dos teorías más importantes de la física contemporánea, la Relatividad y la Física Cuántica.

Por Eslaen' Martorell Zamora de Tendencias Científicas.

A usted le dan la tarea de determinar el tiempo que demora un objeto en recorrer una distancia entre dos puntos, A y B. Si usted es de los que acepta que todo cuanto existe está en constante transformación, no podría cumplir dicha tarea sin escapar de la incertidumbre.

Resulta que en realidad el objeto que sale del punto A no es el mismo que llega al B, como tampoco lo son el espacio ni el reloj encargado de medir el tiempo, pues continuamente usted, el objeto, el espacio y el reloj son diferentes. En la vida cotidiana tal enfoque carece de importancia, pero es determinante para la física actual.

La Transmultiversalidad se basa en un mundo que sólo puede hallarse en diferenciación perpetua e irrepetible, el Transmultiverso (1), en el cual no es posible determinar con exactitud valores constantes o repetibles según el enfoque espacio-temporal. Semejante postulado sitúa a esta teoría en franca contradicción con la Relatividad y la Física Cuántica.

Antes de proseguir es indispensable señalar que en este artículo no se pretende derogar el papel de aquellos eminentes científicos tales como Planck, Einstein y muchos otros que forjaron los cimientos de la física contemporánea. Sin sus aportes sería imposible el planteamiento de cualquier otra teoría.

La velocidad de la luz y la Transmultiversalidad

La velocidad de la luz en el vacío es considerada una constante fundamental de la naturaleza. Sin embargo, desde la Transmultiversalidad es imposible asumir un hecho como invariable, pues todo se está transformando continuamente. Visto así, la definición de tiempo y espacio quedan concatenados en un círculo vicioso.

Observe que en el contexto actual, 1 metro equivale a la longitud recorrida por la luz en el vacío en un intervalo de tiempo de 1/299.792.458 de segundo. Pero en Transmultiversalidad tanto el espacio como los relojes son considerados continuamente diferentes, por tanto, nunca un metro será igual otro metro y nunca un segundo será igual a otro segundo, resulta entonces que cualquier medición espacio-temporal es siempre diferente.

Si se dispone de 1 reloj, no importa si es de sol, mecánico o atómico, éste al igual que todo el Transmultiverso se estará transformando continuamente de manera independiente en sí mismo y por ende en "la supuesta lectura" del tiempo que registra, así, cada segundo que un reloj rastree nunca será igual a otro segundo, pues continuamente se trata de otro reloj transformado n veces o continuamente diferente (1).

El Tiempo Universal Coordinado tampoco ayuda

En la actualidad, para lograr una mayor precisión del registro del tiempo se utiliza el Tiempo Universal Coordinado, que resulta del promedio de la lectura de unos 200 relojes de cesio esparcidos por distintos lugares del planeta para controlar el efecto de la gravitación sobre la dilatación del tiempo. Pero esto complica aún más las cosas, pues si en lugar de un reloj, utilizamos varios relojes, todos se estarán transformando continuamente, así, cada uno emitirá la lectura de su horario propio cada vez diferente de sí mismo y del resto de los relojes.

Resulta que los 9 192 631 770 períodos de la radiación del átomo de cesio (que define 1 segundo) transcurren de manera diferente en cada reloj, por tanto, la longitud recorrida por la luz en el vacío en un intervalo de tiempo de 1/299.792.458 de segundo será también continuamente diferente, lo mismo si se emplea un único reloj o un conjunto de ellos.

Por esta misma razón, en física cuántica es imposible medir simultáneamente de forma precisa la posición y el momento lineal de una partícula, según el principio de incertidumbre de Heisenberg (2). Por su parte, el principio de incertidumbre transmultiversal no sólo afirma la imprecisión para medir simultáneamente la posición y el momento lineal de una partícula, sino que se hace extensivo a todas las mediciones del contexto espacio-temporal.

Desde esta perspectiva, la velocidad de la luz o cualquier cuerpo nunca es constante, sino indefinida o continuamente diferente.

A primera vista, esta conclusión podría parecer un tanto absurda. Sin embargo, es irrebatible bajo el principio de que toda forma de existencia cambia continuamente. Desde luego, para asumirlas debemos luchar contra los prejuicios teóricos. Para estar más claro de la situación el lector sólo debe contestarse la siguiente pregunta, ¿está todo en continua transformación? Si su respuesta es sí, entonces resulta difícil negar la Transmultiversalidad.

El tiempo no existe como dimensión o ente físico

La realidad transmultiversal significa que existirán tantos registros de tiempo como relojes sean utilizados y no se trata de que la gravedad dilata el tiempo, sino que cada reloj está sometido a una fuerza de transformación que no puede dejar de ser (que varía con la gravedad y el resto de las fuerzas fundamentales) y por tanto cada reloj se transforma en concordancia, entre otras cosas, con el lugar que ocupa. Así, cada artefacto muestra un horario singular, lo cual no significa que el tiempo como dimensión se atrase o adelante.

Entonces, el tiempo no es una dimensión como se ha pretendido observar (el registro horario sólo indica, en parte, la transformación del reloj) y si bien podemos asumirlo como un método para organizar cualquier actividad, incluyendo las investigaciones, no existe forma posible de asumirlo, fuera del contexto teórico, como una dimensión o ente físico. Por tanto, aunque es lamentable decirlo, no tiene sentido el intento de viajar en el tiempo (1).

Lo expresado en este artículo obliga a una revisión del paradigma científico actual. Basta con señalar que el segundo de tiempo constituye una unidad fundamental de medida del sistema internacional de unidades del cual penden otras unidades de medidas esenciales. Sin embargo, ello no significa que tengamos que desechar los relojes, pues seguirán siendo indispensables en las investigaciones, al igual que el modelo matemático actual y sus valores constantes, que servirán de base para un nuevo arquetipo.

Hay que empezar a considerar lo que es bien conocido, que todo ente, incluye al espacio y los relojes, están sometidos a un proceso de transformación indefectible, de modo que el modelo espacio-tiempo cuatridimensional requiere de una revisión. Los acontecimientos además de relativos o probabilísticas son transmultiversales. En este sentido habrá que transitar de la sistemática establecida hacia una nueva metodología de la investigación.

La luz y la Experimentación Transmultiversal

La experimentación transmultiversal está dirigida fundamentalmente a explicar como ocurre la transformación o diferenciación de uno o varios ente en el Transmultiverso.

Visto así, la Transmultiversalidad persigue el mismo objetivo que la relatividad en el macrocosmo o la teoría cuántica a nivel subatómico; no obstante, la metodología empleada es diferente. Volvamos al ejemplo inicial. Dado que todo se está transformando mientras el objeto efectúa el recorrido desde A hasta B, sucede que las dimensiones del objeto y del espacio están en constantes cambios, por lo que ambos sólo pueden existir a través de infinitas dimensiones o transdimensiones, o sea, cada ente se está transformando con una superficie aparentemente finita, pero con un perímetro de longitud infinita, tipo fractal. De esto se concluye que en transmultiversalidad hay que enfrentar cualquier cantidad de dimensiones.

La luz como fenómeno físico constituye un ejemplo formidable de un proceso transmultiversal, pues está conformada por una amalgama de múltiples longitudes de onda o haces individuales de energía (fotones). De acuerdo con la Transmultiversalidad, este espectro puede considerarse como un conjunto de organizaciones en transformación perpetua cuya diferenciación determina el comportamiento de este fenómeno físico en los distintos tipos de experimentos.

Dado que en el efecto fotoeléctrico se observa la transformación de la luz u otra radiación electromagnética en electrones, este fenómeno puede tomarse como un proceso de diferenciación transmultiversal. Es bien conocido que la emisión de fotoelectrones sucede siempre que se supere la frecuencia mínima o umbral capaz de provocar la emisión. ¿De qué depende este umbral que da origen a la transformación de un ente en otro?

La respuesta a esta pregunta es determinante para explicar por qué cada elemento tiene su propio umbral de emisión o manera singular de transformarse, lo cual se puede lograr aplicando el Análisis Transuniversal (3) a una base de datos que contenga la información de las propiedades de los elementos químicos, incluyendo su comportamiento durante el efecto fotoeléctrico.

La NASA celebra el aniversario de la sonda "Mars Spirit"

Parece que fue ayer, pero ya hace tres años. La Mars Rover Spirit se lanzó el 10 de junio de 2003 y llegó a Marte el 4 de enero de 2004. La Mars Rover Opportunity dejó la Tierra el 7 de julio de 2003 y se posó en el planeta rojo el 25 de enero de 2004. (COLPISA)

Aunque la NASA conserva imágenes del equipo de la misión emocionándose hasta las lágrimas cuando las dos sondas alcanzaron su destino, en principio se trataba de un objetivo modesto: que los dos robots resistieran tres meses. Tres años después, y con el proyecto prorrogado al menos hasta septiembre de 2007, decir misión cumplida es decir poco.

Steve Squyres, profesor de Astronomía de la Universidad de Cornell, codirector del proyecto con Peter Theisinger, del Laboratorio de Propulsión a Chorro de la NASA, es de los primeros en admitir que el triunfo de las Mars Rover se debe en parte al buen hacer, y en parte a la buena suerte.

La historia de estos dos robots comprende episodios de gran gallardía e ingenio, como cuando Opportunity se quedó bloqueado días y días frente a una duna de arena, que los científicos simularon en la Tierra, para desarrollar una técnica que permitiera apartar la arena y avanzar. Junto a este logro, situaciones más chuscas: para tres meses que los Mars Rover iban a estar en el convento, a nadie se le había ocurrido dotarles de artilugio alguno para asear sus espejos. Ya era triste que las sondas sacaran pecho para nada, si el polvo las iba a cegar de todos modos... Menos mal que el viento solar vino en ayuda de la ciencia, restaurando una visión diáfana.

El proyecto Mars Rover pasará a la historia por su relevancia en la caza y captura de numerosos indicios geológicos de un pasado húmedo -no necesariamente sostenido- en Marte, así como de la observación de tormentas de arena, acción meteórica, etc.

La llegada del Opportunity al gigantesco cráter Victoria tuvo algo de llegada a la Tierra Prometida, como proclamó la NASA, orgullosa. Entre sus tareas recientes, destaca el rastreo de las huellas de anteriores misiones no tripuladas en Marte, así como reportar el intento -hasta ahora fallido- de aclimatar una bacteria en el planeta que por ahora es el más firme candidato a albergar vida que se conoce.

Pero la singularidad de esta misión, más allá de la espectacularidad de los datos obtenidos, es que los robots y los humanos que los manejan desde la Tierra han crecido juntos. Juntos han aprendido a vencer los obstáculos y a abrirse paso en un medio hostil. A medida que el futuro y las ambiciones de las sondas se ensanchaban, se hacían también mayores sus retos. Superarlos ha significado toda una carrera espacial en sí misma.

Hubo que aumentar, por ejemplo, la memoria disponible para evitar una sobrecarga de datos que hiciera inviable la transmisión. Hubo que cruzar los dedos y esperar que los rover tuvieran éxito en autopilotarse durante la conjunción solar que, a finales de octubre, vuelve a Marte y a la Tierra ciegos el uno con respecto al otro, y desencadena tal tempestad de partículas solares, que no es posible ni soñar en mandar datos entre ambos planetas. Hubo que aprender a ganar tiempo, en lugar de perderlo a mares, «enseñando» a los robots a «ver» y mandar imágenes de los objetos potencialmente interesantes para la investigación, antes de invertir esfuerzos en aproximarse a ellos.

Actualmente los dos vehículos, Spirit y Opportunity, son capaces de tener «en la cabeza» un mapa elemental de lo que tienen por delante y de «pensar» más allá del estricto paso siguiente, lo cual ha permitido ahorrar horas en vacilaciones, tanteos y callejones sin salida.

No está nada mal para un proyecto que empezó con un presupuesto de 820 millones de dólares (680 millones de euros), para tres meses. Su ampliación hasta los tres años actuales obligó casi a doblar la inversión inicial, y a prever un gasto corriente mensual de cerca de 2 millones de euros. Muy bien gastados, como dice Squyre, satisfecho de tener entre manos algo con que «ilusionar a la gente» y «empujar a los chavales a estudiar ciencia».

¿Le echan algo de marketing? Quizá. Pero, como buenos científicos, lo apoyan con datos: en la semana siguiente a la llegada de Spirit a Marte, la página de la NASA registró 1.700 millones de visitas y procesó 34.6 terabytes de información sobre el tema. Si eso no es interés...

Captan el movimiento más veloz dentro de una molécula

Las altas velocidades a las que los protones pueden viajar durante las reacciones químicas, implican que su movimiento necesita ser medido en unidades de tiempo llamadas "attosegundos", siendo un attosegundo igual a una trillonésima de segundo. La observación ahora lograda del movimiento de los protones, realizada en moléculas de hidrógeno y de metano con una exactitud de 100 attosegundos, desvela los movimientos más rápidos captados hasta el presente, según los investigadores del Imperial College de Londres. Dividir un segundo en intervalos tan minúsculos como 100 attosegundos, proeza que esta nueva técnica permite, es sumamente difícil de conceptualizar, ya que resulta similar a dividir la distancia de 630 millones de kilómetros que separa la Tierra de Júpiter, en porciones tan finas como el grosor de un cabello humano. (SOLOCIENCIA.COM)

Esta nueva técnica implica que los científicos podrán ahora medir y controlar la dinámica extremadamente rápida de las moléculas en campos tales como el control de las reacciones químicas, la computación cuántica y las fuentes de rayos X de alto brillo para radiografías utilizadas en el procesamiento de materiales. Los científicos tienen ahora una visión mucho más clara de lo que está pasando dentro de las moléculas, y esto les permitirá llevar a cabo comprobaciones más rigurosas de las teorías sobre la estructura y el movimiento moleculares. Es probable que esto lleve también al desarrollo de mejores métodos de síntesis molecular y a la nanofabricación de una nueva generación de materiales.

Para lograr este gran paso adelante, los científicos usaron un sistema láser especial, capaz de producir pulsos sumamente breves de luz. Estos pulsos de luz poseen un campo eléctrico oscilante que ejerce una fuerza poderosa sobre los electrones que rodean a los protones, arrancándolos repetidamente de la molécula y devolviéndolos de nuevo a ésta.

Este proceso hace que los electrones que poseen una gran cantidad de energía, la liberen en forma de un fotón de rayos X antes de volver a su estado original. El brillo de estos fotones de rayos X depende de cuánto se alejen los protones al moverse en el intervalo de tiempo entre el alejamiento y retorno de los electrones. Cuanto más lejos se mueva el protón, más baja es la intensidad del fotón de rayos X emitido, permitiendo al equipo medir cuán lejos se ha movido un protón durante el período de oscilación del electrón.

La primera molécula de materia y antimateria, creada en laboratorio permitirá penetrar en el núcleo del átomo y conseguir una poderosa arma destructora

Físicos norteamericanos han creado en laboratorio la primera partícula de materia y antimateria, que en el futuro permitirá penetrar en el núcleo del átomo y posiblemente desarrollar un láser aniquilador de rayos gamma, el arma soñada por los autores de ciencia ficción. Lo han conseguido uniendo dos electrones y dos positrones en una molécula llamada dipositronio, que libera dos veces más energía en forma de rayos gamma cuando se desintegra. Por Eduardo Martínez de Tendencias Científicas.

Físicos norteamericanos han creado en laboratorio una molécula de materia y antimateria que, si bien había sido predicha por la teoría, nunca había sido observada. Se trata de una molécula de dipositronio, compuesta de dos electrones y dos positrones, en la que el positrón es el equivalente antimaterial del electrón.

El positronio es un átomo exótico que, una vez creado, se desintegra en menos de 142 milmillonésimas de segundo y se transforma en fotones de alta energía llamados también rayos gamma.

Lo que consiguieron Allen Mills y David Cassidy, de la Universidad de California (Riverside), tal como se explica en un comunicado de esta universidad, es atrapar positrones en una película de silicio y crear simultáneamente una cantidad suficiente de átomos de positronio para que se combinen y formen dipositronio, o moléculas de dos dos positronios, que liberan dos veces más energía en forma de rayos gamma cuando se desintegran. (Una molécula es una partícula formada por un conjunto de átomos ligados por enlaces covalentes o metálicos y su estudio forma parte de la física molecular.)

Este resultado constituye toda una proeza porque, normalmente, cuando una partícula se encuentra con su antipartícula, como es el caso del electrón y el positrón, forman una pareja que se disuelve enseguida dejando tras de sí otras partículas, como los fotones.

Para conseguir la supervivencia de estas partículas de materia y antimateria, los científicos utilizaron una fina película de silicio, que es la denominación química del mineral de cuarzo.

Primer intento

En un primer intento, cuyos resultados se publicaron en 2005, Allen Mills y David Cassidy, de la Universidad de California (Riverside), establecieron la hipótesis de que moléculas de positrones se podrían formar sobre la superficie del silicio.

Según la teoría, dos átomos de positronio pueden unirse para formar una molécula de dipositronio. Sin embargo, en 2005 este equipo de físicos no pudo crear cantidades detectables de dipositronio porque es muy difícil conseguir los suficientes átomos en el mismo lugar para que reaccionen y formen moléculas.

Dos años después, sin embargo, tal como explican en un artículo publicado en la revista Nature, han podido demostrar la teoría. Utilizaron nanocavidades de silicio para albergar positrones. Una vez en el silicio, los positrones fueron unidos a electrones y formaron átomos de positronio.

Debido a la superficie porosa del silicio, los átomos de positrones vivieron suficientemente para formar moléculas de dipositronio, integradas con dos átomos. Los dos electrones y dos positrones que forman el dipositronio están unidos casi de la misma forma que el hidrógeno molecular.

Superficie de silicio

La superficie del silicio desempeña un papel crucial para la formación de dipositronio, ya que estabiliza las moléculas absorbiendo la energía expulsada cuando se forma la molécula.

Tal como explica al respecto la revista Physicsworld, el dipositronio se detectó observando la aniquilación de electrón-positrón del silicio.

Al contemplar los rayos gamma que se generan durante la aniquilación, los físicos vieron una reducción en el tiempo de vida global del positronio en el silicio, lo cual interpretaron como una prueba de la formación de dipositronio.

Esta observación se consiguió calentando el silicio, que evitó que el positronio se pegara y redujera el número de moléculas de dipositronio. Con el calor del silicio, el tiempo de vida del dipositronio se prolongó.

Próxima etapa: condensado de positrones

El proyecto no termina aquí. La próxima etapa consistirá en utilizar una fuente de positrones más intensa para crear el condensado de Bose-Einstein (BEC) de positrones y el primer "láser de rayos-gamma de aniquilación". La finalidad última es crear fuentes de rayos gamma de alta energía para estudiar la materia a escala del núcleo atómico.

Cassidy y Mills consideran posible combinar millones de átomos de positrones entre ellos que, al desintegrarse simultáneamente, estos condensados de átomos puedan generar un láser de rayos gamma que concentre una energía un millón de veces superior a la de los láseres actuales.

El condensado de Bose-Einstein es un estado de agregación de la materia que se da en ciertos materiales a muy altas o bajas temperaturas. La propiedad que lo caracteriza es que una cantidad macroscópica de las partículas del material pasan al nivel de mínima energía, denominado estado fundamental.

El condensado es una propiedad cuántica que no tiene análogo clásico. Debido al Principio de exclusión de Pauli, sólo las partículas bosónicas pueden tener este estado de agregación. Esto quiere decir que los átomos se separan y forman iones. A la agrupación de partículas en ese nivel se le llama condensado de Bose-Einstein.

El BEC de positrones podría conseguirse aumentando la densidad del positronio y enfriándolo a continuación, lo que permitiría utilizarlo para crear un láser de rayos gamma de aniquilación. Los rayos gamma de aniquilación tienen una longitud de onda muy corta, lo que significa que tal láser podría algún día usarse para estudiar objetos tan pequeños como el núcleo de un átomo.

Aplicaciones militares

Estos láseres aniquilares de rayos gamma constituyen por otra parte el arma de destrucción con la que han soñado todos los autores de ciencia ficción. El propio profesor Cassidy ha señalado al respecto que la diferencia entre la potencia disponible en un láser de rayos gamma y un láser normal es la misma que existe entre una explosión nuclear y otra química.

Los positrones se encuentran frecuentemente en las erupciones solares, las emisiones X y gamma de los cuerpos celestes y este descubrimiento refuerza la idea de que el láser aniquilador de rayos gamma no es una utopía y que conseguirlo será únicamente cuestión de tiempo.

Cuando eso ocurra, el cañón láser de rayos gamma formará parte del arsenal de la disuasión y del armamento estándar de los soldados, por lo que es posible que David Cassidy y Allen Mills lleguen a ser tan famosos como los creadores de las primeras bombas atómicas.

Actualmente, la radicación gamma producida por la aniquilación de un electrón que encuentra a un positrón se utiliza en imagen médica: estos fotones gamma permiten estudiar el metabolismo de una parte del cuerpo humano con tomografía por emisión de positrones (TEP o PET scan).

Los límites de los agujeros negros

Después de realizar el más completo estudio hasta la fecha, los astrónomos han determinado, gracias al telescopio espacial de rayos-X Chandra, que los agujeros negros acumulan masa hasta cierto punto y que después dejan de crecer. (AMAZINGS.COM)

Los resultados corroboran trabajos teóricos recientes sobre cómo se desarrollan estos cuerpos y las galaxias.

Según el Chandra, los mayores agujeros negros, aquellos con masas de hasta 100 millones de veces la de nuestro Sol, comieron vorazmente durante la fase temprana del Universo. Pero a casi todos ellos se les acabó la “comida” hace miles de millones de años, y desde entonces han estado “pasando hambre”.

En cambio, los agujeros negros de entre 10 y 100 millones de masas solares siempre siguieron una dieta más controlada. Dado que se llevan porciones más pequeñas de su suministro de gas y polvo, aun continúan creciendo poco a poco.

Amy Barger, de la University of Wisconsin y de la University of Hawaii, y sus colegas han descubierto que existe una fuerte conexión entre el crecimiento de los agujeros negros y el nacimiento de estrellas. Con anterioridad, se habían hecho estudios del ritmo de nacimientos estelares en las galaxias, pero no se sabía demasiado sobre los agujeros negros que moran en sus centros. Al parecer, el mismo mecanismo que gobierna la formación de estrellas regula el crecimiento del agujero negro del núcleo galáctico.

Los astrónomos usaron el Chandra para realizar un censo, tanto de los mayores y más activos agujeros negros situados a gran distancia, como de los relativamente más pequeños y tranquilos próximos a la Tierra. Además, por primera vez, se han contabilizado adecuadamente los agujeros negros que existen entre ambos extremos de población.

Se emplearon imágenes en rayos-X de dos sectores llamados Chandra Deep Field North y Chandra Deep Field South, así como de un área de ancho campo denominada Lockman Hole.

El Chandra encontró que muchos de los agujeros negros de menos de 100 millones de masas solares se encuentran enterrados bajo grandes cantidades de polvo y gas. Esto evita su detección mediante métodos ópticos. Los rayos-X, en cambio, permiten atravesar esta cubierta opaca. Por otro lado, los mayores agujeros negros catalogados muestran escasos síntomas de la existencia de este envoltorio. Como si fuera un sistema de auto-control, poderosos vientos generados por el frenesí devorador del agujero negro podrían haber ayudado a limpiar los restos de gas y polvo, impidiendo su crecimiento a partir de un cierto punto.

Información adicional en: Harvard

Científicos descubren la forma de hacer levitar objetos diminutos

Podría sonar como algo sacado de una novela de Harry Potter, pero no hay nada de ficción en este descubrimiento realizado por científicos británicos que hace que objetos diminutos leviten. El hallazgo se espera que tenga beneficios importantes para el sector de la nanotecnología. (CORDIS)

Científicos teóricos de la Universidad de St Andrews, en el Reino Unido, descubrieron que eran capaces de revertir una fuerza cuántica, conocida como la fuerza de Casimir, que hace normalmente que los objetos permanezcan adheridos.

El fenómeno, que fue descubierto por primera vez en 1948, consiste en una fuerza física que se ejerce entre objetos separados debido a la resonancia de todos los campos de energía dominantes en el espacio entre los objetos. Los campos hacen que los átomos permanezcan unidos. Un ejemplo de esta fuerza cuántica en acción es la capacidad del geco para adherirse a las superficies.

Aunque esta fuerza física no tiene efecto alguno en nuestra vida diaria, puede tener importantes implicaciones para la nanotecnología.

«La fuerza de Casimir es la causa principal de fricción en el mundo a nanoescala, concretamente en algunos sistemas microelectromecánicos», afirma el profesor Ulf Leonhardt de la Escuela Universitaria de Física y Astronomía.

«Estos sistemas desempeñan ya un importante papel, por ejemplo, en los dispositivos mecánicos diminutos que provocan que el airbag del coche se hinche o aquellos que dan energía a los minúsculos dispositivos denominados «laboratorios en un chip» utilizados para probar fármacos o realizar análisis químicos. Las micro o nanomáquinas podrían funcionar con más fluidez y con menos o ninguna fricción si se puede manipular la fuerza», añadió el profesor.

Los científicos consiguieron revertir la fuerza situando una pequeña lente «perfecta» entre dos objetos. La lente está hecha de un metamaterial artificial que tiene un índice de refracción negativo. Esto hace que se curve un haz de luz de forma opuesta a lo normal y permita al metamaterial modificar la resonancia en el espacio que existe entre los dos objetos, invirtiendo así la fuerza de Casimir.

Un objeto podría entonces sostenerse sobre otro a una distancia donde la fuerza de Casimir repelente del vacío cuántico equilibra el peso de la lámina, que levita, casi literalmente, sobre la nada. Los científicos afirman que la lente es lo suficientemente fuerte como para hacer levitar un espejo de aluminio que tenga un grosor de 500 nanometros.

«Para reducir la fricción en el nanomundo, la solución podría ser, en última instancia, convertir la adherencia natural en repulsión. En vez de permanecer pegada, parte de la micromaquinaria podría levitar», afirmó el profesor Leonhardt.

Aunque en principio es posible que los seres humanos leviten, los científicos afirman que todavía queda mucho antes de que se desarrolle la tecnología para lograr este tipo de hazañas.

«Por el momento, con la tecnología actual, en la práctica solo va a ser posible para los microobjetos, ya que esta fuerza cuántica es pequeña y funciona solo a pequeña escala. Por ahora la levitación en seres humanos sigue siendo algo de los dibujos animados, cuentos de hadas y relatos paranormales», declaró el profesor Leonhardt.

Descubren una galaxia sin estrellas

Un equipo de astrónomos de la Universidad de Cardiff, Gales, anunció el descubrimiento de un cuerpo en el espacio, que parece ser una galaxia sin estrellas. (BBC)

Los investigadores, del Reino Unido, Francia, Italia y Australia, señalan que es la primera de su tipo que se conoce, y está compuesta de hidrógeno y otros materiales clave para la "fabricación" de estrellas.

La misteriosa galaxia invisible, bautizada VIRGOHI21, se encuentra a unos 50 años luz de la Tierra (la distancia que recorre un haz de luz en medio siglo), y se ubica sobre la Constelación de Virgo.

Se percibió por primera vez hace cinco años, por medio de radiotelescopios en Cheshire (Inglaterra) y Arecibo (Puerto Rico).

Pero recién ahora se despejaron las dudas sobre qué es en realidad.

Estrellas que no fueron

Por lo general, las galaxias son vastas islas cósmicas de estrellas, como nuestra Vía Láctea, que posee alrededor de 100.000 millones, entre ellas, el Sol.

La VIRGOHI21 tiene todos los elementos para fabricar estrellas... pero no tiene ninguna.

Sin embargo, la galaxia invisible encontrada en la Constelación de Virgo, parece no tener ninguna.

Lo que sí tiene es hidrógeno, el más básico de los elementos químicos, que abunda en el universo.

Y, según la radiación que emite, en la VIRGOHI21 parece haber una cantidad de hidrógeno suficiente como para fabricar unos 100 millones de soles, algo que nunca ha ocurrido.

Los astrónomos también calcularon que, por cada tonelada de hidrógeno en la galaxia, hay otras mil toneladas de materia negra, encontrada en las "maternidades" de estrellas y que representa uno de los grandes enigmas de la astronomía moderna.

Es posible que las proporciones no sean las correctas como para que los componentes se condensen y comiencen a brillar... En otras palabras, una fábrica de estrellas estéril.

Nunca visto

Hasta ahora se habían observado algunos objetos celestes similares, aunque más tarde se descubrió que contenían estrellas o remanentes de la colisión de dos galaxias.

Pero los investigadores que estudiaron la VIRGOHI21 afirman que no encontraron rastros de estrella o galaxia alguna en sus cercanías.

En su lugar, durante el último lustro, estudiaron la distribución de los átomos de hidrógeno en el universo, estimada a partir de la rotación de las galaxias y de la velocidad a la que se mueven sus componentes.

Así concluyeron que la VIRGOHI21 tiene una masa total miles de veces mayor que la de su contenido de hidrógeno.

La clave está en la materia oscura, que, según los expertos, es difícil estudiar debido a la proximidad de la Tierra con el Sol.

Dicen que es como querer observar detalles en la oscuridad desde la ventana de un cuarto bien iluminado.

Por esto, los científicos consideran el descubrimiento de la galaxia invisible como un jalón para entender más de la materia oscura, que se cree es cinco veces más abundante que la materia que compone todo lo que podemos ver y tocar.

"El universo posee una gran cantidad de secretos, pero esto demuestra que estamos empezando a entender cómo observarlo de forma correcta", señaló Jon Davies, del equipo de Cardiff.

"Es un descubrimiento excitante", concluyó.

No hay comentarios.: