HORIZONTES DE REDES NOOSFERICAS

Nada de lo aquí escrito nos pertenece.Si hubiese alguna pertenencia,sería el lazo noetico con el cual se han atado tantas bellas flores de conocimiento que son ofrecidas a la humanidad como un ramillete de noologias...... TOD@ TEXTO/ILUSTRACION ES USAD@ CON FINES DE DIFUNDIR VISIONES SOBRE NUESTRO UNIVERSO Y SUS PENSADORES. SI ALGUIEN SE SIENTE AFECTAD@ POR ELLO, CON SUMA DILIGENCIA RETIRAMOS DE ESTE PORTAL SU APORTE SOBRE EL PARTICULAR EN RAZON DE SU SOLICITUD PERSONAL EN LA EXPLICITUD ESCRITA Y DIRECCIONADA DE SU AFECTACIÓN

jueves, 12 de febrero de 2009

ASTROFISICA1





Nace el primer observatorio astronómico que se controla gratuitamente desde Internet

Su software permite el estudio de la astronomía desde cualquier hogar


Ingenieros de la Facultad de Informática de la Universidad Politécnica de Madrid (FIUPM) han puesto en marcha el primer observatorio astronómico del mundo con el que se puede trabajar remotamente desde cualquier sitio. Se trata del Observatorio Astronómico Montegancedo, al que los usuarios pueden acceder mediante un software gratuito denominado "Ciclope Astro". Este software proporciona una serie de valiosas herramientas para llevar a cabo experimentos astronómicos. Otra de las finalidades de este proyecto es crear comunidades de internautas e impulsar el trabajo colaborativo en este campo científico. El observatorio ya lleva algunos meses funcionando. En concreto, se lleva a cabo un experimento para observar el Sol en la banda H-alfa y distinguir las manchas y protuberancias solares. Por Raúl Morales.



Nace el primer observatorio astronómico que se controla gratuitamente desde Internet
Coincidiendo con el inicio del Año Internacional de la Astronomía 2009, ha sido inaugurado oficialmente el Observatorio Astronómico Montegancedo, situado en la FIUPM e integrado en la red ASTROCAM de la Comunidad de Madrid.

Según informa la Facultad en un comunicado, se trata del primer observatorio astronómico del mundo de acceso libre y gratuito que se controla remotamente mediante un software denominado Ciclope Astro, mantenido por el grupo investigador de la FIUPM.

Este software proporciona una serie de herramientas para experimentos astronómicos, creación de escenarios y control de telescopios, cámaras y cúpulas de forma remota, y permite a cualquier internauta acceder desde su casa al observatorio para vivir diferentes experiencias astronómicas. El pasado diciembre, Ciclope Astro obtuvo el segundo premio de la octava edición de Nuevas Aplicaciones para Internet, organizado por la Cátedra de Internet de Nueva Generación.

"El Observatorio Montegancedo es para nuestro grupo un laboratorio de experimentación sobre nuevas técnicas de trabajo colaborativo vía Internet. Se pretende crear una comunidad de internautas que se interesen por una parcela del conocimiento, en este caso la Astronomía, y aprendan de una forma autónoma y autogestionada", comenta Francisco Manuel Sánchez Moreno, que ha dirigido el proyecto, en declaraciones a Tendencias 21.

Ciclope Astro incluye herramientas colaborativas que permiten el trabajo cuando no se dispone de tiempo de observación, como por ejemplo, el procesamiento de imágenes astronómicas (astrofotografía), así como la publicación de documentos, fotos, noticias, etc.

Web 2.0

Los usuarios pueden votar por los trabajos publicados por sus compañeros, de forma que se establecerá un ranking de cualquier aportación realizada por cualquier usuario. El usuario tiene un índice de méritos, denominado "karma", que mide su participación y la valoración que recibe por parte del resto de miembros de la comunidad. Cuanto mayor sea el karma, el usuario obtendrá más privilegios así como mayor tiempo de observación. El propietario del telescopio que desee instalar Ciclope Astro debe decidir qué funcionalidades desea instalar, quién puede acceder y qué políticas se deben aplicar.

"Es una típica web 2.0. Los usuarios pueden realizar tareas como subir fotos, artículos, votar por los trabajos de los demás, etc. En nuestro sitio no se pide ningún dato personal, tan solo un alias y un correo electrónico para poder enviarles la palabra clave", dice Sánchez Moreno.

"El resto de información solicitada es estadística y de carácter voluntario. El software con el que hacemos nuestro portal y controlamos el observatorio es libre, y todo el contenido creado por los usuarios también lo es. La novedad de este sitio reside en que el usuario va a poder obtener tiempo de observación de un telescopio real teleoperándolo desde su casa a través de Internet", asegura Sánchez Moreno.

Observar el Sol

Desde el mes de diciembre pasado se ha puesto en marcha en el observatorio un experimento para observar el Sol en la banda H-alfa y distinguir las manchas y protuberancias solares, además de aprender a cambiar los diferentes parámetros de las cámaras para obtener buenas imágenes astronómicas. Aunque para acceder al control del observatorio hay que realizar previamente una reserva, en cualquier momento se puede ver desde casa lo que está ocurriendo a través de cuatro webcams que actualizan sus imágenes cada 20 segundos si no se está registrado y cada segundo si el usuario está registrado.

El observatorio está ubicado en el Edificio 6 de la FIUPM, en el Campus de Montegancedo, Boadilla del Monte/España. Dentro de la cúpula está instalado un telescopio de 10", robotizado y automatizado mediante ordenador, y diversos equipos que sirven tanto como servidor de las aplicaciones web, como de conexión y difusión de las imágenes y vídeos que captan las webcams dispuestas por la cúpula. Todos corren con sistemas GNU/Linux.

El principal objetivo del observatorio robotizado es controlar hasta el más mínimo detalle de un proyecto astronómico, automatizando todas las tareas y haciéndolas accesibles y controlables a través de Internet.

Antes de su inauguración el observatorio astronómico de Montegancedo ya ha tenido varias experiencias participativas de éxito. Una de ellas tuvo lugar el pasado julio, cuando colaboró en una observación divulgativa de los cráteres de la luna. La actividad se realizó en pantalla gigante en el museo Cosmo Caixa de Madrid y su retransmisión pudo seguirse en directo a través de Internet.
 
 
 

Computación cuántica y su viabilidad técnica

1. ¿Qué es la computación cuántica?

La mejor manera en que podemos definir la computación o informática cuántica es, para empezar, aclarando qué es la informática clásica. Conocemos el término "bit", fundamental en informática. Éste proviene del inglés "binary digit", dígito binario. Nuestro sistema de dígitos habitual es el decimal, que cuenta con diez dígitos, mientras que el binario cuenta con dos. Un bit puede representar uno de estos dos valores o estados: 0 y 1. Cada uno de ellos puede determinar otros estados que posean la misma dualidad formal, como "encendido-apagado", "verdadero-falso", "x - no x", etc.
Ahora bien, la informática cuántica es un modelo que, a diferencia del paradigma clásico binario, trabaja con una lógica no binaria, vale decir, cuyos valores no son sólo "verdadero-falso". Este paradigma está siendo aún estudiado y se está investigando su posibilidad. En vez de bits clásicos, la computación cuántica se formula con qubits o "bits cuánticos". ¿Pero cómo se comporta un qubit si sus estados no son binarios? Un qubit puede encontrarse en en el estado "0/1", es decir, puede ser 0 y 1 simultáneamente. Esta característica podría determinar estados como el de ser a la vez verdadero y falso, lo cual es algo completamente contraintuitivo. Pensemos en la proposición "Plutón es un planeta", cuyo valor de verdad se basa en una lógica binaria, una lógica de verdadero o falso. Actualmente su valor de verdad es "falso". Sin embargo, antes de la determinación de la Unión Astronómica Internacional en Praga, su valor era verdadero: Plutón sí era considerado un planeta. En este caso, la proposición pasó de "verdadero" a "falso", tal como pasa nuestra pantalla de "encendida" a "apagada", pero no fue verdadera y falsa a la vez. La naturaleza del qubit correspondería, según el ejemplo, a una proposición como "Plutón es un planeta y no es un planeta". Para entender esto mejor, es preciso recurrir a las definiciones de la mecánica cuántica, ya que de ahí surge esta idea.

2. Superposición controlada

En la mecánica cuántica existe el concepto de superposición. Según este fenómeno, un objeto puede poseer simultáneamente dos o más valores de una cantidad observable. Como podemos ver, esta manera de comportarse en los objetos de menor escala abre la posibilidad de formular lógicas completamente diferentes de las habituales. De este modo, la proposición correspondiente a un objeto x que diga "x es onda" resultaría tener un valor de "verdadero-falso".
Otro concepto importante es el de "punto cuántico" (quantum dot). Esto consiste en un electrón que es atrapado dentro de un conjunto de átomos. Mediante un láser de frecuencia específica, el electrón puede ser manipulado, pasando así de un estado exitado a un estado no exitado, es decir, un cambio binario. Lo interesante es que si el electrón es expuesto al láser durante una cantidad de tiempo equivalente a la mitad necesaria para modificar su estado de energía, entonces éste pasa a un estado de superposición, exitado y no-exitado a la vez. Se cree que logrando controlar la partícula en un cierto nivel, es posible utilizar el estado de superposición como qubit, el cual formaría parte de un sistema de ordenador cuántico dentro de un sistema de partículas (en lugar de circuitos).

3. Viabilidad

Se piensa que contar con computador cuántico sería resultado de grandes beneficios, como realizar cálculos rápidamente. Un computador clásico demoraría miles de millones de años en factorizar un número de mil dígitos, mientras que un computador cuántico lo haría en unos veinte minutos.
No obstante, la viabilidad técnica es todavía objeto de investigación y no deja de ser un gran problema. Además del ejemplo sobre la "jaula de átomos"que vimos , existen muchos otros experimentos candidatos para llegar a construir un sistema de qubits, algunos en la biología y en la química, los cuales buscan la manipulación de moléculas y átomos.
El mayor problema es la decoherencia. En cuántica la decoherencia es lo que hace que un sistema adopte un estado determinado (no superpuesto), debido a los efectos del entorno. Para evitar que el qubit vuelva a pasar a un estado determinado—lo que provocaría que dejara de ser un qubit—toda operación debe ser completada en un tiempo menor que el tiempo de decoherencia del sistema. Esto quiere decir que se necesita alcanzar un alto nivel de manipulación, debieno ser ésta lo suficiente compleja y detallada.

4. Actualidad

En un artículo publicado recientemente en Nature Nanotechnology, un equipo afirma que desde la nanotecnología es posible encontrar una solución a las dificultades de la computación cuántica. Aquí se demuestra que mediante una nueva familia de qubits formada por metales raros es posible superar los tiempos de la decoherencia y lograr procesar información de forma cuántica.

Unión entre cuántica y gravedad en la superposición de un elefante

El experimento mental de lanzar un objeto a un agujero negro abre un nuevo concepto de localidad y de relatividad en la física.

1. Introducción

La velocidad de escape es la aceleración que necesita un cuerpo para superar la atracción gravitacional de otro cuerpo de mayor masa, como un planeta. ¿Qué sucedería si la velocidad de escape de un cuerpo fuese mayor que 300.000 kilómetros por segundo? Dado que la luz viaja a esa velocidad, se deduce que ella no podría escapar de esta gran masa. Estos cuerpos masivos existen y son llamados agujeros negros. Un agujero negro es un cuerpo de gran masa y densidad, es decir, es una gran cantidad de masa concentrada en una región determinada del espacio, de tal forma que no se puede observar luz escapando de él.

Estas supermasas poseen en el centro algo que denominamos "singularidad", pues ahí es donde se concentra toda la masa. No es posible llamarla de otra forma, ya que en tal punto el espacio-tiempo se curva de tal manera, que las leyes de la física son completamente distintas. La singularidad está rodeada por un perímetro llamado "horizonte de sucesos" más allá del cual la luz no puede escapar. Mejor dicho, es el lugar a partir del cual un observador fuera del agujero deja de ver la luz que se refleja de él. Las características de un agujero negro son tan impresionantes, que el comportamiento al que estarían sometidos los cuerpos dentro del horizonte de sucesos es algo que no deja de impresionar a físicos y astrónomos.

Por otra parte, los problemas de la mecánica cuántica son otro enigma para la física. Se ha pensado que el estudio de los agujeros negros podría complementarse con una comprensión de la realidad cuántica, pensando en la singularidad y en la manera en que los principios de la naturaleza varían en los alrededores de un agujero, tal como varían al observar el comportamiento de las partículas elementales.

Llamamos "superposición cuántica" a la capacidad de una partícula, dada su naturaleza-onda partícula, para encontrarse en dos estados opuestos a a vez. De este modo, es posible observar a una partícula teniendo dos posiciones distintas o dos tipos energía al mismo tiempo. Se piensa comúnmente que una superposición sucede únicamente a nivel cuántico. No obstante, un nuevo experimento mental relacionado con los agujeros negros describe cómo un cuerpo de gran escala (no cuántico) podría encontrarse en una situación similar, sin estar en un lugar determinado dentro del espacio.

2. ¿Dónde está el elefante?

Leonard Susskind, un físico de la Universidad de Stanford California, ha creado un experimento en que un elefante cruza el horizonte de sucesos. Él ha llamado esto "una nueva forma de relatividad". Supongamos dos observadores: el observador A está ubicado fuera del horizonte, mientras que el observador B está dentro. Si lanzamos un elefante a un agujero negro, su ubicación en el espacio podría sufrir una especie de ambigüedad. Susskind afirma que en este experimento el concepto cotidiano de ubicación cambia. Yo puedo decir que estoy aquí sentado escribiendo y no en la calle caminando, lo cual es una localización determinada. Incluso en la relatividad general tenemos ubicaciones específicas en el espacio, solamente que ciertos datos como la distancia y los intervalos de tiempo varían para distintos observadores. En el siguiente ejemplo, la relatividad es aún más intrínseca al cuerpo que es observado.

Bien, lanzamos el elefante al agujero negro. En un primer momento el observador A observará desde fuera que el elefante se acerca lentamente, cada vez más lentamente, al horizonte. Debido a que el elefante acelera cada vez más cerca de la velocidad de la luz, las emisiones desde A demoran cada vez más en llegar al elefante. Esto ocasiona que para A el elefante se acerque extremadamente lento al horizonte. En el mismo instante, en cambio, el observador B ya habrá observado desde dentro que el elefante ha cruzado el horizonte de sucesos, ya que para él no ocurre la dilatación temporal ya mencionada.
En el segundo instante, A podrá ver cómo el elefante se desintegra al cruzar el horizonte de sucesos, debido a la gran gravedad del agujero. Pero B—que acelera igualmente hacia el interior de la singularidad—observará al elefante todavía cayendo, igual que él.

3. Conclusión

La conclusiones de este experimento son impresionantes:

- La información dentro de un agujero no se pierde. Hawking informó en el 2004 que cierta radiación escapa del agujero, por lo que la información que ingresa no se pierde del todo. El experimento del elefante, por otro lado, afirma que aún dentro del agujero la información no puede perderse.

- En situaciones en las que hay un límite en el espacio que incomunica dos regiones (como sucede en el horizonte de sucesos de un agujero negro), la ubicación de un cuerpo puede tener dos valores diferentes.

- La ambigüedad de estados no ocurre sólo en cuerpos de menor escala (mecánica cuántica), sino también en cuerpos de gran escala.

Actualmente se sigue investigando la relación entre ambas escalas, para así comprender cómo se conjugan las diferentes fuerzas que gobiernan el universo. Los agujeros negros y otros fenómenos en que las leyes de la física puedan llegar a sus extremos (como el Big Bang, por ejemplo) son áreas de investigación en las que seguro se encontrarán respuestas tanto a las preguntas de la mecánica cuántica como a las de la astronomía.

 
La difusión mediática de la nanotecnología como una nueva disciplina capaz de revolucionar el mundo industrial no es algo nuevo. Ya hay iniciativas desde hace más de una década. En 1995, David Packard de la familia Packard de HP, fundó un departamento dentro de los HP labs orientado a la búsqueda de los límites físicos de la materia. Se llama QSR Quantum Science Research y en él, los ingenieros investigadores se dedican a fabricar estructuras nanométricas y explorar sus propiedades. Su interesantísimo trabajo integra varias disciplinas de la ingeniería y de la física avanzada y tiene entre otros alicientes el replanteamiento de las leyes fundamentales que nos enseñaron en la escuela.

Entre sus proyectos se encuentran los desarrollos de dispositivos ópticos integrados en chips de silicio y también los nuevos nanoconectores internos de los semiconductores. Ambos nuevos componentes permitirán reducir las latencias entre procesadores y aumentar los anchos de banda, es decir, hacer que las cpu's corran mucho más que ahora sin aumentar el consumo ni el paralelismo. Es decir, desarrollando una gran creatividad en nuevos planteamientos.

La informática basada en la física cuántica está lejos de dejar indiferente a cualquiera. La idea es tan simple, como desarrollar toda una nueva tecnología informática hardware basada en elementos físicos tamaño molecular. En este nanomundo, las leyes físicas bajo las que se comportan los distintos elementos son las de la física cuántica y de ahí el nombre de ordenador cuántico y de la multitud de siglas sobre la tecnología quántica que ya aparecen en muchas publicaciones.

En el libro Programming the Universe del científico americano Seth Lloyd, gran experto en la materia (de hecho, es el constructor de un ordenador cuántico en el MIT) se plasma la conclusión de que el Universo es en realidad un gigantesco ordenador cuántico con un software que establece los acontecimientos cosmológicos y una unidad de información, el qubit, puede tener más de los dos estados tradicionales 0 y 1. Es decir, la informática cuántica sería un reflejo del mundo real.

Se trata de crear una nueva tecnología que supere a la actual, alcanzando altas cotas de velocidad de cálculo y de capacidad de almacenamiento. Se estima en más de treinta años para lograrlo pero hasta entonces ya hay algunas ideas interesantes como la de construir detectores de un fotón simple que permitan desarrollar nanoestructuras ópticas como base de procesadores cuánticos que puedan incorporarse a los PC's tradicionales como componentes activos de muy alto rendimiento.

La tarea no es fácil. El problema del alto nivel de ruido cuántico generado por los conversores electro-ópticos se podría resolver por medio de elementos ópticos no lineales como buffers, desplazadores de fase y hasta conmutadores cuya eficacia es de más de un millón de veces los convencionales. Se trabaja en el diseño de puertas lógicas para uno o dos qubits y en otros dispositivos propios de la ciencia ficción.

Los costes actuales de los elementos ópticos son prohibitivos, pero parece que nuevos materiales fruto de la nanotecnología podrían solventar el problema. Además de esta línea de investigación, hay otras como la electrónica molecular o los dispositivos de electrón simple, en fin todo un nuevo campo muy amplio encaminado a que la ley de Moore siga vigente en las próximas décadas.

QSR (Quantum Science Research) puede ser visitado en www.hpl.hp.com/research/qsr en donde hay presentaciones, publicaciones y gran cantidad de información. También los premios y honores recibidos por brillantes integrantes de los HP labs.
 

Tectónica de placas

La tectónica de placas es la teoría que establece que la capa más externa y rígida de las que componen la Tierra, la litosfera, esta dividida en placas que se van desplazando sobre la capa que se encuentra por debajo, la astenosfera.

¿Cómo surgieron las placas tectónicas?

La comunidad científica cree que las placas tectónicas surgieron a raíz de las corrientes de convección del manto terrestre, las cuales terminaron fragmentando la capa más superficial de la Tierra (litosfera).

Las corrientes de convección se originan cuando los materiales que componen el Manto terrestre se calientan, y entonces emergen hacia la superficie, pero cuando se acercan lo suficiente a la superficie terrestre se enfrían, volviendo a desplazarse hacia una zona más profunda del manto terrestre, estableciéndose de esta manera un movimiento circular.

Desplazamientos de las placas tectónicas: límites de placas

Los movimientos circulares de las corrientes de convección del Manto terrestre hacen que las placas se fragmenten y que se desplacen. Estos desplazamientos hacen que las placas se unan en determinados puntos, generándose los llamados límites de placas.

Los límites de placas pueden ser de 3 tipos, en función del movimiento que haya entre las placas que componen el límite:
-Límite divergente: en este tipo de límites las placas tectónicas se alejan entre si, generando una grieta, en la cual va surgiendo nueva litosfera, formada por los materiales que emergen de las profundidades de la Tierra. A este tipo de límites se les llama constructivos a causa de que crean litosfera nueva.
-Límite convergente: en este tipo de límites las placas tectónicas se acercan entre si, provocando finalmente un choque de placas. En este tipo de límites pueden darse 2 casos distintos: o una de las placas es más densa que la otra, o las 2 placas son de una densidad similar. En el primer caso, la placa más densa es empujada debajo de la menos densa, produciéndose la subducción. En el segundo caso, ambas placas chocan y crean cadenas montañosas (placas continentales) o cadenas de islas (placas oceánicas). A este tipo de límites se les llama destructivos porque generan destrucción en la litosfera.
-Límite transformante: en este tipo de límites las placas tectónicas se desplazan lateralmente una respecto a la otra, provocando fallas o grietas en el lugar del límite. A este tipo de límites se les llama conservativos, ya que ni crean ni destruyen litosfera.

Los movimientos de las placas en la zona de los límites provocan muchos movimientos sísmicos de mayor o menor potencia (terremotos). En las zonas centrales de las placas estos movimientos sísmicos son inapreciables, pero en las zonas cercanas a los límites de placa los movimientos sísmicos pueden ser muy frecuentes y de gran potencia.

Las placas tectónicas de la Tierra

La litosfera que compone la capa más externa de la Tierra en la actualidad se encuentra fragmentada en un total de 14 placas. Dichas placas se encuentran representadas en el siguiente mapa, así como el tipo de límites que tienen, representados por flechas que indican su movimiento.

La deriva continental y la creación de nuevo fondo oceánico

Los desplazamientos de las placas tectónicas provocan dos efectos muy característicos en la superficie terrestre: la deriva continental y la creación de nuevo fondo oceánico.

La deriva continental es una teoría desarrollada por Alfred Wegener en 1912. En ella explicaba que con el paso del tiempo los continentes se iban separando. Como consecuencia de esta explicación, añadió además que todos los continentes se encontraban unidos en una época pasada. Los hechos en los que se basó para afirmar esto fue la forma de los continentes encajaban, sobre todo entre Sudamérica y África, así como la similitud de los restos fósiles encontrados en ambos continentes, lo que le hizo pensar que realmente habían estado juntos. Wegener afirmo con esta explicación que todos los continentes existentes en la actualidad en el pasado se encontraban unidos en un supercontinente denominado Pangea. En su época, sin embargo, esta teoría fue rechazada por los científicos al no poder explicar el mecanismo por el que sucedía esto.

La teoría de la deriva continental fue ampliada con la teoría de la creación del fondo oceánico, que explicaba que la creación de nuevo fondo oceánico hizo que el fondo del océano se ensanchara año tras año, separando poco a poco los continentes. Esta teoría fue aceptada por la comunidad científica a lo largo de la década de 1960.




--
virgilio