HORIZONTES DE REDES NOOSFERICAS

Nada de lo aquí escrito nos pertenece.Si hubiese alguna pertenencia,sería el lazo noetico con el cual se han atado tantas bellas flores de conocimiento que son ofrecidas a la humanidad como un ramillete de noologias...... TOD@ TEXTO/ILUSTRACION ES USAD@ CON FINES DE DIFUNDIR VISIONES SOBRE NUESTRO UNIVERSO Y SUS PENSADORES. SI ALGUIEN SE SIENTE AFECTAD@ POR ELLO, CON SUMA DILIGENCIA RETIRAMOS DE ESTE PORTAL SU APORTE SOBRE EL PARTICULAR EN RAZON DE SU SOLICITUD PERSONAL EN LA EXPLICITUD ESCRITA Y DIRECCIONADA DE SU AFECTACIÓN

miércoles, 30 de diciembre de 2009

La información en la evolución

La información en la evolución

Guillermo Agudelo Murguía

Se presenta un modelo de evolución basado en la visión de Teilhard de Chardin, en recientes descubrimientos cosmológicos y en la nueva teoría de la Información. El modelo intenta explicar el origen, funcionamiento e interacción de las energías "tangencial" y "radial" propuestas por Teilhard de Chardin. La energía tangencial es la que constituye la materia y las fuerzas que interactúan con ellas (gravedad, electromagnetismo, nuclear fuerte y nuclear débil). Esta energía procesa la información a gran velocidad pero tiene relativamente poca capacidad de memoria. La energía radial, que llamaremos en este ensayo "noética", y se considera la posibilidad de que sea la energía que los cosmólogos llaman energía oscura. Esta energía procesa la información lentamente pero tiene una gran capacidad de memoria, transporta los mensajes de las leyes de la naturaleza, entre ellas la propuesta por Teilhard de Chardin que marca el incremento de la complejidad en la evolución y, en procesos cuánticos, ordena la información.



Es probable que estemos siendo testigos de un nuevo enfoque para la comprensión de cómo la Información ha evolucionado desde lo cuántico hasta lo biológico. Este trabajo intenta responder algunas de las interrogantes que han abierto las teorías emergentes y los recientes descubrimientos en las ciencias de la información cuántica y biológica.
La Información es el componente menospreciado o subentendido en casi todas las áreas de la ciencia hegemónica. La información forma todos los sistemas, así como los enlaces, fuerzas, que los unen. Tanto la información cuántica como la información biológica trabajan con base en cadenas de elementos que al combinarse forman mensajes que son transmitidos mediante estructuras materiales y noéticas.
La tesis que sostenemos que la Información es la base de la evolución del universo no es nueva. En el libro The Mind and the Brain, se afirma que de acuerdo con la visión de la ciencia hegemónica, que estudia de la parte al todo, tanto los legos como los científicos consideran que el mundo está construido por diminutos fragmentos de materia. Para ellos, esta visión es incorrecta. Ya en 1930, el matemático húngaro John von Neumann desarrolló una versión de la teoría cuántica, en la que postula que "el mundo no esta construido por fragmentos de materia sino por fragmentos de conocimiento…" Sin embargo, esta idea se perdió rápidamente cuando el materialismo triunfó, el cual ha sido incapaz de explicar cómo emerge la Información, a pesar de haberse impuesto.
La relatividad y la teoría cuántica fueron los primeros pasos de una revolución que a principios del siglo XXI permanece inacabada. Para completar esta revolución, para cambiar un paradigma que se remonta a Newton en la física y a Darwin en lo biológico y social, se debe encontrar un nuevo paradigma que una las visiones obtenidas de la física cuántica y la relatividad. Pero que también acepte las ciencias emergentes que han mostrado ser las que estudian las leyes que controlan la evolución cósmica, es decir la evolución de lo inorgánico y de lo orgánico.
La nueva teoría debe ser una teoría de cómo la Información ha evolucionado desde la física cuántica, la relatividad, la cosmología, la vida, el ser humano y las sociedades, debe ayudarnos a zanjar el asunto de si el universo está destinado a producir la emergencia de estructuras materiales y cognitivas cada vez más complejas o si nuestra existencia es solamente una consecuencia de un ilimitado número de accidentes afortunados. También deberá responder a preguntas cómo, si el universo tuvo su primer momento en el Big Bang o éste sólo fue una transición de un universo que ya existía. Por otro lado, esta necesidad por completar la teoría debe ser extensiva no sólo a todas las ciencias sino a las bases filosóficas que les dan origen.


Definiciones


Tomando en cuenta la necesidad de resumir y que toda definición es incompleta, para efectos de esta propuesta se dan las siguientes.
  • 1. Información es el elemento físico que con la materia y la energía constituye la triada fundamental de la evolución del universo que se da en el espacio-tiempo. Ésta toma dos formas básicas, Información material e información que llamaremos noética, que es la que contiene la energía oscura. Ambas formas se manifiestan en:
  • 1.1 Información básica (Ib), instrucciones suficientes para que elementos o sistemas cumplan con sus funciones. Requiere de un medio para transmitirse y este es energía o materia. Es función esencial en todo sistema y proceso.
  • 1.2 Información procesada (Ip), respuesta que dan los sistemas a la Ib.
  • 2. Complejidad, propiedad intrínseca de los sistemas.
  • - Está en relación directa con la cantidad, la diversificación y la interacción de los elementos que integran los sistemas y
  • - Su incremento se da de acuerdo con una ecuación no lineal y en eventos neguentrópicos.
  • - Es un continuo, por lo que no tiene opuesto.
  • 3. Evolución, proceso base del universo.
  • • Su meta es alcanzar la complejidad máxima del universo basándose en la economía de las formas para contener Información.
  • • Se inicia con el Qubit, sistema básico del universo.
  • • Se da con base en la integración de sistemas.
  • • Tiene un componente con el cual se confunde, la adaptación.
  • 4. Energía noética, "radial" u obscura. Se propone noética porque se refiere a la visión pensante, al pensamiento inmediato, a la captación directa mediante el pensamiento, noética designa una aprehensión directa que capta de manera inmediata el ser de lo captado. Parménides afirmó que es lo mismo el pensar y el ser. Energía noética porque es lo mental del universo, la que interviene en la formación de las leyes emergentes que mediante sus mensajes dirigen de manera no determinista, la evolución cósmica.

Leyes fundamentales

Muchos físicos creen que la existencia de la auto-organización depende de las leyes fundamentales. Pero ¿Por qué el universo está gobernado específicamente por un cierto grupo de leyes? La respuesta a esta pregunta puede estar relacionada con el objetivo del universo. Las leyes fundamentales deben estar ligadas al espacio, el tiempo, el movimiento y por supuesto se manifiestan en sus mensajes (información básica (Ib))
De manera enunciativa, pero no limitativa, se pueden considerar tres principios fundamentales para la evolución del universo.
  • a. Ley de la Complejidad y la Información. Principio constructivo
  • b. Segunda Ley de la termodinámica. Principio destructivo
  • c. Ley de la conservación de la energía.

Información Cuántica

 La Información cuántica nos dice que reglas simples dan origen a comportamientos complejos. Desde hace 70 años se conocen las reglas de la mecánica cuántica, pero apenas se están aprendiendo los principios de alto nivel necesarios para entender la Información cuántica y formalizar los principios que la rigen. Actualmente, todo se enfoca a aplicaciones tecnológicas utilitarias, desde "teletransportación", claves criptográficas, hasta algoritmos para futuras computadoras mecánico cuánticas, aunque esta tecnología no nos acerca a la comprensión de la Información cuántica. En este trabajo vamos a dar una breve mirada a las investigaciones sobre la información cuántica que tratan de entenderla en su significado más profundo.
Una visión profunda de la teoría de la información cuántica nos permite apreciar que el universo procesa información con dos tipos de componentes:
  • La materia, altamente dinámica y actúa como un procesador paralelo de alta velocidad, aproximadamente 1014 hertz y una memoria de 1092 bits.
  •  La energía oscura que llamamos aquí noética y que parece casi estática, actúa como un procesador serial de baja velocidad, menor a 10-18 hertz y con una gran memoria 10123 bits.
Juntos estos componentes han realizado todas las operaciones señaladas por las leyes de la física, así como por las leyes que de éstas se derivan. Sin embargo se hace notar que este procesador de información ha evolucionado, pues su complejidad ha aumentado a partir del Big Bang en proporción inversa a su temperatura. La materia, ahora altamente dinámica era un procesador lento, pues se requería de mucha más energía para transportar los bits de información.La evolución cósmica, de la que la evolución biológica forma parte, se da con base en la integración de sistemas. Esta integración es de dos tipos. La material, en los sistemas físicos, donde los elementos de unión son fuerzas (energía) que transportan los mensajes y la integración cuántica de la energía oscura en los sistemas noéticos

La Información y los agujeros negros


Para los físicos que analizan el universo en términos de bits y qubits, todos los sistemas físicos son procesadores de información, desde una roca hasta la bomba atómica o las galaxias. Las partículas elementales almacenan bits de datos, y cada vez que esas partículas interactúan esos bits se transforman. Han aplicado esta manera de entender la naturaleza profunda de las cosas a la cosmología, la física de partículas, la escala fina de la estructura del espacio-tiempo, la naturaleza de los agujeros negros, al comportamiento de la energía obscura cósmica, las leyes extremas de la física. Por el solo hecho de existir todos los sistemas físicos almacenan información, desarrollándose dinámicamente en el tiempo procesan esa información.
La información cuántica es central en el estudio de los agujeros negros, estructuras predichas por la teoría de la relatividad.
  • • ¿Existe una estructura atómica en la geometría del espacio tiempo? De esta forma ¿la entropía del agujero negro pueda ser entendida en exactamente la misma forma que la entropía de la materia: como una medida de la Información del movimiento de los átomos?
  • • Cuando se entienda la estructura atómica de la geometría ¿se hará obvio el porqué el área de un horizonte es proporcional a la cantidad de Información que esconde?
La respuesta a las interrogantes que el conocido físico.  Lee Smolin plantea es desde nuestro enfoque un rotundo sí. La estructura de un agujero negro, en general del espacio, está dictada por la Información que la materia le transmite y a su vez el movimiento de la materia se rige por la Información que el espacio-tiempo le proporciona. Por lo que la Información subyace en la materia y en el espacio-tiempo.
El universo es discreto, no existen elementos continuos en él. Esto nos indica que en ese volumen no puede haber más Información que el límite que estamos discutiendo, que es una cantidad finita por unidad de área de la frontera. Si esto es así, entonces ninguna región puede contener más que una cantidad finita de Información. Si el universo fuera continuo, entonces cada volumen de espacio contendría una infinita cantidad de Información. En un universo continuo se necesita una cantidad infinita de Información para especificar la posición aun de un solo electrón. Esto es porque la posición está dada por un número real y la mayoría de los números reales requieren un infinito número de dígitos para describirlos. Si escribimos su expansión decimal, se requiere un infinito número de lugares decimales para escribir el número.

El Qubit


De acuerdo con investigadores de la Información cuántica, la tendencia es considerar que el universo está constituido por un sistema elemental llamado Qubit. El cual es como un tetraedro cuya menor dimensión es la longitud de Planck (10-33cm.) Un Qubit es el sistema formado por una decisión binaria (1, 0) más la energía necesaria para contenerlo. Así es como un bit de información está asociado siempre con el quanto elemental de energía. Los Qubits son los ladrillos noéticos y materiales del universo. De ellos se formarían las cuerdas, que a su vez formarían las partículas elementales, que aparentemente también constituyen el espacio-tiempo. Por lo tanto tiempo-espacio-materia/energía-Información son los elementos inseparables que constituyen el universo.
Al igual que el bit, el Qubit, como mínima unidad de información, tiene dos valores probables el 1 (uno/si/encendido) y el 0 (cero/no/apagado). A diferencia del bit, el valor del Qubit puede o no ser absoluto. En tanto que el bit tiene como valor 1 ó 0, el Qubit está definido como la superposición cuántica de 1 y 0. Un Qubit esta conformado por cuatro áreas de Planck. Éstas sí son equivalentes en términos de representación a un bit, es decir tienen dos valores posibles y sólo dos modos de representación el uno o el cero.
¿Cuáles son los grados de complejidad fundamentales? Los átomos se componen de electrones y núcleos, los núcleos de protones y neutrones, y éstos de quarks. Muchos consideran hoy en día que los electrones y los quarks son excitaciones de supercuerdas, las cuales, nosotros proponemos, están formadas por Qubits, en este caso serían, hasta este momento, los entes más fundamentales. Entonces, la respuesta a la pregunta es: el grado mínimo de complejidad del sistema elemental del universo, el qubit, o sea la probabilidad del bit inseparable de la energía que lo transporta.

Las 2 energías


Teilhard de Chardin propuso dos energías que se complementan, la conocida por los físicos y la que él llama "radial", para nosotros noética, que transporta Información básica, Ib. Esta energía es probablemente la energía oscura del universo. Como ya se dijo, la complejidad de los sistemas es directamente proporcional a su Información e inversamente proporcional a la temperatura. Es así que en el Big Bang se requería gran cantidad de energía para transportar un bit. Progresivamente, al disminuir la temperatura, la cantidad de energía requerida para transportar información disminuyó en la misma proporción. Actualmente se considera que la Información requiere de una mínima cantidad de energía noética para trasmitirse.
La energía-materia evoluciona hacia estructuras cada vez más complejas debido a la intima relación dialéctica determinada por la energía-información, pero no sólo por la que proviene del agente inmediato sino por toda la energía-información del contexto. Este proceso se repite en todos los niveles de la evolución en una espiral en la cual la retroalimentación de la relación dialéctica entre ambas energías se da no sólo en forma sincrónica sino también diacrónica. Son tan importantes los elementos que en ese momento concurren como las historias que cada una de las energías contiene.
Sin embargo, los sistemas materiales no pueden seguir aceptando información indefinidamente, es decir, su complejidad sólo puede llegar hasta cierto grado. Cuando los sistemas materiales han alcanzado ese punto, su energía materia es afectada en mayor grado por la 2ª ley de la termodinámica, la cual determina que las estructuras materiales tienden a la máxima entropía. En tanto que las estructuras noéticas no son afectadas por esta ley, ya que persisten en su tendencia al orden, a la complejidad. Esto se debe a que estas estructuras noéticas se siguen beneficiando con la información liberada por las estructuras materiales en sus procesos entrópicos. Es por esto que, inclusive, el agujero negro destruye la materia en su totalidad, en una síntesis final de ambos sistemas, materiales y noéticos, pero es capaz de procesar, ordenar y, eventualmente, liberar la información hacia una nueva espiral evolutiva.
Con base en las propuestas del qubit y la de Harold Morowitz para el valor de la energía que transporta un bit de Información, se puede cuantificar la Información que cualquier cantidad de materia contiene. Sorprendentemente, el desarrollo que la física ha logrado en los treinta últimos años confirma muchas de las propuestas de Teilhard de Chardin que ofrecen respuestas claras a preguntas antes inabordables.


Sistemas

La interacción entre tiempo-espacio-materia/energía-Información se da en un continuo en el cual se distinguen:
 
1. Sistemas noéticos
  • Sistemas que transportan, por medio de partículas propuestas por las teorías unificadas como la de las cuerdas, la información de campos cuánticos (noosfera o energía oscura) a estructuras materiales.
  • Sistemas noéticos quasi-estáticos donde la Información se integra a través de procesos como la condensación Bose- Einstein.
2. Sistemas físicos
  • Sistemas físicos predominantemente mensajeros que transportan la información de su medio ambiente y pueden estar dentro y fuera de los sistemas de los que forman parte. El electrón y el fotón son ejemplos de sistemas físicos mensajeros, en tanto que los virus y otras moléculas orgánicas son ejemplos de sistemas biológicos mensajeros.

Sistemas físicos que no sólo procesan la información, sino que también son capaces de trasmitirla en diferentes grados. A Grosso modo, estos sistemas se pueden subdividir en sistemas físicos sujetos a tiempos cósmicos y geológicos, y sistemas orgánicos sujetos a tiempos biológicos.
En realidad, como se afirmó antes, todo es cuestión de grados, por lo que la Información es sólo un continuo en constante evolución relacionada con la evolución de las estructuras que la transportan y la procesan.
La Información produce en los sistemas la auto-organización, la cual a su vez promueve las propiedades de emergencia, irreductibilidad y jerarquía las cuales son universales en los sistemas complejos.

Auto organización

La autoorganización se lleva a cabo mediante la Información y conduce a un orden que no solamente persiste en el tiempo sino que se retroalimenta tornándose más compleja. La retroalimentación es una característica creciente que va en relación directa con la complejidad de los sistemas. Un sistema entre más complejidad tiene, más capacidad de retroalimentación tiene. Por ejemplo, el lenguaje es de los sistemas más complejos que existen, y su complejidad se basa enteramente en su habilidad para retroalimentarse.
Científicos de esta corriente argumentan que la auto-organización es la propiedad que poseen los sistemas para ordenarse. Sin embargo, el término auto-organización en sí es discutible. En realidad, los sistemas no se organizan por sí mismos, sino por sus contextos y las leyes que rigen tanto a los sistemas como a sus contextos. Es la Información que el sistema posee, la que le permite o no interactuar con la nueva Información que el medio ambiente proporciona. El universo mismo es un todo organizado en el contexto de las leyes de la física. Para nosotros, ésta es la fuente de creatividad biológica, no el azar. Modelos basados en genotipos que incluyen efectos colectivos y no lineales sugieren que la evolución puede ser vista como un proceso donde los sistemas se auto-organizan. Ésta es una dirección importante en la investigación, la búsqueda de leyes que rijan la auto-organización de los ecosistemas.
La imagen de la auto-organización es la de un remolino que ordena los fluidos y que inexorablemente los jerarquiza en niveles de complejidad creciente. La conducta "espiral" global y auto organizativa del torbellino es la respuesta a leyes, principios y reglas y no al azar. De acuerdo con el enfoque auto organizativo para la complejidad, de la misma forma que el agua en condiciones apropiadas produce un remolino, así las leyes de la física, la química, la biología, etc. construyen en la materia propiedades auto-organizativas que, en condiciones apropiadas, producen estructuras más complejas.

El darvinismo hace del azar la fuerza creativa de la evolución. Sin embargo, el mecanismo darviniano no acepta que el azar sea completamente fortuito ya que introduce la selección natural como limitante que determina las variaciones que proveen ventajas biológicas (contradicción en términos: si el azar no es fortuito no es azar, es aleatoriedad). La imagen del mecanismo darvinista es una serie de pasos inefectivos que se dan tratando de escalar una montaña (cf. Richard Dawkins's Climbing Mount Improbable) La visión neodarvinista se centra en el rol del gen. En ella no existe lugar para la auto-organización.
La autoorganización no puede expresarse en un sistema en estado de equilibrio, Para expresarse requiere de un estado que se ha denominado "estado neguentrópico" y que Ilya Prigogine caracteriza como "distancia al equilibrio". El desequilibrio es actividad, el equilibrio es reposo. Esta sentencia debe ser entendida correctamente: tanto uno como el otro son necesarios.

Emergencia


La emergencia se da cuando se integran sistemas y presenta al universo como proceso evolutivo y estructurado en capas, es decir, en un sistema jerárquicamente organizado desde y dependiente del nivel anterior y a su vez base del nivel superior.
Sólo porque las estrellas emergieron y produjeron los químicos que forman las moléculas inorgánicas y éstas las moléculas que dan origen a la vida, pudo ésta emerger. Sólo porque las procariotas produjeron el oxígeno de la tierra primitiva, pudieron emerger los animales superiores. Sólo porque los microorganismos crearon la serie básica de genes, combinaciones complejas posteriores permitieron la emergencia de animales superiores y eventualmente la emergencia de la conciencia humana.

Jerarquía


La estratificación jerárquica controla el poder de la materia para ejecutar funciones de coherencia global. Ocurre en cada nivel de su organización, desde las partículas elementales hasta el cerebro. Es el problema central del origen de la vida, cuando agregados (un grupo o masa de distintas cosas o elementos) de materia que obedecen sólo a las leyes elementales de la física y la química empiezan a forzar a las moléculas individuales a un comportamiento funcional colectivo.
Por ejemplo, en los sistemas orgánicos, grupos de células controlan el crecimiento o la expresión genética de células individuales, también grupos de células se organizan en números crecientes de subgrupos, generando así jerarquías entre ellos. En el cerebro parece haber posibilidades sin límite para nuevos niveles jerárquicos de descripción. En conclusión se puede afirmar que la restricción es lo que determina la organización jerárquica. Ya en otros trabajos nos hemos referido a la jerarquización como los grados de libertad que los sistemas poseen y que están en relación directa con su grado de evolución y por lo tanto con la cantidad de información que son capaces de procesar y transmitir.


Irreductibilidad


Los sistemas, como sistemas emergentes, no pueden ser explicados o reducidos simplemente a la suma de las propiedades de sus partes constituyentes. Aquí toma toda su valor la nueva teoría de la Información, pues a las propiedades de las partes debe sumarse la información (fuerzas) que las une para formar un todo coherente con propiedades emergentes. Ésta es la clave característica de las estructuras emergentes. Inversamente, cuando una estructura compleja se desarma en estructuras de nivel anterior, se libera Información.

Las dos entropías


Actualmente se considera que la medida más apropiada de la información contenida en los sistemas es la entropía. Existen dos conceptos de entropía, el de la termodinámica y el de la información de Shannon, que aunque conceptualmente equivalentes, presentan dos diferencias principales.
  • 1. La entropía de Shannon sólo se refiere a la información contenida en el sistema en el que actúa. Aplicada por ingenieros de telecomunicaciones se da en bits y carece de dimensión
  • 2. La entropía termodinámica de Boltzmann, empleada por químicos, se expresa en unidades de energía dividida por temperatura.
La Información de Shannon, de la cual la entropía nos da su medida, sólo se refiere al sistema en el que actúa. Así, las partes que integran un escritorio tienen valor como tal si se posee la información que permite armarlo. Las partes del cajón del escritorio, sólo nos dan la Información sobre el cajón.
Así que la información que se obtiene por la entropía de Shannon es mucho menor que la información que da la entropía termodinámica de Boltzmann, porque de esta última se puede obtener la Información contenida a niveles más profundos de las estructuras que forman el escritorio. La diferencia entre ambas entropías es la información necesaria para construir el escritorio a partir de los elementos más finos logrados (átomos de carbono e inclusive qubits).
No se puede calcular la capacidad máxima de información de un pedazo de materia o su verdadera entropía termodinámica, sin conocer la naturaleza de los últimos constituyentes de la materia en su nivel más profundo, el Qubit. (Esta ambigüedad no le causa problemas al análisis de la termodinámica práctica, por ejemplo, la de un motor de coche, ya que se puede ignorar los quarks del interior del átomo, que no cambian de estado bajo las condiciones relativamente moderadas del motor.)

La vida


Más o menos por la misma época, tanto Teilhard de Chardin como Alexander Oparin propusieron una teoría muy similar para explicar cómo había surgido la vida. Ambos estaban de acuerdo en que la radiación solar causó que gases reaccionaran y formaran compuestos orgánicos en los océanos primitivos. Estos compuestos continuaron reaccionando hasta llegar a formar lo que se conoce como la sopa primitiva, la cual estaba formada por aminoácidos, azucares y bases de ácidos nucleicos entre otras moléculas aleatorias.
El investigador Marcelino Cereijido se suma a esta corriente cuando propone que la emergencia de la Vida se explica como una combinación de átomos excitados por la radiación solar que produjo las moléculas. Así la vida surgió en la Tierra debido a que los procesos antes anunciados dieron origen a un metabolismo prebiótico. Él señala que muchas de estas reacciones han sido reproducidas experimentalmente en los laboratorios para producir azúcares, aminoácidos, nucleótidos y muchas otras moléculas, piezas fundamentales de los organismos vivos. Las reacciones producidas en el laboratorio explican la formación de las grandes moléculas, no de la Vida, la cual debió requerir de una enorme cantidad de energía e Información, muy superiores a las necesarias para formar las macro moléculas.

En tanto que un astronauta se encuentra en el espacio expuesto directamente a los rayos cósmicos, en la Tierra estamos protegidos por la atmósfera. Cuando la radiación primaria de alta energía del espacio golpea los átomos y las moléculas de la atmósfera alta, generan una lluvia de partículas subatómicas que forman una sucesión de radiación secundaria. La mayoría de ésta se absorbe en la atmósfera antes de alcanzar la superficie terrestre, dejando sólo una "llovizna" que pasa sin peligro a través de nuestros cuerpos. Ahora sabemos que esta llovizna consiste principalmente de muones (descubiertos en el estudio de los rayos cósmicos) y de neutrinos. Grosso modo, 20 rayos cósmicos por cm2 por segundo, llegan a la parte superior de la atmósfera. A nivel del mar, cerca de un rayo cósmico secundario llega por cm2. Por comparación, un gramo de sustancia radioactiva como el Radio, emite miles de millones de partículas por segundo.

En la Tierra primitiva cuando la atmósfera todavía no se formaba la lluvia de muones sobre la superficie era mucho más intensa. Por lo tanto su interacción con las moléculas dio lugar a enlaces (información) que condujeron a la integración de moléculas como azúcares nucleótidos y aminoácidos y otras que eventualmente formarían la célula. En tanto que los electrones se constituyen en los enlaces de la materia inerte, los muones se constituyen en los enlaces de las moléculas orgánicas y así forman la célula.
Pero para que los enlaces ocurran es necesario que exista el "entanglement" en el contexto apropiado. La información cuántica está profundizando en la relación entre las unidades de información cuánticas y clásicas, en novedosas maneras, en las que la información cuántica puede ser procesada y en la importancia fundamental del "entanglement". Propiedad que vincula las conexiones sutiles entre sistemas y les permite acceder a la complejidad.

No obstante que generalmente se considera el entanglement como una propiedad que las partículas cuánticas poseen o no, todas ellas la poseen en diferentes grados. Ésta es una propiedad física cuantificable, que permite procesar la información. Mientras mas entanglement esté disponible, más capacitado estará un sistema para procesar información cuántica. Más aun, los investigadores han empezado a descubrir las poderosas leyes cuantitativas del entanglement que gobiernan la energía, y que son análogas a las leyes de la termodinámica y proveen un juego de principios de alto nivel para entender el comportamiento del entanglement y describir como lo podemos usar para procesar información. La meta central de la ciencia de la información cuántica debe ser desarrollar principios generales, como las leyes del entanglement (leyes de información y complejidad) que nos permitan entender la complejidad de los sistemas desde la perspectiva cuántica.

Para que se dé el enlace de hidrógeno, tiene que existir el "entanglement" entre un átomo de oxígeno ligado con dos átomos de hidrógeno y así producir la molécula del agua. La que se puede imaginar con una forma aproximada de tetraedro. El átomo de oxígeno se encontraría en el corazón del tetraedro, en tanto que los dos átomos de hidrógeno apuntarían hacia dos de las cuatro esquinas y "dos nubes de electrones" pertenecientes al átomo del oxígeno en las dos esquinas restantes del tetraedro. "Las dos nubes de electrones" tiene carga negativa y son resultado de las estructuras atómicas del oxígeno y del hidrógeno y de la forma cómo se combinan en la molécula del agua.
El oxígeno tiene ocho electrones con carga negativa colocados alrededor de su núcleo de carga positiva, parecido a las capas de la cebolla, dos en una capa interna y seis en la capa exterior. La capa interna sólo puede contener dos electrones, así que su capacidad está completa. Sin embargo, la capa externa puede contener ocho electrones. Sucede que el átomo del hidrógeno sólo contiene un electrón, así que el oxígeno, al combinarse con dos átomos de hidrógeno, completa su capa externa, en tanto que cada átomo de hidrógeno completa su primera capa con dos electrones, la que comparte con el átomo del oxígeno. Es así como surge el "enlace covalente" usual de la química.

El átomo de carbono posee la cantidad suficiente de "entanglement" que le permite asociarse con una diversidad de elementos para formar no sólo moléculas inorgánicas sino también moléculas orgánicas, prebióticas. A su vez, estas moléculas prebióticas (aminoácidos, nucleótidos, azucares, etc.) tienen el "entanglement" para integrarse en la célula mediante un enlace muónico. Los muones tienen una energía casi 200 veces mayor que los electrones por lo que la información que pueden transportar es más compleja. Esto marca la diferencia entre lo vivo y lo no vivo. De acuerdo con Teilhard de Chardin, ésta es una nueva forma de materia para un nuevo estado del universo.

La Vida recibe la energía-información primordial en forma de instrucciones endógenas y exógenas, materiales (electrón, muón, virus) e inmateriales (memes). Estas instrucciones se guardan en la memoria, en capas (campos cuánticos) temporales relacionadas con las capas cerebrales y de acuerdo con cada subsistema del organismo. La Información le proporciona a los sistemas la característica ejecutiva que les permite obedecer los mensajes con cierto grado de aleatoriedad de un rango de posibilidades, de acuerdo con sus grados de libertad.


Los virus como sistemas mensajerosde información para la vida


En el siglo XX se creía que los virus eran portadores microscópicos de enfermedad. Aunque no se supiese lo que era un virus. Pero el interés inicial sobre los virus surgió de su asociación con la enfermedad, inclusive el término virus viene del latín venenum. Actualmente cualquier estudio que se lleve a cabo sobre la vida y cómo ésta ha evolucionado, sin tomar en cuenta el papel que los virus juegan, carecería de suficiente rigor científico.
Los virus llevan un tipo de vida prestada debido a su dependencia de las células huéspedes. No obstante que los biólogos sostienen que los virus no son más que meras cajas de químicos, éstos se aprovechan de la actividad vital de las células huésped para determinar cómo los ácidos nucleicos codifican las proteínas. Indudablemente que la biología molecular moderna tiene como base la información ganada a través de los virus. A la mayoría de los biólogos moleculares no les interesa si los virus están vivos o no. El hacerlo significaría ponderar si los constituyentes subcelulares individuales tienen vida propia. Este punto de vista hace que vean a los virus como causantes de enfermedad.

Se puede pensar en la vida como una propiedad emergente de una colección de ciertas cosas no vivas. Tanto la vida como la conciencia son ejemplos de sistemas complejos emergentes que requieren un nivel crítico de complejidad o interacción para lograr sus estados respectivos. Ni los genes individuales virales ni los celulares tienen vida propia. Una célula a la que se le haya retirado el núcleo está en un estado parecido al de la muerte cerebral, ya que carece de una total complejidad crítica. También el virus es incapaz de alcanzar la complejidad crítica. Así que la vida misma es un estado complejo emergente, aunque está hecho de los mismos ladrillos físicos fundamentales que constituyen el virus. Desde esta perspectiva, aunque no totalmente vivos, los virus son más que material inerte ya que están en la frontera con lo vivo.

No obstante que algunas enzimas virales reparadoras remueven y resintetizan el ADN dañado, corrigiendo daños y han existido por miles de millones de años, la mayoría de los biólogos evolutivos no dan a los virus importancia en la evolución, debido a que no están vivos. Consideran a los virus como parte de los genes huéspedes que de alguna manera escaparon de éste y adquirieron una capa proteica. En esta visión los virus son genes huéspedes fugitivos que han degenerado en parásitos. Esta visión no toma en cuenta las contribuciones que los virus hicieron al origen de las especies y al mantenimiento de la vida.

Los virus directamente intercambian información genética con organismos vivos dentro de la red de la vida. Para la mayoría de los médicos y posiblemente de los biólogos evolucionistas es una sorpresa que la mayoría de los virus conocidos son persistentes e inocuos, no patógenos...Más aun, el genoma de un virus, todo el complemento de ADN o ARN, puede ser altamente benéfico, dando genes virales que hospeden linajes y eventualmente llegar a ser una parte crítica del genoma de la especie huésped. Por lo tanto, los virus tienen seguramente mecanismos de efectos rápidos y directos para transmitir la información externa. La enorme población de virus los convierte en la fuente principal de innovación genética, por sus tasas rápidas de replicación y mutación, al "inventar" constantemente nuevos genes. Genes únicos de origen viral pueden viajar y encontrar su camino al interior de otros organismos contribuyendo así al cambio evolutivo al informar sobre las condiciones ambientales.

La verdadera esencia del virus es su "entanglement" fundamental con la maquinaria metabólica del huésped. Desde organismos unicelulares hasta poblaciones humanas, los virus afectan toda la vida sobre la Tierra, frecuentemente determinando lo que sobrevivirá. Pero los virus mismos también evolucionan. Virus nuevos, tal como el HIV-1, causante del Sida, pueden ser las únicas entidades biológicas que los investigadores pueden realmente observar como surgen, proveyendo el único ejemplo de la evolución en acción, en tiempo real. Independientemente de que se acepte o no que los virus tengan vida, ha llegado el tiempo de reconocerlos y estudiarlos en su contexto natural, dentro de la red de la vida como sistemas mensajeros esenciales en la biosfera que también se han integrado a los genomas y coevolucionado con ellos a través del tiempo.

A medida que los sistemas evolucionan, en cada nivel de complejidad contienen en estado potencial la totalidad de la información existente en el nivel anterior. Así actualmente el genoma humano contiene en estado potencial la totalidad de las Informaciones que existen en la naturaleza. Pues la naturaleza es nuestra herencia original. Lo que se pretende decir exactamente es que la naturaleza no está solamente alrededor nuestro sino que está también dentro de nosotros, es por esto que existe esta interacción esencial, aunque ignorada, entre todo lo existente tanto material como inmaterial.

La Información en la biología


Cuando estudiamos la vida, nos damos cuenta de que ésta se produce y se sostiene gracias a la información. Su transmisión es similar a la de la información cuántica, mensajes que son transmitidos a través de largas cuerdas de complejidad creciente. Esto quiere decir que las agrupaciones de Qubits de 1 y 0 dan lugar a unidades de mayor complejidad, las cuales a su vez se agrupan en unidades emergentes de mayor complejidad en un proceso de repetición fractal. En la evolución, los 1 y 0 han llegado a producir las unidades de nucleótidos que al combinarse contienen las instrucciones de la vida, así como los programas de control para mantenerla y adaptarla a las condiciones cambiantes del ambiente.

Las instrucciones genéticas (Información) para la síntesis de proteínas están escritas en "palabras" de tres letras, llamadas codones. Cada codón especifica uno de los 20 aminoácidos o bien una señal traductora de paro. En otro tiempo se supuso que la disposición de estos codones y sus significados amonoacídicos se debían al azar pero descubrimientos recientes la atribuyen a las reglas (información) que gobiernan la codificación genética, la cual ha sido programada de manera excelente por la naturaleza para proteger la vida de errores catastróficos y acelerar su evolución.

Investigaciones recientes indican que para que un organismo sobreviva y prospere, debe aceptar una gran cantidad de información reguladora. Esta información consiste en mensajes codificados de los principios, leyes y reglas emergentes que regulan la arquitectura y el comportamiento de los organismos en su interacción con el medio en el que se adaptan o evolucionan.

La asunción prevaleciente imbuida en el credo "un gen, una proteína" ha hecho pensar que los genes son sinónimos de las proteínas. Un corolario ha sido que las proteínas deben ser los agentes primarios para regular la expresión o activación de los genes, de acuerdo con sus roles estructurales y enzimáticos en las células. Esta conclusión se deriva de estudios efectuados en bacterias tales como la Escherechia coli y otras procariotas, (organismos unicelulares que carecen de núcleo). Por supuesto esto es correcto sólo para estos organismos. Tradicionalmente, los investigadores han asumido que las proteínas representan y controlan toda la información genética en hongos, plantas y animales, es decir en los organismos clasificados como eukariotas.

Jaques Monod universalizó este dogma al decir que "Lo que es verdadero para la E. Coli, debe ser verdadero para el elefante". Una creciente cantidad de evidencias revelan tristemente que este dogma está incompleto para describir la biología molecular de los eucariotas. Para confusión de los investigadores, una gran porción del ADN de los eucariotas parecía irrelevante para la producción de proteínas, por lo que los biólogos habían asumido que éste era un material aleatorio de la evolución, "basura", para utilizar su propio término.

Sin embargo, toda la nueva evidencia sugiere que este "ADN basura" tiene casi seguramente el rol de codificar moléculas de ARN que desempeñan una variedad de funciones reguladoras. Los mecanismos genéticos de los eucariotas, por lo tanto, son radicalmente diferentes a los de las células simples, procariotas. Este nuevo enfoque puede explicar por qué la complejidad estructural y funcional de los organismos no va paralela con el número de proteínas codificadoras de genes. Quizá hemos malentendido la naturaleza de la programación genómica. Y cuando se habla de una programación, se habla de un programa, de reglas y leyes que hacen ese programa congruente, que puede ser estocástico, pero no azaroso.
Llegamos así a la confirmación del principio simplificado de la Complejidad, expresado por Teilhard de Chardin "La complejidad de un sistema es directamente proporcional a la cantidad de información que controla su arquitectura y su funcionamiento."

La jerarquía de la información en los organismos


Las variaciones del medio ambiente están reguladas por una constelación de sistemas complejos. Todos los animales grandes somos estrictamente aeróbicos. Para nosotros demasiado o poco O2 significa desastre. Así, nuestra dependencia de este nutriente esencial obliga a usar complejos mecanismos de control de multiniveles de retroalimentación, esto asegura no sólo el suficiente O2 correspondiente a la necesidad de los tejidos sino también la protección contra la toxicidad de éste elemento. Redes distribuidas y coordinadas de capas múltiples y con escalas múltiples de tiempo mantienen concentraciones locales internas precisas de O2 a pesar de las variaciones tanto en la oferta como en la demanda.

En la acción de la información en los organismos, claramente se observa la jerarquía y la autoorganización cuando se estudian los mecanismos que éstos utilizan para sobrevivir. Es así que la homeostasis debe ser complementada y regulada por la alostasis, la cual a su vez es complementada y regulada por la homeorhesis.
El concepto de homeostasis por sí solo no explica la adaptación del organismo a las diferentes circunstancias en la cual se desarrolla. La homeostasis sólo busca un estado de equilibrio interno, los rangos están establecidos y la homeostasis sólo consigue mantener valores fisiológicos dentro de este rango, pero ¿qué pasa cuando el organismo atraviesa un cambio no sólo interno sino externo? Entonces es necesaria la adaptación del organismo, en la cual se deben mantener no sólo los valores fisiológicos, sino los rangos a los que estos obedecen, deben entrar en acción procesos capaces de mantener una homeostasis dentro de un proceso dinámico.

El cuerpo humano es un organismo que está sometido a cambios no sólo internos, por lo tanto debe de ser capaz de soportar y adaptarse a estos cambios de la mejor manera posible. Por medio de la alostasis, el cuerpo es capaz de "regular" la homeostasis, marcar los nuevos rangos dentro de los cuales varían valores fisiológicos compatibles con la vida. A su vez, la homeorhesis explica como el cuerpo es capaz de alcanzar estos nuevos valores que marca la alostasis.

Tanto la alostasis como la homeorhesis no son procesos "inmediatos" como podríamos considerar a la homeostasis, minuto a minuto el cuerpo debe de responder a diferentes estímulos como cambios de temperatura para no caer en un estado patológico. Pero cuando agregamos otro "estímulo nocivo" para el organismo bajo una condición de temperatura menor a la promedio, el cuerpo debe gastar el doble de energía, para mantener temperatura y para tratar de corregir las consecuencias de este nuevo "estímulo nocivo". Por medio de la alostasis y la homeorhesis, el cuerpo administra la energía de mejor manera reiniciando nuevos rangos homeostáticos y así ahorrar el gasto de energía al mantener la temperatura. (Tal como sucede en poblaciones sometidas a fríos extremos como en los polos.)

La Homeostasis es la propiedad de los sistemas fisiológicos para sustentar la vida y es aplicada en un número limitado de sistemas como la acidez (pH), la tensión de O2 en sangre, la temperatura o en niveles sanguíneos de glucosa, verdaderamente esenciales para la vida y por lo tanto varían en un rango de valores que mantienen un estado fisiológico óptimo.

La Alostasis es la propiedad de los sistemas fisiológicos para conseguir una estabilidad "a través" de los cambios del medio ambiente. Este proceso regula a la homeostasis, es decir marca los cambios de los puntos óptimos de los rangos para los procesos que mantienen la vida. Existen ciertas hormonas que actúan como mediadores primarios de la alostasis.

La Homeorhesis es la propiedad de los sistemas fisiológicos para lograr los cambios necesarios de los tejidos del cuerpo para mantener un estado fisiológico apropiado. A diferencia de la homeostasis no mantiene un estado "interno" estable, sino que se refiere a la estabilidad de un proceso dinámico. Es decir, a la adaptación al medio, mediante el cambio de los tejidos, cuando los cambios son prolongados.

Los genes actúan de muchas formas, afectando muchas características fisiológicas y morfológicas de los organismos, relevantes para la supervivencia. Las características se agrupan en parámetros de adaptación o valores selectivos suficientes. De igual forma, fluctuaciones del medio ambiente, pueden combinarse en una medida de incertidumbre. Los genes actúan internamente y agentes externos influyen en la manera que estos actúan para afectar las características fisiológicas y morfológicas.

En los experimentos, debido a sus desigualdades, observamos que la sensibilidad orgánica frente a las distintas informaciones (sustancias en experimentación) es diferente de individuo en individuo, como las patogenesias lo demuestran. Esta sensibilidad, que más bien, cabría llamar "hipersensibilidad", es la forma como el organismo expresa el hecho de ser un sistema inestable, es decir, un sistema en el cual una pequeña causa produce un gran efecto. Ciertamente, si el organismo fuera un sistema estable, sería insensible. Aun el organismo más sano constituye un sistema inestable, y, por tanto, al más mínimo estímulo (pequeña causa) responderá con energía (gran efecto).

Evolución e información


La evolución es un proceso dinámico no lineal y entre sus características está el producir en los sistemas, mediante la Ib, bifurcaciones, períodos de orden y de desorden, emergencia de nuevas estructuras y aumento de complejidad...

Teniendo en mente que la energía siempre es inseparable de la información, debemos preguntarnos acerca de la supervivencia, ese quintaesencial tema tan discutido aunque tan pocas veces entendido ¿Quiénes son los más aptos? El flujo de energía puede significar ventaja en la así llamada lucha por la supervivencia; la complejidad misma puede propiciar, en algunos, la supervivencia. Cuando se expresa en términos básicos tales como el acopio de alimentos que se requiere para la vida, definitivamente parecería que la incorporación de energía-información está relacionada con la supervivencia. Con la complejidad viene la biodiversidad, ampliando las oportunidades para que los organismos incrementen sus probabilidades de supervivencia y reproducción. Aunque con la complejidad llega también la especialización y la vulnerabilidad, porque cada parte de un sistema complejo tiene una tarea particular que desempeñar, lo que implica que la viabilidad y la adaptabilidad pueden sostener una relación inversa con la complejidad. Por ejemplo, la supervivencia de un mamífero depende de su exitoso funcionamiento, coordinación y la capacidad de hacer de muchos órganos sensibles, cada uno de los cuales posee energía-información para trabajar individualmente y en conjunto. La exclusiva dependencia de la provisión del eucalipto del Koala representa no sólo un máximo de eficiencia y adaptación para su tipo de vida, sino también es un serio problema si su medio ambiente se ve alterado. En resumen, la especialización es una disminución de la complejidad ya que limita la información que el sistema adquiere.

Sin embargo, el medio ambiente dejado a la energía-información que maneja la naturaleza diseñaría los mecanismos que prevendrían una drástica alteración del medio hasta que la saturación de la energía-información en ese medio ambiente provocaría un cambio entrópico radical. Lo radical de este cambio actuaría en forma inversamente proporcional a la complejidad de los organismos. Así, los más especializados tendrían más probabilidades de desaparecer.

De la misma forma en la tecnología, máquinas complejas son inherentemente menos confiables que las simples, esto implica que la complejidad y su inevitable especialización también conllevan desventajas; compárese la confiabilidad de una presentación con computadora de tecnología de punta con la que ofrece un simple proyector de transparencias. Uno de los más famosos paleontólogos de hace medio siglo argumentaba que los generalistas sabían de lo que hablaban cuando decían que "la supervivencia es de los relativamente no especializados". La noción de que los sistemas complejos son más susceptibles a extinguirse no impide la fuerza de la evolución hacia la complejidad, reconociendo que, aunque muchos estén involucrados, pocos serán seleccionados para viajar las rutas nuevas hacia grandes tasas de densidad de energía-información.

Es así que los sistemas biológicos se caracterizan mejor por su conducta coherente ya que el mantenimiento del orden requiere de energía-información que los capacite para un gran número de reacciones químicas sintetizadoras y metabolizantes, así como una pléyade de elaborados mecanismos que controlan la tasa y los tiempos de muchos y variados eventos. Más aun, tales sistemas vivos evolucionaron en el pasado dentro de medios ambientes ricos en flujos de energía-información, heredando así los medio para adquirir el flujo de energía requerido mediante procesos metabólicos. Los caminos abiertos a la evolución biológica están demarcados no debido a que existan pocas soluciones, sino debido a que los recursos energético-informativos están limitados.

La naturaleza entrópica de la evolución biológica en el nivel funcional es menos obvia que en el nivel estructural. Aunque esto no significa que la vida viola la segunda ley de termodinámica, aunque frecuentemente esto es lo que se crea. Aunque los organismos vivos logren el decremento de la entropía localmente, lo hacen a expensas de su medio ambiente, al incrementar la entropía total del universo.

Adaptación e información.


Para entender los requerimientos de un plan adaptativo genético, es necesario resolver un dilema aparente.
  • Si la descendencia fuera el simple duplicado de los miembros más aptos de la población, la aptitud se conservaría pero no se daría la mejoría.
  • • Si la descendencia fuera producto de una simple variación al azar produciría un máximo de variantes nuevas aunque ignoraría, fatalmente, la conservación de los avances ya logrados.
Este dilema es agudizado por dos hechos biológicos:
  • 1. En poblaciones biológicas consistentes de organismos avanzados (vertebrados) no existen dos individuos que posean cromosomas idénticos, ni aun considerando muchas (¿todas?) generaciones sucesivas.
  • 2. En casos reales la avasallante proporción de variantes posibles (todas las combinaciones posibles de alelos, no sólo las observadas) son incapaces de sobrevivir para producir descendencia en medios ambientes inesperados o extraños.

En conclusión:

  • 1. Los avances en la adaptación no son retenidos en la simple duplicación.
  • 2. La observada falta de identidad no puede ser resultado de una simple variación al azar, debido a que la extinción seguramente se daría en una sola generación, las variantes completamente seleccionadas al azar casi seguramente serán estériles.
Para tratar de resolver este dilema Holland sostiene que la única solución es la forma de hacer y contestar dos preguntas estrechamente relacionadas al concepto de adaptación:
  • 1. ¿Cómo puede un plan adaptativo x (específicamente, un plan para sistemas genéticos) retener las porciones útiles de su historia (rápidamente creciente) junto con los avances ya logrados?
  • 2. ¿Cómo puede el plan adaptativo  acceder y usar su historia (la porción guardada) para incrementar la posibilidad de variantes adaptables?
La respuesta yace en la acción de los operadores genéticos, supeditados a las leyes que determinan su comportamiento, desde los niveles más simples hasta los más complejos.


La Información y la Complejidad son entonces dos conceptos íntimamente relacionados y tenemos que concluir que mientras más abarque el sistema que estudiamos, mas complejidad encontramos. Por lo que se infiere que en cuanto a la evolución biológica en la Tierra, ésta se ha dado en los ecosistemas, o mejor aun, como un ecosistema. Tenemos que admitir que aun cuando la mayoría de especies ha desaparecido, cuando el ser humano emergió, el ecosistema global era el más complejo de cuantos habían existido. Por lo tanto, y de acuerdo con Brian Swimme:
  • "El futuro peligra crecientemente con cada especie que extinguimos. Remuévase una porción significativa y se disminuirán profundamente las posibilidades futuras. Nuestra ignorancia sobre la dinámica de este misterio es abrumadora. No se sabe nada, ni en un sentido general ni específico, acerca de las interacciones y los procesos que permitirían el devenir natural del futuro. ...Como Edipo, debemos admitir que estamos ciegos, aunque tengamos ojos, Se ha intentado ver este planeta a través de los ojos de la explotación industrial capitalista o socialista, pero esto no es ver. Los ojos que se deben utilizar para ver la Tierra son lo que nos han dado los siglos de trabajo en matemáticas, física, química, biología, astronomía, paleontología, antropología, etc. Desde esta perspectiva nuestro presente económico se ve como la discordancia con el contexto vital de nuestro planeta. Los doctores medievales en su ignorancia pensaban que ellos podían curar a los pacientes sangrándolos. Las naciones industriales, en su ignorancia, creen que pueden curar al planeta sangrándolo. Ambos deben ser juzgados como profundamente confundidos a la luz del conocimiento científico actual."
Se sabe con certeza que todas las posibilidades futuras están contenidas en este momento en los seres que existen en la Tierra. Ninguna especie, ningún individuo puede ser considerado redundante o innecesario para el desarrollo que se está llevando a cabo en este momento, como no son "basura" los genes que no codifican proteínas. Se vive en un proceso vasto y multiforme que ha requerido de los 13 mil millones de años de la creatividad del universo. Se debe adquirir un reverencia profunda por el poder inherente de la auto emergencia que todo ser posee. Es de aquí que, y debido a estos poderes, todos los destinos futuros de la Tierra serán moldeados. Somos la dinámica evolutiva en una fase de conciencia cuando actuamos, con el conocimiento que estos poderes creativos necesitan ser convocados, defendidos y nutridos con el temor y la ansiedad que reflejen conciencia por el futuro de nuestros actos.

A través del devenir, millones de especies se han desvanecido del sistema terrestre, la presente comunidad es más compleja y diversificada e íntimamente involucrada como una comunidad que en cualquier otro momento. El efecto global de esta estupenda historia de la emergencia de la vida en este sistema terrestre es una historia de crecimiento continuo en la gran complejidad, diversidad y comunidad del ser. La vitalidad de este todo complejo debe prevalecer sobre cualquier otra cosa. Aunque los procesos humanos pueden involucrar destrucción, ésta debe ser una destrucción que nutra aquellas condiciones que permitan una emergencia de vida aún más diversificada. Todos los objetivos, políticas y valores deben iniciarse con la aserción de la comunidad total de los seres de este planeta. La comunidad integral, compleja, esplendida y muy diferenciada es el principal logro de la larga historia del proceso de la Tierra. Debemos permitir trabajar a los principios de Información para ampliar este logro fundamental, ayudar en el desarrollo de una comunidad terrestre más rica y más íntimamente interrelacionada.


Bibliografía

ADAMS, Fred , Origins of existence. How life emerged in the universe, New York-London, The Free Press, 2002.
AHARONOV, Yakir y M. Suhail Zubairy. "Time and the Quantum: Erasing the past and Impacting the Future" en Science, 11 de febrero de 2005, Vol 307 No. 5711
ARANDA Anzaldo, Armando, En la frontera de la vida: los virus, México, SEP-Fondo de Cultura Económica, 2a. edición., 1995,
AXELROD, Robert, The Complexity of Cooperation (Agent-based models of Competition and Collaboration), Princeton, Nueva Jersey, Princeton University Press, 1997
AYALA, Francisco J., La naturaleza inacabada (ensayo en torno a la evolución), Barcelona, Salvat, 1987
BEKENSTEIN, Jacob D., "Information in the Holographic Universe" en Scientific American, agosto 2003, vol. 289, No. 2
BLANCK-CEREIJIDO, Fanny y Marcelino Cereijido, La vida, el tiempo y la muerte, México, SEP-FCE-CONACYT, 1992
CHAISSON, Eric J., Cosmic Evolution. The Rice of Complexity in Nature, England, Harvard University Press, 2001
CLARK, David P. y Lonnie D. Russell, Molecular Biology. Made simple and fun, Cache River Press, USA, 2000
COUPER, Heather y Nigel Henbest, Big Bang (La historia del Universo), México, Autrey, 1998.
DENNETT, Daniel C., Darwin's Dangerous Idea (Evolution and the meanings of life), Nueva York, A Touchstone Book, 1995
DÍAZ, José Luís, El ábaco, la lira y la rosa. Las regiones del conocimiento, México, SEP-FCE-CONACYT, 1997
FORD, Kenneth W., The Quantum World. Quantum Physics for Everyone, Londres, Inglaterra, Harvard University Press, 2004
FOX, Karen C., The Big Bang theory, Nueva York, John Wiley & Sons, 2002
FREELAND Stephen J. y Laurence D. Hurst, "La evolución codificada" en Scientific American Latinoamérica, Junio de 2004
GLEICK, James, Chaos (Making a New Science), Nueva York, Penguin Books, 1988
GÓMEZ Marín, Edgar, Esto es Caos, México, ADN/Consejo Nacional para la Cultura y las Artes, 1995
GREGERSEN, Niels Henrik (editor), From Complexity to Life, Oxford, Oxford University Press, 2003
GRIBBIN, John, Q. is for Quantum (An Encyclopedia of Particle Physics), Nueva York, A Touchstone Book, 1999
HACYAN, Shahen, Del mundo Cuántico al Universo en Expansión, México, SEP-FCE-CONACYT, 1994
HACYAN, Shahen, Los hoyos negros y la curvatura del espacio-tiempo, México, SEP-FCE-CONACYT, 1993
HAWKING, Stephen W., Historia del Tiempo (Del Big Bang a los agujeros negros), México, Crítica, 1988
HEY, Tony y Patrick Walters, The New Quantum Universe, Cambridge, Massachusetts, Cambridge University Press, 2003
HOLLAND, John H., Adaptation in natural and artificial systems (An introductory analysis with applications to biology, control and artificial intelligence), USA, Bradford Book-MIT Press, 1995
HOLLAND, John H., El orden oculto. De cómo la adaptación crea la complejidad, México, Fondo de Cultura Económica, 2004
KAUFFMAN, Stuart A., The origins of order (self-organization and selection in evolution), Nueva York, Oxford University Press, 1993
KAUFFMAN, Stuart, Investigations, USA, Oxford University Press, 2000
KNOLL, Andrew H., Life on a young planet, Princeton and Oxford, Princeton University Press, 2003
KONDEPUDI, Dilip y Ilya Prigogine, Modern Thermodynamics (From Heat Engines to Dissipative Structures), Inglaterra, John Wiley & Sons, 1998
KWIATKOWSKA, Teresa y Ricardo López Wilchis, Ingeniería Genética y Ambiental, México, Plaza y Valdés-CONACYT, 2000
LEAKEY, Richard y Roger Lewin, The Sixth Extinction. Biodiversity and its survival, Gran Bretaña, Phoenix Paperback, 1999
LLOYD, Seth y Jack NG, "Black Hole Computers" en Scientific American, noviembre 2004, vol. 291
MAHLON Hoagland, y Bert Dodson, The Way life works, Nueva York, Three Rivers Press, 1998
MASTERPASQUA, Frank y Phyllis A. Perna (editores), The Psychological Meaning of Chaos, Washington, DC, American Psychological Association, 1998.
MATTICK, John S., The Hidden Genetic Program of Complex Organisms" en Scientific American, Octubre de 2004
McGUIRE, Bill, A Guide to the End of the World, Oxford, Oxford University Press, 2002
MOROWITZ, Harold J., The emergence of everything, USA, Oxford University Press, 2002
MCKIBBEN, Bill, El fin de la Naturaleza, Barcelona, Grupo Zeta, 1990
NICOLIS, Grégoire y Ilya Prigogine, Exploring Complexity (An Introduction), Nueva York, W. H. Freeman and Company, 1998
OMNÈS, Roland, Quantum Philosophy (Understanding and Interpretating Contemporary Science), Princeton, Nueva Jersey, Princeton University Press, 1999
PEAT, F. David, Synchronicity (The Bridge Between Mater and Mind), Nueva York, Bantam Book, 1987
PÉREZ Ransanz, Ana Rosa, Kuhn y el Cambio Científico, México, Fondo de Cultura Económica, 1999
PIAGET, Jean, Biología y conocimiento, México, siglo veintiuno editores, 13a. edición, 2000.
PRIGOGINE, Ilya, ¿Tan solo una ilusión? Una exploración del caos al orden, Barcelona, Tusquet Editores, 4° ed., 1997
PRIGOGINE, Ilya, The End of Certainty (Time, Chaos, and the New Laws of Nature), Nueva York, The Free Press, 1997
QUAMMEN, David, The Song of the Dodo (Island Biogeography in an age of extinction), Nueva York, Touchstone Book, 1997
ROWAN-ROBINSON, Michael, Cosmology, Oxford, Clarendon Press, 3ª ed., 1996
SCHWARTZ, M. D., y Sharon Begley. The Mind and the Brain. Neuroplasticity and the power of Mental Force. Harper Collins. New York. 2002.
SIEGFRIED, Tom, The Bit and the Pendulum, Nueva York, John Wilwy & Sons, 1999
SIMMONS, Geoffrey, M.D., What Darwin Didn't Know, USA, Harvest House Pub., 2004
SINGH, Simon, Big Bang. The Origin of the Universe, USA, HarperCollins book, 2004
SONTAG, Eduardo D., Some New Directions in Control Theory Inspired by Systems Biology, Department of Mathematics, The State University of New Jersey, USA
STEWART, Ian, "Self-organization in evolution: a mathematical perspective" en Philosophical Transactions: Mathematical, Physical and Engineering Sciences. The Royal Society, London 2003
STEWART, Ian, ¿Juega Dios a los dados?. La nueva matemática del caos, Barcelona, Drakontos-Crítica, 2001, 443 págs.
SWIMME, Brian y Thomas Berry, The Universe Story, Nueva York, Harper Collins, 1992
SWIMME, Brian, "The New Natural Selection" en Teilhard in the 21st Century. The Emerging Spirit of Earth. Arthur Fabel y Donald St. John Editores. Orbit Books, New York 2003
TEILHARD de Chardin, Pierre, The Human Phenomenon, Brighton-Portland, Sussex Academic Press, 1999
THEYS, Jacques y Bernard Kalaora (compiladores), La tierra ultrajada: Los expertos son formales, México, Fondo de Cultura Económica, 1996
VILLARREAL, Luis P., "Are Virus Alive?" en Scientific American. Vol. 291, No 6, diciembre de 2004
VON BAEYER, Hans Christian, Information. The New Language of Science, Cambridge, Massachusetts, Harvard University Press, 2004
WEINBERG, Steven, The First Three Minutes (A modern View of the origin of the Universe), Nueva York, Basic Book, 1993
WOLFRAM, Stephen, A new kind of science, USA, Wolfram Media, 2002
ZOHAR, Danah, The Quantum Self (Human nature and consciousness defined by the new physics), Nueva York, Quill/William Morrow, 1990


--
virgilio

sobre educación mas alla del siglo XX

Einstein, Teilhard de Chardin y la educación

Guillermo Agudelo Murguía
J. Guillermo Alcalá Rivero

El cambio de paradigma al que debe tender la educación se inició desde el primer cuarto del siglo XX con personajes como Albert Einstein y Pierre Teilhard de Chardin. Pero se ha estancado debido al desfase que se da entre filosofía, ciencia y tecnología. El eminente matemático y astrónomo Simon Newcomb, "demostraba" que aquello que pesase más que el aire no podría volar. Sin embargo, dos reparadores de bicicletas, los hermanos Wright, probaron que estaba equivocado. Rutheford y Millican demostraron que jamás se podrían aprovechar las reservas de energía del núcleo atómico, para contradecirlos estalló la bomba de Hiroshima. La ciencia enseñaba que una masa de aire homogéneo no puede separarse en aire caliente y frío. Hilsch demostró que basta con hacer circular aquella masa por el tubo apropiado para lograrlo. Como se puede apreciar en los casos antes citados, muy frecuentemente, la técnica no es aplicación práctica de la ciencia. Por el contrario, se desarrolla contra la ciencia. Esto se da gracias a que en algunos individuos se manifiesta un sentido común no contaminado por dogmas del paradigma científico vigente.

Oppenheimer declaró: "Actualmente, se vive en un mundo en que los poetas, los historiadores, los filósofos, se enorgullecen diciendo que no admiten siquiera la posibilidad de aprender cualquier cosa referente a la ciencias; ven la ciencia al final de un largo túnel, demasiado largo para que un hombre inteligente meta la cabeza en él. Nuestra filosofía, si es que hay una, es, pues, totalmente inadaptada a nuestra época."

Stephen Hawking afirma que existe un problema grave para comprender el universo, ya que los filósofos, quienes deberían encargarse de esto, carecen de la preparación científica suficiente, por lo que no están actualizados en los últimos adelantos de las teorías científicas. Todo lo que los filósofos aportan se limita a adjudicar membretes y clasificar forzadamente a los científicos que se encargan de los avances de la ciencia.
Karl Popper, plantea que existe una atmósfera general no racionalista en contra de las normas dialécticas que deben regir toda discusión científica, actitud que debe ser combatida por todo pensador no dogmático.

De estas dos posiciones, aparentemente antagónicas, se desprende que ciencia y filosofía no deben seguir separadas. Albert Einstein y Teilhard de Chardin deben dejar de ser ejemplos aislados para convertirse en antecedentes de toda una corriente rica en científicos-filósofos o filósofos-científicos.

Ernst Mach llevó a cabo un cuidadoso análisis del significado del espacio-tiempo, mismo que movió a Einstein a declarar: "En mi caso, el tipo de pensamiento crítico que se requirió para el descubrimiento de este punto central demandó más estudio, especialmente con la lectura de los escritos filosóficos de David Hume y Ernst Mach." No se puede presentar un argumento más persuasivo para legitimizar el papel que tiene la filosofía en la física.

La física no consiste sólo en investigación atómica, la ciencia no consiste sólo en física y la vida no consiste sólo en ciencia. El propósito de la investigación atómica es encajar el conocimiento empírico que se obtenga en nuestro otro pensamiento.

Existen señales que anuncian la presencia de una nueva filosofía del conocimiento. La ciencia busca demostrar la existencia de leyes profundas que lleguen hasta el corazón de las cosas, leyes que no estén en discordancia entre sí sino que estén armoniosamente mezcladas en un paquete..... La ciencia en este momento está lo suficientemente madura para permitir la resurrección de la metafísica, no como una consecuencia de una prueba sino de una convicción, como una expresión de esperanza y estímulo para los filósofos del futuro.

Los físicos deben preocuparse no sólo de construir teorías ingeniosas y su concordancia con datos experimentales, sino con su viabilidad para ser absorbidos por la cultura general del ser humano. La ciencia no debería ser más un soliloquio. Su valor residiría en el simple hecho de estar dentro de su entorno cultural al entrar en contacto con todos aquellos quienes están, o en el futuro estarán, comprometidos con la promoción de la cultura.

Una ciencia teórica en la que los iniciados continúen hablándose en voz baja, en términos que, en el mejor de los casos, sean entendidos por un pequeño grupo de iniciados, será cercenada del resto de la humanidad y a la larga estará condenada a atrofiarse y osificarse.  Ahora bien, la tecnología en realidad no necesita de la ciencia, es más bien producto del sentido común y la intuición. La tecnología ha progresado exponencialmente mientras que la ciencia se ha estancado. Los científicos que investigan temas profundos como el origen de la vida, del universo e incluso del ser humano, cada día cuentan con menos apoyo financiero de los gobiernos y menos aun de instituciones privadas. Todos ellos, se quejan de esto. Se sostiene que por cada científico que estudia el origen de la vida hay 15 mil estudiando la superconductividad. La clonación y las terapias génicas están basados en la tecnología y en la mayoría de los casos las aplicaciones de los experimentos evaden las consecuencias que a mediano o largo plazo puedan producir en la vida en la Tierra.

En una sociedad donde el conocimiento tecnológico avanza a pasos agigantados impulsado por la codicia, la ciencia y la filosofía apenas gatean. A propósito de los personajes que este Congreso honra, podemos decir que Einstein y Teilhard de Chardin tenían razón cuando afirmaba que debemos cambiar la manera de educar e investigar... Haciendo eco del objetivo del evento, proponemos que ciencia y humanismo se enseñen en conjunto si su perspectiva es la de perdurar evolucionando en este siglo, para lo cual tendrán que abrirse al pensamiento de estos dos sobresalientes personajes..

Deseamos que lo hasta aquí expuesto haya sido suficiente para explicar la problemática a la que se enfrenta la humanidad para llegar a una comprensión más cabal de su situación en el cosmos. El divorcio entre ciencia y filosofía iniciado por Aristóteles y remachado por Kant y sus seguidores ha dado lugar a toda esta problemática...Los centros educativos deben sumarse a esta corriente que propone conjuntar ciencia y filosofía en la preparación de profesionales que estén capacitados para "construir la Tierra" como lo pidió Teilhard de Chardin.


--
virgilio

Teilhard de Chardin y la Nueva Ciencia

¿DONDE ESTAMOS PARADOS?

Mientras en Occidente la modernidad impera como paradigma dominante existen, simultáneamente, otras visiones paralelas del mundo. El sociólogo, Paul Ray, que mediante investigación por encuestas identificó los nuevos movimientos dentro de nuestra sociedad, sostiene que hoy existen tres subculturas principales: los Tradicionalistas, los Modernistas y los Creativos Culturales.

Los Tradicionalistas son conservadores culturales que desean preservar la simplicidad pre-moderna de la vida. Ray también llama a este grupo "los de Tierra Adentro" (Heartlanders), que "creen en una imagen nostálgica de la vuelta al pueblo chico, a una América religiosa, correspondiente al período 1890 a 1930…que ellos creen es la buena y vieja forma Americana tradicional."

Los modernistas, según Ray, son una rama de la Iluminación. Este grupo "promueve el cambio agresivo, el progreso material, y la forma de vida de la gran ciudad. Lo que más distingue a este grupo es su creencia en una economía tecnológica que está dando nueva forma al globo."

Los Creativos Culturales, así llamados porque prefieren operar entre los de avanzada del cambio cultural. Paul Ray dice que presentan tanto valores centrados en la persona como ecológicos (verdes). Les preocupa la psicología, la vida espiritual, la auto-realización y la auto-expresión. Les gusta lo foráneo y exótico, disfrutan el dominar nuevas ideas, abogan por las cuestiones de la mujer y la minoridad y apoyan la noción de la sustentabilidad ecológica.

Según Ray, los promotores de la cultura Tradicionalista, "los de Tierra Adentro", conforman el 29 por ciento de la población actual de Estados Unidos, es decir son aproximadamente 56 millones de adultos... Los Modernistas abarcan el 47 por ciento de la población, 88 millones de adultos, y los Creativos Culturales representan un 24 por ciento de la población adulta, o 44 millones de adultos....


Teilhard de Chardin y la Nueva Ciencia

Guillermo Agudelo Murguía
Juan Sebastián Agudelo
 

Introducción

Hacia el final de su libro, The God Particle,(NOTA 2) Leon Lederman lamenta la analfabetización científica en nuestros días. Se queja de que solamente una de tres personas puede definir una molécula o nombrar a un científico viviente, y solamente 2 de 23 estudiantes de Harvard, escogidos aleatoriamente, fueron capaces de explicar porqué es más caliente un verano que un invierno.

La reacción de Lederman, como la reacción de cualquier adulto con cierta educación, es completamente normal. Todos los días leemos comunicados de pedagogos que nos dicen que los estudiantes de secundaria y aun de grados superiores, leen al nivel de 5o. año de primaria y en matemáticas tienen un nivel mas bajo que los niños de otros muchos países.

Como muchos padres de familia, lamento el estado actual de la educación. La crisis en la educación científica y la consecuente analfabetización científica, que es asunto tanto de quien hace la política como de los mismos científicos, no sólo es real, sino que va en detrimento tanto de la sociedad como de uno mismo, particularmente cuando este analfabetismo es en la ciencia, es decir la herramienta mediante la cual podemos entender nuestro lugar en el mundo.

Hasta la edad media, la gente estaba conciente de las cosmologías que prevalecían. Estas cosmologías, estas explicaciones de nuestro lugar aquí, y el conocimiento de una teleología, eran puramente religiosas. La religión, en otras palabras, ganaba su poder por sus capacidades explicativas. Ella definía la Tierra y la sociedad desde sus orígenes hasta su final. Ella explicaba los fenómenos naturales. El ascenso de la ciencia como el modo prevaleciente de explicar los fenómenos naturales sacudió los cimientos religiosos hasta donde las mismas cosmologías religiosas tenían que ver. Cuando el Renacimiento surgió, dejamos de ser el centro del Universo y antes de tres centurias nos daríamos cuenta de que Dios no necesariamente nos ha formado de arcilla. Para decirlo brevemente, los descubrimientos científicos nos han llevado a replantear nuestro papel en el Universo.

Podríamos ser capaces de entender quiénes somos, dónde estamos y qué estamos construyendo, gracias a la ciencia. El analfabetismo científico niega a sus víctimas, en cualquier caso, el entendimiento. Más importante aún: el analfabetismo científico nos excluye de un sentido de lugar y propósito. ¿Quienes somos? ¿Por qué estamos aquí? ¿De qué estamos hechos? Las antiguas preguntas no pueden ser contestadas sin, por lo menos, entender superficialmente la evolución, la ecología, la física y la química.

Sin embargo, la culpa en gran parte se encuentra en la ciencia misma. La ciencia fue bendecida en el siglo XX. Si hiciéramos una correspondencia de las hazañas intelectuales de ese siglo, por cada éxito artístico que uno tenga en cuenta, hay uno científico que lo empareja. Y actualmente si uno considera la importancia de la teoría de la relatividad o de la mecánica cuántica por sí solas, la revolución artística del siglo se empequeñece. Como la mayoría de las instituciones, la ciencia no ha sido sabia. No solamente ha pasado por alto importantes teorías y descubrimientos, sino además, cuando éstas han sido aceptadas no se han usado ni interpretado como se debería. La comunidad científica, en vez de agrandar el ámbito y el bienestar de la sociedad, se ha perdido por vía de argumentos mezquinos e inflexibles, en un reducido academismo.

Los científicos académicos se rehúsan a proyectar las implicaciones de las teorías en un ámbito más amplio. En muchos sentidos, es justo decirlo, la ciencia ha fallado en incluir al hombre en un contexto global. En otras palabras, como institución, la ciencia no ha creado el discurso donde las implicaciones de la teoría y el descubrimiento puedan ser entendidas o estudiadas a nuestro nivel. En cambio, muchos científicos se han desbocado persiguiendo la hasta ahora más pequeña partícula o incluso una extraña neuropatía.

En muchos sentidos el tipo de especialización que se encuentra en la física de las partículas es sintomática de la ciencia. El filósofo Francés Gilles Deleuze, discute que las matemáticas han perdido su conexión con el mundo empírico y por lo tanto ya no son un lenguaje sino una jerga.

La mayoría de los estudiantes nunca obtendrán interés, principalmente porque la ciencia moderna se ha convertido en un argot. Por ejemplo, a pesar de la relevancia de la física de partículas, sus descubrimientos, como muchos descubrimientos de la ciencia moderna, fallan al responder las preguntas que los estudiantes y todos nosotros realmente le hacemos a la ciencia, las interrogantes que postulé anteriormente y sus corolarios. No sólo el ¿por qué estamos aquí? sino, más allá hasta donde podamos imaginar la razón por la que estamos aquí ¿Cuál es nuestra tarea aquí? La ciencia no sólo debe ser instructiva, o una simple curiosidad o un mero argot, sino que debe ser directiva: nos debe decir cómo comportarnos, no sólo los unos hacia los otros, sino hacia nuestro medio ambiente, hacia la naturaleza. Más aún, tiene la obligación de enseñarnos cómo influir en nuestro entorno y cómo construirlo para obtener una adecuada evolución de nuestro cerebro, cuna de la mente y la conciencia. Debe enseñarnos a planear nuestras futuras ciudades, a escoger nuestro alimento, a buscar nuestras agriculturas. Brevemente, la ciencia debe ser nuestro paradigma.

La cautela de los científicos para establecer y aun discutir sus ideas como nuevos paradigmas es consecuencia, por supuesto, del mal uso y el abuso que se ha hecho de la ciencia en el siglo XX, cuando los políticos no sólo se han abrigado con ella, sino apropiado y malinterpretado ideas para justificar sus propias ideologías, usándolas como pie de nota en su propia propaganda. La eugenesia es el más obvio y el más atroz caso. Lo que empezó como un malentendido de la teoría de la evolución, una vez considerablemente adaptado por los políticos, terminó como una de los más atroces genocidios en la historia. Creo que la crítica más importante de la ciencia aún no se ha escrito. Cuando algún escritor o historiador escribía sobre esto, los marxistas discutían que muchos de los más creativos talentos en la ciencia contemporánea, la mayoría de los científicos posteriores al proyecto Manhatan, no estaban trabajando en favor de construir la Tierra, sino que habían empeñado sus vidas en la carrera armamentista y en la industria farmacéutica.

El resultado de esto es que la ciencia no está cumpliendo con su propósito social. Si algún joven o alguna joven curiosa van en busca de respuestas sobre sí mismos, buscando en alguna revista científica, se darán cuenta de que hubiera sido mejor recurrir a las disciplinas más obtusas, pues encontrarán algo así como un puente con muchos cables y concreto, pero sin claro que salvar.

Yo soy un ingeniero. En la escuela, hace ya muchos años, tomé un curso de cosmografía que me llevó a ya nunca dejar mi interés y estudio en la astronomía y la cosmografía, por lo que este interés es anterior a los agujeros negros, a las teorías de las cuerdas y de las supercuerdas, etc. Brevemente, mi interés y mi estudio en la astrofísica no solamente han llevado el paso de cada teoría importante en los últimos veinte años o más, sino que también ha visto las novedades venir y desaparecer. El ser un externo a la disciplina me ha dado desventajas y ventajas sobre los profesionales. A diferencia de los físicos, yo no tengo la experiencia de primera mano ganada en los laboratorios y en los telescopios. A menos que un evento sea lo suficientemente relevante para que las imágenes sean publicadas inmediatamente en periódicos o revistas, obtengo información procesada. También debo reconocerme no tan apto en la pericia técnica que hace que muchos de los viejos y nuevos científicos sean tan asombrosos.

La capacidad para realizar cálculos extremadamente difíciles y usar las matemáticas para llegar más lejos que las propias investigaciones, no solamente debe ser innata, sino que se incrementa a través de la necesidad. Nos hacemos mejores en realizar complejas operaciones cuando es una necesidad del trabajo.

Por otro lado, los aficionados no tienen el deber de correr cortesías profesionales ni las obligaciones que llegan con un puesto. En otras palabras, no tienen que conformarse con los últimos consensos y no tienen que contender ni por una beca ni por un puesto departamental, además de que conducen sus propias investigaciones, no están apretados como muchos científicos, ni por las presiones de la tenencia del trabajo, ni afectados, como ellos indudablemente están, por los patrones de investigación que tales presiones crean. La necesidad no sólo de publicar, sino de ser citados, fomentando la especialización, ha empujado a los científicos a enfocarse en minucias y dirigirse a un trabajo desafiante y especulativo. E incluso pienso que se puede razonar que este culto a la especialización va de la mano con el método y el escepticismo científico, que la historia nos lo cuenta de otra manera; nos cuenta que contrariamente al mito popular, los científicos revolucionarios no fueron torpes eruditos que se enfocaron en una sola materia, tanto, que eventualmente abrieron sus secretos. Por el contrario, la historia de la ciencia parece confirmar el hecho de que los grandes científicos sobresalieron por dos cosas, su dependencia no sólo de la razón y el análisis –los dos innegables regalos del método científico – sino también y principalmente de la intuición y de la amplitud de sus conocimientos.

El avance de la teoría especial de la relatividad de Einstein, así como sus métodos en conjunto, su tono alegre e imaginativo, dan fe de la necesidad de ello. Para poder imaginar el problema que la relatividad especial resuelve, él no se enfocó en asuntos cada vez más estrechos, sino que actualmente, hemos caído en ellos creando un juego de ficción para niños: Si yo fuera en un tren...

La intuición y la amplitud de conocimientos es lo que más extraño de la ciencia en los últimos años. Los libros, debo admitirlo, de hombres y mujeres brillantes con brillantes ideas, con frecuencia omiten ese último paso, ese salto tan necesario para avanzar. Ellos temen a la filosofía, a la teología, a la ética, al humanismo. Brevemente, ellos temen a todos los elementos que en algún punto comuniquen algo a la ciencia, haciéndola decisiva.

La estrecha especialización no solamente le ha dado desventaja a la ciencia, sino que traiciona, tanto la creatividad como los principios y aspiraciones de gente como Einstein: gente que no sólo se preocupó por los cálculos de detalles extremadamente complejos, sino también porque estos cálculos lograran relevancia humana.

Este fenómeno está bellamente descrito en la introducción del libro de Sherwin B. Nuland, Doctors: The Biography of Medicine, y a causa de la rama de la ciencia que lo dirige, parece impactar más.
 

A medida que las décadas de esta centuria pasan, el desarrollo entero del proceso del arte de curar, ha venido a ser más y más dependiente del estudio objetivo de órganos, tejidos y células, por lo tanto, más y más dependiente de los caminos de la ciencia. El resultado es que los doctores necesariamente se enfocan hacia abajo en una dirección que los historiadores llaman reduccionismo, algunas veces perdiendo de vista que el paciente tiene que ser curado como un todo.
 


Nuland como profesional y como profesor, es cauteloso. Como la mayoría de los practicantes de cualquier ciencia, él conoce la importancia del estudio individual de tejidos, órganos y células, sin embargo su argumento, que trasciende la totalidad de su trabajo, llama a la humanización de la disciplina.

Cuando tales críticas llegan al nivel de la medicina, todos, desde los dirigentes políticos hasta los pacientes, parecen entender. Nuestras experiencias en los consultorios o en cuartos de hospital, no importa qué tan cortas sean –y siempre esperamos que sean cortas – nos han obligado a conectar el método científico con consecuencias humanas.

Rara vez otros campos de la ciencia han sido criticados de la misma manera. Y sin embargo, con cada nueva estadística que nos dice que el 95% de la población padece analfabetismo científico, elevamos los brazos discutiendo los efectos y con frecuencia malinterpretando la causa, mientras echamos la culpa al profesorado, a sus bajos salarios o a su pobre educación.

La verdad, pienso que la crisis en gran parte es debida a un reduccionismo parecido al que Nuland critica. La cuestión es, claro, ¿como lograr hacer que los neutrinos o los quarks, los hoyos negros o las singularidades sean relevantes a los estudiantes o a la población en general? Al final de su citado libro, Leon Lederman nos dice que, en busca de una conclusión, después de haber leído muchos libros populares sobre ciencia, ha encontrado que prevalecen dos tendencias. Una, degradando a la humanidad, recordando al lector que hemos sido muchas veces removidos de la centralidad. La otra, exactamente opuesta, devolviéndonos al centro del Universo, invocando a Dios y situándonos en medio de un proceso. La razón de estos dos tipos de conclusión podría deberse más a las fuerzas del mercado que a un sistema filosófico legítimo detrás del trabajo del escritor. La ahora famosa frase del editor de Stephen Hawking de que cada ecuación reduce a la mitad las ventas de un libro y que cada mención de Dios las duplica, se cierne sobre todos estos libros.

Alguien podría argumentar una proposición menos cínica y reivindicar que detrás de estas conclusiones hay un real intento de hacer toda la empresa accesible a los lectores. De cualquier modo, como cualquier maestro de álgebra sabe, es fácil interesar a los muchachos en las ecuaciones cuando primero se plantean como un problema de la vida real y las matemáticas se usan para resolverlo; de otra manera las matemáticas parecen incorpóreas, irrelevantes o regresando a lo dicho por Deleuze, una jerga inentendible. Los libros de ciencia exponen las fórmulas primero y después en unas pocas páginas intentan plantear el problema hablado. Este método es difundido con frecuencia a través de una verdadera falacia que acosa a la ciencia de la educación, a saber: la creencia de que el conocimiento científico está organizado como una escalera. Sí, los estudiantes deben saber cómo sumar y restar antes de entender una ecuación. Si, sin la física clásica la relatividad no existiría. De cualquier manera, existen dos factores que nos deben hacer considerar el adoptar un nuevo paradigma educacional, uno histórico y el otro filosófico. El paradigma de la escalera que se usa en la educación científica es un modelo incorrecto y convencionalizado. La evolución de los conceptos científicos dependen de dos fuerzas: colaboración y ruptura. En otras palabras, existe un amontonamiento de investigación, escritos y trabajos de iguales o similares problemas. Pero también hay avances, de la clase que Thomas S. Kuhn describe en su Structure of Scientific Revolutions. Estos avances son los que se consiguen al revisar ideas previas o, usando la terminología de Kuhn, al revisar los paradigmas previos hasta donde estos parezcan falsos.

Sin embargo, antes de vislumbrar siquiera las más básicas ideas comunicadas por la relatividad, los estudiantes tienen que transitar a través de Newton. Y como el revolucionario físico Lee Smolin afirma, no es que que la física newtoniana no sea importante, bella, fascinante y por supuesto útil, aun no siendo totalmente verdadera, pero está completamente desacreditada para dar una respuesta a cualquier pregunta fundamental acerca de lo que el mundo es. Tiene un gran valor histórico y filosófico, pero esto rara vez se menciona en los cursos básicos; así, no es sorprendente que los estudiantes no encuentren inspiración en la materia.(NOTA 3)

Smolin señala el fracaso del paradigma de la escalera que hemos adoptado en nuestras aulas. Además rastrea las consecuencias de tal método. Piensa que la física falla en contestar las preguntas de los estudiantes, falla en proveer una vía para entender que es la vida y porqué estamos aquí.

Si la educación científica y la ciencia en general usaran estas cuestiones básicas como su trampolín, ganaría la relevancia de la que es digna y de alguna manera esto es lo que quiero decir cuando me refiero al aspecto filosófico del que carece el paradigma de la escalera. A los estudiantes se les dan respuestas de las cuales no conocen las preguntas. Se les dan resultados de los que no conocen las operaciones. Se les dan métodos a través de los cuales es difícil concebir aplicaciones amplias y creativas. Por lo que las preguntas que surgen son ¿será posible proveer un respaldo filosófico a la enseñanza de la ciencia? ¿están las conclusiones a la que los científicos han llegado a través de un siglo, listas para darnos algunas respuestas definitivas para entender no sólo nuestro mundo, sino nuestro quehacer aquí? y regresando a la discusión de Lederman sobre los libros de ciencia ¿está la ciencia lista para usar sus conclusiones especulativas, no como ideas tardías, sino como la columna vertebral de sus trabajos?

Yo sostengo que las respuestas a las anteriores preguntas deben ser afirmativas. Es probable pensar que algo tan difícil y espinoso como las matemáticas avanzadas pudieran alguna vez tratarse en la educación general. Como la música, algunas disciplinas parecen reducidas a unos pocos talentos. De cualquier modo, ¿cuántos estudiantes explorarían la ciencia por si mismos si en lugar de aprender de memoria las fórmulas, se les introdujera a muchas de las fascinantes implicaciones que la disciplina revela a niveles avanzados? Yo pienso que muchos más que los que se interesan a través de las clases de la practica común y corriente.

Sin embargo los aspectos pedagógicos son sólo incidentes a la manera que la ciencia se practica y se escribe. En otras palabras, no habrá cambios en la manera en que la ciencia se presente en las escuelas, hasta que los libros de ciencias, o más bien los científicos que los escriben, tomen como punto de partida los difíciles asuntos que han atacado gentes como Einstein y Newton, asuntos que sin los cuales ninguno de los avances que nos dieron, hubieran ocurrido.

La ciencia está lista para retomar la curiosidad y el desafío que caracteriza a las grandes teorías. La ciencia está lista para informarnos nuestro papel en el Universo, pero muchos científicos se encogen en el último comentario. Pero de hecho, cualquier entendimiento superficial de la evolución o de la astrofísica parece negar estas ambiciones. Nosotros somos una entre muchas especies del planeta, que no es como creímos por muchos siglos el centro del sistema solar. Y nuestro sistema solar no es el centro de la galaxia, que es una entre muchas otras sin ninguna característica particularmente diferente. Más humillados nos sentiremos todavía si tomamos los últimos estimados del tamaño del universo y nos colocamos dentro de esa escala: seriamos más pequeños que cualquier partícula conocida por nosotros. Con este conocimiento en mente ¿no es muy presumido siquiera pensar que nuestro papel en el universo es único y primordial? Del mismo modo, creemos que la evolución depende de mutaciones o accidentes genéticos novedosos que pueden ayudar a las especies a prosperar o a desaparecer, dependiendo de cómo estas mutaciones ayuden a las especies a sobrevivir dentro de sus ambientes. ¿No es la arbitraria naturaleza de la mutación una advertencia contra el determinismo? Muchos prominentes científicos creen que en realidad el atribuir a nosotros un propósito aquí después de tal cantidad de humillantes evidencias equivale a un grosero determinismo. Stephen Jay Gould es uno de los que argumenta contra la interpretación de cualquier clase de diseño dentro del proceso evolucionista. Stephen Hawking incluso excita a sus lectores para que se alejen de cualquier conclusión teológica o teleológica. Ambos proveen amplios argumentos en contra y una vasta crítica a las lecturas teleológicas, sin embargo, su renuencia a atribuir un papel para nosotros aquí, implica un terrible malentendido: mientras ellos parecen modificar la tendencia occidental hacia el antropocentrismo, siguen entrampados todavía en otra tendencia cultural determinada, la que le da prioridad al contenido sobre la forma. Permítaseme explicar puesto que estoy usando una terminología prestada, más bien usada en las artes y rara vez en la ciencia. Si yo uso los términos forma y contenido es no solamente para cambiar nuestros paradigmas y mirar a las formas en lugar de mirar sólo el contenido, lo que nos permitirá enmarcar nuestro propósito de acuerdo a la ciencia, sino también porque muchas tendencias culturales que se han perpetuado en el occidente, a menudo se han dispersado en el lenguaje de las artes. En la tradición occidental, forma y contenido parecen encarnarse en Eudoxus y Aristóteles respectivamente. Ahí se forjó la derrota de los principios formalistas como base para entender la ciencia, a través del ascenso de Aristóteles como el maestro empírico. Eudoxus fue el primero que propuso un hábil modelo del cosmos en el occidente, argumentando que los cuerpos astrales orbitaban la tierra. Aristóteles adoptó el modelo de Eudoxus pero nunca lo completó. En cambio llenó las órbitas de estrellas. Aristóteles cambió el estudio de la tierra y el cosmos, de las formas a su contenido, además, su De Caelo esta plagado con discusiones epistemológicas de modo que la belleza del modelo de órbitas de Eudoxus se perdió. Por supuesto que nosotros sabemos que ambos modelos están equivocados. De cualquier manera fue Eudoxus y su interés por las formas, quien mostró el camino para modelos más precisos que presentan la órbita como una forma.

En nuestros días, discusiones semejantes continúan. A través de sus escritos, Dawkins y Gould parecen continuar la batalla de la forma contra el contenido. La escuela de Gould es sobre especializada, observando los pulgares del panda en busca de pequeñas desviaciones, estos investigadores buscan el contenido por doquier y piensan que el establecer formas es una empresa inútil. Dawkins, por otra parte intenta descubrir patrones dentro de los trabajos de la evolución.

En física Hawking y Penrose llevan una discusión similar, y es quizá Penrose quien, en su libro. La mente nueva del Emperador, proporciona la mejor definición de lo que yo llamo formas. La definición de Penrose es consecuencia de un intento de legitimizar el pensamiento matemático como una vía para entender el mundo. Él adopta la perspectiva platónica de ver las matemáticas como un tipo de conducto hacia los dioses. Para él las matemáticas son una vía para descubrir verdades que existen anteriormente, verdades que existen previa e independientemente a las actividades de los matemáticos. A tales verdades él las etiqueta como "descubrimientos". Para ilustrar su discusión Penrose recurre a una analogía con el arte y la ingeniería:
 

Tales clasificaciones no son muy diferentes de las que podríamos utilizar en el arte y en la ingeniería. Las grandes obras de arte están "más cerca de Dios" que las obras menores. Es un sentir no poco común entre los mayores artistas, que sus grandes obras revelan verdades eternas que tienen algún tipo de existencia etérea previa, mientras que sus obras menores podrían ser de más arbitrarias, de la misma naturaleza de las meras construcciones mortales. De modo análogo, una innovación de bella sencillez en la ingeniería, con la que abre una enorme perspectiva para la aplicación de alguna idea simple e inesperada, puede ser descrita con propiedad como un descubrimiento más que una invención.(NOTA 4)
 

Como ingeniero estoy de acuerdo con Penrose ciento por ciento. Una armadura, los cables de un puente, los muros de una presa, una turbina, son mucho más que dispositivos solamente. Son formas, recipientes que contienen el germen de un techo, de un puente, de una presa o de un aeroplano. Como sus contrapartes artísticas, el soneto, la sestina o la tersa rima en la poesía o la sonata, la fuga o el canon en la música, permiten un cierto grado de libertad. Y más aún, son las bases del éxito emotivo del trabajo.

La falla de los científicos en aplicar una perspectiva formalista a estos puntos ha tenido su corolario en su inhabilidad para sacar amplias conclusiones de sus trabajos. Como apunta Martín Rees en su más reciente libro Before the Beginning, él tuvo que llevar a Penzias y a Wilson a leer un informe popular aparecido en el periódico New York Times sobre su descubrimiento, (la radiación de fondo del Big Bang) para que se dieran cuenta de la importancia de éste. De hecho, Rees aun cuando es leal a los métodos donde los científicos se enfocan en problemas importantes, argumenta que deben evitar meterse en tecnicismos; por lo que la respuesta del no especialista es un antídoto necesario para ensanchar la perspectiva. Como un no especialista, afirmo que si vamos a colocar los descubrimientos que han tenido lugar en diferentes ciencias en el último siglo a través de la perspectiva formalista, la ciencia deberá ser capaz de abandonar su renuencia a asignarnos un lugar dentro de éste vasto universo y un rol dentro de la creación.

¿Pero cómo puede una perspectiva formalista influir en lo que nosotros conocemos de la ciencia? Voy a tomar un ejemplo que es un lugar común en la ciencia. Los científicos están de acuerdo de que estamos hechos de oxígeno, hidrógeno, carbono, calcio, óxido de hierro, diglicéridos, etc. Brevemente, de los residuos de estrellas hace ya mucho tiempo muertas. Dependiendo de si el científico que nos habla es un poeta o un cínico, él nos puede decir que somos polvo de estrellas o que somos desechos nucleares. El camino del proceso que nos lleva en medio, en un mapa toscamente trazado, nos conduce a la formación de la Vía Láctea hace diez mil millones de años. En sus comienzos, la Vía Láctea contenía los átomos más simples: hidrógeno y helio, entonces la primera estrella se formó y el combustible nuclear mantuvo esta estrella brillando, convirtiendo el hidrógeno en helio a través de la fusión nuclear, y después convirtiendo el helio en otros átomos: carbono, oxígeno y el resto de todos los elementos de la tabla periódica. Cuando la primera estrella terminó su combustible, se fundió, lanzando sus cenizas en el espacio interestelar, las cuales eventualmente se condensaron en nuevas estrellas y cuajaron en planetas. La nueva estrella se estabilizó y al menos uno de los planetas que se formó a su alrededor fue capaz de mantener un proceso evolutivo y llegar a la vida inteligente.

Este proceso simplificado es el comúnmente aceptado como la explicación de nuestro origen, pero la ciencia no ve consecuencias en ello. Pese al hecho de esta cadena causal que nos coloca dentro del proceso cósmico, los científicos a menudo argumentan que no es más que un accidente meramente físico y químico sin ninguna predisposición hacia la evolución o hacia la vida inteligente. La evidencia de lo contrario es arrolladora. Por ejemplo, en el nivel atómico, las dos fuerzas que controlan a los neutrones y a los protones están balanceadas de tal manera que cualquier cambio en el estado inicial del Universo no hubiera permitido la estabilidad de otro elemento químico que no fuera el hidrógeno o, si la fuerza nuclear hubiese sido más fuerte, no habría hidrógeno que permitiera a las estrellas su evolución. En otras palabras, la estructura atómica, pese a su aparente aleatoriedad, está balanceada para permitir la creación de elementos más pesados que a su vez permiten la construcción de los planetas sobre los cuales la vida subsiste. Aun dentro de las restricciones y aleatoriedad del principio de incertidumbre de Heisenberg parece haber leves variaciones. Por ejemplo, la incertidumbre que nos obstaculiza el poder localizar cualquier partícula, decrece a medida que la partícula se hace más pesada, permitiendo a las moléculas complejas tener una forma definida. Este mismo balance se refleja a nivel microscópico dentro de las estructuras orgánicas. Nuestro ADN mantiene su estructura debido al hecho de que el electrón pesa muy poco en comparación con el núcleo atómico. A nivel macroscópico la gravedad también juega un papel crucial. Sin ella, el contraste de densidades no ocurriría. En otras palabras: sin la gravedad, ninguna estructura se podría formar mientras el Universo se expande. Más aún, la gravedad parece obedecer una fina sintonía similar a la de las estructuras atómicas. Excepto para condiciones extremas como las que se dan en los pulsares o en los hoyos negros, la fuerza gravitacional es extremadamente débil y esa debilidad nos conduce a un Universo grande, estable y de larga vida que es crucial para la evolución. Incluso en nuestra Tierra, el hecho de que la gravedad no es ni más fuerte ni más débil, ha permitido la evolución no solamente de criaturas vivientes, sino de la inteligencia. Si la fuerza de la gravedad fuera más intensa, los animales no serían capaces de crecer mayormente, y en consecuencia, probablemente nunca hubieran desarrollado una estructura adecuada para lograr un sistema nervioso y un cerebro.

Como ingeniero tiendo a ver estos factores no solamente como eventos causales, sino como estructuras pasmosamente exitosas. Sin embargo, los físicos y los biólogos que observan tales datos rechazan el interpretarlos de tal manera, porque ellos discuten que no existe un modelo dónde acomodarlos. Este rechazo ha detenido las esperanzas de las instituciones. Durante los últimos 20 años, los físicos se han enfocado hacia las grandes teorías unificadas o GTU. Tales teorías apuntan a reconciliar la macrofísica de Einstein con la microfisica cuántica. Los GTU intentan unificar las fuerzas nucleares y la electromagnética con la gravedad puesto que esta última no es aplicable al átomo. Algunas GTU han sido exitosas al describir ciertos fenómenos. Por ejemplo, la teoría de Weinberg-Salam-Glashow argumenta que todas las fuerzas estaban unificadas en los estados de alta energía en el Big Bang; una vez que el Big Bang transcurrió y el universo se empezó a desarrollar, la simetría de las fuerzas se rompió.

Mientras que la teoría de Weinberg-Salam-Glashow es intuitiva y acertada en amplio grado, deja una cuestión sin responder y suscita un problema mayor. Este problema por supuesto es ¿qué provoca el rompimiento de las simetrías? Los físicos que estudian las partículas – Leon Lederman entre ellos – argumentan bastante convencidos que es un asunto de los campos de Higgs. De cualquier manera, tales campos no han sido detectados y la esperanza de detectarlos descansa principalmente en el CERN, el más grande supercolisionador de partículas, actualmente en construcción. La detección de los campos de Higgs puede ser un gran éxito para la física, pero de cualquier modo dejará muchos interrogantes y convertirá al modelo standard de la física de partículas en sólo una aproximación de ingeniería para resolver problemas prácticos. De cualquier manera, no necesariamente resolverá el problema inherente a la teoría de Weinberg-Salam-Glashow. Heisenberg demostró calentando un magneto hasta que perdiera sus polos, de modo que pasara a ser simétrico, y después dejándolo enfriar para que se restableciera su momento magnético, que la simetría rota trabaja aleatoriamente. Solamente la casualidad decide qué polo vendrá a ser norte y cuál sur. Las implicaciones de la teoría de Weinberg-Salam-Glashow son tales, que las fuerzas de la naturaleza son un subproducto de un rompimiento de la simetría, por lo que el universo en sí no es nada más que casualidad. Brevemente la teoría falla en explicar la maestría del diseño que mencioné arriba.

Yo afirmo que los físicos no llegarán a una verdadera teoría unificada hasta que adopten un punto de vista formalista. Además, este punto de vista formalista debe tomar en cuenta no solamente las manifestaciones como átomos o galaxias que los físicos exploran, sino sus subproductos, como sistemas solares, formas orgánicas y la inteligencia misma. Para hacer tal cosa, pienso que deben explayarse en formas. No solamente descubrir patrones, sino tomar prestados los informes del conocimiento intuitivo de las artes y las humanidades, así como también de las recomendaciones racionales de otras ciencias. Como Edward O. Wilson ha sugerido en su libro Consilience, necesitamos integrar todo el conocimiento en un árbol cuyas raíces sean la física misma.

Un Nuevo Paradigma.

Para tal tentativa un nuevo paradigma es necesario, un nuevo modelo que permita a la física, biología, ética, teología, sociología y química ver más allá de sus argumentos y contradicciones. Sin embargo, tal paradigma no será posible hasta aceptar una teoría que reconcilie la teoría cuántica con la relatividad. Creo que la física no se ha dado a entender por largo tiempo; ahora es necesario aceptar la existencia de la Información, una entidad ligada de manera indisoluble a las fuerzas nucleares, la electromagnética y la gravitacional y a todas las partículas elementales. Uno de los primeros científicos que discutió el caso de una entidad similar fue David Bohm. Ciertamente, David Bohm, que fue eludido por la clase dirigente científica y rechazado como un tipo de místico, argumentó contra la ciencia que solamente predice y controla el comportamiento de grandes conjuntos de partículas pero evita una visión del mundo. Bohm se enfocó en la física cuántica, particularmente en la incertidumbre. El principio de incertidumbre involucra las unidades subatómicas y su comportamiento, particularmente el hecho de que pueden ser percibidas como partículas o como ondas. La solución de Bohm no está muy lejana a lo que voy a sugerir en breve. Para resolver el principio de incertidumbre, Bohm sugirió un agente, lo que yo he llamado Información, que manipula las partículas. El potencial cuántico como él lo llamó, es un campo cuya fuerza no decrece con la distancia y controla el comportamiento de las unidades subatómicas.

La idea de Bohm de un potencial cuántico encontró un problema cuando fue sugerida por primera vez. En orden de que un campo gobierne el comportamiento de las partículas, debe actuar simultáneamente con ellas, lo que implica que debe viajar más aprisa que la luz. Los físicos parecen rehuir el postulado de Bohm. Parte de la razón es porque éste pone la relatividad en un segundo grado como una ley secundaria a la del potencial cuántico mismo, dado que la relatividad no permite que algo en el universo pueda moverse más rápido que la luz. Bohm no vio algunos de los últimos avances teóricos y observacionales de los últimos años. Incapaz de discutir que tal cosa como el potencial cuántico pudiera ser demostrado, el señaló un nuevo orden similar al que Copérnico introdujo. Bohm creyó que la ciencia había alcanzado un estado similar a aquel que Galileo postuló cuando empezó sus investigaciones.

Tiendo a estar de acuerdo con Bohm. De hecho no pienso que su aproximación estuviera fuera de foco. Mi argumento sigue líneas similares, sin embargo, yo no me enfoco solamente en la teoría cuántica, a pesar de que la teoría cuántica es parte integral de mi argumento. Consecuentemente voy a sustituir el sello de Bohm por un concepto que Teilhard de Chardin desarrolló hace alrededor de medio siglo. Teilhard de Chardin, sacerdote jesuita y paleontólogo, sufrió un destino similar al de Bohm pero no sólo de parte de una sino de dos instituciones. El esfuerzo de toda su vida fue tratar de reconciliar la fe con la ciencia, en especial la evolución. La Iglesia proscribió la publicación de su pensamiento. El fenómeno humano, el medio divino y el lugar del hombre en la naturaleza: el grupo zoológico humano. Sus más importantes libros, así como su voluminosa colección de expertos ensayos, eruditos artículos y cartas profundas y reveladoras a su familia, amigos y asociados profesionales, donde se encuentran sus más importantes ideas, fueron publicados después de su muerte. La comunidad científica rechazó sus argumentos y los consideró vitalistas, informales, sin ningún intento de dirigirlos sistemáticamente. Sin embargo, El Fenómeno Humano no es un libro que se aventure a especializarse en conclusiones sobre temas en los que no está familiarizado. Por el contrario Teilhard está conciente de los eslabones perdidos que acosan a las ciencias. Su discusión del átomo, por ejemplo, toma en cuenta el hecho de que cuando fue escrito (alrededor de 1930) el modelo atómico que prevalecía era irrisorio, por decir lo menos. El Fenómeno Humano no es "sin sentido, engañoso, con una variedad de conceptos metafísicos", como Sir Peter Medawar pretende. Por el contrario si el lenguaje de Teilhard es enrevesado y oscuro, es debido a las presiones políticas ejercidas por las autoridades eclesiásticas. Más allá del lenguaje, el pensamiento, el libro, tienen una intuición que unos pocos científicos han comprendido. Parte de la habilidad de Teilhard de anticipar muchas de las ideas y conceptos en que las ciencias como la física y la biología se basan, son consecuencia del hecho de que él usó la evolución como un vehículo y no como el tenor de su argumento. A diferencia de la mayoría de los biólogos de su tiempo, que discutían que la evolución debería probarse, Teilhard tomó la evolución como un hecho indiscutible. Consecuentemente, fue capaz de adecuarla en un gran contexto. Él no se explayó en una simple transformación: proporcionó una descripción de la evolución, particularmente de la vida orgánica, desde los organismos unicelulares hasta el phylus que permitió el desarrollo de un sistema nervioso. Esta descripción está enmarcada dentro del concepto que la física trataba a principios de siglo, a saber: el átomo y la energía. Haciendo esto, Teilhard no sólo proporcionó una síntesis factible, sino que agrandó el ámbito de la evolución. El Fenómeno Humano vio la evolución como un producto de la energía latente que la materia contiene, un fenómeno que Einstein codificó en su famosa ecuación, pero además estableció lo que actualmente para muchos es la ley suprema que rige el universo, es decir, la ley de la Complejidad, que establece que la evolución tiene como meta llegar a la máxima complejidad y al desarrollo total del conocimiento.

El Fenómeno Humano fue escrito después de que Einstein formulara su teoría especial y general de la relatividad; después de que Plank explicara la radiación del cuerpo negro; de que Bohr explicara el espectro y la estructura atómica y de que Heisenberg postulara su principio de incertidumbre. Aun pensando que Teilhard de Chardin no era un especialista ni en la relatividad ni en la teoría cuántica, la discusión abierta en El Fenómeno Humano, donde trata con el átomo, muestra que estaba lo suficientemente familiarizado, tanto con la relatividad como con la teoría cuántica. Teilhard era una mente sintética. A través de sus escritos se puede ver que no solamente entendía y exponía lo que él llamaba teorías traslapadas sino que las sintetizaba unificando sus características para obtener una explicación del universo. A través de su conocimiento de las diferentes ramas de la ciencia y su mente sintética, él fue capaz de deducir que si hay un elemento unificador que el llama pluralidad o algo tangible en su estado elemental, si hay un común denominador, éste es la energía. Teilhard de Chardin entendió que esta energía es el sine qua non de la existencia.

Como podemos ver, las ideas de Teilhard siguieron los pasos de la ecuación de Einstein por casi tres décadas. Sin embargo, mientras que Einstein fue reticente a siquiera pensar que ésta pudiera aplicarse a un modelo evolutivo del cosmos, Teilhard aceptó esto de facto. Cuando Einstein se dio cuenta de que su teoría implicaba que nuestro universo no era estático sino cambiante, introdujo lo que es conocido como la constante cosmológica, una fuerza repulsiva que contrarrestaba la expansión. Simbolizada con la letra griega Lamda, Einstein llamó a esta constante cosmológica el gran error de su carrera cuando Hubble le mostró la evidencia de que vivimos en un Universo en expansión. Aceptando el desarrollo constante del Universo, Teilhard de muchas maneras predijo la teoría del Big Bang. Esto debe ser una de las más grandes legitimizaciones de las ideas de Teilhard, ya que permitió a la energía tener primacía sobre la materia. Brevemente, esto nos lleva a darnos cuenta de que la energía radial latente en la materia (Información), controla todas las trasformaciones de ésta.

Intuyendo que la energía se transformaba en materia y comprendiendo la evolución, Teilhard concluyó que hay dos tipos de energía a las cuales llamó radial y tangencial. El comprendió que toda la energía es psíquica por naturaleza pero fundida en una dualidad. La energía tangencial es medible y detectable, es la energía que todavía percibimos de la radiación de fondo producida por el Big Bang, así como también la energía producida por una rápida oxidación y que llamamos fuego; es la energía que en los inicios del universo con la contribución de los campos de Higgs, cambió de estado transformándose en materia y en otras formas de energía cuantificables. La energía radial, por otro lado, no puede ser detectada, o por lo menos, no por los mismos medios que usamos para detectar la energía tangencial puesto que esto implicaría juntar ambas energías. Y mientras que la energía tangencial esta presente en una de sus formas como materia, la energía radial se manifiesta influyendo siempre todas sus transformaciones. En otras palabras la energía radial es una energía en evolución, una energía que determina el crecimiento de la complejidad de la materia y del eventual desarrollo de la inteligencia y la conciencia.

Para los científicos la idea de Teilhard al principio sonó como una versión del elan vital aristotélico. Y esto no es así. Si es parecido a un concepto es a aquel al que precedió por varias décadas, el que los científicos llaman información. Medawar apunta este hecho en la misma revisión a que hice referencia: La energía radial, espiritual o psíquica de Teilhard puede ser equiparada a la información. La ecuación no es del todo precisa. Sí, la energía radial se parece al concepto de información, pero este parecido no es un parecido exacto. La información es un término general aplicado por los cosmólogos, los científicos de la computación, y por los neurosicólogos. Como término que se originó con la ciencia de la computación, está codificado en bits. Para los cosmólogos está fuertemente relacionada al concepto de entropía y se encuentra en el centro de la investigación de los agujeros negros. Para nuestro propósito será suficiente entender el concepto de información como una codificación de lo que llamamos conocimiento, donde este conocimiento puede ser una novela, una sinfonía, un proyecto o un poema.

La mayoría de la gente podrá rechazar este concepto y considerarlo como reduccionista. Por supuesto que lo es. Como Penrose elocuentemente argumenta en La Mente Nueva Del Emperador, necesitamos una nueva ciencia de la mente para entender la información desde las cuantificaciones de la Inteligencia Artificial, la disciplina que sostiene al término balanceado pero no lo suficientemente amplio. Teilhard probablemente hubiera estado de acuerdo con Penrose. Si usted tiene una computadora con una memoria "infinita" usted puede guardar una cantidad "infinita" de información. Un mapa de su banco de memoria no necesariamente sería más complejo que un mapa de un banco de memoria de un disco duro de 1 GB, el cual sólo acomoda unos y ceros. Sigue siendo un banco de memoria. Aparentemente, La complejidad debe implicar que el todo trascienda la suma de las partes. La información como la ciencia la define, no toma en cuenta la complejidad, sino solamente la acumulación. La energía radial, en otras palabras, tiende hacia la complejidad, hacia un mayor y mayor orden. Para Teilhard de Chardin la humanidad no es la culminación de la evolución, solamente un peldaño en la escalera que tiende primero hacia la noosfera, a una capa de conocimiento y después tiende a la planetización, a una conciencia global, a la anulación de la entropía, que según los científicos es el destino del universo al expandirse, al derrocamiento del equilibrio y a la superación de la mente.

En su libro, Physics of Immortallity, Tippler argumenta que la visión de Teilhard es más poética que científica y concuerda con él en el terreno filosófico, llegando a establecer unas guías más elaboradas para la planetización que las que Teilhard sugiere, llenando los huecos de la ciencia con una tecnología imaginaria. El libro de Tippler termina como un elaborado y esperanzador cuento de ciencia ficción, ofreciendo pocas visiones nuevas, más allá de donde la cosmología o Teilhard de Chardin llegan.

Yo creo que su falla descansa en el desaire a Teilhard como científico. Adhiriéndose a la filosofía de Teilhard y desatendiendo al modelo que él estableció en El Fenómeno Humano, pasa por alto el hecho de que muchas de la cuestiones sin responder con la cuales los físicos están luchando hasta el momento, se pueden resolver si uno considera a la información como una fuerza. No es necesario rellenar el trabajo de Teilhard de Chardin. Por el contrario, solamente tenemos que revalorarlo y darnos cuenta de cuántas cosas que él argumenta han venido a tener validez en las últimas décadas. Como ya lo afirmé anteriormente, Teilhard antecede a teóricos como David Layzer, quien en su libro Cosmogenesis discute completamente convencido que el universo es producto de una evolución creativa.

La pregunta que surge es ¿por qué, si muchas de las ideas de Teilhard de Chardin han probado ser correctas, los científicos son inflexibles para integrar su pensamiento dentro de su discurso? ¿Por qué no considerar a la energía radial? Pienso que en parte tiene que ver con la política. Michael Hawkins, en Hunting Down the Universe nos retrata una comunidad científica que no es generosa ni vital, sino por el contrario, inmersa en feudos políticos y avara por becas de grandes sumas. De acuerdo a él, el dinero y el poder han forzado a la comunidad, no a adoptar ideas, sino dogmas. El dogmatismo, por supuesto, ha llevado a la ciencia a alcanzar un punto muerto. Si hubo una razón para que una gran teoría como la gravedad de Newton tuviera que ser revisada, se debió a que científicos como Einstein estuvieron dispuestos a cuestionarle sus defectos.

En la ciencia moderna, uno de los dogmas que existen es el dictado por la Teoría de la Relatividad de que nada en el universo puede moverse más rápido que la luz. Hemos visto cómo la idea de Bohm del potencial cuántico fue rechazada debido a que el campo que él discutía debía viajar más rápido que la luz. Para aceptar esta premisa había que degradar la relatividad, tenía que hacerse a la relatividad una ley subordinada al potencial cuántico.

De igual manera si los científicos llegan a valorar la energía radial, tendrían también que revalorar la relatividad. Sin embargo, yo sostengo que, como la física newtoniana antes que ella, la relatividad puede ser sólo revisada, no rechazada ni degradada. Tales revisiones son inminentes a cualquier principio científico y no implican falla de ninguna clase. El hecho de que Einstein revisara las ideas de Newton sobre la gravedad, no necesariamente significa que las manzanas no caerán de los árboles, o que la Tierra no ejercerá su fuerza gravitacional sobre nosotros. Las leyes de Newton son aplicables a nosotros aquí, pero no funcionan cuando son llamadas a explicar condiciones más extremas. La relatividad general también falla cuando se aplica a densidades extremadamente altas en el inicio del universo. La falla de la relatividad al explicar las altas densidades del universo naciente, no se debe interpretar como una carencia de validez de la teoría. Por el contrario, esta falla puede ser usada para tener cierta libertad de acción en establecer los principios de la energía radial.

Un lector cuidadoso puede notar, sin embargo, que en favor de conducir la investigación para establecer los principios de la energía radial, los científicos necesitan, por lo menos, algo que indique su existencia. De otra manera su trabajo no será nada más que una tentativa en la oscuridad. ¿Existe algo tal que indique su existencia? ¿Hay algún indicio que apunte hacia la quinta fuerza? Nosotros hemos notado ya, que si debe haber algo como la quinta fuerza, una fuerza que gobierne el comportamiento de las otras cuatro fuerzas, esta fuerza deberá necesariamente actuar más rápido que la velocidad de la luz. ¿Hay algún indicio de que algo pueda viajar o actuar a esa velocidad?

Sorprendentemente, la respuesta es sí, y el indicio no viene de alguna idea o teoría oscura, sino de una de las más importantes teorías que han emergido en los últimos años: esta es la del Universo Inflacionario. Inicialmente postulada por Alan Guth, la inflación resuelve varios problemas fundamentales del modelo Big Bang. Entre otros, se deshace de los problemas de la distancia del horizonte (donde la palabra horizonte se usa en el sentido de limitación del conocimiento) y de porqué el universo se observa más plano de lo que debería.

En lo más básico, la teoría discute que entre los 10-36 y los 10-32 seg., el universo duplicó su radio durante iguales intervalos de tiempo. A primera vista, esta afirmación de la inflación puede parecer irrelevante. Después de todo, ¿cuánto pudo el universo expandirse realmente dentro de ese inimaginable breve momento? La respuesta es asombrosa. El universo se expandió proporcionalmente más entonces, que en los últimos 15 mil millones de años. Las consecuencias de la teoría conducen a una revisión radical de nuestro entendimiento del universo.

Si nosotros aceptamos que debido a la inflación el universo duplicó su radio sobre iguales intervalos de tiempo, tendremos que aceptar un Universo mucho más grande que el que hemos aceptado previamente. Es debido a este asombroso tamaño que el universo parece plano. En otras palabras, como observadores nos engañamos en la misma manera que los antiguos se engañaron cuando buscaron en el horizonte y vieron que la Tierra era plana. La inflación también resuelve otro problema inherente al modelo big bang. El universo observable es homogéneo e isotrópico. Esto quiere decir que la materia está distribuida equitativamente en todas las direcciones. Cuando los científicos observan la radiación cósmica de fondo, detectan energía que fue liberada cuando el universo tenia 300 mil años. En esa época, de acuerdo a la teoría del Big Bang, su diámetro era de 90 millones de años luz. Esto parece una incongruencia, pues ¿cómo pudo el Universo crecer 90 millones de años luz en tan solo 300 mil años? Por una razón muy sutil, según la relatividad general el espacio en sí es plástico, capaz de curvarse y alargarse. Según la teoría del Big Bang el espacio se alargó mientras el Universo se expandía, por lo que el principio que establece que no se puede sobrepasar la velocidad de la luz no se viola. De cualquier manera la distancia del horizonte en ese momento era de 900 mil años luz y la separación de los extremos del Universo de 90 millones de años luz. Puesto que los extremos estaban separados alrededor de 100 veces la distancia que la luz recorrió desde el Big Bang, no existe proceso físico que pueda explicar por qué estos dos puntos tenían una temperatura casi idéntica, pues la radiación cósmica de fondo nos muestra que a los 300 mil años, era increíblemente uniforme. En otras palabras, como dice Guth en su libro The Inflationary Universe:
 

Podemos imaginar, si deseamos, al Universo poblado de pequeñas criaturas púrpura, equipadas cada una con un horno y un refrigerador, dedicadas a la causa de establecer una temperatura uniforme. Aun con la ayuda de tales criaturas, la uniformidad observada en la radiación de fondo no se puede establecer a menos que las criaturas se pudieran comunicar a una velocidad 100 veces superior a la de la luz.(NOTA 5)
 

La inflación es simple y elegante, libera de muchos problemas inherentes a la teoría estándar del Big Bang. De cualquier manera, su premisa principal, la expansión exponencial del Universo a iguales intervalos de tiempo, aunque justificada, deja la posibilidad de que la velocidad de la luz pudo ser excedida por una información, al tener la radiación de fondo tan increíble uniformidad, puesto que su temperatura es la misma en todas las direcciones con una precisión de una parte en 100 mil. Por otra parte, a través de subsecuentes revisiones, la inflación ha adoptado la idea de los campos escalares como desencadenadores de la inflación. En tales modelos, los campos escalares no solamente estimulan la inflación, sino que la controlan y la terminan. Mientras estos campos siguen indetectables, están bastante bien establecidos en la teoría. Y difícilmente pueden ser obstáculo para acortar la introducción a la quinta fuerza, sus características son similares a aquellas propuestas por la energía radial, a saber: ella actúa como agente y catalizador dentro del proceso y por tal, ella lleva las riendas de los resultados del proceso.

Muchos discuten, como quiera que sea, que mientras los campos escalares son solamente teóricos, podrán ser identificados, mientras que la energía radial es puramente especulativa e imposible de observar. Los físicos de partículas deben comprender que las funciones de los campos escalares, mientras operaron en el Universo naciente rompiendo la simetría y estimulando e interrumpiendo la inflación, están mucho más limitados en cuanto a las funciones que he asignado a la energía radial. Finalmente, deben comprender el hecho de que la velocidad supraluminal del universo inflacionario tuvo lugar dentro de condiciones especiales del universo temprano y ocurrió posiblemente sólo a través de la tunelización del vacío.

Como último argumento postularé que la tunelización puede ciertamente ser nuestro laboratorio. No necesariamente para rastrear la energía radial, sino para analizar el fenómeno supraluminal. Los campos escalares y la energía radial definitivamente no son iguales. Los campos escalares, como cualquier campo, ejercen su influencia solamente sobre una estrecha serie de partículas. La energía radial, como el potencial cuántico de Bohm, gobierna el comportamiento de todas las partículas simultáneamente. La manera más fácil de entender esto puede ser viendo cómo el magnetismo, el más visible de los campos, ejerce su influencia solamente sobre las partículas cargadas positiva o negativamente. La energía radial, por otro lado, trabaja más como el ADN. Con esta analogía sin embargo, me estoy adelantando en mi argumento, por lo que solamente lo tocaré brevemente por ahora. Como en el ADN, donde la energía radial se manifiesta transportando la información necesaria para un organismo, en el caso de una partícula, la energía radial se manifiesta dirigiendo sus funciones.

Más adelante voy a discutir cómo el ADN puede ser una de las muchas manifestaciones de la energía radial. Pero primero permítanme dirigir el argumento hacia lo interactuante de ésta energía. Otra vez, entre muchas, perseguir una fuerza que por ahora no se puede medir, una fuerza que no está tabulada, parece por lo menos una quimera, una pérdida de tiempo y de recursos en el peor de los casos. Sin embargo, ésta fácil destitución, en mi opinión no solamente prueba que la comunidad científica ha llegado a una crisis más allá de lo que a su curiosidad y ambición concierne, sino que puede entrar en una fase perjudicial que atrofie uno de los principales recursos del método científico mismo, a saber: la deducción. Ya he criticado la especialización y su estrecho enfoque. Éste es debido al hecho de que la especialización trabaja mediante la inducción. El trabajador de este campo reúne evidencia poco a poco y saca una conclusión parcial, la cual puede ser verificada o refutada con nuevas evidencias. En otras palabras, la lógica inductiva sólo acepta una conclusión como veraz, cuando todas las posibles instancias han sido examinadas.

La inducción ha sido fructífera. Ella nos ha dado la anatomía, la química, la física de partículas, etc. Sin embargo, se puede argumentar que sólo a través de la deducción la ciencia ha logrado sus más impresionantes avances. En otras palabras, los avances de la ciencia han dependido a menudo de la aceptación de premisas sin probar o improbables. Leon Lederman conviene con esto en su libro The God Particle. Con su estilo alegre, intenta responder a una pregunta que la gente siempre le hace: "¿alguna vez ha visto Ud. un átomo?" Lederman sostiene que él puede "visualizar la estructura interna de un átomo, la fragmentada nube de la presencia del electrón rodeando el minúsculo punto del núcleo que atrae al brumoso electrón hacia él". Pero la única evidencia que tiene del átomo son "las decenas de miles de censores que desarrollan un impulso eléctrico mientras la partícula pasa." Admitiendo tal hecho Lederman confirma que el modelo atómico que los físicos de partículas han desarrollado es puramente deductivo. Además, él hace brillar una luz sobre el camino por el cual el método puede ser usado para mapear un territorio que parece imposible de mapear. Nosotros, literalmente, no podemos ver un átomo; no podemos fotografiarlo. De cualquier modo hemos deducido un modelo factible del átomo observando el comportamiento de sus partículas. Nosotros conocemos el átomo por sus efectos sobre otras partículas.

Puedo razonar que, como con el átomo y sus partículas, nosotros podemos deducir los principios de la energía radial por sus efectos. En otras palabras, la energía radial se manifiesta a través de sus efectos. ¿Cuáles son esos efectos? Aquí vamos a rondar el corazón de mi argumento formalista. Nuestra evidencia de la energía radial, la manera que la "vemos", es a través de las formas que encontramos en el Universo, formas que tienen funciones y que han sido descubiertas, para usar una vez más las palabras de Penrose, a través del estudio científico: las órbitas, la hélice, la secuencia de Fibonacci, el set del Mandelbrot. Estas formas, particularmente la última, que es el corazón de las matemáticas fractales, no sólo son construcciones matemáticas, sino modelos de estructuras a través de las cuales la naturaleza ha efectuado sus transformaciones desde el principio del tiempo. Es el tipo de estructuras que han permitido la evolución, siendo lo que John H. Holland, en su libro Emergence, ha etiquetado como "emergentes" son estructuras que "dan más de lo que reciben."

Fractales y caos, hélice y órbita, todos han sido peldaños del discurso científico. Algunos de ellos lo han sido a través de siglos; otros a través de unas pocas décadas. Así, al principio, mi argumento puede no parecer novedoso o productivo. De cualquier manera los científicos, mientras usan las herramientas de los fractales y el caos para estudiar los fenómenos, no intentan escribir una historia universal la cual no sea más que una transformación de formas, aún cuando la evidencia ciertamente está allí. Al nivel atómico, ya hemos tocado el hecho de que cada átomo en el Universo ha sido creado de la fusión del hidrógeno en helio. Lo que esta reacción nuclear ha hecho, es generar si no átomos más complejos, sí átomos más pesados que copian la estructura básica del hidrógeno y el helio iniciales. Esta estructura, inicialmente postulada por el físico experimental Ernest Rutheford en 1911, ya revisada, puede ser toscamente esbozada como un sistema solar donde, en lugar de planetas, están orbitando electrones y en lugar del sol, esta el núcleo. Inherente a esta estructura esta la capacidad de agruparse, la capacidad de los átomos para formar moléculas. Los libros de texto a menudo le dicen a los estudiantes que el mundo está lleno de moléculas. Para hacer una revisión menor, deben decir que el mundo son ellas. Y el mundo son ellas porque el trabajo del átomo sobre el átomo las ha conducido en espiral hacia la complejidad. Por lo tanto, una molécula de agua es mucho menos compleja que una molécula de ADN, aún cuando ambas están basadas en estructuras similares.

Los científicos deben coincidir en que, ciertamente, estas formas se reproducen a través del universo. De cualquier manera muchos pueden discutir que, mientras estos fenómenos siguen unos ciertos patrones formales que permiten la formación del Universo, del sistema solar y de la vida misma, en muchas ocasiones las transformaciones o agrupamientos son accidentales, que fueron resultado de un trabajo del azar. Teilhard de Chardin, mientras intentaba establecer las relaciones entre las energías radial y tangencial razonó que muchos de estos fenómenos eran ciertamente accidentales. Sugirió seriamente, como el buen científico que era, que "la tierra pudo haber nacido por accidente." Sin embargo, pese a su concesión a la casualidad, a la arbitrariedad y a lo accidental, Teilhard también fue capaz de trazar el camino en el cual la química inorgánica augura la química orgánica, y a su vez la química orgánica augura las formas complejas de vida. Para él, aun cuando la naturaleza camina a través de accidentes e indeterminación, ella "inmediatamente hace uso de ello y lo refunde en algo naturalmente dirigido." El uso del verbo refundir por Teilhard de Chardin, un verbo comúnmente asociado con la escultura, nos lo dice aquí: Lo que la oportunidad funde, la energía radial refunde o rehace en orden de usar su "latente poder germinal."

Lo que Teilhard de Chardin sugiere aquí a medida que explora la concatenación del mundo mineral con el mundo orgánico, y el mundo orgánico con las formas complejas de vida, es a lo que él y otros científicos se han referido como cosmogénesis. Teilhard de Chardin se adelantó a su tiempo al aplicar el esquema evolucionista a la historia cósmica. Mientras que la teoría del Big Bang confirma sus argumentos de varias maneras, científicos como David Layzer en su libro Cosmogenesis y mas recientemente, Lee Smolin en Life of the Cosmos han explorado las implicaciones de un universo en desarrollo. Ambos, Smolin y Layzer, argumentan que el universo se desarrolla tal como se desarrolla la vida, a través de leyes de conservación, innovación y selección. Sin embargo, uno tiene que ser cuidadoso al aplicar estas leyes a la historia cósmica. Mucha gente malinterpreta la evolución cósmica como un mal guiado intento al determinismo. Esto no es así. Como Layzer lo expresa, el universo es un "mundo de llegar a ser, así como de ser, un mundo en el cual el orden emergió del caos primordial y engendró nuevas formas de orden. El proceso que ha creado y continúa creando orden, cumpliendo las leyes físicas universales e inmutables. A pesar de todo, porque él genera información, sus resultados no están implícitos en las condiciones iniciales." El argumento de Layzer es, como el de Teilhard, formalista. La forma es su palabra operativa. Su declaración, sin embargo, también se explica como consecuencia de la complejidad, la cual Teilhard vió como un de las propiedades de la energía radial: La tendencia hacia la complejidad.

Este en realidad no es un concepto difícil de enfrentar. Nosotros vemos la cadena causal vinculando el Big Bang con los átomos ligeros, los átomos ligeros con los más pesados, los átomos a las moléculas, las moléculas a las formas orgánicas y complejas. Cada peldaño de la escalera se presenta a nosotros con una forma más compleja, o mejor dicho, puesto que las formas cambian sólo ligeramente, podría decir que la forma primordial trabaja como un recipiente que permite alojar más información. Como muchos cosmólogos se están aficionando a decir, es más fácil entender una estrella que entender un virus, tratando solamente la red neuronal. En otras palabras, dada la masa y la composición química de una estrella, la mayoría de los astrónomos pueden predecir cada paso de su vida, trazando su camino desde la protoestrella y conjeturar una fecha para su transformación en una gigante roja y después en una enana blanca. Por otro lado, un virólogo no puede bosquejar la vida y el progreso de una epidemia.

Esta dificultad en predecir el comportamiento de un virus o de una neurona es consecuencia de la complejidad y de lo impredecible de los sistemas complejos que apuntan sus resultados hacia esta complejidad. Es decir, al llegar a ser más complejos los sistemas, alcanzan mayor libertad. Como paleontólogo Teilhard estuvo, por supuesto, consciente de los estancamientos y de las extinciones en la escalera de la evolución, consciente de que algunas transformaciones, el refundirse de algunas de las formas, no fueron exitosas. Brevemente, Teilhard estuvo conciente de que muchas veces la segunda ley de la termodinámica fue más fuerte que el principio de la autoorganización, de la innovación, torciendo cualquier progreso. Además los estancamientos se dan cuando las especies han llegado a su límite y si ponemos atención vemos que sólo un pequeño porcentaje de los sistemas obtiene la información necesaria para invertir la entropía y pasar al siguiente nivel de complejidad. El principio de selección darwiniano es fácilmente entendible sí uno relaciona las ramificaciones del filus con la clase, la clase con el orden, el orden con el género, el género con el subgénero y el subgénero con la especie. En otras palabras, Darwin nos señaló la serie completa de etapas, pero no tomó en cuenta el momento crítico en el que se podían desencadenar los estancamientos, las extinciones y la macroevolución. En función de corregir lo anterior, Teilhard introdujo el concepto de puntos críticos (ver Las estructuras disipativas en la evolución). Pero también de acuerdo con Teilhard, si uno mira las extinciones y los estancamientos en el universo temprano "biológicamente", si uno aplica los principios biológicos a la cosmología, aquellos "organismos que han llegado a ser irremediablemente fijos, han escogido cerrar el camino prematuramente sobre si mismos."

Es muy difícil hablar de conceptos altamente filosóficos y teológicos como la voluntad y aplicarlos a la ciencia. De hecho, ha sido ésta, más que otras ideas, la que ha eliminado a Teilhard del discurso científico serio. Después de todo, la ciencia tiene que ver con los agregados estadísticos y no con conceptos subjetivos. Otra vez caminamos hacia lo inmensurable, que a partir de la mecánica cuántica ha venido a ser un hecho de la ciencia. A diferencia de la física clásica, que no deja espacio para la voluntad y su corolario, la libertad, lo cuántico necesita enfrentarse con la libertad inherente al sistema, con objeto de explicar el fenómeno subatómico. Como Penrose elocuentemente argumenta, la física no tiene espacio para la conciencia, subjetivamente, y si vamos a trazar la ruta de su origen tendrá que ser a través de lo cuántico:
 

La verdadera existencia de los cuerpos sólidos, los esfuerzos y las propiedades físicas de los materiales, la naturaleza de la química, los colores de las substancias, los fenómenos del congelamiento y la ebullición, la seguridad de la herencia, éstas y muchas otras propiedades familiares, requieren de la teoría cuántica para su explicación. Quizá también el fenómeno de la conciencia es algo que no se puede entender en términos enteramente clásicos. Quizá nuestras mentes están enraizadas cualitativamente en alguna extraña y maravillosa característica de esas leyes físicas que actualmente gobiernan el mundo que habitamos, en vez de ser solamente características de algún algoritmo actuando sobre lo que se llama "objetos" de la estructura física clásica. Quizá en algún sentido, esto es por lo que nosotros como seres sensibles, debemos vivir en un mundo cuántico en lugar de en uno enteramente clásico, pese a toda la riqueza, y ciertamente a lo misterioso que está siempre presente en el universo clásico. ¿Es necesario un mundo cuántico para que seres que piensan y perciben, como nosotros, se puedan construir con su sustancia? ¡Tal cuestión parece ser más apropiada para un Dios intentando construir un universo habitado, que para nosotros! Pero la pregunta tiene relevancia también para nosotros. Si el mundo clásico no es algo del que la conciencia pueda ser parte, entonces nuestras mentes deben ser de alguna manera dependientes de una desviación específica de la física clásica.

Nosotros debemos adaptarnos con la teoría cuántica -la más exacta y misteriosa teoría física- si queremos hurgar profundamente dentro de las mayores cuestiones de la filosofía: ¿Cómo se comporta el mundo y cómo se constituyen las mentes que ciertamente somos?
 

El asunto que Penrose trata aquí, concierne a la rigidez del mundo clásico; su inhabilidad para acomodar la incertidumbre, la dualidad, las correlaciones no casuales, y por supuesto, la libertad. Si todos los conceptos arriba expuestos se hubieran discutido hace un siglo hubieran sido juzgados no científicos.

Encontramos todavía otra consecuencia de la complejidad muy importante. No solamente a medida que llegan a ser más complejos, los sistemas adquieren mayor libertad, sino que su complejidad los lleva en contra de la flecha termodinámica es decir en contra de la entropía. La flecha termodinámica es, por supuesto, la flecha que corre paralela a la flecha del tiempo, apuntando hacia el mayor desorden dentro de un sistema, marcando la transición de un estado de alto orden a un estado de completo desorden. Stephen Hawking argumenta muy convincentemente que "nuestro sentido subjetivo de la dirección del tiempo, la flecha psicológica del tiempo, esta determinada dentro de nuestro cerebro por la flecha termodinámica." ¿Cómo, si el universo tiende hacia el desorden, puede la complejidad dirigirse en contra de la entropía? La respuesta simplemente presentada, es: a causa de la complejidad generada por las estructuras más exitosas, por las formas más exitosas, que tienden al orden y se alejan del equilibrio. Pero la manera en que esto ocurre no es tan simple. Una de las fallas de Hawking en su Breve Historia del Tiempo es la introducción de la flecha psicológica del tiempo. El concepto es un intento de popularizar e introducir ésta de por sí problemática cuestión de la psicología, o más simplemente, de la percepción del observador. La flecha psicológica del tiempo, o nuestra percepción del paso del tiempo, no es necesariamente la cuarta dimensión que Einstein visualizó y a la cual Hawking le etiqueta dirección. Y mientras, ciertamente, es esta cuarta dimensión donde la entropía se incrementa, también es la única dimensión que permite la evolución y la complejidad. Teilhard de Chardin que sabía que no era un experto en la relatividad entendía esto:

No me hallo en situación de apreciar, desde el punto de vista matemático, ni el buen fundamento ni los límites de la física relativista. Pero hablando como naturalista, debo reconocer que la consideración de un medio dimensional en el que espacio y tiempo se combinan orgánicamente, es el único medio que hasta ahora hayamos encontrado para explicar la distribución de las substancias materiales y vivas alrededor de nosotros. En efecto, mientras más progresa nuestro conocimiento de la historia del mundo, tanto más nos es dado descubrir que la distribución de objetos y formas en un momento dado no se justifica más que por un proceso cuya duración temporal varia en razón directa de la dispersión espacial (o morfológica) de los seres considerados. Cualquier distancia espacial, cualquier diferenciación morfológica, supone y expresa una duración.(NOTA 6)
 

Otra vez, para enfatizar, el argumento de Teilhard es puramente formal. Se refiere a la evolución como a la distribución de formas, a una desviación morfológica. No obstante, considera el tiempo como la cuarta dimensión en la física clásica. A diferencia de Hawking, que ve el tiempo como erosionador de sistemas, o como un vehículo hacia un estado de mayor desorden, Teilhard comprende el tiempo como la única manera en la cual la energía radial puede manifestarse a través de sus formas. Más importante, las formas son la única manera mediante la cual los sistemas se defienden de la entropía. Podemos observar esto más obviamente en la manera en que heredamos cosas. Los objetos no sobreviven por muchas generaciones pero las formas que heredamos de nuestros ancestros, sean éstas la doble hélice de su ADN o los patrones sintácticos de su lenguaje, son recipientes que contienen la información del rechazo a la entropía. Muchos pueden objetar aquí que mi argumento es puramente histórico y que la historia cosmológica no sigue los mismos caminos que la historia humana. Sin embargo, esta conservación a través de las formas es una ley de naturaleza tan importante como la de la entropía. En nuestro siglo la matemática alemana Emmy Noether demostró que cada ley de conservación implica la existencia de una simetría. Pero la correlación de los fenómenos naturales a las formas es antigua. Por supuesto muchos de nuestros calendarios y relojes han sido hallados de patrones naturales. En el Renacimiento, los escolares veían la eficacia de los números como una prueba de diseño divino. En nuestro tiempo después de la relatividad y la teoría cuántica, tendemos a pensar que los números son un poco más arbitrarios, que las formas no son lo que ellas representan en el papel, ya sea que estas formas sean un planeta orbitando al sol o una galaxia enrollándose en su propio eje. El físico Eugene Wigner afirma que: "Las leyes de la naturaleza no pueden existir sin el principio de la invariancia." La invariancia, es por supuesto la recurrencia de las formas. Simetrías y fractales abundan y son la columna vertebral de la materia que vemos en la naturaleza. Por lo tanto, la afirmación de Wigner agranda la idea de que las formas se dirigen en contra de la flecha termodinámica.

Los relativistas cuánticos como Hawking y Hartle discuten incluso que si las formas, si la invariancia, parecen conservar la energía, el destino último del universo hace esta conservación irrelevante. Yo tiendo a discrepar. La conclusión de Hawking está finalmente basada en la teoría que él aplica a la topología del Universo. Ellos consideran la energía –después de todo Hawking es una de las personas responsables del concepto de singularidad – pero fallan aislándola de sus productos. Otra vez, ellos ven el contenido y no las formas. Más allá, la energía que manejan es la energía tangencial; por lo tanto para ellos el destino del universo está escrito y cerrado, o lo estará una vez que coloquen el número para la masa crítica del universo en sus libros.

La energía radial, de cualquier manera, no solamente prueba que se dirige en contra de la flecha termodinámica creando formas más eficientes y capaces en un universo cuya topología tiende al desorden, sino que ha alcanzado un estado crítico en su evolución. De acuerdo con Teilhard de Chardin: al desarrollarse la energía radial, no solamente asimila más complejidad, sino que la acumula. La energía radial es acumulativa y convergente. En palabras de Teilhard, la energía radial, "porque contiene y engendra conciencia es de naturaleza convergente y debe converger en un punto que podemos llamar Omega":

De cualquier manera la esfera del mundo por inmensa que sea no puede existir ni puede ser aprehendida de una forma última más que por la dirección (más allá del tiempo y del espacio) hacia el cual sus radios llegan a converger.(NOTA 7)
 

A diferencia de Hawking, Teilhard de Chardin, como es obvio en esta frase, se desentiende de la topología cósmica. Hace esto por muchas razones. Si como he discutido, sus ideas son puramente formalistas, el material de este mundo es solamente una matriz necesaria del un proceso y no el fin por sí mismo. El fin por sí mismo es el que ha sido elaborado y refinado por el agente, y el agente es la energía radial misma.

La idea de que la invariancia, o forma, como yo la he llamado todo el tiempo, es la manera en la cual la energía radial se defiende de la entropía, no es radical o nueva, pero la idea de que esta neguentropía de la energía radial converge sobre un centro, definitivamente sí lo es. De hecho la convergencia en el punto Omega es una de las ideas más criticadas de Teilhard. Ha sido etiquetado de antropocéntrico, de esencialista, de místico, de teísta, etc. Sin embargo, la evidencia es sumamente fuerte. No sabemos todavía si el universo contiene la masa crítica, por lo que es imposible decir si la convergencia de la que habla Teilhard, ocurrirá con la materia o no. En otras palabras, nosotros no podemos decir si el universo se seguirá expandiendo o se retraerá hacia una singularidad. Si esto último es verdad, entonces podemos ver el punto Omega de Teilhard como un evento literal tanto para la energía radial como para la tangencial. Pero si no lo es, el punto Omega no es menos verdadero. Recordemos que la energía radial no esta limitada por la topología del cosmos, el modelo atómico o la anatomía humana, sino al contrario, obliga a la topología del cosmos, al modelo atómico y a la anatomía humana. Dicho de otro modo, el universo, su materia y sus habitantes, son solamente vehículos, formas.

Muchos lectores encontrarán el último argumento vago y de alguna manera sofisticado. La razón por la que nos impacta es porque ha sido descontextualizado. A pesar de topologías, modelos y anatomías, ellas no son el fin de la energía radial, ellas son síntesis que ocurren en el tiempo. Hemos visto cómo Teilhard no solamente incorpora el descubrimiento de Einstein, del tiempo como una cuarta dimensión dentro de su teoría, sino que discute que este es el sine qua non de la energía radial. El punto Omega, por consiguiente, es una síntesis; a diferencia de la síntesis Hegeliana, la cual es solamente el resultado de la dialéctica entre la tesis y la antítesis, la síntesis que Teilhard propone se parece a la solución temporal de San Agustín, donde los tiempos del verbo se conjugan en la eternidad.

Si el punto Omega parece problemático hasta aquí, es porque se encuentra como el corolario del sistema teilhardiano, por lo que para entenderlo, uno debe entender no solamente el resultado de su modelo, sino que no debe uno extraviarse en las recomendaciones científicas, por lo menos en las actuales, que son solamente un paso para llegar a disciplinas más comprensibles. Para entender el punto Omega tenemos que considerar no solamente la historia cósmica y la concatenación de formas que previamente hemos visto, o la evolución de la vida orgánica, sino también la historia humana y su pensamiento. Después de todo, lo que Teilhard expone no es muy distinto a lo que otros actuales pensadores exponen cuando argumentan en favor de la unificación del conocimiento. Por lo tanto, voy a resumir los principios de la energía radial y después, cuando discuta sus consecuencias, trataré de explicar la importancia del punto Omega.

La energía radial es una energía no muy diferente a las otras cuatro energías de la naturaleza. Como la gravedad, el electromagnetismo y las energías nucleares débil y fuerte, determina el comportamiento de las estructuras. Pero, a diferencia de la gravedad, cuyo poder influye solamente a través de las macroestructuras, o el electromagnetismo y las energías nucleares fuerte y débil, las cuales aparentemente norman el comportamiento de las estructuras atómicas, la energía radial es el catalizador que orquesta las funciones de cada energía.

La energía radial es constante. No decrece con la distancia y no está limitada por la velocidad de la luz. Ya hemos tocado el problema relativo a esta proposición. Si un agente va a controlar la función de las otras cuatro energías, si un agente va a determinar la manera en la cual se deben comportar las partículas, entonces debe alcanzar una velocidad supraluminal. Tal proposición se dirige en contra de la relatividad especial que dispone que nada pueda viajar más aprisa que la velocidad de la luz. Sugiero que los límites de la relatividad con respecto a la aceleración se apliquen a las macroestructuras; pero, ¿necesariamente la relatividad debe aplicarse al nivel subatómico? Permítaseme explicar un poco más. Hemos visto ya cómo, si la inflación tuvo lugar, fue necesario que el espacio se expandiera más rápido que la velocidad de la luz. Esto es posible aunque la relatividad no pueda aplicarse al nivel atómico. En su estupenda Relatividad de Escala, Laurent Nottale discute que la relatividad aplica tanto a nivel atómico como en las macroestructuras, cambiando de límites. De acuerdo a Nottale, la materia no se puede contraer en una singularidad, ni siquiera se puede contraer a una longitud límite (longitud de Planck, 1.6 x 10-35 m.) al menos no sin una cantidad de energía que tiende al infinito. Una energía mucho más grande que la que cualquier acelerador de partículas pueda proporcionar por ahora, este es el umbral en el cual la energía radial funciona. Aquí es donde los universos nacen y donde las formas que nos han permitido llegar a ser, surgen.

La energía radial se manifiesta a través de las formas que crea y no se podrá construir un super-colisionador en un futuro inmediato que pueda hurgar lo suficiente en la profundidad del átomo para revelarnos la energía radial que este contiene. Como discuto, esta se localiza dentro de la singularidad o, más bien como yo le llamaría, dentro de la singularidad de Planck. Necesitaríamos una energía que tienda a infinito para romper el átomo y explorar su energía radial. La tarea sería completamente innecesaria, puesto que podemos deducir los principios de la energía radial a través de las formas. A través de la naturaleza orbital del átomo y del sistema solar; de las estructuras helicoidales de las galaxias; del ADN; del momentum en la mecánica cuántica; del set de Mandelbrot, que se replica a sí mismo en geología y en bioquímica; de las series de Fibonacci, que se aproximan a las espirales del nautilus y a los patrones del girasol; o el ramificarse, que se manifiesta como en otras formas, en las tentativas de nuestro propio intelecto, ya sean éstas el Clavecín bien Templado de Bach, un Cuarteto para cuerdas de Bartok, el Partenon, o el Nacimiento de Venus de Boticelli. Esta última emergencia de formas naturales en nuestra vida intelectual no es ni accidental ni mimética, vale recordar que la energía radial no crea solamente formas, sino que estas formas son generativas, o como Holland las etiquetó, emergentes. El principio de estas formas es, por supuesto, la simetría. Ellas son invariantes, aunque lo suficientemente flexibles para acomodar nueva información y consecuentemente crecer más complejas.

La energía radial tiende hacia la complejidad porque se manifiesta mediante formas emergentes, a través de formas que dan más de lo que reciben, y porque estas manifestaciones tienen lugar en el mundo tetradimensional de la relatividad, donde el tiempo es tan importante como las otras tres dimensiones. A estas formas les están permitidas transformaciones. De hecho, parecen estar regidas por los principios de la misma evolución. Mientras conservan la forma, también sufren la innovación y la interacción con su medio.

A medida que las formas (a través de las cuales la energía radial se manifiesta) se transforman en sistemas más complejos, la libertad del sistema se incrementa. Esta es una proposición radical en muchos sentidos. Al principio puede parecer una proposición antropomórfica, especialmente cuando los sistemas bajo consideración son inorgánicos. Después de todo no se podría creer que alguien le pidiera a una roca o a un cristal que eligiera qué hacer. De cualquier modo, gracias a la física cuántica hemos empezado a comprender que, aun a nivel atómico existen grados de libertad. A nivel orgánico esta libertad, por supuesto, se incrementa. De este modo, con los vertebrados podemos hablar de voluntad y sentimientos. La última abstracción se queda corta para abarcar las muchas posibilidades que encaramos como seres sensibles, tanto, que yo pensaba que no habría sistema matemático que pudiera tabular estas elecciones, sus posibilidades y sus resultados dentro de un conjunto estadístico como se hace ahora para el átomo, pero después de leer un asombroso modelo propuesto por el Dr. Flavio Cocho Gil creo que es posible.

La flecha temporal de la energía radial se dirige en contra de la flecha termodinámica. Es decir, a diferencia de muchos sistemas en el Universo, incluyendo nuestros cuerpos y el Universo mismo, la energía radial no tiende hacia un alto desorden sino que tiende hacia el máximo orden, Hace que los sistemas se alejen del equilibrio. La energía radial será capaz de burlar el destino último que la entropía parece tenerle determinado al Universo, debido a que sus agentes son las formas. Estas formas, como hemos visto, en realidad todas las formas, son invariancias a través de las cuales la energía se preserva. Y por lo anterior, la acumulación de la energía radial reduce la duración del tiempo, por lo que fijarle una duración determinada a la vida de una estrella, de una galaxia o del Universo, tomando en cuenta solo la energía cuantificable, es audaz y absurdo.

La energía radial no solamente es acumulativa, no solamente se reúne en manifestaciones más complejas, también es convergente. Teilhard de Chardin entendió que la energía radial funciona dentro del continuo espacio-tiempo. Las formas de la energía radial son fenómenos espaciales. La manera en la cual las formas incorporan más información, se vuelve más compleja y dependiente del continuo temporal. El crecimiento de la complejidad, de cualquier manera, eventualmente converge. El punto de convergencia se refiere como el punto Omega, y puede ser entendido como una singularidad (un punto que a partir de la relatividad de escala podemos considerar finito) donde reside una cantidad de energía que tiende al infinito.

Conclusión

En las páginas siguientes voy a delatar mucho de lo que he anticipado. Sin embargo, aunque he discutido que la ciencia debe contextualizar sus descubrimientos de manera que tengan relevancia en nuestro diario vivir, intentaré establecer un paralelo entre las ideas de Teilhard con muchas de las actuales ideas y descubrimientos de la física y otras ciencias. Los lectores que discrepen con mi punto de vista y piensen que la física moderna no descubre orden sino desorden, probablemente desearán que explique con más detalle. Los lectores que estén de acuerdo con la primera parte del ensayo y que vean con dificultad la exposición sobre Teilhard de Chardin, probablemente me tomarán la palabra y me pedirán que le dé relevancia a mis ejemplos. Trataré de darles gusto más adelante, y para hacer esto espero convencer de lo anterior, mientras intento responder la siguiente pregunta: ¿si es verdad que la física moderna, como otras ciencias, está confirmando las ideas que Teilhard expuso hace más de 60 años, cómo es que esto nos afecta como individuos, como sociedad, como cultura?

Para contestar la pregunta, quisiera ir a la deriva un poco más allá de la ciencia para proveerme con un esquema, con un perfil. A través de su trabajo, Kierkegaard exploró tres materias, conocidas como la trinidad Kierkegaardiana. Las materias son teología, estética y ética. A diferencia de otros sistemas psicológicos o filosóficos que han intentado dividir la psique humana, Kierkegaard me parece certero a mí. Como humanos, hemos estado preocupados por las cuestiones estéticas, teológicas y éticas. No existe una jerarquía para estas categorías. La gente, aunque no acostumbre leer poemas frecuentemente, aun cuando una pintura les sea irrelevante, sigue preocupándose por la belleza. Soy el primero en sostener que los medios masivos y su hija favorita, la publicidad, han degradado nuestros valores estéticos. Esta degradación no necesariamente supone que estos valores hayan desaparecido. Por el contrario, si los medios masivos y la publicidad han sido exitosos, es debido al hecho de que juegan y utilizan las necesidades estéticas de la gente. Incluso si una versión degradada de la original (el modelo de algún perfume bautizado obscenamente) llena la misma función que realizó la Venus de Boticelli hace algunas centurias.

Una cosa similar se puede decir acerca de la teología. La gente sigue, cada persona sigue preguntándose la cuestión acerca de su origen y destino y mientras la cuestión continúa sin responderse, la mayoría de la gente remienda el hueco que el enigma deja, confiando en charlatanes o comprando fáciles y rápidas filosofías y religiones. La necesidad tanto de redención como de trascendencia es universal. Fuera de contexto, el cuadro que emerge del universo en el último siglo es el de un frío y prohibido lugar donde nos encontramos enajenados. Me puedo aventurar a especular y decir que muchos de los descontentos de este siglo son consecuencia de esta enajenación y de los beneficios que muchos charlatanes de ella han explotado.

Como la estética y la teología, la ética sigue siendo un aspecto central de nuestras vidas. Sin embargo, en el discurso público, o al menos en el discurso público que los medios masivos difunden, la ética ha sido relegada a la jurisprudencia y a la religión. Si la gente recurre a cualquiera de los dos, es para reafirmar su sentido del bien y del mal, para adquirir una guía de cómo tratarnos los unos a los otros. Esta necesidad es tan aguda que la mayoría de las narrativas populares contemporáneas tienen lugar en un juzgado, y uno de los autores de best sellers de la década, John Grisham, ha hecho una fortuna dramatizando situaciones donde los conflictos se resuelven a través de la ley, a pesar de la corrupción y manipulación intrínsecas en sus tramas. Por el mismo tenor, el único avance en la ciencia que se ha vuelto noticia general es el relativo a la ingeniería genética. La ingeniería genética no está en las primeras planas porque la gente esté particularmente interesada en los cromosomas o en la microbiología; lo está, porque suscita cuestionamientos éticos y morales, los cuales a menudo son respondidos no por los científicos que están haciendo el trabajo, sino por las figuras políticas o religiosas.

Entonces permítanme replantear mi pregunta: ¿si es verdad que la moderna física, así como otras ciencias, están confirmando muchas de las ideas que Teilhard de Chardin expuso hace más de 60 años, cómo debe esto afectar a nuestro mundo ético, teológico y estético? Empezaré dirigiéndome al marco ético. Por siglos, la ética se manifestaba a través de las regulaciones de la vida social. Ya fuera que sus preceptos emergieran de los 10 mandamientos o de un código legal, sus premisas eran para proveer una guía que pudiéramos utilizar para interactuar unos con otros. Muchos pensadores, empezando por Nietzsche, señalaron que tales códigos morales o éticos estaban escritos por grupos hegemónicos intentando principalmente controlar el comportamiento de sus súbditos. Entre todos nuestros códigos éticos pocas veces hubo alguno que no intentara lo anterior.

Como hemos visto, Teilhard y la nueva física parecieran confirmar las ideas que nos colocan en el último peldaño de la escalera evolutiva. Lo anterior aparentemente es un lugar común. No obstante, tenemos que colocar esto en un contexto para entender su importancia. A través de los siglos, soportado o no por la religión o por la ciencia, los humanos han creído en su superioridad. Prácticamente, esta exigencia de la superioridad ha probado ser atroz. Nos ha dado licencia para abusar de todo lo que se encuentra a nuestro alrededor incluyendo a los otros humanos. El occidente ha sido el paradigma de esta ideología. Hemos conquistado pueblos, exterminado etnias y allanado bosques mientras nos asignamos el rol de escogidos y de superiores. La ciudad donde yo vivo es uno de los más arrolladores resultados de esta ideología. Soy parte de la última generación que fue capaz de apreciar la Ciudad de México como un valle. Donde crecí, todavía existían lagos y ríos y las montañas de su alrededor eran todavía visibles, y de acuerdo a las crónicas, anteriormente fue uno de los más hermosos valles que pudiera uno contemplar, con un clima ideal y un cielo transparente donde noche a noche se podían contemplar claramente las estrellas. De hecho, he estado en muchos valles alrededor del mundo y puedo aventurarme a aseverar que el valle donde yo crecí era no solamente el más bello, sino el más exitoso como un ecosistema. Sin embargo, a partir de la conquista, y más aceleradamente alrededor de los años 50, cuando México brincó a la carreta del progreso, los planificadores decidieron entubar los ríos y secar los lagos. Mis hijos ahora se transportan en unas congestionadas avenidas sobre lo que alguna vez fueron ríos. Las cuencas de los lagos pasaron a ser colonias de bajos ingresos y sus habitantes sufren, como toda la ciudad, insoportable contaminación de polvo y heces fecales que nadie ha sido capaz de remediar. El crecimiento y el progreso que los políticos nos vendieron en los años 50 ciertamente se está pagando con altos intereses. La ciudad de México, como cualquier lector sabe, ha provocado más titulares ambientales que cualquier otra ciudad en el mundo.

El daño irreparable hecho a nuestra ciudad es imposible de detener desde una ideología de progreso no muy diferente a la que arrasó los bosques madereros del medio oeste norteamericano. Sus protagonistas se vieron como hombres que tenían ciertas misiones que cumplir porque ellos eran de alguna manera superiores. Desde entonces estamos viviendo las atroces consecuencias de tal ideología. Muchos notables pensadores en nuestros días están intentando cuestionarse nuestra posición jerárquica en la escalera evolutiva. Gente como Stephen Jay Gould argumentan que no solamente no hay un plan discernible en la evolución, sino que nuestra inteligencia (esa cualidad que nos permite asumir nuestra superioridad) es meramente una adaptación que no garantiza primacía. Gould está instrumentando la ruina del andamiaje que a través de los años ha sustentado la jerarquía evolucionista. Como he señalado, sus razones son ideológicas y su ideología es bien intencionada, sin embargo, su argumento antijerárquico puede ser tan perjudicial como el jerárquico al cual está tratando de quitarle los humos. Como todos los intentos similares, no solamente nos esta robando nuestra humanidad, sino también nos esta robando nuestro asombro y respeto por la naturaleza. El nos sumerge en una máquina nihilista donde no hay consecuencias porque no existe ni plan ni propósito, sólo oportunidad y accidente.

Yo repito. Si vemos el progreso de las moléculas inorgánicas a las moléculas orgánicas y a los organismos complejos como nosotros, es imposible dejar afuera completamente la jerarquía. Somos parte de una cadena. De cualquier modo, a través de la ciencia hemos obtenido un entendimiento bastante exacto de cómo esta cadena progresa, pero más importante es que estar al final de ella no significa que nuestros vínculos no dependan de eslabones previos. La ciencia nos ha enseñado que funcionamos dentro de ecosistemas, que dependemos de los ríos que hemos entubado, de los lagos que hemos secado, de los bosques que hemos talado; y pese a nuestro conocimiento y a nuestros códigos éticos seguimos reglamentando lo bien intencionado de un orden social, así como los pocos beneficios obtenidos del cultivo y la construcción. Nosotros no sólo necesitamos un código ético que intente igualar la diferencia de clases, necesitamos un código ético que se puede extender más allá de las cortes donde los jueces deciden cuál es el comportamiento adecuado y cuál no.

La ética es fiel a sus consecuencias. Los 10 mandamientos o las leyes, cualquier código que adoptemos, prohíbe cierta clase de comportamiento o acto de acuerdo a las consecuencias que acarrea. Tal como la vieja ética define las responsabilidades que tenemos hacia otras gentes, la nueva ética debe colocarnos en un contexto mayor, un contexto que regule no solamente nuestro comportamiento social, sino el comportamiento hacia nuestros recursos. Esto viene a ser eminentemente claro en la manera en que los medio masivos nos mantienen informados, malamente, acerca de la causalidad de nuestras decisiones. Permítanme hacer una explicación simple: Yo estoy escribiendo esto al final de una desastrosa semana en los mercados mundiales. Hoy, cada editorial menciona recesión y depresión. La crisis empezó hace varios meses, cuando los mercados asiáticos se colapsaron. Sin embargo los economistas, sabiendo que este colapso podría afectar las economías occidentales, (cuando la economía rusa empezó a comportarse de igual manera la semana pasada) se mostraron extrañamente fríos, pretendiendo que el mercado ruso no afectaría más allá que lo concerniente a su ámbito doméstico. Esta aceleración probó ser grandemente inapropiada. En nuestros días no importa cuan pequeño pueda ser el mercado que represente a un país: sus alzas y bajas afectan la economía global.

Por décadas, los economistas han adoptado el caos matemático para predecir el comportamiento de los mercados, el caos predice el comportamiento de los sistemas estudiándolos como fenómenos a largo plazo. En otras palabras en vez de aislar un sistema, sea este sistema un mercado o un fenómeno meteorológico, lo cual es irrelevante, el caos encuentra una cadena de causa y efecto muy extendida en el tiempo. De esta manera, el caos sería útil para estudiar ecosistemas en lugar de sólo patrones y mercados. Hemos crecido muy acostumbrados a estos efectos de largo alcance cuando leemos el comportamiento de los mercados cambiarios; sin embargo, hemos fallado completamente en entenderlos a un nivel ético. El mantra del caos matemático, la manera en que ha sido entendido y ridiculizado, ha sido a través de la frase cuando una mariposa bate sus alas en Japón, una mujer estornuda en Michigan. A pesar de su humor, la frase llama a ver la verdad de las premisas del caos. Nuestros actos tienen consecuencias en el largo plazo. Nosotros tenemos fe en todo lo que concierne a nuestra jurisprudencia, pero no aplicamos el mismo principio a nuestro comportamiento ecológico.

Por último, deberíamos llegar a entender que el lugar en la pirámide que Teilhard de Chardin discute, aunque nos coloca en el pináculo, es una pirámide interdependiente. Su jerarquía, a diferencia de la jerarquía expuesta para la gran cadena del ser, puede concedernos mayor libertad y mayor conciencia, pero no deja sin trabas a la ideología imperialista para sojuzgar a la naturaleza y a los demás. No, si la pirámide de Teilhard se interpreta correctamente, nos concede libertad en la misma proporción que nos da responsabilidad, es decir, nos da mayor conciencia en la misma proporción en que concede a nuestros actos mayores consecuencias. Esto es por lo que hemos alcanzado un nivel crítico. Nuestras acciones han tenido mayores consecuencias a medida que la conciencia se ha incrementado. Por lo que, si no canalizamos esta conciencia dentro de un sistema ético que considere no solamente nuestro comportamiento hacia otros seres, sino también hacia el planeta, las consecuencias serán fatales.

Nosotros tenemos ya amplia evidencia de estas consecuencias. Algunas han entrado a la corriente principal de la cultura. Todo mundo esta consciente de que al afectar la capa de ozono y las selvas tropicales, hemos hecho estragos en nuestro sistema meteorológico. Esta semana el gobierno Chino admitió que las desastrosas inundaciones de la temporada son debidas a los errores ecológicos. Todavía algunas de estas consecuencias siguen siendo microscópicas. Se están mostrando en la piel de las ballenas, lo que es indicio de los estragos que los desechos químicos de nuestra cultura hacen en la zona de los océanos donde estos grandes mamíferos se alimentan.

¿Será posible revisar nuestros códigos éticos? Los pesimistas, por supuesto dicen, no. Si tienen razón, no es porque no sepamos como reformar estos códigos éticos, sino porque hay demasiados grupos interesados en impedir esta reforma. El veneno que muestran las células de la piel de las ballenas, el agujero que hemos perforado en la capa de ozono, los bosques de maderas tropicales que hemos arrasado, son actos sintomáticos de una cultura de consumo. Nada en esta cultura es sagrado. Los jefes de estado y las figuras religiosas se funden como cualquier otra figura pública tanto en los medios como en la sociedad. Las dos únicas cosas que todo mundo respeta son la avaricia y el beneficio. La mayor industria en el mundo no es una industria que manufacture algo, es la industria de la publicidad.

William Leach, en Land of Desire: Merchants, Power and the Rise of a New American Culture, uno de los mejores libros de historia de la última década, argumenta que la cultura de consumo como la conocemos no es un fenómeno reciente, y la sitúa posterior a la guerra civil norteamericana. Durante aquellos años, los fundadores de los conglomerados de ventas al menudeo hicieron todo lo posible por cambiar los más austeros valores que la sociedad tenía desde sus puritanos comienzos. Es impactante ver cómo John Wannamaker, en esa época el mayor detallista, transformaba su tienda cada Domingo de Pascua para que pareciera una iglesia. Eso es lo que las tiendas pasaron a ser. Mientras que en el pasado íbamos a las iglesias y a los templos en busca de consuelo, hoy manejamos hacia los centros comerciales en busca de un rápido remedio a nuestra depresión, comprando un nuevo aparato. De este modo, dice Leach, los "mercaderes" no solamente se las arreglan "para influenciar fundamentalmente la forma del espacio urbano", lo que los hace responsables no solamente del desastre ecológico urbano que relaté arriba, sino de corromper las estrategias de la religión en orden de borrar sus principales valores, a tal extremo que en nuestros días emergen nuevas religiones exponiendo los principios de la cultura comercial en vez de aquellos de las viejas religiones. En lugar del sentido responsable de la vida que las viejas religiones expresaban, el cual adaptó a muchas grandes mentes hacia una vida del intelecto y del espíritu, a una vida de justicia, compasión y paz, tenemos religiones que queremos orientar, de manera optimista a ser alegres. Religiones que como el consumismo, han borrado la palabra consecuencia de sus diccionarios.

He resbalado de la ética a la teología. El desliz es muy natural. Nuestros códigos éticos, así como están representados en los códigos legales, provienen de principios religiosos. De ninguna manera intento hacer aquí un tratado teológico. Mi meta es mucho más humilde. Sólo quiero argumentar que si tomamos el progreso de la ciencia a través de este siglo y lo vemos en un esquema formalista como lo hizo Teilhard de Chardin, no es difícil ver que estamos en la cima de la jerarquía a la cual no solamente debemos nuestra existencia, sino de la cual seguimos dependiendo. Si estoy en lo correcto, necesitamos un nuevo código ético que regule nuestro comportamiento hacia cada uno de los seres que soportan esa pirámide. Esto no sucederá mientras que las únicas cosas sagradas en nuestra cultura sean el beneficio económico y el consumo.

Muchos pensadores han argumentado en nombre de la cultura de consumo, reivindicando sus concesiones a la libertad, su fomento a la democracia y negando que sea anárquica o epicúrea. Pienso que están equivocados. Filósofos, como Marcuse y Adorno, han mostrado que el mercado es totalitario y antidemocrático. Si el consumismo no ha hecho nada, por supuesto que no es anárquico o epicúreo. Por el contrario, nos ha vuelto solipsistas (yo soy el único ser y el universo no es nada más que el conjunto de mis representaciones actuales y posibles). Cada producto corta nuestros lazos con otros y con la naturaleza. La música es un caso para apuntar: Hace un siglo las familias se centraban alrededor de una sala y la sala alrededor de un instrumento musical, comúnmente el piano. Las familias hacían música juntos y su vida social giraba alrededor de esa música. Con la invención del gramófono, el ubicuo piano perdió su lugar y fue reemplazado por una máquina que hacía la música. El hacer música, una destreza que en años recientes ha probado ser necesaria para otras destrezas intelectuales, se perdió; mientras que antes de un siglo el gramófono perdió su lugar, y el escuchar música ha pasado a ser una actividad solitaria, una actividad cuyo epítome es el walkman. Nosotros perdimos, en otras palabras, una de las más grandes formas de actividad intelectual comunal, los conciertos públicos y privados.

El walkman es, por supuesto, uno de los menos perniciosos de nuestros productos. Nos aísla del mundo, pero no nos aísla tanto como la TV y la computadora. No quiero ser ridículo. Yo aprecio mis CD tanto como cualquiera. Yo escribo, investigo y calculo en una computadora. Lo que yo critico es la manera en la cual los aparatos no solamente nos separan del mundo que nos rodea, sino que nos impiden pensar. Como el pianista Russell Sherman argumenta en su maravilloso libro Piano Pieces:

La vida imaginativa ha sido expropiada por dos fuerzas diferentes pero complementarias: El Gran Guiñol de la cultura contemporánea y el laboratorio de investigación de mercados.
 

De hecho, si existe un común denominador de la cultura de consumo, este es el anti-intelectualismo. Sus productos fomentan una vida anti-imaginativa y anti-intelectual; su propaganda lo hace también. Por lo que la alta forma de conciencia que nos colocó en la cima de la jerarquía evolutiva se está atrofiando. Canjeando los principios de la mente y el espíritu los cuales han normado mucho en otras épocas, por los principios de la satisfacción inmediata inherentes a la cultura de consumo, podemos estar no solamente dando de patadas a nuestro papel natural sino también despilfarrando el modelo primario que nuestro intelecto ha desarrollado de la naturaleza misma. Permítanme explicar: Peter Stevens, en su libro Patterns of Nature afirma que el serpenteo es uno de los patrones elementales que se replica en el mundo natural. Por serpenteo, Stevens trata de significar que la naturaleza, en su progreso hacia sistemas más eficientes altera sus modelos iniciales, haciendo de ellos, para usar la terminología que he venido adoptando, sistemas más complejos. Como un producto de la naturaleza nuestras mentes siguen la misma alteración en orden de adquirir su meta. Nuestros más grandes logros intelectuales imitan a la naturaleza y a las circunvoluciones del intelecto mismo. Esto lo podemos oír en las fugas de Bach, en las rimas de Dante, en las tramas de Shakespeare, lo podemos observar en los paisajes de Turner y habitarlas al colocarnos bajo la cúpula de Chartres. Y no es accidente que esta corta lista de logros intelectuales represente cosas de las cuales empresarios y publicistas no se han podido apropiar. Podrán tomar los primeros intensos compases de la quinta sinfonía de Beethoven o un pasaje de su novena sinfonía y convertirlos en unas piezas de basura cultural con objeto de vender sus productos, pero con esto no pueden crear un público que llene las salas en temporada de conciertos. De hecho, las salas de concierto están desiertas; la venta de libros va en descenso; los museos están constantemente persiguiendo fondos y existe un proyecto para recortar miles de científicos en los Estados Unidos para el año 2,000. ¿Por qué? Porque el trabajo del intelectual, esa cristalización de nuestra alta conciencia, trabaja en principio contra los valores que el consumismo expresa; en parte por su contenido y en parte también, porque a diferencia de la cultura de consumo y de acuerdo con otros productos de la naturaleza, este trabajo tiene lugar, no en el mundo virtual que los medios masivos habitan, sino en el tiempo y el espacio.

Así que, si vamos a revisar nuestra ética, tenemos que recuperar los valores de la mente y el espíritu una vez más y descartar nuestra hambre de satisfacción inmediata que es la antítesis de tales valores. Esto quizá no es una teología pero puede ser un antídoto para que las futuras generaciones no vivan en una realidad deformada y ajena donde la información procesada, las imágenes horripilantes, las ideas adquiridas de basura fugitiva, sean los mayores impedimentos en el intento para establecer un entendimiento de nuestro papel en la sociedad y en la naturaleza. Intento precisar este papel colocando a los humanos en un continuo cuya principal verdad sea la adquisición de una alta conciencia. Creo que el fin de esta verdad evolucionista es una energía radial purificada, o para usar un término más común, un alta forma del espíritu. Existe una muy importante evidencia y yo espero haber llamado la atención sobre ello.

Un completo cambio de valores no tendrá lugar hasta que tratemos de remediar la enajenación de la naturaleza que, como Alexis Carrel argumentó, está enraizada en el hecho de que el ambiente en el cual nuestra mente y espíritu florecieron ha sido substituido. Esta substitución puede ser más fácilmente entendida mediante el último aspecto de la trinidad Kierkegaardiana, la estética. Durante un discurso, el crítico victoriano John Ruskin tomó una reproducción de una pintura de Constable y comenzó a mancharla con un carbón. "Esto, dijo, es lo que la revolución industrial ha hecho con nuestro paisaje". Esta demostración cumplió dos propósitos. Primero, fue capaz de mostrar el dilema estético con el cual el arte industrial tendrá que vivir. Si la naturaleza, nuestra principal fuente de alimento estético, es destrozada ¿a dónde recurriremos para inspirarnos? Segundo y más importante, mostró cómo los errores éticos de la industrialización (los cuales ya he discutido) han deshecho lo que tal vez sea la hazaña más grande que hemos logrado como humanos: el intentar unificar el intelecto con el espíritu a través del arte.

De hecho, si existe una fuente de enajenación de la naturaleza en nuestros días, su más descarada manifestación puede ser la estética. Como R. Murray Schaffer ha demostrado en su libro The Tuning of the world, nuestros sentidos, mediante los cuales nos conectamos con el mundo, han sido atrofiados por un nuevo sonido ambiental, el cual es un subproducto del emergente paisaje comercial e industrial. La razón por la cual el libro de Schaffer es tan instructivo es porque, aislando las particularidades de un sonido ambiental, no solamente muestra que hemos sido removidos de nuestro entorno natural, de nuestra natural cadena, sino que precisa las consecuencias intelectuales y psicológicas de tal enajenación. De acuerdo a Schaffer, el paisaje preurbano, preindustrial, estaba dominado por sonidos que eran importantes a causa de su individualidad. El sonido ambiental de los antiguos era el de la naturaleza. En la era preindustrial uno podía oír la caricia del agua, la variación vocal del viento:

Cada sonido ambiental natural tiene su propio y único tono y a menudo este es tan original que constituye una marca de sonido. La más impactante marca de sonido geográfico que he escuchado fue en Nueva Zelanda. En Tikitere, Rotorua, grandes campos de sulfuro hirviendo, extendiéndose sobre acres de tierra eran acompañados por extraños retumbos y gorgoteos. El lugar es una pústula dolorosa en la piel de la tierra con sonidos infernales, efectos de la ebullición a través de aberturas.
 

Uno de los principales argumentos de Schaffer es que con la urbanización, no sólo hemos perdido los sonidos ambientales como el que describe sino también muchos de nuestros mitos, mucho del mundo imaginativo que tales sonidos ambientales fomentan. En el sonido ambiental urbano, industrializado, en lugar de sonidos que se distinguen por su individualidad, tenemos sonidos que se distinguen por su cantidad y dominio, donde las señales acústicas individuales son obscurecidas por la densa población de sonidos.

Los sonidos ambientales de baja y alta frecuencia fueron introducidos por la revolución industrial y fueron extendidos por la revolución eléctrica que siguió. Los sonidos ambientales de baja y alta frecuencia se originaron con la congestión de sonidos. La revolución industrial introdujo una multitud de nuevos sonidos con infelices consecuencias para muchos de los sonidos naturales y humanos, a los cuales tienden a obscurecer; y su desarrollo se extendió a una segunda fase cuando la revolución eléctrica añadió por su parte nuevos efectos e introdujo aparatos para empaquetar los sonidos y transmitirlos esquizofónicamente a través del tiempo y el espacio para amplificar su vida o multiplicar su existencia.

Hoy el mundo sufre de una sobrepoblación de sonidos; hay tanta información acústica que poca puede emerger con claridad entre el sonido ambiental de alta y baja frecuencia, la relación señal-ruido es uno a uno, y ya no es posible saber si algo debe ser escuchado.
 

No faltará quien piense que esta revolución en nuestros sonidos ambientales es solamente un incidente aislado que no amenaza nuestra psique. Habrá otros que argumenten que el cambio en el sonido ambiental es solamente un cambio cosmético. Pero cuántos no nos hacemos añicos los nervios después de manejar en cualquiera de las calles de nuestras ciudades y después, por si eso fuera poco en nuestras casas y oficinas, las bajas frecuencias de refrigeradores, aires acondicionados y otros múltiples aparatos, hacen constantemente el poder pensar, si no imposible por lo menos discontinuo. Últimamente nos hemos entrenado para interrumpir nuestro mundo del sonido. Y una de las más graves consecuencias de esta respuesta automática es que nuestro sentido del oído, una de nuestras principales conexiones con el mundo, ha perdido su habilidad como una de las fuentes del pensamiento.

La destrucción del sonido ambiental es, por supuesto, solamente una de las maneras en las cuales la distorsión de una de nuestras fuentes estéticas ha venido a ser evidente. Puedo afirmar que cada sentido, y por cada sentido debemos entender cada manera en la cual nos conectamos con el mundo a nuestro alrededor: la vista, el olfato, el oído, el tacto y el sabor, se han atrofiado. La consecuencia de esta atrofia no es solamente cosmética; está escatimando nuestro desarrollo. Después de todo, la adaptación de un organismo a estímulos externos, es parte de la evolución y es a través de los sentidos que respondemos y nos adaptamos a los estímulos exteriores. En los humanos, parte de esta adaptación ha emergido a través de la cultura, a través del procesamiento y documentación de la percepción que tenemos del mundo. Mucha de esta documentación ha ocurrido gracias a un impulso estético. Después de todo, nosotros conocemos a los antiguos humanos a través de su cerámica y de sus Lascaux; Conocemos la cultura griega a través de La Iliáda y La Odisea. Los sentidos han sido vitales para esta documentación. Como el antropólogo Clifford Geertz ha discutido en su ensayo The Impact of the Concept of Culture and the Concept of Man reunido en su libro The Interpretation of Cultures: "La cultura no es un añadido a nuestra especie. No es un elemento cosmético a nuestro ser."

En vez de ser un añadido a un animal casi terminado, el habla....... (la cultura) fue un ingrediente y un ingrediente central en la producción de tal animal. El lento, regular, casi glacial crecimiento de la cultura a través de la Edad de Hielo, alteró el balance de las presiones de la selección para el desarrollo del Homo, de manera que éste jugara un mayor papel directivo en su propia evolución. El perfeccionamiento de herramientas, la adopción de la caza organizada y las prácticas de recolección, el principio de una verdadera organización familiar, el descubrimiento del fuego, y en tono más crítico, aunque es todavía extremadamente difícil trazar lo nuestro en detalle, el incremento en la dependencia de sistemas de símbolos significativos (lenguaje, arte, mito, ritual) para orientación, comunicación y autocontrol, todos crearon para el hombre un medio ambiente nuevo al que fue obligado adaptarse. A medida que la cultura se desarrollaba y se acumulaba paso a paso, infinitesimalmente, una ventaja selectiva se les daba a aquellos individuos de la población más capaces de tomar ventaja de ello, el cazador efectivo, el persistente recolector, el experto fabricante de herramientas, el ingenioso líder, hasta que el pequeño cerebro del protohumano Australopitecus llegó a adquirir un gran cerebro (sic), a ser un completo humano, un Homo Sapiens. Entre golpeteos culturales, el cuerpo y el cerebro crearon un eficiente sistema retroalimentado, en el cual cada uno determinaba el progreso del otro, un sistema en el cual la interacción entre el incremento del uso de herramientas, el cambio de la anatomía de la mano, y la representación del pulgar ampliada en la corteza cerebral, es solamente uno de los más gráficos ejemplos. Sometiéndose al dominio de programas simbólicamente mediadores para producir artefactos, organizar su vida social o para expresar emociones, el hombre determinó, aunque inconscientemente, las etapas que culminaron su propio destino biológico. Muy literalmente: aunque inadvertidamente, se creó a si mismo.
 

He citado ampliamente a Geertz porque, en sus párrafos, es capaz de mostrar cómo la estética, o cualquier rama del conocimiento codificada a través del lenguaje, ya sean números, expresiones faciales o cualquier símbolo y sistema intelectual sobre la materia, ha sido crucial para nuestra evolución. Estos sistemas simbólicos han determinado nuestro camino biológico y son la mayor prueba de que como sistema complejo tenemos gran libertad.

Estamos en este momento en nuestra historia, porque las ciencias se han retirado de la cultura y porque nuestra cultura ha sido reducida a un efímero murmullo de medios masivos hasta un punto crítico ¿Podremos continuar nuestra evolución o nos estancaremos como especie? Teilhard de Chardin y otros pensadores como Christian de Duve han entendido que la evolución no sólo es un hecho en nuestras vidas, sino que es el proceso para llegar al propósito del cosmos. Si nos desarrollamos o no, la vida continuará. Para usar una imagen que el poeta norteamericano Rodney Jones usa en uno de sus poemas: Y pienso ahora/ cómo el planeta puede volverse contra nosotros/ como cuando un dedo se levanta del vaso/ y el agua recobra su forma. La evolución no parará con la muerte o la extinción del Homo Sapiens. De cualquier manera está definitivamente en retroceso, un irreparable retroceso para ambos, para él y para la naturaleza. Y si queremos revertir este retroceso, nuestra única herramienta es el progreso de la cultura, no en la manera especializada en la cual la cultura se ha desarrollado desde el Renacimiento, sino de una manera integrada, para que la conciencia llegue a ser no solamente unificada sino que alcance lo más alto y podamos, como especie, asistir a la consecución del objetivo del Universo.
 

(NOTA 1) Del libro en elaboración, AGUDELO Murguía Guillermo et. al. La cultura del engaño y otros ensayos Copyright Guillermo Agudelo 2006
[al texto]
(NOTA 2) LEDERMAN, Leon. The God Particle. If the universe is the answer, what is the question?. Dell Publishing. New York 1993. p. 382. Leon Lederman es el descubridor de varias partículas subatómicas y compartió el Premio Nobel de física en 1988
[al texto]
(NOTA 3) SMOLIN, Lee. The Life of the Cosmos. Oxford University Press. New York. 1997 p. 25
[al texto]
(NOTA 4) PENROSE, Roger. La Mente Nueva del Emperador. En torno a la cibernética, la mente y las leyes de la física. Consejo Nacional de Ciencia y Tecnología. Fondo de Cultura Económica. México. Traducción de José Javier García Sanz. 1a reimpresión. 1996.
[al texto]
(NOTA 5) GUTH, Alan H. The Inflationary Universe. The quest for a new theory of cosmic origins. Addison-Wesley. Reading, Massachusetts. 1997
[al texto]
(NOTA 6) TEILHARD DE CHARDIN, Pierre. El fenómeno humano. Taurus Ediciones. Traducido por M. Crausafont Pairó Madrid 1963 p.104
[al texto]
(NOTA 7) Ibíd.. p. 311
[al texto]


--
virgilio