Para guardar la imagen elige dónde vas a guardarla y seguido da click en la o las imágenes deseadas.
Para dar Zoom o Fijar la imagen sigue el mismo procedimiento.
-----------------------------------------------------------
Slide 1     Slide 2     Slide 3










Header
-----------------------------------------------------------
Dar Zoom a la Imagen
Fijar la Imagen de Fondo
No fijar la Imagen de Fondo
-----------------------------------------------------------
Colocar imagen en Header
No colocar imagen en Header
Mover imagen del Header
Ocultar Mover imagen del Header
Ver Banco de Imágenes del Header

Imágenes para el Header o Cabecera
T E M A S










FRONTERAS II (Isaac & Janet Asimov)

Publicado el domingo, julio 11, 2010
Título original: Frontiers II

A la memoria de mi querido esposo Isaac Asimov

Índice de autores
Isaac Asimov es autor de las tres cuartas partes de los artículos.
Artículos, por Isaac y Janet Asimov:
El poder de las proteínas • Cooperación vital • Izquierda, derecha • Genes en acción • La belleza de los microbios • El encanto de la diversidad • Ruido • El fenómeno de los Parques • Siempre la música • La utilidad de lo pequeño • Actualización de las Galaxias.
Artículos, por Janet Asimov:
Herencia ósea • Dinopaseo • Recuperados y vueltos a desaparecer • Material cabezón • Manto y núcleo • Agua: la circulación inferior • Aire: la circulación superior • Más sobre Venus • Marte para los humanos • Más sobre cometas • Nuestro propio sol privado • Procedente del Sol • Más sobre meteoros • ¡Basura! • Los bichos de dentro • Más sobre replicación • Nanomagia • Fullerenos fantásticos • El poder de las plantas • Ayudar a las plantas • Cucarachas y ordenadores • Otros tiempos y robots del futuro • El tango del agujero negro • Más allá de la realidad.

ÍNDICE TEMÁTICO
Artículos, por Isaac y Janet Asimov: 2
Artículos, por Janet Asimov: 2
ÍNDICE TEMÁTICO 3
INTRODUCCIÓN 6
PRIMERA PARTE VIDA: PASADO, PRESENTE Y FUTURO 7
EL PODER DE LAS PROTEÍNAS 8
¿LA PROTEÍNA MÁS ANTIGUA? 9
LAS DISTINTAS CLASES DE VIDA 9
EL CELACANTO, ¿ANTEPASADO DEL HOMBRE? 10
LA INVASIÓN DE TIERRA FIRME 11
AOVAR EN TIERRA 13
LO QUE NOS DESCUBREN LOS DIENTES 14
HERENCIA ÓSEA 15
DINOSAURIOS 16
LOS BRAZOS DEL MONSTRUO 17
DINOPASEO 18
DESAPARECER UNA Y OTRA VEZ 19
BALLENAS CON PATAS 20
MÁS MUERTO QUE UN DIDO 21
EL PRIMER CATALIZADOR 22
EL QUINTO REPTIL 24
UN ERROR SOBRE LA MARIPOSA VIRREY 25
LAS HORMIGAS Y EL REINO ANIMAL 26
EL ORNITORRINCO 27
EL AUTÉNTICO UNICORNIO 28
UN CABALLO DIFERENTE 29
MATERIAL CABEZÓN 30
EL AYEAYE 31
EL PARIENTE MÁS PRÓXIMO DEL HOMBRE 32
DOS HOMÍNIDOS, DOS DIETAS 33
LOS HUEVOS DE AVESTRUZ Y LA HUMANIDAD 34
PASAR A AUSTRALIA 35
COOPERACIÓN VITAL 36
IZQUIERDA, DERECHA 37
GENES EN ACCIÓN 38
GENES, ONCOGENES Y CÁNCER 39
LA BELLEZA DE LOS MICROBIOS 40
EL ENCANTO DE LA DIVERSIDAD 41
SEGUNDA PARTE NUESTRO PLANETA Y NUESTROS VECINOS 43
MANTO Y NÚCLEO 44
LAS ROCAS MÁS VIEJAS 45
MÁS ANTIGUO DE LO QUE PENSÁBAMOS 46
AGUA: LA CIRCULACIÓN INFERIOR 47
AIRE: LA CIRCULACIÓN SUPERIOR 48
EL LAGO MÁS PROFUNDO 49
LA GRAN FUSIÓN 50
ROCAS LUNARES 51
NUEVAS INCÓGNITAS SOBRE LOS PLANETAS 52
LA ATMÓSFERA DE MERCURIO 53
MÁS SOBRE VENUS 54
¿UN ASTEROIDE MARCIANO? 55
MARTE PARA LOS HUMANOS 56
LOS ANILLOS DE SATURNO 57
LA ATMÓSFERA DE TITÁN 58
LOS NOMBRES DE LOS SATÉLITES DE NEPTUNO 59
TRITÓN, EL ÚLTIMO SATÉLITE 60
LA MAYOR TORMENTA DEL SISTEMA SOLAR 61
UN SATÉLITE CALCULADO 62
UN COMETA EXTRAÑO 63
MÁS SOBRE COMETAS 64
NUESTRO PROPIO SOL PRIVADO 66
PROCEDENTE DEL SOL 67
PELIGRO CÓSMICO 68
¿«PLANETAS HELADOS» INVISIBLES? 69
ASTEROIDES A NUESTRO ALREDEDOR 70
ASTEROIDES GEMELOS 71
EL VIGILANTE DEL ESPACIO 72
MÁS SOBRE METEOROS 73
POLVO DE COMETAS 74
MINAS EN EL ESPACIO 75
TERCERA PARTE, CIENCIA Y TECNOLOGÍA 77
FALSA ALARMA 78
EL ENCOGIMIENTO DEL DELTA 79
¡BASURA! 80
LOS HABITANTES DEL CUERPO 81
MONSTRUOS 82
RUIDO 83
ENFRIAMIENTO 84
FABRICAR HIDRÓGENO 85
LA PRIMERA ETAPA EN LA SÍNTESIS DE LA VIDA 86
MÁS SOBRE REPLICACIÓN 88
NANOMAGIA 89
FULLERENOS FANTÁSTICOS 90
SUPERDIAMANTES 91
LOS MINEROS BACTERIANOS 92
EL FENÓMENO DE LOS PARQUES 93
LA SALVACIÓN DE LAS ESPECIES 94
EL PODER DE LAS PLANTAS 95
AYUDAR A LAS PLANTAS 96
BAJO TIERRA 97
LOS NEGOCIOS POR EJEMPLO 98
¿JAQUE MATE? 99
CUCARACHAS Y ORDENADORES 100
MINIRROBOTS 102
OTROS TIEMPOS Y LOS ROBOTS DEL FUTURO 103
SIEMPRE LA MÚSICA 104
CUARTA PARTE, EL UNIVERSO, DE LOS QUARKS AL COSMOS 106
LA UTILIDAD DE LO PEQUEÑO 107
LOS QUARKS Y LA ÚLTIMA PARTÍCULA 107
EL DESCUBRIMIENTO DEL QUARK 108
GLÓBULOS DE QUARKS 109
LOS ÁTOMOS DE UNO EN UNO 110
CÓMO MEDIR ELECTRONES 111
EINSTEIN ACIERTA UNA VEZ MÁS 112
EL PRINCIPIO DE EXCLUSIÓN 114
ELEMENTOS SUPERPESADOS 115
LO MÁS FRÍO POSIBLE 116
¡NO HAY ORO! 117
¿POR QUÉ ES OSCURO EL CIELO? 118
LUZ ESTELAR Y POLVO 119
LA CURVATURA DE LA LUZ 120
UN GIRO MINÚSCULO DE LA LUZ 121
MAPAS DE LAS ESTRELLAS 122
LOS DESCUBRIDORES DE PLANETAS 123
LOS CAMBIOS DE LA ESTRELLA POLAR 124
LA ESTRELLA DESAPERCIBIDA 125
EL COLOR DE SIRIO 126
UNA ESTRELLA JOVEN 127
LAS SUPERNOVAS I Y II 128
MEDIR LAS DISTANCIAS 129
CÚMULOS DE ESTRELLAS 130
NUESTRO NUEVO VECINO 131
ACTUALIZACIÓN DE LAS GALAXIAS 132
LA CONSTRUCCIÓN DE UN UNIVERSO 133
DEMASIADO GRUMOSO 134
PÚLSAR MILISEGUNDO 135
LUMINOSIDAD 136
¿MINIAGUJEROS NEGROS EN TODAS PARTES? 137
EL TANGO DEL AGUJERO NEGRO 138
¿QUÉ HAY EN EL CENTRO? 139
LA SOPA CÓSMICA 140
MÁS ALLÁ DE LA REALIDAD 141


INTRODUCCIÓN
El interés por la ciencia tiene muchas recompensas, pero la que más agradezco es la sensación excitante de situarme en la frontera. Mis antepasados formaron parte de los pioneros para los que la frontera americana supuso una experiencia vital. Esta frontera ha desaparecido, pero siempre habrá fronteras en todos los aspectos de la ciencia, puesto que resolver un problema científico abre horizontes que abarcan nuevos problemas para ejercitar la curiosidad y el pensamiento humanos.
A mi marido, Isaac Asimov, le gustaba la ciencia y escribir sobre ella. Los artículos de su columna científica semanal para «Los Angeles Times Syndicate» se recopilaron en Fronteras. Fronteras II contiene el resto de las columnas de Isaac y algunas de las mías. Empecé a escribirlas cuando Isaac se puso enfermo en el invierno de 1991-1992, y continué después de su muerte en abril de 1992.
A pesar de la exactitud de las predicciones, el futuro es desconocido, hasta que se convierte en presente. En este libro aparecen los descubrimientos científicos en marcha en la actualidad con la esperanza de estimular las imaginaciones al tiempo que aclaren un poco nuestro complicado mundo.
Janet Asimov

PRIMERA PARTE
VIDA: PASADO, PRESENTE Y FUTURO

EL PODER DE LAS PROTEÍNAS
«Proteína» es una palabra singular y una porción del Universo todavía más singular. Procede de un étimo griego que quiere decir «de importancia primordial», y así es, puesto que sin proteínas no habría vida.
Proteína fue el nombre sugerido por el empedernido acuñador de nombres de compuestos orgánicos, el químico sueco Jöns Jakob Berzelius. El químico holandés Gerardus Johannes Mulder siguió la sugerencia de Berzelius en 1839 cuando desarrolló una fórmula básica para los que en esa época se denominaban «compuestos albuminosos», como la clara del huevo (caseína) o la globulina sanguínea.
Los carbohidratos y las grasas proporcionan carbono, hidrógeno y oxígeno (en varias formas); pero las proteínas proporcionan además nitrógeno, azufre y a menudo fósforo. Las proteínas son complejas y sólo en la actualidad los científicos están descubriendo en toda su extensión estas formas complejas de la célula viva.
Los métodos antiguos de análisis orgánicos eran demasiado bastos para descifrar la estructura de las proteínas, pero permitían analizar sus unidades estructurales de aminoácidos formados por: un patrón básico de átomos de hidrógeno y nitrógeno; un grupo de átomos de carbono, hidrógeno y oxígeno, y un grupo radical de átomos que identifica a un aminoácido determinado.
Como resultado que otro químico sueco, Theodor Svedberg, inventara la ultracentrífuga en 1923 (por lo que le concedieron el premio Nobel), los científicos pudieron determinar los pesos moleculares de muchas proteínas, basándose en la velocidad de sedimentación. Los resultados fueron asombrosos, ya que se observó que algunas proteínas tenían pesos moleculares del orden de millones, lo que indicaba que su estructura era realmente compleja.
La tecnología actual ha ayudado a examinar la estructura de las proteínas: resonancia nuclear magnética, cromatografía, espectrofotometría, difracción de rayos X, etc. Se descubrió que, a pesar del gigantesco número de aminoácidos posibles en teoría, las proteínas presentes en la Tierra contienen sólo veinte variedades. Es bastante probable que un filón de otro planeta no sea igual que el terrestre.
Durante años, los científicos creyeron que lo que descubrían sobre las proteínas en sus tubos de ensayo era verdad para las proteínas de las células vivas, pero esto ha resultado ser algo presuntuoso. Preguntas sin respuesta sobre las proteínas celulares están acaparando la atención de los científicos, ya que parece que las proteínas no se pliegan, enrollan o rompen por sí mismas. Necesitan ayuda.
«Plegar» es la palabra clave. Los aminoácidos que componen una proteína deben ser ordenados correctamente para que cada componente ocupe su lugar y realice la función adecuada. No puede haber un átomo de nitrógeno moviéndose libremente, cuando debe estar ensamblado a algún otro. Mary-Jane Gething y Joseph Sambrook han descrito las interesantes funciones de ciertas proteínas celulares que ejercen de enlaces. Parece que su función consiste en: 1) ayudar a las moléculas de proteínas complejas a plegarse de forma adecuada; 2) estabilizar compuestos intermedios parcialmente plegados o proteínas inactivas; 3) reordenar las macromoléculas celulares que se unen y se disgregan; 4) proteger a las proteínas que padecen sobrecarga ambiental, y 5) decidir las proteínas que se deben destruir.
Todas estas investigaciones pueden parecer esotéricas, pero son de importancia vital. Estamos vivos, ¿por qué no saber todo lo posible sobre nuestra vida? Las nuevas investigaciones sobre proteínas de la biología molecular pueden permitir la comprensión y el tratamiento de varias enfermedades, incurables en la actualidad. Desarrollaría fármacos eficaces, diseñados para ayudar a las células a curarse a sí mismas y a prevenirse. Utilizando los «enlaces», la biotecnología podría ser capaz de producir proteínas humanas fundamentales, en cantidades impensadas en la actualidad.
También se describe a las proteínas como productores a la. manera de cadenas de montaje, como bombas de transferencia y como los motores que, literalmente, impulsan la vida. En una conferencia reciente, la pregunta crucial era: ¿cómo usa la energía química la fabricación de proteínas? Algunos piensan que el quid está en el cambio de forma, pero otros no están de acuerdo. Es difícil descubrir la verdad, puesto que, para entender cómo funcionan las distintas reacciones químicas, es necesario hacer un inventario de las partes implicadas, identificar los compuestos químicos intermedios de cada reacción, medir las constantes de velocidad para las transiciones y describir la estructura detallada de la proteína. Todavía no hay comprensión suficiente sobre cada una de estas etapas. Los bioquímicos y los biólogos moleculares continuarán con sus investigaciones sobre proteínas, así que mantengámonos al corriente. Cuando preguntaron a Freeman J. Dyson qué fue primero en la evolución de la vida, las proteínas o el ADN, respondió que las proteínas.
Entender las proteínas ayudará a la humanidad a profundizar más en los misterios, no sólo de la patología celular, sino del origen mismo de la vida.

¿LA PROTEÍNA MÁS ANTIGUA?
Es probable que las proteínas más antiguas sean las que fueron descubiertas en 1991 por un equipo del Laboratorio Nacional de Los Álamos en Nuevo México, dirigido por W. Dale Spall. Fue resultado del estudio de unos huesos. Los huesos son algo más que minerales muertos. Contienen estructuras complejas de proteínas que permanecen incluso después de la muerte del organismo. Naturalmente, las proteínas se descomponen lentamente, pero en determinadas circunstancias no lo hacen por completo.
Los huesos que han proporcionado las proteínas más antiguas (posiblemente) son en sí muy poco corrientes, ya que proceden del dinosaurio más grande y más largo descubierto hasta ahora. Es el «sismosaurio», la primera parte de cuyo nombre quiere decir «terremoto» porque se piensa que, cuando andaba, hacía temblar la tierra.
Este sismosaurio se encontró en una excavación en la zona central de Nuevo México y mide cerca de cincuenta metros de largo.
Naturalmente, una criatura como el sismosaurio tenía unos huesos enormes y recónditamente podían contener proteínas protegidas del mundo exterior. El equipo de Los Álamos perforó y extrajo una muestra de una de las enormes vértebras del sismosaurio y utilizó disolventes para deshacer la materia inorgánica del fósil. Encontró un material que parecía ser proteico de dos, o quizá tres, tipos distintos.
Si fuesen efectivamente proteínas dispuestas en las vértebras a la muerte del animal, podrían tener unos 150 millones de años. Lo cual es todo un récord, ya que las proteínas más antiguas con las que los científicos han trabajado hasta ahora sólo tienen 1 o 2 millones de años. Por desgracia, no había material suficiente para poder identificar las proteínas. En los huesos comunes, la proteína más común es la que se conoce como «colágeno», pero no era éste el material obtenido del sismosaurio. Si se pueden identificar aminoácidos en el material, entonces no hay duda de que lo que contiene son proteínas.
Por supuesto, siempre hay problemas. Por ejemplo, en los años sesenta cayeron meteoritos que fueron analizados y se descubrió que contenían aminoácidos. Naturalmente, al principio, se dio por sentado que esto eran señales de vida en los meteoritos.
Sin embargo, hay dos tipos de aminoácidos, L y D: los L-aminoácidos están presentes en los seres vivos, pero los D-aminoácidos no. Si los aminoácidos se hubiesen formado en los meteoritos por procesos químicos ordinarios, debería haber aminoácidos D y L en cantidades iguales. Esto resultó ser así, pero no era una prueba de la existencia de vida.
Cuando se observó caer a los meteoritos en cuestión, se analizaron enseguida. Los que habían estado en el suelo durante cierto tiempo pudieran contener L-aminoácidos, no porque mantengan alguna conexión con la vida, sino porque la Tierra está llena de L-aminoácidos. Existen en las aguas subterráneas y en donde quiera que haya organismos vivos. En consecuencia, los meteoritos se contaminan.
¿Era el material proteico obtenido de los huesos del sismosaurio resultado de esta contaminación? Spall sostiene que puesto que los huesos del sismosaurio estaban extraordinariamente bien conservados, la proteína podría estar sin contaminar por el agua subterránea, aunque admite que también existe esta posibilidad. Stephen A. Macko, un geoquímico de la Universidad de Virginia, ha ayudado a analizar el material proteico de huesos de dinosaurio y señala que, incluso si hay aminoácidos presentes, puede ser que no formen parte de las moléculas de proteína sino de otras sustancias.
Así que la situación sigue siendo incierta, pero sería de gran interés para los paleontólogos que el material fuera proteico y no estuviera contaminado. Si se acumula material suficiente, sería posible determinar el orden en que se disponen los aminoácidos y compararlo con el orden en otros tipos de dinosaurios, en reptiles vivos, en aves, etc. Macko señala que si se consigue esto, podrían descubrirse relaciones entre diferentes grupos de animales que, en la actualidad, no se puede determinar.
De esta manera, podremos formar un nuevo «árbol de la vida» más exacto que los que se establecen actualmente y que nos ayudaría a descubrir el curso del cambio evolutivo en tiempos primitivos.

LAS DISTINTAS CLASES DE VIDA
Recientemente, Carl Woese, un biólogo de la Universidad de Illinois, pergeñó un sistema nuevo de clasificación de todos los seres vivos en grupos y subgrupos. La división se basa en la estructura de las moléculas de ácido ribonucleico (ARN) de unos gránulos diminutos llamados «ribosomas», presentes en todos los seres vivos sin excepción.
Los ribosomas son los laboratorios vivos en los que se fabrican las proteínas, según las copias del ácido nucleico presente en todas las células, y la vida no puede existir sin proteínas. Los ribosomas deben de haberse formado en células muy primitivas, y las moléculas de ARN que los componen se han mantenido durante miles de millones de años experimentando cambios mínimos.
No obstante, se han producido algunos cambios menores. Por ejemplo, las moléculas de ARN están formadas por moléculas de menor tamaño, llamadas «nucleótidos». Cada molécula de ARN de los ribosomas tiene un arco en horquilla en determinado lugar. En este arco hay seis o siete nucleótidos. Las células con seis nucleótidos pertenecen a un gran grupo de organismos vivos. Hay algunas otras pequeñas diferencias que dividen a las células con siete nucleótidos en dos grandes grupos, habiendo tres en total.
Antaño, las formas de vida se dividían por su aspecto. Cuando jugamos a las «veinte preguntas», por ejemplo, seguimos dividiendo a las cosas en «animal, vegetal o mineral» porque consideramos que todos los seres vivos son animales o plantas. También hay formas de vida microscópicas, a las que se acostumbra considerar animales o plantas. A las amebas, por ejemplo, se las consideraba animales y a las bacterias, plantas.
Con el tiempo, a medida que se estudia a las células más de cerca, se descubre que hay dos clases de células fundamentales. En las más primitivas, las moléculas de ácido nucleico están esparcidas por toda la célula. Estas células forman el grupo de las «procariotas», que incluye a las bacterias, algunas con clorofila (lo que les permite vivir a base de energía solar) y otras sin ella. Otro tipo de célula más complejo y desarrollado tiene sus ácidos nucleicos situados en una pequeña zona diferenciada dentro de la célula conocida como «núcleo». A estas células se las denomina «eucariotas». Las plantas y los animales están formados por células eucariotas: las plantas tienen células con clorofila y los animales sin ella. Los seres humanos están formados por células eucariotas que, por supuesto, no tienen clorofila.
No obstante, todo esto se derrumba si, como hace Carl Woese, tenemos en cuenta la estructura molecular del ARN en los ribosomas. De las tres grandes divisiones, dos son formas de vida unicelular con células procariotas. (Las células procariotas nunca han desarrollado organismos formados por más de una célula). Una gran división de las procariotas se establece como «bacterias». A otra segunda gran división de las procariotas, Woese las denomina «Archaea», muy semejantes a las bacterias en apariencia, pero con ciertas características en sus moléculas de ARN que muestran una tendencia hacia las eucariotas.
Aparentemente, las Archaea han empezado a desarrollar características de eucariota y a partir de ellas evoluciona la tercera gran división de la vida, a la que Woese denomina «Eucarya». Son organismos compuestos de células con núcleo.
Los Eucarya son las únicas formas de vida que se han desarrollado en dirección pluricelular. Algunos Eucarya se transformaron en organismos formados por billones o incluso cientos de billones de células eucariotas (nosotros mismos somos un ejemplo de ello). No todos las tienen. De las seis principales divisiones de los Eucarya, tres son unicelulares.
De las tres restantes, dos tienen aspecto de plantas. Los primeros, sin clorofila, forman el grupo de los «hongos». La mayoría de ellos son unicelulares, pero hay formas pluricelulares como las setas. Los segundos contienen clorofila y son las familiares «plantas verdes». También algunas de ellas son unicelulares, como las algas, pero se originan formas gigantes como las secuoyas.
Para terminar, el tercer grupo de los Eucarya son los animales. Son, desde nuestro punto de vista, los más avanzados e incluye ballenas gigantes que pueden pesar hasta 150 toneladas. (Algunas plantas son incluso más pesadas, pero la mayor parte de un árbol está constituido por tejido leñoso de sujeción, que en realidad no está vivo, mientras que los animales están formados casi por completo de tejidos vivos).
En cierto modo esto nos pone en nuestro lugar. Desde la aparición de la vida hace unos 3.500 millones de años, ésta permaneció unicelular y procariota durante más de 2.000 millones de años. Desde hace unos 1.400 millones de años se desarrolló la tercera gran división, los Eucarya, y durante los siguientes 600 millones de años se conservó también como forma de vida unicelular.
Hasta hace unos 800 millones de años no empezaron a aparecer los primeros eucariotas pluricelulares y, al principio, sólo como distintos tipos de gusanos. Formas de vida tan avanzadas como los crustáceos marinos empezaron a desarrollarse desde hace 600 millones de años. Nosotros pertenecemos al subphylum Vertebrala, que hizo su aparición hace 500 millones de años. El género humano y todos los animales con los que está relacionado, incluso los peces más primitivos, son unos recién llegados a la Tierra.

EL CELACANTO, ¿ANTEPASADO DEL HOMBRE?
Tres científicos alemanes, Tomas Gorr, Traute Kleinschmidt y Hans Fricke, han informado de un parentesco que indica que los celacantos son los ascendientes directos de los tetrápodos. Los tetrápodos son «animales de cuatro patas» e incluyen a anfibios, reptiles, aves y mamíferos, y entre ellos el hombre.
El celacanto es un pez del que, sabiendo que existía en los días anteriores a los dinosaurios, se pensaba que se había extinguido hacía mucho tiempo. Entonces, en 1938, un pescador que echaba las redes en las costas surafricanas capturó una criatura extraña. La mostró a un ictiólogo surafricano, J. L. B. Smith, que lo identificó como un celacanto. Desde entonces se ha descubierto que estos peces viven en las Comores y los pescadores cogen alguno de vez en cuando. Los celacantos viven a una profundidad de 200 metros y se han llevado a la superficie un total de 170 especímenes. Por desgracia no pueden soportar la pérdida de presión del agua y sólo viven unas pocas horas en superficie.
En 1986, Hans Fricke, utilizando un submarino biplaza especialmente diseñado, logró descender lo suficiente para seguir a los celacantos en su ambiente y descubrió que podían nadar en todas direcciones, incluso hacia atrás y boca arriba. Fricke y sus dos colegas publicaron un artículo en mayo de 1991 en el que mostraban que la sangre de los celacantos tenía cadenas de aminoácidos muy parecidas a las equivalentes de los renacuajos.
Los anfibios son los tetrápodos menos avanzados, y los renacuajos son los menos avanzados de los anfibios. Salen del huevo con forma de peces minúsculos con aletas y branquias y sin patas. Hasta que los renacuajos se desarrollan, la cola no desaparece, las branquias no se convierten en pulmones y las patas no se forman.
Por consiguiente, si los renacuajos se parecen a los celacantos en sus cadenas de aminoácidos sólo cabe suponer que ambos están relacionados entre sí de alguna manera. Probablemente, los celacantos son los ascendientes de los renacuajos y de todos los demás tetrápodos, incluido el hombre. Aunque las cadenas de aminoácidos no aparecen en las ranas adultas, la relación entre celacantos y renacuajos es más estrecha que la de los renacuajos con cualquier otra criatura que podría haber sido un ascendiente de los tetrápodos.
Otro aspecto importante es que el celacanto tiene seis aletas, cuatro de las cuales se mueven por parejas. Fricke, al estudiar al celacanto bajo el agua, descubrió que estas cuatro aletas se movían de manera semejante a las extremidades de los animales de cuatro patas, pero no a las de los peces.
Como siempre en estos casos, la conexión entre el celacanto y los tetrápodos no es aceptada por todos los biólogos. Algunos alegan que las cadenas de aminoácidos se pueden interpretar de distintas maneras y no son, en ningún caso, una prueba de conexión.
En realidad, existe otro tipo de pez, el pez pulmonado, del que también se pensó durante mucho tiempo que se había extinguido, y que se recuperó en el siglo XIX. En la actualidad se conocen por lo menos seis especies de pez pulmonado.
El pez pulmonado tiene pulmones rudimentarios y puede, por lo tanto, tragar aire cuando es necesario. Es capaz de salir de aguas salobres y dirigirse a charcas mayores. Cuando esto no es posible, sobre todo en verano, se envuelve en barro y permanece mucho tiempo inmóvil durante la estación. A esto se le conoce como «estivación», que es paralela a la hibernación de otros animales. Algunos peces pulmonados llegan incluso a ahogarse si no están en posición de tragar aire de vez en cuando.
Algunos biólogos creen que los peces pulmonados son los ascendientes de los tetrápodos y que la presencia de pulmones es más importante que la presencia de aletas en los celacantos o de cadenas de aminoácidos. Hay muchas probabilidades de que la discusión no se resuelva durante mucho tiempo, pero yo me inclino por la teoría del celacanto. Me convence la idea de las cadenas de aminoácidos más que la de los pulmones rudimentarios.
Por consiguiente, creo que el celacanto, que existía no sólo antes de la era de los dinosaurios, sino también antes de la era de los tetrápodos en general (los dinosaurios eran tetrápodos avanzados), podría ser considerado como nuestro ascendiente.
Es realmente extraño que el celacanto, siendo ascendiente de los tetrápodos y habiendo tenido descendientes que se desarrollaron de muchas maneras, se haya mantenido sin cambiar ni desarrollarse. Tiene 400 millones de años y ha variado muy poco durante todo este tiempo. Es una pena que no pueda soportar las condiciones de superficie. Podríamos estudiarlo mucho mejor si pudiera hacerlo.

LA INVASIÓN DE TIERRA FIRME
En 1990, un grupo de paleontólogos británicos, dirigido por Andrew J. Jeram, del Museo del Ulster en Belfast, descubrió los restos más antiguos que se conocen de vida terrestre y calcularon que su edad era de unos 414 millones de años. Es una edad mucho mayor de la que los científicos habían supuesto hasta entonces, pero no altera el hecho de que la vida terrestre es algo relativamente nuevo en el planeta.
La Tierra tiene unos 4.500 millones de años, y hace unos 3.500 millones, por lo menos, sus aguas estaban plagadas de minúsculas formas de vida en forma de bacteria. Por lo menos durante los 3.000 millones de años siguientes, la vida estuvo confinada en sus aguas y los continentes permanecían absolutamente yermos.
Hasta hace 500 millones de años de la existencia de la Tierra los seres vivos no salieron a colonizar tierra firme.
Esto no es sorprendente. Mientras que el agua, sobre todo el océano, es un entorno estable y favorable para la vida, la tierra seca es temible. Para la vida, aventurarse a la superficie, en los alrededores hostiles de tierra firme, era bastante parecido a aventurarse en el espacio exterior en el caso de los seres humanos. Y mientras los seres humanos reciben ayuda de todos los dispositivos tecnológicos que han creado, las formas de vida que invadían tierra firme sólo podían utilizar los cambios, terriblemente lentos, producidos por una evolución biológica debida al azar.
Compárese el mar y la tierra. En el mar no existe relación con la climatología. Las condiciones son estables. Las temperaturas no varían mucho y, mientras la superficie puede estar agitada por las tormentas, las regiones no mucho más profundas están tranquilas. En tierra, las temperaturas suben a niveles nunca experimentados en el océano y se precipitan a bastantes grados bajo cero. Hay viento, lluvia, nieve, aguanieve y todas las múltiples manifestaciones de una atmósfera turbulenta.
En el agua, la capacidad de flotar elimina prácticamente la atracción gravitatoria, de forma que puede haber ballenas que pesan hasta 150 toneladas capaces de moverse libremente en tres dimensiones. En tierra, la gravedad es una atracción constante y los organismos vivos tienen que desarrollar tejidos (madera o huesos) que los sostengan contra esta atracción o están condenados a seguir siendo muy pequeños.
La tierra está seca y las formas de vida tienen que encontrar modos de almacenar agua y utilizar cantidades limitadas de dicho elemento para eliminar los residuos; mientras que en el mar, ningún proceso plantea ningún problema. El resultado es que, incluso hoy en día, después de cientos de millones de años de adaptación a la vida terrestre, los continentes de la Tierra siguen siendo mucho menos ricos en vida que sus aguas.
Por supuesto, también hay ventajas en la vida terrestre. Puesto que el aire es menos resistente al movimiento que el agua, los animales terrestres no tienen que ser aerodinámicos. Pueden desarrollar apéndices, y éstos alcanzan su perfección en el brazo y la mano humanos. Además, la existencia del oxígeno libre en tierra significa que se dispone del fuego —algo que no es posible en el mar— y un elemento con el que los seres humanos hemos construido nuestra tecnología.
Los delfines, dotados de un cerebro semejante, pero sumidos en el mar, no pueden desarrollar algo semejante.
Pero si la tierra era un entorno tan hostil, ¿por qué los organismos vivos la invadieron? No lo hicieron porque «lo desearan», puedo asegurarlo. Lo hicieron porque no les quedó más remedio. El océano estaba superpoblado de vida, basada en el comer o ser comido. Las zonas poco profundas que bordeaban a los continentes eran las más ricas en seres vivos (y siguen siéndolo).
Esto quiere decir que cualquier forma de vida que pudiese arrastrarse de alguna forma hacia la playa y soportar un período de sequedad en la marea baja tenía menos probabilidades de ser comido por sus depredadores, la mayoría de los cuales tenía que permanecer en el agua. Con el tiempo, aparecieron depredadores que también podían resistir durante la marea baja, de manera que había una presión para moverse en zonas de playa cada vez más vastas y permanecer sin agua durante períodos de tiempo cada vez más largos. Al cabo, algunas formas de vida pudieron permanecer en seco de manera indefinida.
La creencia general es que los primeros organismos en invadir la tierra de forma más o menos permanente fueron plantas muy primitivas que no tenían raíces y que estaban formadas por un tallo sencillo ahorquillado y sin hojas. Hicieron su tímida aparición en las orillas de la costa quizá hace unos 450 millones de años.
La vida animal no pudo aparecer hasta que lo hicieron las plantas, a las que utilizaron como alimento. Los primeros animales que se abrieron camino hacia tierra parece que fueron artrópodos muy sencillos, criaturas parecidas a las arañas. La fecha considerada como más temprana de la emergencia a tierra era, hasta hace poco, de 400 millones de años.
No obstante, Jeram y su equipo trabajaban con rocas viejas de la ciudad de Ludlow en Shropshire, Inglaterra. Trataron las rocas con ácido fluorhídrico, que al disolverlas deja detrás de sí pequeños fragmentos de fósiles. Cuando éstos se acoplan con acierto, parecen representar los cuerpos y patas de arañas y ciempiés pequeños y primitivos, que miden aproximadamente un cuarto de milímetro de largo. Puesto que las rocas en que fueron encontrados tenían 414 millones de años (según las técnicas de medición geológicas usuales), también deben tenerlos estas criaturas terrestres.
Hasta 40 millones de años después, sin embargo, no aparecieron en tierra los animales con espina dorsal (los anfibios primitivos). Estos anfibios fueron los antecesores de todos los anfibios actuales, reptiles, aves y mamíferos, incluido el hombre. Nuestra historia en tierra, por tanto, se remonta a unos 370 millones de años.

AOVAR EN TIERRA
En diciembre de 1989, T. R. Smithson, del Cambridge Regional College, informó del descubrimiento en Escocia de un antiguo reptil fósil que se remonta a unos 338 millones de años. Esto puede parecer poco importante, puesto que la mayoría de nosotros no suele pensar en los reptiles: serpientes, lagartos, tortugas y caimanes. Pero nos equivocamos al dejarlos de lado, ya que son criaturas de gran importancia para saber cómo debemos ir hacia atrás en el tiempo.
Hace unos 450 millones de años, la Tierra tenía unos 4.000 millones de años y la vida existía en ella desde hacía por lo menos 3.000 millones de años. En todo este tiempo, sin embargo, sólo había habido vida en el agua. La tierra firme era estéril.
Sin embargo, en esta época, las primeras plantas empezaron a emerger arrastrándose hacia la costa y la zona intermareal empezó a cubrirse de verde. Las primitivas plantas terrestres no tenían raíces ni hojas, pero la presión de la evolución las produjo, al igual que los tallos, y hace 400 millones de años, los primeros bosques cubrieron la superficie terrestre.
¿Por qué le costó tanto a la vida emerger a tierra? La tierra, es un entorno hostil, con una gran atracción gravitatoria, temperaturas extremas y la posibilidad de secarse. A los seres vivos les costó miles de millones de años desarrollar los dispositivos para contrarrestar estas dificultades. Durante 50 millones de años, la vida vegetal vivió en solitario y, después, los animales empezaron a secundarla. Las plantas eran una fuente de alimentos copiosa y cualquier animal que pudiera desarrollar modos de soportar la vida en tierra podría multiplicarse con libertad.
Los primeros animales que emergieron a tierra fueron arañas primitivas, escorpiones, caracoles, gusanos y con el tiempo insectos. Todos eran criaturas pequeñas. Tenían que serlo para que la fuerza de la atracción gravitatoria no llegara a inmovilizarlos.
Para que pudieran desarrollarse las criaturas terrestres grandes, se necesitaban extremidades y cuerpos reforzados por huesos. En resumen, se requerían los vertebrados. Hace 400 millones de años había multitud de vertebrados, pero todos vivían en el agua. Eran los peces que, incluso ahora, dominan los océanos de la Tierra.
Algunos peces tenían aletas finas adaptadas sobre todo a la dirección y la propulsión, pero otros disponían de aletas robustas y carnosas similares a pequeñas patas. Estos peces de aletas carnosas, en general, no prevalecían tanto como los peces ordinarios, pero tenían una ventaja. Si vivían en una charca en la que aumentaba la salobridad o amenazaba con secarse, podían desplazarse saltando hasta otra mayor. Estos peces desarrollaron la capacidad de permanecer en la superficie de la tierra durante períodos cada vez más largos. Desarrollaron pulmones primitivos que les permitían respirar en tierra pasando a ser «anfibios», y al parecer hicieron su primera aparición hace unos 370 millones de años. Fueron las primeras criaturas terrestres, muchas de ellas grandes y formidables.
Los anfibios adolecían de un defecto, sin embargo. Tenían que poner sus huevos en el agua y, mientras se desarrollaban hasta el estado adulto, permanecían con aspecto de pez. Los anfibios más conocidos en la actualidad son las ranas, y sabemos que sus huevos se convierten en renacuajos que se transforman en ranas poco a poco. Por tanto, en general, los anfibios estaban ligados al agua y no eran auténticas criaturas terrestres.
Entonces aparecieron los reptiles, que ponían un nuevo tipo de huevo provisto de una membrana embrionaria compleja llamada «amnios». El huevo disponía de una cáscara que permitía entrar y salir al aire pero no al agua. Tenía una provisión de agua suficiente para el desarrollo del embrión y los residuos se depositaban dentro del amnios. Este «huevo amniótico» se podía poner y eclosionar definitivamente en tierra, por tanto, los reptiles fueron los primeros vertebrados verdaderamente terrestres. Durante más de 250 millones de años dominaron la Tierra y originaron las criaturas más grandiosas que hayan pisado el planeta, los animales a los que llamamos «dinosaurios».
Es importante recordar que las aves no son más que reptiles modificados. Tienen la sangre caliente y plumas, pero ponen huevos de reptil dotados con amnios.
Los mamíferos son también reptiles modificados. Tienen sangre caliente y pelo, pero cuando aparecieron por primera vez, hace unos 200 millones de años, ponían huevos de reptil provistos de amnios.
Las aves y los mamíferos no tuvieron éxito mientras los reptiles dominaron la Tierra. Eran criaturas pequeñas que sobrevivían sólo porque pasaban prácticamente desapercibidas. Eran el equivalente de golondrinas y ratones, que se asomaban a la sombra de los grandes reptiles. Si los dinosaurios no hubiesen sido aniquilados por la colisión de un asteroide hace 65 millones de años, las aves y los mamíferos podrían seguir siendo insignificantes en la actualidad.
Lo que hizo posible todo lo demás, incluido el hombre mismo, fue el desarrollo del huevo amniótico. Así que, cuando descubramos el reptil más antiguo, puede que apreciemos la criatura que inventó el huevo terrestre, cosa de trascendental importancia.

LO QUE NOS DESCUBREN LOS DIENTES
La parte más dura del organismo de un vertebrado son los dientes, y es lo más natural ya que ejercen una tarea difícil. Esto supone que cuando se fosilizan formas antiguas de vida, la única parte que sobrevivirá con toda seguridad a todas las vicisitudes de los cambios geológicos son el cráneo y los dientes, y a veces sólo éstos. Por tanto, es importante obtener de ellos la mayor información posible. Los dientes son característicos de los vertebrados y surgieron, según creo, con los tiburones. Se encuentran en la mayoría de los vertebrados terrestres, pero no en todos. Las aves, por ejemplo, no tienen dientes, pero disponían de ellos al principio. El Archeopteryx, ave extinguida prematuramente, tenía dientes semejantes a los del lagarto, pero desaparecieron con los cambios evolutivos. Ahora las aves tienen pico, que resulta mucho más eficaz para su dieta. La temperatura de las aves es más alta que la del hombre, y para mantenerla, deben estar comiendo constantemente. El pico les permite aprovechar con mayor eficacia alimentos tales como semillas e insectos pequeños. Tortugas y galápagos también carecen de dientes, aunque tienen picos córneos que no llegan a ser tan eficaces como los de las aves. Sin embargo, las tortugas son animales que viven mucho y muy lentamente y no requieren de tanta eficacia por lo que a la alimentación se refiere.
Los primeros mamíferos mostraban dientes muy semejantes, no más diferentes que una serie de cuchillas. Los dientes también se desarrollaron con el cambio evolutivo y se diferenciaron en su tamaño y función. El hombre dispone de incisivos, que son dientes cortantes, y molares que muelen. Muchos animales disponen de colmillos que desgarran y rasgan el alimento.
Los dientes también se desarrollan de modos extraños.
Los elefantes y las morsas tienen colmillos y el narval tiene un único colmillo largo y en forma de espiral. Las serpientes venenosas poseen colmillos que inyectan el veneno y sus mordeduras resultan mortales casi con seguridad. Pero en conjunto, los dientes humanos pueden ser los más útiles de todos.
Sería muy útil a los paleontólogos extraer información de los dientes, algo que parece no muy probable, pero los científicos se afanan en la actualidad por conseguirlo.
Gregory M. Erickson, del Museo de las Rocosas, en Bozeman (Montana), contó las diminutas líneas de crecimiento de los dientes de los dinosaurios. Comparó sus resultados con investigaciones similares en dientes de caimanes, los parientes vivos más próximos a los dinosaurios. Sostenía que cada una de las líneas de crecimiento representaba un día en la vida de las grandes criaturas extinguidas. Desde luego, esto proporcionó información sobre el tiempo que necesitaba un diente de dinosaurio para desarrollarse y, más en general, del tiempo que vivía.
No es una tarea fácil. El primer problema es conseguir los dientes de caimán. No se mata a los caimanes por sus dientes, sería desmedido. En vez de eso, se extraen los dientes de caimanes que ya han sido muertos para aprovechar su piel. (También estoy profundamente en contra de esto). Después los dientes se tiñen convenientemente y se estudian los resultados con un microscopio de barrido.
La información obtenida de esta manera puede revelarnos cuánto durarán los dientes antes de caerse y ser reemplazados por otros nuevos. Los dinosaurios herbívoros, que tenían que rasgar hierbas duras, estaban provistos de dientes que se mantenían sólo durante dos o tres meses. La dentadura de los dinosaurios carnívoros, que, en general, comían alimentos más blandos, se prolongaba hasta tres años. Compárese esto con los dientes humanos, que pueden permanecer en la boca y funcionar durante décadas. Por supuesto, los seres humanos no pueden reemplazar sus dientes tal como lo hacen los reptiles.
En cualquier caso, estos datos que proporcionan los dientes permiten distinguir a los dinosaurios viejos de los jóvenes y, por tanto, nos puede dar una idea sobre datos como la tasa de natalidad. También ayudan a calcular el número de depredadores frente al de presas.
Todo lo anterior no es interesante en cuanto a la información que ofrece un diente viejo y petrificado que puede tener fácilmente cien millones de años.
Suzanne G. Strait, de la Universidad Duke en Durham (Carolina del Norte), ha abordado los dientes desde un ángulo diferente. Ha trabajado sobre todo con dientes de pequeños mamíferos, tales como murciélagos y primates. Estudió los rasguños en el esmalte de los dientes y trabajando con animales vivos mostró que una dieta de objetos duros ––como escarabajos y huesos–– provocaba muescas diferentes que las producidas por una dieta de objetos blandos.
La información así obtenida se aplicó al estudio de dientes fosilizados de animales pequeños, lo que permitió saber que un grupo de primates primitivos se alimentaba principalmente de insectos duros. Este tipo de conocimientos resulta muy útil a la hora de investigar la evolución de la especie humana.
Los anteriores son ejemplos de los diferentes métodos que es posible desarrollar para conseguir una información de otro modo imposible, de fuentes que en principio parecen no ofrecer ningún dato.

HERENCIA ÓSEA
Ahora que se ha hecho retroceder la historia del hueso 40 millones de años, es oportuno hacer una celebración en su honor. Podrían empezarse los festejos a base de ejercicio, no sólo para desarrollar músculos espectaculares sino también para fortalecer los huesos. La vida humana puede ser miserable cuando sufre pérdida ósea, como en el caso de la osteoporosis. Es preciso mantener los huesos fuertes y recordar que el eslogan de la naturaleza nunca ha sido «desentumecer» sino «fortalecer».
La vida empezó siendo blanda y limitada al mar. Lo sabemos porque algunos cuerpos blandos, incluso criaturas unicelulares, siguen siendo perceptibles en forma de impresiones en barro fosilizado. La «blandura» de la vida primitiva no es tal, ya que, sin una barrera firme que la separe del mar que la rodea, una célula se disolvería en su entorno acuoso.
Las células resolvieron el problema construyendo macromoléculas orgánicas que forman membranas. Las células vegetales forman celulosa mediante cadenas largas de moléculas de glucosa; las células animales forman también macromoléculas, en este caso a base de proteínas. Gracias a la celulosa, las plantas pudieron conquistar la tierra firme y crecer hasta el tamaño de la secuoya.
Los animales utilizan las macromoléculas de muchas maneras ingeniosas. La queratina predomina en las uñas, garras y pezuñas. Los artrópodos cubren su cuerpo con quitina, un polisacárido similar a la celulosa. Gracias a esta protección, los artrópodos invadieron la tierra junto con las plantas, pero permanecieron relativamente pequeños porque un exoesqueleto limita el tamaño.
Al principio del período Cámbrico, hace 570 millones de años, se produjo una revolución cuando los animales endosaron materia inorgánica a sus cuerpos. Los miembros del phylum Molusco, lo hicieron segregando conchas a partir de su superficie corporal o manto. Esta superficie dura tiende a limitar no sólo el tamaño sino también la movilidad. Los calamares gigantes adquieren tan gran dimensión porque la concha se ha reducido a una «pluma» córnea envuelta por el manto.
Hace unos 550 millones de años, el phylum Cbordata inició su historia triunfal (y digo «triunfal» porque pensamos en los hombres como en los cordados mejor dotados y más sobresalientes). A lo largo del lomo de los cordados aparece un cordón nervioso hueco y (por lo menos en la etapa embrionaria) un notocordio de colágeno. Este notocordio fue el precursor del notable esqueleto interno que se convirtió en la característica fundamental de los cordados superiores como el subphylum Vertebrata.
No todos los vertebrados tienen un esqueleto óseo, pero todos tienen vértebras rodeando el cordón nervioso. Hasta hace poco se creía que los primeros huesos formaban placas óseas protectoras, en especial en la región de la cabeza, mientras las vértebras estaban constituidas de cartílago de colágeno. Los tiburones tienen todavía un esqueleto cartilaginoso, pero disponen de dientes óseos y se cree que descienden de pequeños vertebrados primitivos provistos de placas óseas, en la actualidad presentes en forma de espinas en algunos tiburones.
A diferencia de las conchas de los moluscos, el hueso propiamente dicho es un tejido vivo. El 45% del hueso es de composición mineral, el 25% es agua y el 30%, materia orgánica. A la membrana que rodea el hueso se la conoce como «periostio», y al hueso interno como «endostio». Unas células llamadas «osteocitos» forman una malla entretejida en la matriz mineral, atravesada por los conductos de Havers que contienen los vasos sanguíneos y los nervios. En la mayoría de los mamíferos, incluidos los humanos, los canales centrales de los huesos largos están rellenos de una médula que fabrica sangre.
Sólo con ayuda de un esqueleto óseo y duro, los vertebrados pudieron conquistar la tierra firme. Ningún tiburón ha salido del agua. Dotados de huesos fuertes, los vertebrados terrestres pudieron llegar a ser tan grandes como los dinosaurios o los elefantes. Los pájaros pueden volar gracias a sus huesos huecos que reducen el peso.
¿Cuándo y en qué animal aparecieron los huesos en definitiva? Descubrimientos recientes indican que los huesos hicieron su aparición hace 515 millones de años en un pequeño cordado de cuerpo blando, el «conodontes» (llamado así por sus «dientes cónicos»). Utilizando el microscopio de barrido electrónico y microscopía de contraste de fase, unos científicos británicos han comprobado que el aparato de alimentación del conodonte está formado por auténtico hueso.
Lo importante es que el hueso celular es la única característica propia del subphylum Vertebrata. Esto quiere decir que probablemente los conodontes son los vertebrados más primitivos: 40 millones de años antes de que el hueso de otros vertebrados aparezca en los restos fósiles. Los conodontes dan al traste también con la teoría de que el origen del hueso fuera la protección, puesto que la posesión de estos dientes los señala como depredadores.
Los seres humanos están forzando su entorno hasta el límite y buscan espacio para vivir. ¿Podemos —con nuestra herencia ósea— sobrevivir en colonias espaciales? El profesor de la Universidad de Stanford, Denis Carter, especialista en ingeniería biomecánica, ha elaborado fórmulas matemáticas para aplicar a distintos tipos de huesos. Mediante un programa informático, las fórmulas ayudan a predecir el papel de los huesos en diferentes ambientes.
Carter piensa que la formación del hueso puede estar dirigida antes por la presión ambiental que por los genes. Una presión ambiental fundamental es la gravedad.
Lo cual viene a decir que si los seres humanos queremos vivir fuera de la Tierra, tendremos que dar forma terrestre a un planeta, por lo menos tan grande como Marte, y construir colonias orbitales giratorias. ¡O inventar una nave espacial Enterprise con gravedad artificial!

DINOSAURIOS
¿Por qué eran tan grandes los dinosaurios? Han sido los animales terrestres más voluminosos, algunos de ellos hasta diez veces más pesados que un elefante. Dos biólogos, James Spotila, de la Universidad de Drexel, y Frank Paladino, de la Universidad de Purdue, han tratado de responder a esta pregunta estudiando a las tortugas.
Los reptiles como las tortugas son de «sangre fría». Esto no quiere decir que son siempre fríos al tacto. Si están al sol, se calientan. Sin embargo, si la temperatura desciende, carecen de mecanismos biológicos para mantenerse calientes, así que se enfrían. Las aves y los mamíferos disponen de dichos mecanismos y, por lo tanto, son de «sangre caliente» y se mantienen calientes al tacto incluso durante el frío invierno.
Cuanto más caliente es una cosa, más rápidamente se pueden producir en ella los cambios químicos. Cuando un animal tiene calor es ágil y activo, cuando tiene frío es lento e inactivo. Las aves y los mamíferos son activos incluso durante el tiempo más frío, pero los reptiles y otros animales terrestres de sangre fría se mueven cada vez más despacio a medida que la temperatura baja y, si alcanza niveles a bajo cero, es probable que mueran.
Sin embargo, hay pruebas de que muchos dinosaurios llevaban una vida activa y debieron de vivir en climas fríos. ¿Es posible que los dinosaurios, o al menos algunos de ellos, tuvieran sangre caliente? Algunos científicos así lo creen.
Por otro lado, los animales de sangre fría pueden mantenerse calientes incluso en clima frío si son lo bastante grandes. La fuente de su calor reside en las reacciones químicas que se suceden en los tejidos vivos. Cuanto mayor y más pesado es el animal, más calor produce en el curso de la vida ordinaria. El calor originado se pierde hacia el exterior a través de la superficie del cuerpo, y cuanto mayor es el animal, mayor es la superficie en contacto con el mundo exterior.
Sin embargo, las dos propiedades, peso y superficie, no aumentan en la misma proporción a medida que el animal crece. El aumento de peso de un animal es proporcional al cubo de su tamaño y el de superficie sólo lo es al cuadrado. En otras palabras, si aumentaran de repente al doble todas las dimensiones de un animal determinado, el área de su superficie aumentaría 2 X 2 o cuatro veces, pero su peso aumentaría 2 X 2 X 2 u ocho veces. Si triplicara sus dimensiones, su superficie aumentaría 3 X 3 o nueve veces, pero su peso lo haría 3 X 3 X 3 o 27 veces.
Por esta razón, un animal grande pierde una fracción menor de su calor corporal en un momento determinado que un animal pequeño. Si un animal de sangre fría es lo bastante grande, el calor corporal que genera y la luz solar que se le suma durante el día pueden hacerle superar el frío de la noche y le permiten permanecer activo cuando los animales pequeños de sangre fría deben hibernar y permanecer inertes.
¿Es éste el secreto del tamaño de los dinosaurios? ¿Evolucionaron a gigantes como un modo de mantenerse calientes y activos?
Por desgracia, no podemos medir la temperatura de los dinosaurios, ya que todos han desaparecido, pero ¿qué pasa con los animales grandes de sangre fría en la actualidad? Los reptiles vivos de sangre fría más voluminosos en la actualidad son los cocodrilos de estuario y las tortugas laúd. Ambos pueden llegar a pesar una tonelada, mientras que el calamar gigante, el mayor invertebrado que existe, puede llegar a dos toneladas de peso. (Lo cual supone tan sólo una pequeña fracción del peso de los grandes dinosaurios, pero es lo más aproximado). De estas tres criaturas, la tortuga laúd es la más fácil de estudiar.
Las tortugas laúd, que nadan en mares fríos, mantienen la temperatura del cuerpo hasta treinta grados por encima de la del agua. ¿Tienen la sangre caliente en parte? Si es así, la velocidad a la que consumen oxígeno debe ser superior a la de los reptiles pequeños, ya que se necesita mucho oxígeno para llevar a cabo las reacciones químicas que mantienen caliente a un animal.
Spotila y Paladino estudiaron a estas tortugas gigantes en Costa Rica durante la freza, cuando van a tierra. Midieron el oxígeno y el dióxido de carbono en la respiración de las tortugas y encontraron que consumían el oxígeno con más rapidez que otros grandes reptiles. Por otro lado, la velocidad de consumo de oxígeno de las tortugas era menor que la mitad de la de un animal de sangre caliente del mismo tamaño.
La conclusión es que la tortuga laúd puede tener un modo de generar más calor del esperado, pero no el suficiente como para ser considerada de sangre caliente. Mantiene su temperatura sólo por su tamaño. Puede que los dinosaurios hicieran lo mismo.
Por supuesto, ser grande también tiene sus inconvenientes. Los animales grandes se reproducen con más lentitud y necesitan más alimento por individuo, lo que significa que deben existir muchos menos a diferencia de los animales pequeños. Si se produce un cambio radical repentino en su entorno o un descenso brusco de los alimentos, hay más probabilidades de que los animales grandes mueran de hambre, e incluso lleguen a extinguirse, antes que los pequeños.
Así fue como, con ocasión de la colisión de un cometa con la Tierra hace 65 millones de años, a la que siguió toda clase de desastres, los animales grandes fueron los que más sufrieron. Todos los dinosaurios y otros gigantes de la época fueron aniquilados, mientras que las aves y los mamíferos primitivos, más pequeños y activos debido a su sangre caliente, sobrevivieron.

LOS BRAZOS DEL MONSTRUO
Nuevas aportaciones iluminan la discusión de que el depredador terrestre más feroz de la historia fuera realmente un monstruo terrorífico o sólo lo pareciera. Es el resultado del estudio de dos científicos, Matt B. Smith, del Museo de la Universidad Estatal de Montana, y Kenneth Carpenter, del Museo de Historia Natural de Denver, en torno a las patas delanteras de un allosaurus.
Los allosaurus eran los dinosaurios carnívoros más grandes y de aspecto más aterrador que había. El ejemplo más conocido es el que llamamos Tyrannosaurus rex («rey de los lagartos grandes» en latín, cuyo nombre resulta adecuado si nos fijamos en las apariencias). El tyrannosaurus llegaba a Medir hasta 14 metros de largo desde el hocico hasta el extremo de su cola. Se sostenía sobre sus patas traseras y su cabeza alcanzaba una altura de 5,5 metros; por tanto, era tan alto como la mayor de las jirafas, pero mucho más pesado. Pesaba por lo menos 7 toneladas, lo que lo convertía en un ser tan pesado como un gran elefante africano. Lo más terrorífico era su cabeza enorme, algo mayor de un metro con una gran boca dotada de dientes que medían más de 18 centímetros y tan afilados como los cuchillos de un carnicero.
La mayoría de nosotros ha visto un tyrannosaurus en la acción imaginaria de un clásico de los dibujos animados de Walt Disney, Fantasía, en la que una pelea entre un tyrannosaurus y un estegosaurio es el clímax de la interpretación de La consagración de la Primavera, la composición musical de Igor Stravinsky. No se necesita ser un niño para sentirse asustado por el tyrannosaurus cuando aparece por primera vez en la pantalla en un crescendo musical.
El tyrannosaurus tenía el aspecto de un canguro gigantesco con una larga cola y patas traseras muy poderosas. Sin duda, era demasiado pesado para saltar, pero probablemente podía correr, alcanzando una zancada de 4 metros. Como en el caso del canguro, las patas delanteras del tyrannosaurus eran pequeñas, sólo medían 1 metro, demasiado poco en comparación con su tamaño total. Por lo general, se pensaba que los brazos del tyrannosaurus eran más o menos inservibles, que sólo se agitaban con furia cuando luchaba usando sus fuertes colmillos y las garras de sus gigantescas patas traseras.
Y, sin embargo, algunos paleontólogos piensan que la ausencia de patas delanteras útiles limitaba la capacidad de los tyrannosaurus para hacer frente a otros grandes dinosaurios (como el estegosaurio) en la lucha por la supervivencia. Opinan que el tyrannosaurus, por lo que parece, era sólo un carroñero que se regalaba, bien con banquetes de restos de animales muertos despreciados por otros depredadores más ágiles o, en otro caso, de animales muertos por depredadores menores más débiles para entrar en disputa.
Puede preguntarse por qué un carroñero debía tener mandíbulas y garras tan feroces, pero tenemos el ejemplo actual de la hiena. Las hienas son carroñeros, pero sus mandíbulas son extremadamente poderosas, tanto que pueden machacar los huesos más duros y fuertes, aunque no suelen utilizarlas sobre víctimas vivas. Permanecen ocultas a la espera de que otros depredadores hagan el trabajo inicial. ¿Se comportaban los tyrannosaurus a la manera de hienas enormes o como lobos gigantes?
Smith y Carpenter estudiaron un esqueleto de un pariente próximo del tyrannosaurus, descubierto por primera vez en 1988. Examinaron con cuidado la configuración de los huesos de las patas delanteras y midieron la anchura de las marcas en uno de los huesos, que señalaba la unión del tendón del bíceps.
Del grosor del tendón decidieron que el bíceps debía ser tan ancho como un muslo humano y que el brazo podría levantar pesos de hasta 190 kilos. Desde luego, unos brazos como éstos no han de ser inservibles.
Además, cada antebrazo tenía dos garras con gran capacidad de articulación, lo que no sucedería si los brazos fueran inútiles. De hecho las garras están en posición opuesta hacia fuera. A diferencia de los dedos humanos opuestos, de manera que se puedan juntar y agarrar, parecen extenderse hacia fuera.
Smith y Carpenter creen que la utilidad de tales garras consiste en que cada una de ellas pueda atravesar una parte distinta del cuerpo de la víctima. Esto bastaría para sujetarla mientras las mandíbulas del monstruo penetran con el mordisco que acaba con el animal.
Si esto es así, el tyrannosaurus era tan feroz como parecía y es poco probable que cualquier otro animal pudiese oponerse a su furiosa embestida. Una vez que estas garras mortales de los antebrazos se hunden, la suerte de la pelea está echada.
Este descubrimiento no convence a algunos paleontólogos, que creen que los antebrazos, por muy poderosos que puedan ser, son demasiado cortos para pelear en una auténtica lucha a muerte. Se limitarían a agitarse con furia. En ese caso, ¿por qué tienen unas garras tan desarrolladas y potentes?
Por su parte, piensan que una vez que el tyrannosaurus se encontrara con un animal muerto, utilizaba los antebrazos para agarrar con fuerza el cadáver mientras lo desgarraba con la mandíbula, y de ahí el carácter de carroñero. Por tanto, el asunto no está dilucidado.

DINOPASEO
«Dinosaurio» en griego quiere decir «lagarto terrible», pero, a pesar de todo, a todo el mundo le gustan. Los dinosaurios adornan camisetas, son juguetes que se venden con rapidez, y museos bien conocidos los representan en exposiciones. Incluso hay una familia de dinosaurios que cuenta con su propio espacio de televisión y, sin embargo, durante 65 millones de años no se ha visto un dinosaurio vivo. Nadie ha visto nunca un dragón de verdad, pero son asimismo populares. Quizá haya una relación entre la idea de los dragones y un vago recuerdo de mamífero primitivo sobre los dinosaurios, profundamente arraigado en nuestro cerebro. Sea lo que fuere, la investigación sobre estos dinosaurios reales, pero extinguidos, continúa.
El Mesozoico fue una era espectacular para la Tierra, que se inicia con el período Triásico hace 190 millones de años. Entonces aparecieron los dinosaurios como los descendientes de los primitivos reptiles «con dientes implantados en alvéolos» o «tecodontos», origen a su vez de los pterosaurios y los cocodrilos. Durante el Jurásico, y después en el Cretácico, los dinosaurios fueron los indiscutibles dueños del mundo. Los mamíferos del Mesozoico eran pequeños insectívoros que trataban de mantenerse a salvo de sus peligrosos pies.
Había dinosaurios de todos los tamaños divididos en dos grandes grupos: los ornitisquios (con cadera de ave) y los saurisquios (con cadera de reptil). Muchos dinosaurios eran mucho más estúpidos que cualquier cocodrilo actual, mientras que otros tenían más cerebro que cualquier reptil en la actualidad y, si hubieran tenido la oportunidad de evolucionar en vez de extinguirse, podrían haber llegado a ser más inteligentes que el hombre.
En ambos grupos había cuadrúpedos (con cuatro patas) y bípedos (con dos patas). Los pies de los grandes herbívoros como los saurópodos eran elefánticos, para sostener su enorme peso: de 10 a 30 toneladas de media y hasta un máximo de 75 toneladas en los más grandes. Sus patas eran enormes y situadas bajo el cuerpo de manera que podían caminar como los elefantes y no tenían que arrastrarse por aguas pantanosas para soportar su peso, como se pensó al principio.
El Museo Americano de Historia Natural de Nueva York abrió una exposición que mostraba a un saurópodo llamado Barosauro erigido sobre sus patas traseras para proteger a su cría de un depredador, el Allosaurus.
La medida de los dinosaurios bípedos comprendía desde criaturas del tamaño de un pollo hasta enormes depredadores como el Tyrannosaurus Rex. Uno de ellos, el Dromiceiomimus, se parecía relativamente a los avestruces y corría más rápido que los caballos. La mayoría de los dinosaurios bípedos tenía pies con tres dedos, muy parecidos a los de las grandes aves, aunque algunos poseían más, y unos pocos los mantenían unidos de forma parecida a los caballos primitivos (pero nunca llegaron a evolucionar hasta las pezuñas). Se pensaba que los hadrosaurios (dinosaurios con pico como los patos) fueran bípedos porque sus patas delanteras eran más cortas que las traseras, pero en la actualidad los científicos creen que podían correr sobre las cuatro patas. Las teorías sobre grupos concretos de dinosaurios están en revisión constante.
La opinión predominante es que los dinosaurios no eran de movimientos lentos y torpes y que muchos podían correr sin problemas. Si lo deseaban podían llegar a los confines de su mundo hasta que el continente único de Pangea empezó a resquebrajarse a finales del Mesozoico. Además, la carrera requiere una buena circulación. Robert T. Bakker indica que nuevos datos sobre los cráneos de ciertos dinosaurios confirman la teoría de que los dinosaurios tenían sangre caliente, como las aves. Se han examinado los cráneos de dinosaurios tipo ave así como del mayor depredador terrestre, el Tyrannosaurus Rex, mediante tomografía computadorizada, y se ha descubierto la presencia de un conducto nervioso como el de las aves. Los cráneos contienen también pasos de aire como los de las aves, para mantener la cabeza ligera, pero también fría, algo necesario si la sangre es caliente.
Emily Griffin, paleóntologa especialista en vertebrados, examinó los canales medulares de vértebras de dinosaurios y llegó a la conclusión de que la mayoría de los dinosaurios era efectivamente capaz de una gran variedad de movimientos, más rápidos de lo que se pensaba. Los estudios de las uniones de músculos en las vértebras de los dinosaurios demuestran que tenían unos músculos excepcionalmente resistentes para viajar por tierra, semejantes a los de los animales grandes y rápidos en la actualidad.
Los dinosaurios bípedos eran los más rápidos. Muchos de ellos tenían colas largas para mantener el equilibrio durante la carrera. Los científicos se basan en los bastones óseos que se prolongan lateralmente a lo largo de los huesos de la cola para mantenerla rígida cuando el animal corría a fondo. Algunos dinosaurios de cuello largo (sobre todo pequeños carnívoros) también extendían el cuello mientras corrían para mantener el equilibrio. Una información incidental interesante sobre las vértebras del cuello de algunos dinosaurios se refiere a los que se consideran rumiantes, por tener las vértebras del cuello en forma de S, exactamente igual que los rumiantes actuales. Además, según sus huesos, los dinosaurios no eran de crecimiento lento como las tortugas y los caimanes, sino que crecían con la misma rapidez con que lo hacen las aves en la actualidad.
De hecho, las aves son consideradas por muchos como dinosaurios con plumas, todavía vivos en nuestra época. El otro día me senté en un banco en Central Park y me di cuenta de que mientras los gorriones y los pinzones avanzan a saltitos, los estorninos y las palomas andan. Cuando los pájaros saltan, su cabeza no se mueve atrás y adelante. Obsérvese a una paloma con cuidado. No puede andar sin «menear la cabeza», lo que hace que me duela el cuello sólo de mirarla. Al parecer, todavía no hay ningún modo de estar seguros de que algún tipo de dinosaurio saltara o de que todos ellos, al andar y correr, movieran también la cabeza como lo hacen las palomas.

DESAPARECER UNA Y OTRA VEZ
«Extinción» es una palabra horrible, a menos que quiera aplicarse este proceso a los organismos patógenos, las cucarachas o los gremlins que chapucean en el ordenador. Hasta 1945, cuando se utilizó la bomba atómica, la extinción humana, por lo general, sólo se había considerado en términos religiosos, pero unos años después del comienzo de la era atómica acudí a una conferencia sobre física nuclear que pronunciaba un profesor y colega. Su voz temblaba al hablar de la bomba y de nuestro incierto futuro. Decidí que si llegábamos a extinguirnos como los dinosaurios sería culpa nuestra. Desde entonces, he ido percatándome de que hay otras posibilidades.
Sabemos que se han producido muchas extinciones en masa, la mayoría de ellas bastantes misteriosas, pero no todas. En un caso particular los científicos están convencidos de qué fue lo que pasó.
En 1980, Walter Álvarez sugirió que hace 65 millones de años un objeto extraterrestre (cometa o meteorito) chocó contra la Tierra, causando tales daños a la biosfera que muchas especies, incluidos los dinosaurios, se extinguieron. Hace 65 millones de años se marca la frontera «C-T» entre el período Cretácico y la era Terciaria, y durante años los científicos trataron de encontrar un cráter de impacto que fuera idóneo para explicar la extinción C-T. Hace diez años, el cráter de Chicxulub de 180 kilómetros de diámetro, muy cerca de la costa norte de la península de Yucatán, en México, parecía un posible candidato. Por fin hay pruebas.
Los científicos han encontrado semejanza química entre la roca, en otro tiempo líquida, del cráter de Chicxulub y las perlas vítreas (microtectitas) encontradas en Haití y en el noreste de México. Tanto la roca como las microtectitas son el resultado de un impacto con la Tierra. La edad del cráter se ha determinado con precisión mediante una nueva técnica geocronológica llamada «datación argón-argón», que ha sido perfeccionada recientemente. El cráter y las microtectitas tienen la misma edad, 65 millones de años.
Algunos geólogos piensan que hace 65 millones de años no hubo sólo un impacto, sino dos, por lo menos, el del conocido y datado cráter de Chicxulub y otro en Iowa. Es posible que lo que chocó contra la Tierra se rompiera mientras caía.
La extinción C-T fue la peor de los últimos 200 millones de años, pero ha habido algunas más, igual de devastadoras para la vida en la Tierra y mucho más enigmáticas.
Hace 500 millones de años, en el período Cámbrico, muchas de las primeras criaturas con concha rígida desaparecieron, por causa desconocida. Después, en el Devónico, hace 370 millones de años, los trilobites fueron diezmados y el 70% de otras especies marinas se extinguieron. Puede haber alguna relación entre la extinción del Devónico y la presencia de impactos en ese período, pero los científicos no están seguros, y algunos piensan que la causa fueron erupciones volcánicas.
Hace unos 250 millones de años, la extinción del Pérmico fue mucho peor que la extinción C-T, ya que eliminó muchas formas terrestres además de comunidades complejas de vida en el mar que rodeaba al único continente de la Tierra, Pangea. Gran parte de la vida fue destruida, ya que en los años siguientes, durante el Triásico inferior, aparecen muy pocos fósiles. Al carecer de pruebas del impacto de un asteroide causante, los científicos desarrollan la teoría de que la extinción fue consecuencia de un descenso en los niveles de oxígeno, que se originó al quedar al descubierto la materia orgánica y oxidarse cuando el nivel del mar descendió y después volvió a subir. El paleontólogo Paul Wignall dice que si los seres humanos favorecemos un efecto invernadero, haciendo subir el nivel del mar, podríamos producir un descenso en los niveles de oxígeno y la asfixia.
Después de la extinción del Pérmico, la vida, con el tiempo, empezó a florecer de nuevo, de manera que en el Triásico superior había muchas especies preparadas para una nueva extinción, cosa que ocurrió. Puede que se debiera también al impacto de un asteroide, como lo prueban los cristales de cuarzo hechos añicos encontrados en Italia. La vida se recuperó y, a lo largo de los siguientes períodos de la historia de la Tierra, volvió a ser incluso más espectacular. Durante el Jurásico y el Cretácico, dinosaurios de todo tipo recorrían la tierra, volaban por el aire y nadaban por el mar, hasta que aconteció la frontera C-T y el impacto del gran asteroide.
Aunque no se ha producido una extinción en masa desde la frontera C-T, continuamente están chocando contra la Tierra pequeños restos (incluso algunos fabricados por el hombre). El impacto más reciente de cierta importancia se produjo en 1908 cuando un objeto (¿un cometa?) aplastó los árboles de Tunguska en Siberia. Todos hemos visto «estrellas fugaces», que son meteoritos consumiéndose en la atmósfera terrestre. Algún día, algún cuerpo mayor y más mortífero puede acercarse a nuestro planeta, y es hora de preocuparse de cómo evitar una extinción debido a una gran colisión de ese tipo. La mejor idea es ocuparse de dicho objeto antes de que se acerque a la Tierra. Un programa espacial global y viable sería lo más adecuado.
No todos los grandes impactos han sido mortales. La química orgánica (y, a la larga, la vida) puede haber sido impulsada, o incluso iniciada, por «colisiones de impacto» cuando la Tierra, muy joven, fue bombardeada por material de desecho de la formación del Sistema Solar. También es posible que la materia de bombardeo, como los meteoritos carbonosos actuales, contuviera moléculas orgánicas, los módulos de construcción de la vida.
La vida, una vez que empezó, ha sido muy tenaz, a pesar de las extinciones en masa. Como dice la gente de Gaia, incluso si la humanidad se extingue, la Tierra puede sobrevivir como planeta vivo independientemente de lo que le hagan los objetos extraterrestres o la estupidez humana.

BALLENAS CON PATAS
Recientemente, un equipo de paleontólogos de las universidades de Michigan y Duke, bajo la dirección de Philip D. Gingerich, descubrieron los restos fósiles de una antigua ballena en el desierto de Egipto, a unos 150 kilómetros de El Cairo. ¿Qué hacía una ballena en el desierto? Para empezar, aquello no era un desierto hace 40 millones de años, sino un brazo de mar, que desde entonces se ha replegado y ha dejado detrás de sí el mar Mediterráneo.
No obstante, lo realmente insólito de la ballena fósil era que tenía dos pequeñas patas traseras con el mismo tipo de huesos que tiene el hombre en la pierna, incluidos los que indican la presencia de tres dedos en cada pie.
El resto fósil que se encuentra en una roca es como un libro antiguo de valor incalculable, al que por desgracia le falta la mayor parte de las páginas. Lo que es más, algunas páginas están tan arrugadas y borrosas que no se distingue su contenido con claridad. Después de todo, el resto fósil tiene 500 millones de años y ha sufrido grandes daños a tenor de la formación de montañas, la erosión de la tierra, los terremotos, las erupciones volcánicas, etc. Y por añadidura, la mayoría de las formas vivas no mueren en condiciones que permitan la fosilización. El resultado final es que persisten muchas incógnitas a la hora de dar sentido a los restos fósiles.
Por ejemplo, los mamíferos se desarrollaron a partir de reptiles terrestres hace 200 millones de años. Desde entonces, la mayor parte de los mamíferos han subsistido en tierra. Algunos mamíferos han vuelto a la vida acuática en su búsqueda de alimentos, pero la mayoría de estos grupos muestra signos claros de descendencia de mamíferos terrestres.
Las nutrias, por ejemplo, se asocian a los ríos, pero no son muy diferentes de sus parientes terrestres, las comadrejas, los hurones y algunos otros especímenes. Las nutrias marinas están mejor adaptadas al mar, pero sus semejanzas persisten.
Las focas, morsas y manatíes están todavía mejor adaptados, hasta el punto de que tienen aletas en vez de extremidades para andar por tierra, de forma que mientras se mueven en el agua con garbo, en tierra son patosos. No obstante, sus aletas disponen los huesos de la misma manera que en las patas de los mamíferos terrestres.
Las ballenas y los delfines (los «cetáceos») son el verdadero enigma, ya que los signos de su ascendencia terrestre son muy confusos. Son mamíferos terrestres que regresaron al mar hace 50 millones de años y resultan, en la actualidad, los mamíferos mejor adaptados a la vida acuática. Los cetáceos han desarrollado una forma aerodinámica similar a la de los peces y mientras conservan dos aletas delanteras que sin lugar a dudas fueron en otros tiempos patas delanteras, no conservan ningún indicio de patas traseras. En los músculos de la zona de la cadera subsisten pequeños restos de lo que alguna vez pudieron haber sido los huesos de los muslos, pero eso es todo. Hasta ahora, no se habían descubierto fósiles con más indicios de patas traseras que éstos.
¿Es posible que las ballenas no sean mamíferos? No, eso no es posible. Su reproducción es vivípara y las crías se desarrollan en el seno materno dentro de una placenta y maman la leche materna después del nacimiento. Las ballenas tienen diafragma y sus embriones incluso muestran señales de pelo. Tienen todas las características de los mamíferos, por tanto, es evidente que, en otros tiempos, sus antepasados tuvieron que vivir en tierra.
Por desgracia, en los restos fósiles no hay indicios de ningún mamífero que tenga las características que nos permitan afirmar: se trata de un mamífero en evolución hacia una ballena. Tampoco se ha encontrado ningún mamífero fósil que sea claramente una ballena pero que muestre mayores indicios de ascendencia terrestre que las ballenas actuales. Había un vacío desesperante en los restos fósiles.
Pero este nuevo fósil ha servido para llenar ese vacío en el registro. Es una especie de ballena primitiva llamada Basilosaurus, de unos 15 metros de largo, y más delgada y menos voluminosa que las ballenas actuales. Tiene un cráneo relativamente pequeño, una caja torácica reducida y una columna vertebral larga y serpiginosa.
El Basilosaurus tiene unos 40 millones de años, por tanto, nadaba en los océanos 10 millones de años después de que aparecieran las ballenas. Y al cabo de 10 millones de años seguían teniendo patas traseras. No muy grandes, desde luego, pero sus huesos lo delatan y no hay error posible. En toda su extensión medirían unos 60 centímetros de largo. Tienen fémur (el hueso del muslo), tibia y peroné (los dos huesos de la pierna) y los huesos de tres dedos.
Las patas son muy pequeñas en comparación con la talla del Basilosaurus y no debían de ser muy útiles. Parece que estaban flexionadas de forma permanente y desde luego no tenían ningún uso en tierra. Tampoco resultarían muy útiles para nadar. Las debían de utilizar para arrastrarse en el barro en aguas poco profundas.
Algunos científicos sostienen como su función fundamental la de sujetar a la hembra durante la copulación. Si esto es así, puede que sólo fueran útiles para los machos Basilosaurus y que en las hembras fueran menores o no existieran. Sería interesante, por tanto, encontrar otros ejemplares fósiles para estudiar esa posibilidad.

MÁS MUERTO QUE UN DIDO
Tenemos una idea bastante clara del aspecto del dido, extinguido hace tiempo, gracias a un dibujo realizado por M. Kitchener del Real Museo de Escocia en Edimburgo. Nos muestra un pájaro con mejor aspecto y más airoso de lo que se piensa en general. Ahora parece más lamentable que nunca que el dido ya no exista.
La historia de la relación del hombre con el dido empieza en 1510 cuando la isla Mauricio, en el océano Índico, al este de Madagascar, fue avistada por marineros portugueses. Aunque la isla ya era conocida por los comerciantes árabes, en esa época estaba todavía deshabitada. Es más o menos elíptica, de 61 X 47 kilómetros, y tiene una superficie de unos 2.000 kilómetros cuadrados, aproximadamente las tres cuartas partes de Rhode Island.
Los portugueses no la poblaron y los holandeses llegaron en 1598 y la llamaron así en nombre de la autoridad suprema de los Países Bajos, el estatúder Maurice de Nassau. La isla recibió la versión latina de su nombre y se convirtió en Mauricio.
Los holandeses trataron de colonizar la isla y fracasaron. Fue ocupada por los franceses en 1721. Lucharon con los ingleses por ella, pero siguió siendo francesa, aproximadamente hasta 1965, en que la isla consiguió su independencia. En la actualidad su población ronda el millón de habitantes, la mayoría de ellos de ascendencia africana o india. Con el debido respeto por el pueblo de Mauricio, no obstante, el principal reclamo de la isla es un pájaro que ya no existe.
Los portugueses fueron los primeros en informar de la presencia del ave, después de explorar la isla.
Era un ave grande, mayor que un pavo, que pesaba unos 22 kilos y tenía unas robustas patas amarillas. Mostraba plumas grisáceas en algunas zonas blancas, con un copete de este color en la cola. Sus alas diminutas no le permitían volar. Su característica más notable era su cabeza, que lucía un pico negro, con una punta ganchuda rojiza, diferente de cualquiera otra ave del mundo. Pertenecía a la familia de las palomas y con frecuencia es descrito como una paloma grande que no vuela. Existía sólo en Mauricio, aunque había otras especies relacionadas, llamadas «solitarios», en las islas cercanas a Reunión y Rodríguez.
El ave de Mauricio, al no tener enemigos, nunca había desarrollado métodos de autodefensa. Sin volar y desvalida, pareció estúpida a sus descubridores portugueses, que le dieron el nombre de «dido» (Del portugués duodo, que significa «simplón»).
Cuando Mauricio fue colonizada, los nuevos habitantes mataron al dido libremente, al igual que los animales que llegaron con ellos. En esa época a nadie se le ocurría que fuera necesario conservar las especies raras, y no había establecimientos zoológicos que pudieran salvar a los animales que desaparecían de la vida salvaje. En 1698 había muerto el último dido y un organismo realmente magnífico e insólito había desaparecido para siempre. Las especies relacionadas de las islas vecinas también se extinguieron unas pocas décadas después.
En la actualidad, en el idioma inglés, el dido sólo existe en la frase «más muerto que un dido». La palabra se utiliza también para referirse a cualquier persona irremisiblemente anticuada que se refugia en un conservadurismo ciego (¡Pobre dido! Ser recordado por eso...).
Sabemos de la existencia del dido por los dibujos que se hicieron de él y por unos pocos esqueletos que se conservan además de una cabeza y unas pocas patas.
Conocemos su aspecto porque aparece uno de ellos como personaje en el tercer capítulo de «Alicia en el país de las maravillas», de Lewis Carroll. John Tenniel, el famoso ilustrador, lo hizo aparecer en dos de sus dibujos, y lo hace protagonista en el que entrega a Alicia un dedal (su propio dedal), en premio. En la ilustración, el dido aparece como un pájaro obeso al que se puede imaginar fácilmente anadeando a la manera torpe. Así, su comportamiento estaría de acuerdo con su nombre y ayudaría a explicar por qué se ha extinguido.
Kitchener piensa que es una imagen errónea. Es posible que se haya basado en algunos pájaros cautivos a los que se cebó y se mantuvieron inactivos. También puede estar influida esta imagen por la afirmación común de que era mayor que un pavo, y enseguida se relaciona a los pavos domésticos y cebados (¡Quién sabe! Si se hubieran salvado los didos puede ser que hubiera granjas de didos y carne de dido superior a la del pavo).
En su lugar, Kitchener empezó a trabajar con dibujos anteriores que muestran pájaros más esbeltos. Su modelo parece mucho menos torpe y probablemente podía correr de forma más ligera. Después de todo no hay por qué añadir el insulto de la torpeza al agravio de la extinción.
Como un ejemplo de la interrelación de las especies, en Mauricio hay un árbol cuyas semillas no germinan a no ser que su fruto haya recorrido el tracto digestivo del dido. Los jugos digestivos del dido escarificaban la semilla y cuando finalmente era depositada, brotaba (con ayuda de fertilizante). Todos los árboles de la misma especie en Mauricio tienen por lo menos trescientos años. Ninguno retoñará y, con el tiempo, estarán más muertos que un dido.

EL PRIMER CATALIZADOR
Otra opinión sobre el origen de la vida se basa en los trabajos independientes de Sidney Altman, de la Universidad de Yale, y Thomas R. Cech, de la Universidad de Colorado, que compartieron en 1989 el premio Nobel de Química.
He aquí el principal problema sobre el origen de la vida que ha desconcertado a los bioquímicos. En todas las células vivas hay dos grupos fundamentales de compuestos. Uno es el ácido nucleico ADN (ácido desoxirribonucleico), que almacena con mucha eficacia la información genética y que fabrica gran número de moléculas, copias exactas de sí mismo, para transportar la información de célula a célula y de padres a hijos. El ADN se localiza en el núcleo de la célula, pero traspasa la información genética a otro tipo de ácido nucleico, el ARN. El ARN (ácido ribonucleico) puede rebasar el núcleo de la célula y desde el exterior supervisar la producción de numerosas moléculas proteicas.
Cada una de estas moléculas, que son muy numerosas, consta de una superficie única, y en ella se pueden producir algunas reacciones químicas con gran rapidez, que en situación normal se desarrollarían muy despacio. Las proteínas actúan como «enzimas» o «catalizadores» acelerando y controlando las reacciones químicas que hacen posible que las células y los organismos lleven a cabo todos los cambios complejos que los mantienen vivos.
Sin embargo, hay una pega. Las moléculas de ADN pueden almacenar la información genética con notable eficacia, pero no pueden actuar como catalizadores. Las proteínas son grandes catalizadores, pero no pueden almacenar la información genética, y una célula viva tiene que ser capaz de hacer ambas cosas.
Entonces, ¿cómo empezó la vida? ¿Se formaron algunas moléculas de ADN por la interacción fortuita de átomos y moléculas? En ese caso, esas moléculas podrían almacenar información genética y fabricar nuevas moléculas exactamente iguales a ellas, pero por sí mismas no podrían hacer nada. ¿Se formaron algunas moléculas de proteína por la interacción fortuita de átomos y moléculas? En ese caso, podrían catalizar reacciones, pero no podrían controlar la producción de otras moléculas como ellas y se extinguirían.
Entonces, ¿se formaron simultáneamente las moléculas de ADN y proteínas por una interacción fortuita? A lo mejor es pedir demasiadas coincidencias. Los científicos, entretanto, contemplan las dos posibilidades: el origen de las moléculas de ADN y el desarrollo de las proteínas a partir de ellas, o el origen de las moléculas de proteína y el desarrollo de las moléculas de ADN a partir de las primeras, y ninguno ha sido capaz de encontrar un guión verosímil de algún tipo.
Paradójicamente, sin embargo, cuando el ADN transmite la información al ARN, incluye gran cantidad de secuencias sin sentido (no se sabe por qué existen) que son recortadas en el ARN. Thomas Cech supuso que las secuencias sin sentido son recortadas por el efecto catalítico de ciertas proteínas, ya que se pensaba que sólo las proteínas eran catalizadores.
En 1982, trató de aislar el catalizador proteico o enzima específica que cortaba la secuencia. Poco a poco, se eliminaron todas las enzimas de la mezcla del ARN purificado de su secuencia sin sentido, y la purificación continuó. Finalmente, en una solución sin enzimas, las secuencias sin sentido eran recortadas de todas formas.
La única conclusión posible era que el propio ARN tenía propiedades catalíticas. Podía purificarse a sí mismo.
Sin embargo, ésta no era más que la primera etapa. Hasta entonces, se había observado al ARN actuar sobre sí mismo, pero sobre nada más. En 1983, Altman descubrió que otro ARN, llamado «ARN de transferencia», también tenía que ser purificado de secuencias sin sentido. Cosa que llevaba a cabo el ARN y no las proteínas.
El trabajo quedaba elaborado con tanta precisión que fue aceptado por los científicos casi de inmediato. La consecución de las investigaciones demostró que las moléculas de ARN podían catalizar una gran variedad de cambios químicos y se empezó a pensar en dichas moléculas como en un tipo de enzima. Puesto que ARN quiere decir «ácido ribonucleico», las moléculas de ARN catalítico se llamaron «ribozimas», y Cech y Altman compartieron el premio Nobel.
A partir de aquí, hay una posibilidad de visualizar el comienzo de la vida de manera que se eluda el punto muerto ADN frente a proteínas.
Supongamos que en algún momento, durante los primeros 1.000 millones de años de existencia de la Tierra, se formaron moléculas de ARN, por la interacción fortuita de átomos y moléculas, bañados por la energía solar, la luz o la actividad volcánica. Las moléculas de ARN podían almacenar información genética y fabricar más moléculas copias de sí mismas. También podían catalizar varias reacciones, de manera que debió de formarse una especie de «vida de ARN» primitiva.
No obstante, las moléculas de ARN no son perfectas. Pequeños cambios químicos debieron de convertir algunas moléculas de ARN en moléculas de ADN. Éste no tendría efectos catalíticos, pero almacenaría la información genética con mucha más eficacia que el ARN. Las moléculas de ARN también podían producir proteínas que no almacenaran la información genética, pero son unos catalizadores mucho más eficaces que el ARN.
En consecuencia, una vida mucho más avanzada, compuesta de ADN y proteínas, se formaría y expulsaría a la primitiva vida de ARN. Aunque no del todo. Las moléculas de ARN siguen existiendo en las células actuales y cumplen funciones específicas.

EL QUINTO REPTIL
En 1989, Susan F. Schafer, del parque zoológico de San Diego, informó de que determinado animal parecía referirse a tres especies diferentes. Si esto resultase cierto, sería de gran interés para los zoólogos, ya que el animal es uno de los más extraordinarios que hay en la Tierra.
Se trata de un reptil, y hace cien millones de años los reptiles constituían la forma dominante de vida terrestre. Los enormes y majestuosos dinosaurios, los colosales ictiosaurios y plesiosaurios marinos y los pterosaurios que volaban por los aires, eran todos reptiles. Todos desaparecieron hace unos 65 millones de años, probablemente como consecuencia de la colisión contra la Tierra de un cometa o un asteroide de grandes proporciones.
Sin embargo, los pájaros y los mamíferos primitivos se mantuvieron, así como algunos reptiles. Los reptiles que sobrevivieron a la catástrofe, y que todavía viven en la actualidad, comprenden cuatro «órdenes» que nos resultan familiares a todos. El primero se refiere a las tortugas, las más antiguas del grupo, que evolucionaron incluso antes que los dinosaurios y actualmente se desenvuelven con éxito. El segundo se refiere a los caimanes y los cocodrilos, los reptiles actuales más próximos a los dinosaurios extinguidos. El tercero se refiere a los diferentes lagartos, y el cuarto lo forman los reptiles que han evolucionado más recientemente y los que se desenvuelven mejor en el mundo actual, las serpientes.
Pero ¡un momento!, pues existe un quinto orden de reptiles del que casi nadie, a no ser los especialistas, han oído hablar. Hace más de 200 millones de años, cuando los reptiles evolucionaban hacia todo tipo de variedades, existía el orden de los Rhyncocephalia, «cabezas de pico» en griego.
Los rincocéfalos evolucionaron hacia una gran variedad de especies diferentes, algunas de ellas de tamaño considerable, pero no subsistieron con mucho éxito. Incluso cuando los dinosaurios surgieron y se multiplicaron, los rincocéfalos quedaron reducidos a un solo género vivo, el Sphenodon (del griego «dientes en forma de cuña»).
No obstante, los animales de este género consiguieron resistir, y cuando ocurrió la catástrofe que destruyó a los dinosaurios, de alguna manera, el Sphenodon sobrevivió y una especie sigue viva en la actualidad y se localiza en Nueva Zelanda. Se la conoce como tuatara («lomo espinoso» en maorí).
Tiene el aspecto de un gran lagarto, puede alcanzar los 60 centímetros de largo y a veces llega a vivir hasta cien años. Es gris y está cubierto de manchas blancas y amarillas. Pero aunque tiene el aspecto de un lagarto, no es un lagarto. Está provisto de una fila de espinas a lo largo de la cresta de la cabeza y el lomo, que los lagartos no tienen. Posee una tercera membrana transparente en los ojos, que los lagartos tampoco tienen. Sus huesos muestran ciertas características que no se encuentran en los lagartos.
Probablemente lo más asombroso es que tienen una abertura en la parte superior del cráneo bajo la cual se encuentra la glándula pineal (una parte del cerebro). La estructura de la glándula pineal es parecida a la del ojo (en el caso del tuatara suele llamársele «ojo pineal») que parece indicar una cierta sensibilidad a la luz. El parecido a un ojo es muy acusado en los más jóvenes tuataras, mientras que en los adultos la piel de la cabeza se pigmenta de forma que puede atravesarla muy poca luz. Seguramente el ojo pineal ayuda al animal a determinar el nivel de luz en el cielo, y a distinguir entre los días soleados y nublados, entre la mañana, el mediodía y la tarde, y guía el comportamiento del animal de acuerdo con esto.
En tiempos primitivos, el tuatara se podía encontrar en toda Nueva Zelanda. Estas islas se habían separado de las otras masas continentales hacía tanto tiempo que nunca se habían desarrollado mamíferos terrestres autóctonos, así que el tuatara (y varios pájaros, como los moas gigantes) podían vivir en paz. Con el tiempo, sin embargo, llegaron los seres humanos y sus animales domésticos, y el tuatara y otros animales autóctonos de Nueva Zelanda disminuyeron.
Quedan muy pocos tuataras y el gobierno de Nueva Zelanda los protege con gran celo para mantener viva la especie.
Hay unos quinientos tuataras en la isla de North Brother, que mide sólo unas cuatro hectáreas, y una veintena en cada una de las islas de Stanley y Red Mercury. Susan F. Schafer visitó las distintas islas y detectó las diferencias esenciales en las criaturas de cada lugar como para afirmar que se trata de tres especies estrechamente relacionadas.
¿Por qué molestarse en salvar este animal? En primer lugar porque hay un cierto apego sentimental hacia los animales que son «fósiles vivientes», anteriores a los dinosaurios, y que todavía sobreviven. ¿Podemos consentir que se exterminen cruelmente?
Debemos preservar la variedad de la vida. La eficacia en el funcionamiento de la vida depende de la interacción entre las especies. Cada especie que desaparece es un desgarrón en la tela de araña de la vida y hace que las posibilidades de supervivencia de todas las demás disminuyan. Es preciso conservarlas.

UN ERROR SOBRE LA MARIPOSA VIRREY
Dos biólogos de Florida, David B. Ritland y Lincoln P. Brower, han hecho descender la popularidad de un fenómeno biológico tan conocido como el mimetismo de Bates.
La teoría fue obra de Henry Walter Bates, el hijo de un fabricante de calcetería que no tuvo muchas oportunidades de recibir una educación antes de empezar a trabajar en el negocio de la familia. A pesar de que trabajaba trece horas al día, estudió en una escuela nocturna. La entomología, el estudio de los insectos, se convirtió en su afición favorita durante toda su vida.
En 1844, Bates se hizo amigo de Alfred Russel Wallace (quien, junto con Charles Darwin, desarrolló la teoría de la evolución por selección natural). Bates consiguió interesar a Wallace en la entomología, y éste le propuso hacer un viaje a las selvas tropicales en las que podrían recolectar especímenes y aprender sobre el origen de las especies.
Siguiendo esta idea, que resultaba audaz en 1848, los dos amigos desembarcaron en Brasil en la desembocadura del río Amazonas. Wallace volvió en 1852, pero Bates permaneció allí durante once años, la mayoría del tiempo en la parte alta del río, entonces prácticamente desconocida. Recogió más de catorce mil especies animales, la mayoría insectos, y más de ocho mil de ellas eran, hasta entonces, desconocidas para los europeos.
Poco después de su regreso, Darwin publicó El origen de las especies y Bates lo aceptó con gran entusiasmo. De hecho, Bates presentó gran cantidad de información sobre el mimetismo de los insectos, basada en su recopilación amazónica que apoyaba en gran medida las ideas darwinianas.
Es difícil suponer que una especie de insectos imite el aspecto de otra de forma deliberada. Sin embargo, es fácil comprobar que las imitaciones pueden surgir por variaciones al azar. Si la especie imitada es perjudicial o repugnante en algún aspecto, y los depredadores la evitan, la imitación resulta beneficiosa para el insecto mimético. El mimetista también es evitado y los que más se parecen al insecto perjudicial son los que más probabilidades tienen de no ser comidos. Resulta que, de generación en generación, los que mejor imitan al insecto perjudicial mejor sobreviven.
Esto se ajusta exactamente a las ideas darwinianas y se conoce como mimetismo de Bates.
El mejor ejemplo que creíamos tener de este mimetismo era el caso de la mariposa monarca y la mariposa virrey. La mariposa monarca, en su forma larvaria, se alimenta de algodoncillo, lo que inculca a sus tejidos un gusto horrible que ningún pájaro probará dos veces. Un pájaro joven que nunca ha visto una monarca puede comérsela, pensando que se trata de un delicioso bocado a su alcance, pero un mordisco basta. El pájaro huye volando, evidentemente enfermo, y nunca más volverá a tocar una mariposa monarca (La monarca muestra un dibujo en sus alas llamativo y visible, fácil de reconocer).
Había escrito yo un artículo sobre la monarca en 1990 en el que decía:
En realidad, hay otra mariposa, llamada «mariposa virrey», poco menor que la monarca, pero de colorido muy similar, gracias a las fuerzas ciegas de la evolución que dictan que aquellas que más se parecen a la monarca son las que más probabilidades tienen de vivir suficiente como para reproducirse. La virrey es comestible, pero cualquier pájaro que haya probado una monarca tampoco se acercará a una virrey. Es inútil arriesgarse.
Me había equivocado. Pero no me siento compungido, ya que, parece ser, todo el mundo científico lo estaba también. Todos estaban tan convencidos de que la mariposa virrey era un caso de mimetismo de Bates que nadie se preocupó de comprobarlo. Sin embargo, los dos biólogos de Florida lo hicieron con tres tipos de mariposas, la monarca, la reina y la virrey, y les arrancaron las alas para que los pájaros no las pudieran identificar por su apariencia y las evitaran. Los torsos rechonchos y desnudos sirvieron de alimento a confiados mirlos de alas rojas, que se lanzaron sobre ellos con ansiedad y pasaron después a un período de fuerte rechazo.
Resultó que las mariposas monarca, reina y virrey eran todas repugnantes. Todas tenían un sabor asqueroso. Por tanto, no se trataba de un caso de mimetismo de Bates y los biólogos empezaron de inmediato a pensar que dicho mimetismo no se producía tan a menudo como habían pensado.
En este caso, sin embargo, ¿por qué una mariposa imitaba tanto a otra, si no estaban intentando esconderse bajo la protección del mal gusto? En la actualidad se piensa que cuando tres mariposas repugnantes se imitan unas a otras, se benefician las tres. Los pájaros reconocen el modelo de las alas y se mantienen alejadas de las tres. Esto quiere decir que un pájaro joven que ataca a una de ellas, a partir de ese momento se mantendrá alejado de las tres.
Después de todo podía pillar la primera vez una virrey y, si le gustaba, perseguiría una monarca cuando la viese. Sería rentable para las tres saber mal.

LAS HORMIGAS Y EL REINO ANIMAL
La Biblia considera a las hormigas como ejemplo de laboriosidad y previsión, trabajadoras sin descanso y almacenando comida para el invierno. Dice: «Ve, ¡oh perezoso!, a la hormiga; mira sus caminos y hazte sabio» (Proverbios, 6,6). También la popular fábula de la cigarra y la hormiga compara la laboriosidad de la hormiga con el hedonismo de la cigarra.
Tampoco la ciencia se olvida de la hormiga. Además, ha tenido lugar recientemente un «Primer Simposio Internacional sobre las Interacciones de Hormigas y Plantas». Sin llegar a las asombrosas complejidades que marcan la relación entre las hormigas y las plantas de las que se alimentan y a las que explotan, podemos considerar algunas curiosidades sobre ellas.
Toda la vida existente está dividida en unos treinta grandes grupos llamados «phyla». Digo unos treinta porque los biólogos no están absolutamente de acuerdo en extremos de algunas clasificaciones.
Por supuesto el phylum que mejor conocemos es el que se refiere al hombre: el Chordata. Los cordados incluyen todos los animales con esqueleto interno que se parecen entre sí en determinadas características fundamentales. Abarca los mamíferos, aves, reptiles, anfibios y peces. Los seres humanos, los gorriones, las serpientes, las ranas y las caballas son todos cordados.
Para la mayoría de nosotros, todos los demás phyla podrían parecer despreciables. Incluyen seres tales como chinches y gusanos, plantas y bacterias. No son el tipo de especies que imaginamos a Noé conduciendo al arca. Cuando vemos ilustraciones de los animales avanzando de dos en dos hacia el arca, casi todos son cordados.
Por supuesto, si nos paramos a pensar en ello, incluso los chinches y los gusanos son importantes, pero ¿cuán importantes? Pues bien, hay un phylum llamado «Arthropoda» que incluye a cangrejos y langostas, termitas y arañas, ciempiés y miriápodos, e insectos. Cualquiera que estudie los distintos phyla tiene que admitir que los artrópodos son por lo menos tan importantes como los cordados y, en algunos aspectos, mucho más extraordinarios.
Cada phylum se divide en muchas especies, que no se pueden entrecruzar. Los seres humanos, por ejemplo, son una especie de cordados, y no pueden entrecruzarse con ninguna otra especie de cordados. Hay decenas de millares de diferentes especies de cordados en total.
Puede parecer, por tanto, que los cordados son un ejemplo de un phylum que presenta una gran variedad de especies diferentes, pero el número de especies de cordados palidece en comparación con el de artrópodos. Hay por lo menos un millón de especies distintas de artrópodos, muchas más que el número de especies de todas las otras formas de vida juntas. Y, en realidad, no hemos estudiado y descrito todas las especies vivas sobre la Tierra y la mayoría de los biólogos cree que las especies sin descubrir son casi todas artrópodos. En la actualidad puede haber hasta diez millones de especies de artrópodos en la Tierra.
De los distintos tipos de artrópodos, la mayoría de las especies, con gran diferencia, son insectos. Y de éstos, los más comunes son los escarabajos. Se conocen 700.000 especies de escarabajos, y quién sabe cuántas más quedan por descubrir.
¿Por qué tantos insectos? Son criaturas pequeñas que cada año dan lugar a una nueva generación muy numerosa. Muchos individuos y muchas generaciones significan que el proceso evolutivo es enormemente rápido en comparación con la multiplicación lenta de los cordados.
Se están formando continuamente nuevas variedades de artrópodos y cualquier extraterrestre que estudiase la Tierra podría llegar a la conclusión de que los escarabajos eran sus habitantes más importantes, al menos por lo que a cantidad y variedad se refiere.
No obstante, los escarabajos se cuentan entre los insectos más grandes. ¿Qué pasa con los insectos más pequeños? En concreto, ¿qué pasa con las diminutas hormigas? Las hormigas son un grupo mucho menos diversificado que los escarabajos. Sólo se conocen 15.000 especies de hormigas y aunque es posible que haya muchas más por descubrir, nunca se podrán comparar con los escarabajos en cuanto a su variedad. (No obstante, el número total de especies de mamíferos —los cordados de sangre caliente con pelo, incluido el hombre— es sólo de 4.237, así que es evidente que hay mucha más variedad en las hormigas que en los mamíferos).
Sin embargo, consideremos el número de individuos y no el de especies. Los científicos han estudiado pequeñas áreas de bosques y han recontado los insectos. Parece que las hormigas llegan a sumar el 70% entre todos los insectos, mientras que sólo el 10% de ellos son escarabajos. Para decirlo de otra forma, si se imaginase una balanza enorme que en uno de sus platillos contuviera todas las hormigas del mundo y en el otro todos los demás insectos, las dos pesarían lo mismo. El peso de las hormigas existentes es igual al del resto de los insectos juntos.
En realidad podemos imaginar algo mucho más dramático. Piénsese de nuevo en la balanza enorme. En un platillo se han amontonado los innumerables billones de hormigas. En el otro, se colocan todos los demás animales, excluidos los insectos. Ello incluye los 5.000 millones de seres humanos, todos los elefantes, hipopótamos, ganado, caballos, ratas y ratones, avestruces y águilas, serpientes, atunes, gusanos, langostas, etc. No importa. Las hormigas pesan más.

EL ORNITORRINCO
En 1800 llegó a Gran Bretaña, procedente del continente recién descubierto de Australia, la piel disecada de un animal. Este continente ya había sido fuente de plantas y animales nunca vistos hasta entonces, pero aquello era realmente extraño. Medía casi 60 centímetros y tenía una espesa cubierta de pelo. Mostraba también un pico plano y elástico, una cola plana y ancha y un espolón en cada tobillo trasero cuyo objetivo evidente era segregar veneno. Además, bajo la cola había una sola abertura.
Los zoólogos explotaron furiosos. Era una broma pesada y estúpida. Algún gracioso en Australia debía de haber ensamblado partes de criaturas muy distintas para burlarse de los ingenuos científicos. Sin embargo, no había señales de junturas artificiales. Poco a poco, después de décadas, los zoólogos admitieron que se había descubierto una nueva criatura. Su nombre científico es Ornithorbinchus paradoxal («pico de ave paradójico» en latín).
Su aspecto era el de un mamífero como debe ser. La capa espesa de pelo daba fe. Sólo los mamíferos tienen pelo. No obstante, parecía que ponía huevos, y el sistema de desove era muy semejante al de los reptiles.
Sin embargo, hasta 1884 no se encontraron los auténticos huevos desovados por una criatura con pelo (Estas criaturas incluían al oso hormiguero con púas, nativo de Australia y Nueva Guinea). A estos mamíferos ponedores de huevos se les llamó «monotremas» (un agujero).
Pero hasta el siglo XX no se conoció la vida íntima del ornitorrinco. Es un animal acuático que vive en agua dulce. Su pico no guarda relación con el de un pato. Los orificios nasales están dispuestos de manera diferente y está compuesto por una estructura elástica y no córnea como la del pato.
Los fondos de las aguas en las que vive el ornitorrinco son siempre fangosos, y es en el lodo donde busca su suministro de alimentos. También puede detectar corrientes eléctricas sutiles que le ayudan a encontrar sus presas.
Cuando a la hembra le llega la hora del desove, construye una madriguera especial que cubre de hierba y tapa con mucho cuidado. Después pone dos huevos de unos dos centímetros de diámetro rodeados de una cáscara córnea translúcida. La madre los coloca entre la cola y el abdomen y se enrolla sobre ellos.
Las crías tardan semanas en salir del cascarón. Los ornitorrincos recién nacidos tienen dientes y un pico muy corto y se alimentan de leche. La madre no tiene pezones, pero la leche rezuma a través de unas aberturas abdominales porosas. La cría lame estos poros y se alimenta de esta manera. A medida que se desarrolla, el pico crece y los dientes se caen.
Con todo, a pesar de la información que los zoólogos han obtenido de los ornitorrincos, sigue habiendo una pregunta sin respuesta: ¿son mamíferos con características de reptiles, o reptiles con características de mamíferos? Puesto que no podemos encontrar la solución en las criaturas vivas, ¿qué ocurre con el pasado? Se dispone de los fósiles de algunos animales, pero la mayoría de ellos son huesos y dientes. ¿Se puede determinar algo de ellos?
Bien, todos los reptiles vivos disponen sus patas hacia fuera, de manera que su parte superior, justamente encima de la rodilla, es horizontal. Por otra parte, todos los mamíferos disponen sus patas verticalmente, por debajo del cuerpo. Además, los reptiles tienden a tener todos los dientes iguales, mientras que los mamíferos tienen los dientes diferenciados, incisivos afilados delante, molares planos detrás y dientes cónicos en medio.
En realidad, hay un fósil llamado «terápsido» que tiene patas verticales y dientes diferenciados, al que se le considera sin ninguna duda un reptil, a tenor de otras diferencias. En todos los mamíferos vivos, la mandíbula inferior está formada por un solo hueso. La mandíbula inferior del terápsido está compuesta por siete huesos, pero uno de ellos muy grande. Los otros seis son pequeños y se amontonan en el ángulo posterior de la mandíbula.
Los mamíferos tienen también paladar, de manera que el aire inhalado es conducido por aquí hacia los pulmones. Esto significa que la respiración no se interrumpe más que durante un segundo o dos mientras se traga. Los reptiles no tienen paladar, porque, al ser de sangre fría, no necesitan un suministro de oxígeno regular. Algunos de los terápsidos más evolucionados tienen paladar, lo que parece indicar sangre caliente y, quizás, incluso una piel con pelo. Iban bien encaminados a convertirse en mamíferos, pero se extinguieron todos. Los únicos terápsidos vivos son los que han desarrollado todas las características de mamíferos y son mamíferos.
Pero el ornitorrinco y el oso hormiguero con púas subsisten. Giles T. MacIntyre, del Queens College, estudió el nervio trigémino. En todos los mamíferos, el nervio atraviesa un hueso del cráneo. En los reptiles circula entre dos huesos. En los ornitorrincos jóvenes, cuyos huesos craneales no se han fusionado, el nervio trigémino circula también entre huesos. Maclntyre piensa que esto convierte al ornitorrinco en un reptil. No obstante, la polémica continúa.

EL AUTÉNTICO UNICORNIO
Gunter Nobis, antiguo director del Museo Alexander Koenig de Bonn, en Alemania, examinó los huesos que se habían encontrado en un antiguo palacio de Cnosos, en Creta, cuyas ruinas se examinaron por primera vez en 1894, y llegó a algunas conclusiones interesantes.
El palacio de Cnosos estaba formado por una maraña increíble de habitaciones y mucha gente piensa que representa el «laberinto» que, según la mitología griega, fue construido para el rey Minos de Creta por el legendario inventor Dédalo. La historia cuenta que la esposa de Minos, Pasifae, se enamoró de un toro sagrado y que de estos amores culpables nació un monstruo, el Minotauro, que tenía el cuerpo de un hombre, y la cabeza de un toro. El laberinto fue construido para esconder al Minotauro, que se alimentaba de los enemigos del rey, hasta que Teseo de Atenas lo mató.
La verdad que esconde este dramático mito es que los antiguos cretenses ensalzaban poderosamente a los toros. Esto no resulta sorprendente puesto que el toro es un símbolo obvio de fertilidad, y en las civilizaciones antiguas era un atributo a fomentar. La fertilidad mantenía numerosos los rebaños de animales, abundantes las cosechas de grano y el crecimiento de la propia población humana. Se pensaba que, adorando a los toros con los ritos apropiados, se abundaría en todo ello.
Por esa razón los israelitas alzaron el «becerro de oro» (en realidad un toro joven) como objeto de culto. Jeroboam, rey de Israel, erigió dos para que su pueblo los adorara. Y probablemente, los cretenses también adoraban a los toros. Incluso hacían juegos con ellos. Bellísimas pinturas cretenses muestran a jóvenes agarrando los cuernos del toro y dando paso al salto mortal por encima de su lomo.
No es sorprendente, por tanto, que los huesos hallados en el antiguo laberinto, estudiados por Nobis, fueran de toro. Más del 60% fue identificado como de toro, pero no todos eran iguales. Algunos sí representaban el tipo de ganado con el que estamos familiarizados. Pero otros eran claramente más grandes, y se piensa que pertenecen al «uro», un buey salvaje posible antecesor del ganado corriente.
El uro (término del alemán antiguo que significa «buey primitivo») era negro y bastante más grande que el ganado ordinario, llegando a medir alguno hasta 1,8 metros hasta el lomo. Tenía unos cuernos enormes, curvados hacia delante y debió de haber sido una criatura formidable. Es obvio que para poder utilizarlo se necesitaba criarlo más pequeño y más manso, y eso es lo que hicieron.
Se interpreta que en la Biblia se habla del uro como re'em, en hebreo. En las versiones modernas de la Biblia esto se traduce como «el buey salvaje» y en la Biblia se cita al uro como un ejemplo de animal poderoso e indomable. En la Biblia del rey Jacobo I, la palabra fue traducida erróneamente como «unicornio» y esto dio lugar a la idea de que un animal mítico de un cuerno debía existir puesto que la Biblia hablaba de él. ¡De ninguna manera! El auténtico unicornio es el uro, y tenía dos cuernos enormes.
El uro sobrevivió a los tiempos antiguos y a la Edad Media. El último rebaño conocido existió en Polonia y fue eliminado en 1627. Es una pena, porque eran unos animales magníficos.
De los huesos estudiados por Nobis, parece deducirse que los cretenses cuidaban rebaños de ganado vacuno y de uros y que se utilizaban ambos como alimento, en sacrificios religiosos, en juegos y para cría.
Lo más interesante de los hallazgos de Nobis es que algunos huesos eran de tamaño intermedio. Es posible que el ganado y los uros fueran entrecruzados y que existieran animales híbridos de ambos. Estos animales se cruzaron en el curso normal de la naturaleza, cuando rebaños de unos y otros se mantenían juntos. Es muy posible que los cretenses encontraran a los híbridos útiles y, por tanto, fomentaran su cría.
Así, una mula, que es un híbrido de un caballo y un burro, tiene propiedades superiores en algunos aspectos a las de sus progenitores (es más fuerte y más inteligente que ambos, por ejemplo). Aunque las mulas no son fértiles y no pueden tener descendencia, la cría de mulas ha existido a lo largo de la historia, debido a su utilidad en algunos aspectos. Puede que el híbrido vaca/uro cumpliese también su papel y que los cretenses los consideraran especialmente útiles y los conservaran para determinados propósitos.
También es posible que los mantuvieran apartados, y que dieran lugar a una leyenda fuera de Creta. La gente podía saber de un entrecruzamiento, pero sin comprender exactamente en qué consistía. Naturalmente, la historia más dramática sería la más contada, la más repetida y la más creída, y ¿había alguna más asombrosa que la del híbrido hombre/toro? Es posible que así naciese la leyenda del Minotauro: puede ser el último resto del uro, el auténtico unicornio.

UN CABALLO DIFERENTE
La variedad de caballo poco común —en realidad, la menos frecuente de todas— está siendo devuelta al estado salvaje en su propio entorno, donde no se le veía desde hace un cuarto de siglo.
Este caballo llamó la atención de los naturalistas occidentales por primera vez cuando un explorador de la provincia polaca del Imperio Ruso mató uno de un disparo en Mongolia occidental en la década de 1870. Llevó su piel y su esqueleto al Museo de San Petesburgo y allí los naturalistas descubrieron que no se trataba exactamente de un caballo corriente, sino de una especie propia.
Puesto que el nombre del explorador era Nikolai Przewalski, al animal se le llamó «caballo Przewalski». Mientras que el caballo común que vemos a nuestro alrededor —tirando de los carros y corriendo en las carreras— recibe el nombre científico de Equus caballus, al nuevo caballo se le llamó Equus przewalskii.
¿Cuál es la diferencia entre los dos caballos? No mucha. Cualquiera que mire a un caballo Przewalski lo consideraría de inmediato un tipo de poni, de color marrón grisáceo apagado, pelo áspero y crin escasa. Sin embargo, observando con más detalle, tiene sus diferencias y quizá la más notable sea que las células de Equus przewalskii tienen dos cromosomas más que las de un Equus caballus vulgar y corriente.
El caballo Przewalski convirtió en su hogar la región de Mongolia, y tiempo atrás debió de estar muy difundido en la zona, pero en la actualidad ha sido reducido a un pequeño rebaño en perpetuo peligro de extinción. Y en realidad, la extinción llegó, en cierto modo, ya que en la década de los sesenta se vio por última vez el último caballo Przewalski en estado salvaje.
Con todo, la extinción no era completa y definitiva. Varios caballos Przewalski habían sido capturados y enviados a zoológicos, y parece que no tienen problemas para reproducirse en cautividad. La consecuencia es que ahora no hay ningún caballo salvaje de la especie, pero alrededor de un millar viven en los zoológicos. Se está haciendo un gran esfuerzo para transferir algunos de estos caballos tan poco comunes de nuevo a Mongolia y devolverlos a su estado salvaje.
Puede preguntarse por qué es tan importante instalarlos en Mongolia. ¿Es el medio ambiente de Mongolia especialmente adecuado para el caballo Przewalski y no lograría desarrollarse en ningún otro lugar? Sería poco probable, ya que los caballos comunes se adaptan bien a cualquier parte del mundo. Ésta es precisamente la razón por la que no es posible llevarlo a cabo con los caballos Przewalski.
Para entenderlo, piénsese en cómo se separan las especies. Por lo general, un individuo determinado da lugar a otros miembros de la especie y mantiene al mismo tiempo su identidad. Por supuesto, siempre se producen mutaciones, pequeños cambios en las características que se producen al azar, de manera que no hay dos miembros de una especie completamente iguales. El entrecruzamiento mezcla estas mutaciones y las extiende por toda la especie.
No obstante, si dos poblaciones de una especie determinada se separan y permanecen así durante un largo período de tiempo, cada población desarrolla mutaciones propias. Si el período de separación es lo bastante largo, se producen en cada población gran cantidad de mutaciones de diferentes tipos, y una y otra se convierten en especies diferenciadas.
Por ejemplo, los camellos descienden todos de un antepasado común, pero los camellos de Oriente Medio y los de Mongolia han evolucionado por separado. Los dos siguen siendo, sin lugar a dudas, camellos, pero el primero, el «camello árabe», tiene una joroba, mientras que el último, el «camello bactriano» tiene dos jorobas, las patas más cortas y el pelo más largo. Son especies diferenciadas. La llama sudamericana, separada mucho antes, ha cambiado tanto que ya ni siquiera parece un camello, pero es un pariente de ambos.
Asimismo existen dos especies diferenciadas de elefantes, el indio y el africano. Y también hay mamíferos como el tapir, descendiente de un antepasado común con los elefantes pero han cambiado tanto que la relación no parece muy evidente.
Al separarse dos especies, pasan por una serie gradual de interacciones. Al final, son tan diferentes que no pueden entrelazarse y, de hecho, no se sienten impulsadas a hacerlo. Sin embargo, antes de alcanzar una fase tan diferenciada, las dos especies podrían seguir entrecruzándose, pero para engendrar crías estériles que no podrían continuar la especie mixta. Así, caballos y burros pueden entrecruzarse, pero dan origen a mulas y mulos, que son estériles.
Si las especies son todavía más próximas, pueden entrecruzarse y dar origen a una raza mixta fértil. Cuando esto ocurre, y el número de individuos de una de las dos especies cercanas es mucho menor que el de la otra, la especie en desventaja se funde dentro de la mayor y desaparece como animal independiente. La especie con más individuos puede aceptar la mezcla sin cambios sustanciales.
Éste es el caso dé los dos caballos. Si un rebaño de caballos Przewalski se instalara al alcance de los caballos comunes, se produciría un entrecruzamiento y el caballo Przewalski desaparecería. Por esta razón, estos caballos se instalarán en un área de Mongolia en la que no hay caballos comunes ni se les permitirá entrar. De esta manera, el caballo diferenciado podrá ser conservado en vida salvaje como especie única.

MATERIAL CABEZÓN
Homo Sapiens es un nombre que hace pensar en la soberbia, ya que los seres humanos nos creemos las criaturas más inteligentes de la Tierra. Durante siglos hemos creído que ninguna otra criatura tenía nada en su cabeza de lo que mereciera la pena jactarse, lo que explica por qué siempre se considera una novedad que otros animales se muestren capaces de pensar mejor de lo que imaginábamos.
Admitimos a regañadientes que criaturas con una anatomía cerebral muy parecida a la nuestra sean más inteligentes que el resto del reino animal (asumimos alegremente que las plantas no son en absoluto inteligentes y que nunca lo serán). Los chimpancés y los gorilas pueden aprender signos del lenguaje, convertirse en artistas expresionistas abstractos y, por lo general, demuestran que son nuestros parientes más próximos.
Nos jactamos de nuestros perros, que parecen lo bastante inteligentes como para seguirnos como jefes de la jauría. Puesto que el perro es un mamífero, su cerebro es, en cierto modo, como el nuestro, pero por supuesto no tan magnífico en cuanto a las áreas fundamentales (las que utilizamos para pensar en nuestras duras obligaciones).
No toda la inteligencia depende de tener una gran corteza cerebral. A lo mejor el gran cuerpo estriado del cerebro de los loros les ayuda a cubrir los tests de inteligencia. Pueden contar e identificar con precisión objetos, colores, así como formar palabras para describir objetos, de la misma forma que lo hace Koko el gorila.
Cuando los dinosaurios se convirtieron en aves que volaban mejor que los reptiles voladores como el pterosaurio, sacrificaron gran cantidad de peso para ser los verdaderos dueños del aire. Puesto que para una criatura voladora no era posible desarrollar un cerebro del tamaño de un primate, el cerebro siguió siendo pequeño, pero funcionaba con mucha más eficacia que el de un mamífero. Las aves tienen la corteza cerebral pequeña pero, proporcionalmente a su tamaño, un diencéfalo mayor. A lo mejor eso junto con su magnífico sistema circulatorio hace sus pequeños cerebros mucho más eficaces. Las humildes palomas no sólo evitan ser arrolladas por hombres urbanos apresurados sino que pueden clasificar objetos y elegir los apropiados desde perspectivas mucho más lejanas que los poderes visuales de los humanos.
Muchos científicos investigan la conciencia de los animales. Algunos estudian la notable «inteligencia» de la masa en ebullición de los insectos de las colmenas, pero la mayoría se concentran en la división principal del reino animal: el phylum Chordata (animales con espinal dorsal), y en concreto en el subphylum Vertebrala. ¿Por qué no elegir a los mamíferos superiores y a las mejores aves cuando se investiga el poder del cerebro?
La respuesta a esta pregunta es que es más fácil estudiar los cerebros más sencillos. Pero no se imagina nadie que ningún otro phylum tiene una inteligencia que valga la pena mencionar. De vez en cuando el phylum Mollusca da lugar a titulares en los periódicos. Es una división fascinante del reino animal, hasta ahora muy utilizada por los investigadores, ya que pueden estudiar la transmisión nerviosa utilizando el axón gigante del calamar.
Hay unas 100.000 especies de moluscos viviendo en el agua o en hábitats de tierras húmedas. Los moluscos aparecieron allá por los tiempos del Cámbrico, millones de años antes de que aparecieran los verdaderos vertebrados. La mayoría de los moluscos muestra simetría bilateral con la cabeza más o menos en un extremo; sus órganos internos están cubiertos por un manto carnoso y se mueven mediante un pie muscular ventral. Muchos de ellos fabrican una concha por sí mismos.
A los humanos les encanta comer moluscos. Los miembros de la clase Pelecypoda a menudo son devorados enteros y vivos. A menos que su cena haya vivido en aguas contaminadas, no se preocupe nadie. Las almejas y las ostras son un ejemplo de «evolución retrógrada» del phylum, porque no tienen cabeza ni patas visibles y no son en absoluto inteligentes. En los dibujos animados de Johnny Hart, sus almejas parlantes tienen patas y pies, pero las verdaderas no hablan ni andan.
Perteneciente al phylum Mollusca, hay una clase notable llamada Cephalopoda, que quiere decir «cabeza más pies», porque sus tentáculos surgen de la cabeza. De las diez mil especies de cefalópodos que en otros tiempos surcaban los mares primitivos, sólo quedan unas setecientas. Los cefalópodos tienen ocho o más brazos alrededor de la cabeza; dentro de sus afiladas mandíbulas se sitúa la «rádula» que raspa las presas; y el músculo del manto, que es muy potente, controla un sistema de propulsión a chorro que le permite movimientos rápidos. Comparados con las perezosas almejas, los cefalópodos tienen un sistema circulatorio cerrado muy eficaz, con capilares de paredes finas y rápido intercambio de gases.
El sistema nervioso de los cefalópodos no parece muy desarrollado, un pequeño cerebro formado por unos pocos ganglios fusionados, pero gracias a la evolución convergente funciona como el del hombre en dos aspectos. Primero, está conectado con «sistemas receptores de equilibrio» muy precisos, uno para percibir la gravedad y otro para la aceleración angular, que permite a los calamares y los pulpos realizar maniobras complejas. Segundo, los ojos de los cefalópodos poseen una retina perceptora de imágenes muy parecida, aunque no idéntica, a la humana.
Los pulpos desarrollan ingenio para encontrar modos de escapar a la cautividad, incluso si ello implica surcar el aire un momento. También se les puede enseñar cosas, como coger objetos. Recientemente, los investigadores de la Estación Zoológica de Nápoles han hecho pruebas con ellos para considerar su capacidad de aprendizaje observando a los demás. El pulpo, considerado un animal insociable, confundió todas las expectativas al pasar con rapidez una prueba después de observar lo que hacían con éxito otros pulpos.
No menospreciemos cerebros diferentes del nuestro. Cuando un ordenador muy inteligente se impone, sus circuitos no se parecen al cerebro humano, pero puede trabajar casi igual de bien. ¿O mejor?

EL AYEAYE
Los lémures son los primates más primitivos y la mayoría vive en Madagascar. Su cara se parece a la de los zorros y, por desgracia, están perdiendo, en gran medida, su lucha por la supervivencia. Esto se debe sobre todo a que se está destruyendo el arbolado de Madagascar, de manera que se está eliminando su modo de vida.
Al lémur menos común y más diferenciado se le conoce como «ayeaye». Es el lémur nocturno más grande del mundo, mide 80 centímetros del hocico a la cola. Tiene unas orejas enormes, como las de los murciélagos, y sus incisivos son de crecimiento continuo, como sucede en los roedores.
Cuando llegan a un pequeño agujero en el árbol, saben si hay un gusano dentro. Consiguen su comida golpeando la madera de los árboles para saber si hay gusanos debajo. Son los únicos mamíferos que utilizan este sistema para encontrar comida.
Sin duda, sus grandes orejas les permiten oír a los gusanos y sus incisivos de crecimiento constante les permiten romper las cáscaras y la corteza de los árboles para obtenerlos. Además, el ayeaye consigue una adaptación especial muy poco corriente. Su dedo corazón es muy delgado y largo. Este dedo lo introduce en los agujeros para sacar los gusanos o los escarabajos que lo alimentan.
Se piensa que los pájaros carpinteros hacen algo muy parecido, utilizando sus fuertes picos para acceder a alimentos que después extraen con la lengua, que es muy larga. Sin embargo, en Madagascar no hay pájaros carpinteros, por tanto, se piensa que el ayeaye cumple el papel del pájaro carpintero.
Carl Erickson, de la Universidad Duke, ha estudiado el ayeaye para averiguar cómo descubre exactamente a sus presas. Utiliza cuatro animales en cautividad y coloca gusanos en agujeros dentro de la madera. Los ayeayes nunca tenían dificultades. Localizaban los gusanos sin problemas. No sólo eso, además, no utilizaban los agujeros obvios en los que podían estar escondidos. Erickson añadió agujeros adicionales a la madera, y los ayeayes no les prestaron atención. Fueron directos a los agujeros que contenían los gusanos.
También descubrió que los ayeayes eran capaces de abrir cavidades, algunas de hasta dos centímetros por debajo de la superficie de la madera. Una vez abiertas, contenían gusanos u otro animal equivalente. Erickson observó que el ayeaye utilizaba su dedo largo para golpear la madera. Mantenían la cara pegada a la corteza de manera que las grandes orejas podían ser utilizadas para oír a la presa.
¿Cómo se las arregla el ayeaye para golpear? Puede que oiga los movimientos; o que los golpes hagan caer a los gusanos. Puede que use el olfato junto con los golpes para ayudarse. En cualquier caso, consigue el alimento, a base de un sistema único entre los mamíferos.
Es una pena que el ayeaye tenga que vivir al borde de la extinción. Estamos acostumbrados a ver a los animales de grandes proporciones con problemas de este tipo. Están desapareciendo el elefante africano, algunos tipos de rinoceronte, el tigre de Siberia y muchos otros. El número de individuos está disminuyendo con rapidez, y no pasará mucho tiempo para que los únicos especímenes a salvo se encuentren en los zoológicos.
No obstante, el ayeaye es pequeño e inofensivo y no debería sufrir la misma situación.
Los orangutanes viven en los árboles de Borneo y Sumatra, pero estos árboles se están talando y se está obligando a los orangutanes a replegarse. Con el tiempo, sencillamente no podrán encontrar una zona para vivir y los veremos sólo en los zoológicos. Los pandas dependen del bambú, y cuando el bambú desaparezca, lo mismo ocurrirá con ellos. El koala se alimenta de determinados eucaliptos. Cuando desaparezcan estos árboles, lo harán los koalas. En resumen, los animales existirán en tanto en cuanto disfruten del modo de vida al que están acostumbrados.
Al parecer, también el ayeaye depende de los árboles de Madagascar, y cuando desaparezcan, también lo hará el ayeaye. Seguiremos teniéndolo en los zoológicos, pero no sabemos si es capaz de reproducirse en ellos. Los pandas, por ejemplo, no se reproducen en cautividad.
Así que el asunto no tiene buen aspecto ni para el ayeaye ni para aquellos de nosotros que pensamos que el ayeaye es un animal peculiar e interesante. Después de todo, el ayeaye, como acabo de explicar, es el único mamífero que consigue su alimento golpeando la madera; es el único animal con un dedo corazón largo que utiliza para conseguir gusanos.
¿Por qué debemos dejar que desaparezca? Es mucho más importante que hagamos mejor las cosas para mantenerlo vivo y sin extinguirse.
Podemos ser capaces de hacerlo. En los últimos años hemos trabajado con esmero para mantener vivos animales que parecían estar al borde de la extinción. ¿Por qué no podemos hacer lo mismo por el ayeaye? Prefiero pensar que vamos a hacerlo y que dejaremos vivir a este animalito en las selvas de Madagascar, protegido por el hombre y viviendo su vida.

EL PARIENTE MÁS PRÓXIMO DEL HOMBRE
Se dispone de gran cantidad de datos que demuestran que los chimpancés están emparentados más directamente con el hombre que con los gorilas. Los seres humanos hemos tenido tendencia a creer que estamos separados de todas las demás formas de vida. Después de todo, no tenemos pelo ni cola, andamos sobre dos patas, desarrollamos la capacidad de razonar y, según algunos, disponemos de un «alma» inmortal. Así que los humanos estamos en este punto y todos los demás seres vivos al otro lado de una gran divisoria.
Incluso cuando los principios de la evolución empezaron a ser aceptados cada vez más y la gente entendía que los seres humanos se habían desarrollado a partir de «animales inferiores», seguía estableciéndose un gran abismo entre los seres humanos y los animales inferiores.
Sin embargo, nadie discute que los simios se parecen bastante a los seres humanos. De los cuatro tipos de simios, el gibón y el orangután parecen relativamente alejados del hombre, y se daba por supuesto que gorilas y chimpancés se parecían tanto entre sí que eran bastante diferentes de los seres humanos.
A principios de los sesenta, Morris Goodman, de la Universidad Estatal de Wayne, comparó las proteínas sanguíneas de tres especies animales para observar su actuación en una reacción cruzada. La sangre de un determinado animal provoca una fuerte reacción en otro diferente pero parecido, y reacciona menos con el menor emparentado. Con gran sorpresa por su parte, descubrió que la sangre de chimpancé reaccionaba más con la sangre humana que con la de gorila. Ésta fue la primera indicación de que los chimpancés y los seres humanos se situaban juntos a un lado de la divisoria, mientras que los gorilas quedaban en el otro.
Muchos biólogos fueron reacios a aceptar los datos de las reacciones cruzadas y siguieron contemplando el sistema antiguo, pero mientras tanto, fueron aprendiendo poco a poco a analizar los genes. Los genes controlan la química de la célula, y dos especies de animales diferentes poseen genes diferentes. Cuanto más emparentadas están dos especies desde el punto de vista evolutivo, más genes comparten.
En 1984, Charles Sibley (en Yale) y Jon Ahlquist obtuvieron secuencias de genes de un animal y los hicieron reaccionar con los de otro. Cuanto más emparentados estaban los dos animales, más parecidas eran sus secuencias de genes y con más facilidad se combinaban las secuencias de genes entre sí.
De nuevo el resultado fue que las secuencias de genes de los chimpancés eran más parecidas a las de los seres humanos que a las de los gorilas.
Los científicos discutieron, pero al final fue posible identificar series de genes y contemplar su estructura. Ya no era necesario estudiar la forma en que dos secuencias de genes reaccionaban entre sí. Todo lo que había que hacer era obtener una muestra de genes de una especie y comprobar el tipo de nucleótidos (las unidades estructurales que los forman).
Se realizó con una sección de genes humanos y después con la misma sección del chimpancé y del gorila. Resultó un 1,6% de diferencia entre los seres humanos y el chimpancé. La diferencia en la misma sección entre gorilas y chimpancés era del 2,1%. Otros estudios demostraron lo mismo.
Los estudios más recientes tratan de las mitocondrias, pequeñas estructuras celulares que controlan la producción de energía. Las mitocondrias contienen genes. Un equipo dirigido por Maryellen Ruvolo, de la Universidad de Harvard, estudió un fragmento de 700 genes de la mitocondria, una secuencia que controla la producción de una enzima llamada «citocromooxidasa». Estudiaron la misma secuencia de genes para chimpancés y gorilas y obtuvieron un 9,6% de diferencia entre chimpancés y seres humanos y un 13,1% de diferencia entre chimpancés y gorilas.
Cada vez más gente está empezando a creer que los chimpancés y los seres humanos están a un lado de un gran abismo, mientras que los otros simios (y por supuesto las otras formas de vida) se sitúan en el otro.
Pero si los chimpancés comparten tantos de sus genes con los del hombre, ¿por qué son tan diferentes? Es fácil, toda la información genética que contiene el cuerpo humano es igual a mil volúmenes de una gran enciclopedia. Si el chimpancé sólo difiere en un 1,6%, quiere decir que dieciséis volúmenes de la enciclopedia son diferentes de los nuestros. Lo suficiente para permitirles ser una especie diferente.

DOS HOMÍNIDOS, DOS DIETAS
Entre 1,5 y 2 millones de años atrás, al menos dos tipos de «homínidos» vagaban por las praderas del este y del sur de África. Eran criaturas que caminaban erguidas y se parecían a los seres humanos más que los simios. Uno de ellos se extinguió y el otro sobrevivió para convertirse en el antepasado de los seres humanos actuales. En 1990, una arqueóloga de la Universidad de Ciudad del Cabo, en Sudáfrica, Julia Lee-Thorp, lanzó una interesante teoría sobre su posible causa.
De los dos homínidos, uno era el Australopithecus robustas y el otro el Homo habilis, y se parecían mucho, a excepción de ciertas diferencias en la estructura del cráneo. De los dos, el Australopitecus robustus era algo mayor y más robusto, pero no mucho. El Homo habilis puede que tuviera el cerebro ligeramente mayor en proporción a su tamaño, pero no mucho más. Las diferencias físicas no parecen ser lo suficientemente grandes como para justificar por qué el Australopithecus robustus se extinguió y Homo habilis se convirtió en antepasado del hombre. Entonces, ¿por qué sucedió?
¡La dieta! Al final, la supervivencia pudo haber dependido de la alimentación, pero ¿cómo podemos saber lo que comían estos homínidos primitivos?
Para empezar, cualquier cosa que esté viva, o lo haya estado alguna vez, contiene átomos de carbono, y éstos se presentan en dos variedades estables (o «isótopos»): carbono 12 y carbono 13. El carbono 12 contiene seis protones y seis neutrones en el núcleo, doce partículas en total. El carbono 13 contiene seis protones y siete neutrones, trece partículas en total.
El comportamiento químico del carbono no depende de su núcleo, sino de los electrones que se sitúan en el exterior, y los dos tipos de átomos de carbono contienen exactamente seis electrones. Esto quiere decir que el carbono 12 y el carbono 13 actúan exactamente igual desde el punto de vista químico. Lo que uno hace, lo hace el otro; donde uno va, va el otro. Esto a su vez significa que cualquier porción de carbono que manejemos contiene una proporción de ambos, y exactamente la misma. Por cada noventa átomos de carbono 12, encontraremos uno de carbono 13.
Pero en esta imagen tan simple hay una pega. Aunque los dos tipos de carbono hacen el mismo trabajo, el carbono 13, al tener una partícula extra, es algo más pesado, y se mueve un poco más despacio. Esto significa que, en cualquier proceso químico, puede resultar que el carbono 12 es ligerísimamente más abundante de lo normal, o ligerísimamente menos, según el proceso. Además, los químicos han aprendido a analizar los átomos de carbono con tanta precisión que pueden medir la proporción de carbono 12 y 13 lo bastante bien como para descubrir estos cambios tan mínimos.
Todas las plantas absorben dióxido de carbono del aire y lo ponen en circulación a través de una serie de complicados procesos químicos que terminan incorporando algunos de estos átomos de carbono a sus tejidos. No resulta sorprendente que distintos tipos de plantas hagan esto de forma ligeramente diferente y concluyan cada uno con una proporción distinta de carbono 12 y carbono 13. Se trata de una diferencia mínima, por supuesto, pero a partir de la proporción los químicos pueden identificar diferentes tipos de plantas.
Cuando los animales se alimentan de plantas (o de otros animales), los átomos de carbono experimentan procesos relativamente sencillos al mudar del tejido vegetal al animal, o de un tipo de tejido animal a otro. Por esa razón, la proporción de carbono 12 y carbono 13 permanece igual que en las plantas o animales de los que se alimentaron.
Los huesos contienen una proteína llamada «colágeno» que, por supuesto, contiene átomos de carbono y pueden ser utilizados para la determinación de esta proporción. La pega es que a medida que los huesos envejecen, se pierde el colágeno. Los huesos de las zonas tropicales que tienen más de diez mil años no se pueden utilizar para medir la proporción: Lee-Thorp buscó un material más estable, y lo encontró en los dientes. El esmalte de los dientes es el tejido más duro del cuerpo de los mamíferos. Contiene cantidades mínimas de proteína, pero se mantienen bien fijadas y permanecen casi eternamente. Puede que los huesos que cuentan 1,5 millones de años hayan perdido sus proteínas, pero los dientes de esa edad pueden seguir facilitando las proporciones de carbono 12 y 13 necesarias. Las teorías no son certeras. En realidad, los procesos en el cuerpo del animal pueden introducir sus propios cambios, o éstos se pueden producir lentamente después de la muerte. No obstante, los dientes del Australopithecus robustus indican que este homínido se alimentaba de frutas, nueces y hierbas. No hay nada malo en una dieta de este tipo, pero el Homo habilis era omnívoro, o sea, dispuesto a comer de todo.
Ahora bien, cualquier restricción en la dieta plantea más problemas de supervivencia. Si se depende demasiado un determinado tipo de alimento se está a merced de sus reservas. Por el contrario, si se puede comer cualquier cosa a la vista, no es probable que todo empiece a escasear al mismo tiempo. Los animales omnívoros como ratas, cerdos y seres humanos tienen una gran ventaja. Parece que el Homo habilis aventajaba en esto al Australopitecus robustus y que ésta es la razón por la cual el primero sobrevivió y el otro no.

LOS HUEVOS DE AVESTRUZ Y LA HUMANIDAD
Para establecer las fechas de los acontecimientos prehistóricos se utilizan varios métodos: medir la desintegración de distintos tipos de átomos radiactivos; analizar las capas anuales de sedimento («varvas») en fondos de aguas poco profundas; examinar los anillos de los árboles. Pero ¿es posible que sirva estudiar los huevos de avestruz? En 1990, un grupo de investigadores dirigido por Alison S. Brooks, de la Universidad George Washington, anunció que las cáscaras de los huevos del avestruz se podían utilizar para determinar la edad.
Esto podría ser muy útil. El método más extendido de determinar la edad —la desintegración del carbono 14, que es radiactivo— proporciona resultados fiables sólo hasta hace 35.000 años. Otro método muy común, la descomposición del potasio 40, sólo da resultados fiables considerando más de 200.000 años. El vacío entre los 35.000 y los 200.000 años puede ser cubierto estudiando los huevos de avestruz.
Las cáscaras de huevo del avestruz sólo se pueden encontrar en zonas del mundo en que los avestruces son comunes, pero en épocas prehistóricas la zona de distribución del avestruz era más amplia que ahora. Dichas cáscaras de huevo se localizan en grandes zonas de África y en China.
Se encuentran con bastante abundancia porque en los tiempos prehistóricos resultaban útiles. Un huevo de avestruz equivale a dos docenas de huevos de gallina, por tanto era un recurso alimenticio muy apreciado.
Pero una vez abierta la parte superior y engullido el contenido, ¿para que sirve la cáscara en sí? La cáscara de un huevo de avestruz es extraordinariamente fuerte. Tiene un grosor de aproximadamente 1,5 milímetros y está tan bien diseñada para resistir que un hombre de 115 kilos puede ponerse de pie sobre ella sin romperla. Estamos hablando de los tiempos anteriores a la alfarería y la cáscara era una vasija perfecta, ligera y resistente para transportar agua. Una cáscara a la que se hubiera abierto el extremo más pequeño podía contener sin problemas más de un litro de agua.
Por tanto, no hay duda de que los yacimientos antiguos de asentamientos prehistóricos contendrán fragmentos de estas cáscaras haciendo las veces de la alfarería que se encuentra en restos posteriores.
¿Cómo ayuda esto en la determinación de fechas prehistóricas? Pues bien, siempre hay algún resto de la proteína en la materia que está viva o que lo estuvo alguna vez, incluso en los objetos duros como los huesos, las conchas marinas o las cáscaras de huevo. Las moléculas de proteína están formadas por cadenas de unidades menores llamadas «aminoácidos».
Hay aminoácidos de dos tipos, «L» y «D», que son la imagen reflejada de uno y otro (como las manos izquierda y derecha). Cuando los químicos fabrican aminoácidos en el laboratorio, se forman las dos variedades en cantidades iguales. En los organismos vivos sólo se forma una variedad, la «L».
Ambas variedades son bastante estables, pero si se mantienen sin tocar en un largo período de tiempo de miles de años, hay una tendencia muy lenta a que parte de los «L» se conviertan en «D». De la cantidad «L» y «D» presente en una determinada cáscara de avestruz, podemos saber cuánto tiempo ha transcurrido desde que el avestruz puso el huevo.
Esta técnica se ha estado utilizando desde los años cincuenta en huesos viejos, dado el caso, pero hay una pega. Las temperaturas cálidas aceleran la velocidad de cambio y lo mismo sucede con la humedad. No siempre se pueden establecer las temperaturas del pasado o la humedad y la lluvia que caía en la zona, por tanto, no podemos estar seguros de que la velocidad de transformación de «L» en «D» haya sido siempre la misma. Pudo haber sido más rápida en unas épocas y más lenta en otras. Esto crea una considerable incertidumbre para determinar la edad real del objeto.
Pero hace poco, este método de medición de edad se perfeccionó considerablemente. Además, las cáscaras de huevo de avestruz son mucho menos porosas que los huesos. El agua no las atraviesa con facilidad, así que parece razonable suponer que la humedad y la lluvia las afecta menos y que la determinación de su edad puede resultar fidedigna.
En consecuencia, el equipo de científicos que informa de este hallazgo cree que puede determinar las edades de los yacimientos prehistóricos del desierto de Kalahari con bastante exactitud. Las cáscaras de huevo de avestruz encontradas en las capas más antiguas de sedimento pueden tener entre 65.000 y 85.000 años. Es plausible que en África se encuentren restos de estas cáscaras que cuenten hasta 200.000 años. En China, donde las temperaturas son, en general, más bajas que en África, es posible que se puedan determinar edades de hasta un millón de años.
No hay duda de que determinar la edad de los restos es muy útil, pero sobre todo podríamos ser capaces de mejorar algunas conclusiones sobre la edad del «hombre moderno» (un término que describe a todos los habitantes de la Tierra en la actualidad).
La creencia general es que el hombre moderno, u Homo Sapiens, apareció por primera vez hace 50.000 años, pero las cáscaras de huevo de avestruz se encuentran a veces con huesos humanos que parecen pertenecer al hombre moderno. Si determinamos la edad de las cáscaras, obtendremos la edad de los huesos. Entonces podremos calcular cuándo apareció el Homo Sapiens y se ampliarán nuestros conocimientos sobre los orígenes.

PASAR A AUSTRALIA
¿Cuándo llegaron los seres humanos por primera vez a Australia? Los fósiles de huesos humanos más antiguos encontrados en Australia datan de unos 30.000 años, y el cálculo general es que los seres humanos, los antepasados de los aborígenes actuales, llegaron hace unos 40.000 años. Sin embargo, en 1990, un equipo de científicos australianos, dirigido por Richard Roberts, presentó pruebas de que los primeros seres humanos pudieron llegar a Australia hace 60.000 años.
En un yacimiento del norte de Australia, el grupo descubrió objetos de piedra que parecen herramientas humanas, aunque no se encontraron restos de cuerpos humanos. Estudiando la manera en que los granos de cuarzo del yacimiento emiten luz cuando se calientan («termoluminiscencia») pueden decir cuánto tiempo llevan enterrados (así como las herramientas asociadas a ellos).
Esta posible aparición temprana de los seres humanos en Australia plantea problemas muy interesantes. El antepasado del Homo Sapiens (el hombre moderno) es el Homo Erectus, de cerebro más pequeño. Se han encontrado restos de Homo Erectus en toda la gran masa terrestre de Eurasia y en África, pero no en los continentes americanos o en Australia. El Homo Erectus aparentemente no pudo cruzar las barreras de agua entre Asia y América del Norte o Australia. Es posible que los inviernos siberianos también se lo impidieran.
En la última década del siglo XIX se descubrió en Java un famoso resto fósil de Homo Erectus. Sin embargo, la isla de Sumatra está separada de la península de Malasia, en el Sureste Asiático, sólo por un estrecho brazo de mar, y Java está separada de Sumatra por otro todavía más estrecho. El Homo Erectus pudo haber llegado arrastrado por la corriente en balsas o, si se produjo un descenso en el nivel del mar, como sucede de vez en cuando, pudo haber pasado vadeando. Pero entre las islas orientales y occidentales de lo que ahora es Indonesia, existe un canal ancho y profundo que no habrían podido cruzar.
El Homo Sapiens, más emprendedor y con un cerebro mayor, llegó más lejos. El hombre moderno fue el primero en colonizar Australia y el continente americano. En las primeras etapas de la historia de la humanidad, la edad glacial atenazó la Tierra, pero Siberia no fue cubierta por una capa de hielo tan espesa como en América del Norte. Los cazadores, en busca de animales grandes para alimentarse, en especial mamuts, se adentraron cada vez más en Siberia.
Los casquetes de hielo continental bloquearon tal cantidad de agua que hace 20.000 años el nivel del mar era unos 120 metros más bajo que el actual. Un puente de tierra conectaba Siberia con América del Norte. Los cazadores siberianos lo cruzaron hasta América del Norte y lentamente fueron ocupando la gran extensión del continente americano. Cuando los casquetes de hielo se fundieron y el océano volvió a subir formando el estrecho de Bering, los seres humanos de América quedaron aislados del resto del mundo hasta que se abrieron paso las exploraciones europeas.
Pero ¿y Australia? Durante la edad glacial, Malasia, Sumatra y Java sin duda, estaban todas conectadas. Al igual que Nueva Guinea y Australia. Para los hombres de Asia, llegar a Sumatra y Java, y quizás incluso a Borneo y las Célebes, debió de ser relativamente sencillo. Sin embargo, cruzar de las Célebes a Nueva Guinea y Australia debió de ser difícil, ya que no había un puente de tierra que pudieran utilizar.
Además, si los seres humanos llegaron hace sesenta mil años, la capa de hielo de los continentes era mucho menor y el nivel del mar más alto. Tenían que cruzar un trecho de agua de por lo menos 400 kilómetros. ¿Hay alguna probabilidad de que el primer pueblo que cruzó hasta Australia fuera de Homo Eectus o, posiblemente, el hombre de Neanderthal, una subespecie primitiva del hombre moderno?
Esto parece poco probable. No tenemos pruebas de que el Homo Erectus o el hombre de Neanderthal tuvieran siquiera la capacidad de atravesar grandes masas de agua. Además, los objetos encontrados en el yacimiento del norte de Australia incluyen muelas de amolar, tierra roja y calcopirita pulverizadas. Esto indica que la gente que vivía en el lugar pintaba y decoraba las paredes de sus cuevas. Ésta es una característica del Homo Sapiens y, de hecho, los aborígenes lo hacían cuando los primeros europeos llegaron a Australia.
La suposición más razonable, por tanto, es que el primero en llegar a Australia fue el Homo Sapiens y que lo hizo en los inicios de la historia del hombre moderno. De hecho, si todo esto es verdad, arroja una luz sorprendente sobre los aborígenes. Durante mucho tiempo, los europeos han creído que los aborígenes era el pueblo más primitivo de las variedades del hombre moderno, pero si su temprana llegada a Australia es cierta, puede que hayan sido los primeros seres humanos en utilizar balsas y canoas para cruzar una gran extensión de mar abierto. No está mal en un pueblo supuestamente «primitivo».

COOPERACIÓN VITAL
«Cooperación» es una palabra importante en el mundo viviente. Todas las criaturas pluricelulares existen gracias a la cooperación de las células que las componen. A veces, la cooperación a nivel celular puede parecer asombrosamente altruista. Aunque la creencia general es que los espermatozoides son independientes y competitivos, se ha descubierto que un espermatozoide normal de rata (que trata de ser el primero en fecundar el óvulo) es ayudado en su propósito por otros espermatozoides, por lo general deformados, del mismo grupo. Cuando el espermatozoide normal está en camino de lograr la fecundación, los espermatozoides deformados se agrupan formando un tapón que evita que otros espermatozoides accedan a las vías reproductoras.
Parece que ciertas bacterias cooperan en invadir y atacar a sus presas. Otras bacterias, hace mucho tiempo, penetraron en células vivas no para destruirlas, sino para cooperar en beneficio mutuo. Estas bacterias se convirtieron en mitocondrias, partes esenciales de la célula. No podríamos arreglárnoslas sin nuestras mitocondrias.
Parece que el egoísmo, que en otro tiempo se consideró la fuerza impulsora de la evolución, no es precisamente la norma. Ser altruista y cooperador tiene enormes ventajas, al asegurar que la especie sobreviva, incluso si el individuo no lo hace. Esto es más impresionante en los insectos sociales: termitas, abejas, avispas y hormigas. Algunos miembros de estas sociedades tan complejas no se reproducen nunca, pero trabajan para ayudar a sus semejantes.
La genética crea el altruismo en las abejas, por ejemplo. Una abeja obrera, hembra pero estéril, no puede evitar nacer así y, sin pensar en ello, automáticamente se afana por ayudar a sus hermanas con los mismos genes. En otros animales notables por su cooperación, ésta se crea a partir de la devoción de los padres hacia sus crías, algunas de las cuales permanecen para ayudar a alimentar a sus padres y a sus nuevos hermanos.
La rata topo pelada africana pertenece a la familia Bathyergidae, en el suborden Hystricognathi (que también incluye a las cobayas y los puercoespines). Se parecen a las crías, casi sin pelo, de las ratas comunes, pero son fascinantes, ya que son el equivalente en los mamíferos a los insectos sociales. Tienen una reina que se reproduce y obreras altruistas que la atienden y mantienen la gran colonia subterránea en marcha. Su compleja sociedad fue descrita por primera vez hace sólo unos pocos años por Jennifer U. M. Jarvis y en la actualidad está siendo estudiada a fondo. Parece que a los humanos nos intriga el desinterés y la cooperación que funciona efectivamente.
Los humanos primitivos domesticaron al lobo y lo convirtieron en un perro útil, que consideraba al hombre el jefe de la manada. Esto fue posible porque tanto el hombre como el lobo sabían cómo cazar y vivir apoyándose unos a otros. Como los humanos, los cachorros de lobo no están programados genéticamente para formar parte de un grupo social pero aprenden. Un cachorro criado por humanos los considera su «manada» y obedece al jefe de la manada, todo ello en beneficio humano. Más tarde, los ganaderos de Occidente han estado utilizando este aspecto de la especie canina criando cachorros con ovejas. Los cachorros crecen considerando a las ovejas su familia, a la que defienden.
Los parientes más cercanos al hombre, los chimpancés y los gorilas, también viven apoyándose mutuamente. Los chimpancés que pelean, después se «abrazarán y harán las paces» para mantener la paz. Se ha descubierto hace poco que los chimpancés de la selva cazan en grupos grandes que se apoyan, de forma muy parecida a como se piensa que lo hacían los antepasados del hombre. Estos chimpancés se sienten más inclinados a compartir la comida que otros chimpancés, y es probable que la supervivencia de los homínidos primitivos fuera favorecida por este altruismo.
El trabajo de Jane Goodall con chimpancés muestra que los individuos sobreviven mejor cuando establecen lazos fuertes y de larga duración con otros. Una madre chimpancé vivió hasta la vejez porque un hijo cuidó de ella. Por desgracia, cuando ella murió, su hijo murió aparentemente de pena. Primos hermanos de los hombres, efectivamente.
Los seres humanos son primates sociales por excelencia. No es posible contemplar por la ventana el complejo de Manhattan y admitir que algo así se pueda construir sin cooperación, independientemente de cuál sea el comportamiento de los humanos en las calles que lo atraviesan.
Las pruebas recogidas recientemente por John Rick, arqueólogo de la Universidad de Stanford, indican que los peruanos de la Edad de Piedra vivían en consonancia con la naturaleza más de lo que se pensaba de los pueblos primitivos. Para conservar las poblaciones del ganado destinado a la cría parece que evitaban matar a los animales jóvenes. Mantenían su propia población estable sin recurrir al infanticidio, probablemente mandando a los jóvenes adultos a otros lugares o practicando la abstinencia sexual. Vivían juntos en armonía y cooperación, algo que a menudo se desconoce en nuestros días.
Como naciones-estado que luchan entre sí o que se dividen en facciones disidentes que se enfrentan, es difícil considerar al hombre como un animal cooperador. Pero desde el pasado, los seres humanos son animales sociales que se ayudan mutuamente y forman parte del planeta Tierra, cooperando desde el punto de vista biológico. Cuando no somos cooperadores, los resultados son horribles y aparentes.

IZQUIERDA, DERECHA
Todo el mundo tiene tendencia a usar una de sus manos por norma general. Los centros que controlan el habla y las aptitudes motoras de precisión de los diestros se sitúan en la corteza cerebral del hemisferio izquierdo. Los zurdos (una de cada diez personas) tienen los centros controles corticales del habla en uno de los dos lados del cerebro o en ambos.
Los zurdos han tenido muy mala prensa. Los niños zurdos, al tener que manejarse en un mundo de diestros, tienen más probabilidades de ser disléxicos y de tartamudear. Los estudios parecían demostrar que los zurdos eran más propensos a distintas enfermedades físicas, a morir antes y a tener más accidentes y heridas.
En la actualidad se están poniendo en duda los datos originales negativos. Parece que los zurdos tenían probabilidades de vivir menos, si habían nacido antes de 1890, pero no a partir de entonces. También la tendencia a los accidentes es un problema poco claro, ya que depende mucho de la edad y del sexo de la persona, y del tipo de accidente.
Ser zurdo no es algo malo. Uno de los genios predilectos de todos los tiempos, Benjamín Franklin, era zurdo y llegó a muy viejo. Durante gran parte de su vida contribuyó al nacimiento y desarrollo inicial de los Estados Unidos de América. J. S. Bach era un genio musical zurdo que engendró veinte hijos, tres de los cuales fueron compositores. Leonardo Da Vinci escribía con facilidad escritura en espejo, como puede hacerlo sin problemas la gente zurda.
¿Por qué hay tantos humanos diestros? Nuestros parientes primates parecen no preferir ninguna de sus manos en sus actividades normales, pero hay indicios de que nuestros antepasados más primitivos eran diestros en sus actividades cotidianas. Los homínidos que vivían hace unos dos millones de años hacían instrumentos de piedra golpeando una piedra contra otra para afilar los cantos. Un usuario diestro desconcha una piedra en el sentido de las agujas del reloj, de manera que algunas de las superficies de las rocas tienen desconchones sólo en el lado derecho. Es evidente que los homínidos primitivos sujetaban sus piedras martillo en la mano derecha.
Las nuevas investigaciones indican que la evolución hacia el uso de la mano derecha debió de producirse mucho antes de los homínidos. Aunque es cierto que otros primates no favorecen el uso de una de sus manos en la vida cotidiana, en algunas condiciones de prueba lo hacen. Necesitan utilizar la mano derecha para habilidades motoras de cierta precisión, en especial cuando les resulta difícil ver lo que están haciendo. Los científicos piensan que sus antepasados, habitantes de los árboles, se agarraban a las ramas con la mano derecha y alargaban la izquierda para coger las cosas. Quizá, cuando algunos primates empezaron a vivir la mayor parte del tiempo en el suelo, utilizaron la mano derecha, más fuerte, para abrir los frutos secos. Incluso ahora tienden a acicalarse más con la mano derecha que con la izquierda.
Lo más interesante del problema del uso preferencial de una mano es que tanto los hombres como los grandes simios llevan a sus crías colgadas del lado izquierdo. Se ha dicho que ésta es una prueba de una desviación temprana hacia el uso de la mano derecha, causada por el hecho de que si se lleva la cría a la izquierda, la madre la oye más con el oído izquierdo y la ve en primer lugar en el campo visual izquierdo. La visión y el oído izquierdos son procesados por la mitad derecha de la corteza cerebral, a cargo de la recepción de sensaciones emocionales. La idea es que la madre sostiene al hijo de manera que la información que recibe de él se dirige al lado del cerebro mejor adaptado a la interpretación, y la respuesta a la recepción de emociones es algo automático. Es posible que esto permita a la madre y al hijo establecer lazos emocionales más fuertes, tan necesarios para la supervivencia del niño, o, de otro modo, los bebés se llevan en el lado izquierdo para que puedan oír mejor los latidos del corazón de la madre. Es cierto que el corazón se sitúa en el centro, pero bajo el esternón. La punta del corazón se inclina ligeramente hacia la izquierda, donde los médicos auscultan con el estetoscopio. El feto vive nueve meses oyendo los latidos del corazón de su madre y, después del nacimiento, el niño parece relajarse mejor si se coloca a la izquierda.
Qué fue primero, ¿el uso de la mano derecha, el lenguaje o el bipedismo? Quizá la aparición del pelo en el cuerpo llegara antes o junto con el bipedismo. Todos los demás primates tienen pelo en el cuerpo para que las crías se agarren. Las crías de gorila, tan indefensas como las humanas nada más nacer, pueden agarrarse al pelo de su madre a las tres semanas. Si un homínido desnudo intenta andar sobre dos patas (tal vez para dominar la hierba alta de la sabana, tan llena de depredadores) la cría tiene que ser sujetada por la madre. Si un bebé llora menos en el lado izquierdo, tanto el niño como la madre estarán con mayor probabilidad a salvo de los depredadores.
Si el uso de la mano derecha se remonta muy lejos en la ascendencia del hombre, recuérdese que, según las últimas teorías, el propio Universo puede ser zurdo. Teniendo en cuenta la desviación de las partículas nucleares, el comportamiento de los aminoácidos de las células vivas y el sentido de rotación de las galaxias, hay propensión zurda en el Universo.

GENES EN ACCIÓN
Mantenerse al día en los progresos de la genética es una tarea hercúlea, puesto que se trata de un campo que se expande con gran rapidez. Ésta es una introducción y unos cuantos ejemplos de los trabajos actuales sobre genética.
Para empezar, los genes no son simples unidades estructurales de la herencia. Cuando el monje austríaco Mendel estaba llevando a cabo su gran experimento en la década de 1860, no tenía ni idea de que los cromosomas del núcleo de la célula eran los responsables de sus interesantes resultados del cruzamiento de plantas de guisantes. Registró y anotó con detalle las características de sus plantas de guisantes, definidas y mensurables, a las que llamó factores, que parecían estar presentes por pares. Mendel descubrió que un factor «recesivo» no se destruía sino que permanecía oculto y podía aparecer en la generación siguiente.
Cuando Von Waldeyer en 1888 empezó a hablar de los cromosomas, nadie conocía su composición, pero al final fue evidente que los cromosomas tenían algo que ver con los «factores» de Mendel. En 1909, el biólogo danés Wilhelm Ludvig Johannsen llamó a los factores «genes», un término griego que quiere decir «que da origen».
Puesto que el número de cromosomas propio de cada especie determina las características hereditarias, los biólogos decidieron que cada cromosoma tenía que ser un conjunto de genes. Gracias a la pequeña mosca de la fruta, que se cría con facilidad, y a sus cuatro cromosomas gigantes, se descubrió que los genes están ordenados y ligados de forma muy compleja. Además, como Mendel ya había descubierto, los genes pueden sufrir cruzamientos y mutaciones. Los criadores de animales llevaban ya mucho tiempo aprovechando la tendencia del «germoplasma» a mutar. En 1791, partiendo de una extraña oveja, un granjero de Massachusetts crió ovejas de patas cortas para que no pudieran rebasar las paredes de piedra más allá de sus campos.
La mosca de la fruta permitió contar los genes de un cromosoma (un mínimo de 10.000 en la mosca de la fruta) y calcular que cada uno de los genes tenía un peso molecular de 60 millones. Los cromosomas de los seres humanos son mayores que los de la mosca de fruta. Cada par de cromosomas humano contiene de 20.000 a 90.000 genes. El peso molecular aumenta al igual que las complicaciones.
Los científicos se esfuerzan por resolver las complicaciones. La genética molecular actual realiza un trabajo descomunal tratando de comprender y controlar el funcionamiento de los genes. Estas «unidades estructurales de la herencia» han resultado ser moléculas de ADN (la famosa doble hélice). El ADN es ácido desoxirribonucleico y está formado por cuatro nucleótidos diferentes, en diferentes combinaciones, que reciben el nombre de «código genético». Los científicos están tratando de alterar estas combinaciones, lo que se hizo famoso como ADN recombinante o «ingeniería genética».
¿Tiene algún objeto todo esto? Por supuesto. Hay niños pequeños que tiene que vivir en burbujas estériles porque, debido a causas genéticas, carecen de un sistema inmunitario adecuado. Algún día, la ingeniería genética puede proporcionarles una vida normal. Quizá con el tiempo se pueda reparar de alguna forma el ADN de aquellos que lo tengan dañado.
Se están llevando a cabo experimentos médicos que intentan salvar vidas mediante la terapia genética: la inserción de genes sanos o alterados específicamente en pacientes enfermos o con genes defectuosos. La transfusión de linfocitos alterados genéticamente en pacientes con desórdenes letales en el sistema inmunitario parece promisoria.
La diagnosis también mejora. Una destacada revista médica informaba de que ya es posible examinar los linfocitos en circulación de personas pertenecientes a familias propensas a la miocardiopatía hipertrófica, una enfermedad que no aparece hasta que el niño afectado crece. Esta prueba exploratoria podrá identificar la enfermedad antes de que se desarrolle y con el tiempo aplicar la medida preventiva y, no menos importante, confirmar a otros miembros de la familia que no son portadores del gen afectado.
A medida que la terapia genética progrese, se podrá avanzar en el tratamiento del cáncer, la diabetes y otros problemas que amenazan a tantas vidas con enfermedades debilitantes y la muerte. Estos tratamientos no tienen por qué convertir a nadie en «mutantes» ni exponer al resto a enfermedades horribles sin control.
El trabajo sobre los genes no está confinado al campo de la medicina. Sus aplicaciones pueden ser muy simpáticas. Por ejemplo, se ha descubierto que el ADN de los tejidos del cuagga, hoy extinguido, es idéntico al de las cebras actuales. El cuagga era rayado por delante, de color marrón por detrás y con una pequeña cola blanca. Los criadores de cebras están intentando reproducir animales que se parezcan a los cuaggas.
Mañana el cuagga, el siglo que viene, ¿el hombre de Neanderthal?

GENES, ONCOGENES Y CÁNCER
Un descubrimiento fundamental sobre el cáncer les valió a J. Michael Bishop y Harol Varmus, de la Universidad de California en San Francisco, el premio Nobel de Fisiología y Medicina en 1989. La historia empezó hace tres cuartos de siglo.
En 1911, un médico estadounidense, Francis Feyton Rous, anunció que podía transferir el cáncer de un pollo a otro. Si un pollo tenía un tumor llamado «sarcoma», podía triturar el sarcoma, colarlo a través de un filtro muy fino y obtener un líquido claro que no contenía células vivas. Si se inyectaba parte del líquido en un pollo sano, éste desarrollaba un sarcoma. El líquido, por tanto, debía de contener un virus, un agente infeccioso tan pequeño que podía atravesar los filtros. A este virus en concreto se le llamó «virus del sarcoma de Rous» y el descubrimiento implicaba que al menos algunos cánceres eran enfermedades víricas.
Algunos científicos se mostraron escépticos, pero a medida que pasaban los años se encontraron otros casos de inoculación de cáncer en animales mediante inyección y, en 1966, cincuenta años después del descubrimiento, Rous (que por entonces tenía ochenta y siete años y seguía trabajando) recibió el premio Nobel por este motivo.
Se sabía que los virus contenían ácido nucleico, al igual que todas las células vivas. El tipo fundamental del ácido nucleico de las células —ya sean de hombre o de pollo— se conoce como ADN. El ADN fabrica otro tipo de ácido nucleico llamado ARN (ácido ribonucleico), que supervisa la producción de las diferentes proteínas de las células. Hay proteínas de muy diferentes clases y son las que mantienen a las células y a los organismos compuestos de células en perfecto funcionamiento.
Éste es el dogma primordial de la bioquímica: la información genética se transfiere del ADN a las proteínas a través del ARN. Sin embargo, los virus tumorales contienen ARN. Para producir cáncer, tienen que modificar el ADN de las células y desencadenar una serie de cambios. Puesto que, en este caso, la información genética se transfiere del ARN al ADN, a los virus tumorales se les llama «retrovirus» (el prefijo «retro» en latín quiere decir «hacia atrás»).
Hasta mediados de los años setenta, la creencia general entre los científicos era que, de algún modo, las células (humanas o de otro tipo) recibían estos retrovirus del exterior. Los retrovirus permanecían inactivos en las células, latentes la mayoría de las veces, semejantes a bombas de relojería. Más tarde, antes o después, algún efecto, ya fuera radiación, productos químicos u otra cosa, los activaba y exponían a la célula al cáncer.
Pero unos pocos científicos pensaban de forma diferente. Creían que el cáncer no dependía de virus externos, sino que se desarrollaba con el funcionamiento normal de la propia célula. Algunos genes normales de la célula eran en sí mismos bombas de relojería. Estos genes normales eran los que podían ser afectados por la radiación, los productos químicos u otra cosa, y, como consecuencia, se modificaban ligeramente y se convertían en genes anormales que desencadenaban los cambios que provocaban el cáncer. El gen anormal productor de cáncer era un «oncogén» («onco» significa «tumor» en griego). El gen normal, anterior al oncogén, era un «protooncogén» («proto» significa «primero» en griego).
En 1976, Bishop y Varnus publicaron los primeros experimentos importantes que parecían demostrar que la idea del oncogén era correcta. Los protooncogenes ayudaban a controlar los procesos normales de crecimiento y diferenciación celular, multiplicando el número y los distintos tipos de células. Estos procesos normales se detienen cuando el cuerpo cuenta con células suficientes. Cuando los genes normales se convierten en oncogenes, sin embargo, pierden la capacidad de detener su avance. Las células anormales crecen sin límite, invadiendo los tejidos normales, desorganizando el cuerpo y, en general, produciendo un cáncer fatal.
Desde 1976, pruebas adicionales han apoyado esta idea. Resulta que los retrovirus son asimismo productos de los oncogenes, también se pueden formar dentro del cuerpo y no proceden del exterior necesariamente. Por todo ello, Bishop y Varnus recibieron el premio Nobel trece años después de llevar a cabo sus experimentos cruciales.
Cabe presumir que al haberse ampliado los conocimientos sobre el origen del cáncer, los científicos puedan trabajar para identificar los protooncogenes y estudiar con detenimiento la naturaleza de los cambios que dan lugar a oncogenes a partir de ellos. La esperanza se basa en que un tratamiento adecuado podría prevenir o, al menos, disminuir las probabilidades de la formación de oncogenes, o mejorar (e incluso invertir) sus efectos, una vez que se han formado.
Pero ¿por qué razón los genes normales pueden, en cualquier momento, desarrollar cáncer? La vida existe desde hace unos 3.500 millones de años, pero hasta hace 800 millones de años no se formaron los organismos compuestos de varias células. Es posible que la evolución todavía no haya perfeccionado el sistema de producir combinación de muchas células, y el cáncer representa una imperfección del proceso que persiste.

LA BELLEZA DE LOS MICROBIOS
Los seres humanos, por lo general, nunca han considerado atractivos los microbios, ni siquiera pasables. Cuando Antón van Leeuwenhoek contempló por primera vez los microorganismos en el siglo XVII, nadie se interesó especialmente en ellos. Después de la teoría de los gérmenes productores de enfermedades de Louis Pasteur en la década de 1860, la gente descubrió que existían los microbios y que, demasiado a menudo, eran perjudiciales para la vida humana.
Los organismos microscópicos más condenados son las humildes bacterias. Su nombre significa «bastón» en griego, tal vez porque muchas de ellas se parecen a pequeños bastones. Los salmistas bíblicos desde luego no hablaban de las bacterias cuando escriben el famoso verso «tu vara y tu cayado son mis consuelos».
Sin embargo, hay muchas bacterias reconfortantes para la vida humana. Las bacterias beneficiosas más conocidas son las que transforman la tierra en fértil, fijando el nitrógeno atmosférico, y las que viven en el intestino humano que ayudan a digerir la comida. Y si no fuera por las bacterias, estaríamos enterrados bajo montones de basura del tamaño de rascacielos.
Las bacterias últimamente son noticia en los periódicos. Se está estudiando la biología molecular del comportamiento con la ayuda de la Escherichia coli, localizada normalmente en el intestino humano. La Escherichia coli se desplaza haciendo girar sus filamentos helicoidales en el mismo sentido o en sentido contrario al de las agujas del reloj a intervalos alternativos. Parece que la Escherichia coli puede medir los cambios de las cantidades en los compuestos químicos que captan en su entorno y modifica su movimiento para adaptarse a ellos, lo que sorprende a los científicos.
Un nuevo submarino japonés adaptado a grandes profundidades va a proporcionar microorganismos de las profundidades del océano. Al estudiar la ecología de las profundidades marinas, los científicos intentarán aprender más sobre los primeros pasos de la evolución de la vida. Se cree que los hipertermófilos marinos (microorganismos localizados en cráteres termales submarinos) pueden ser los antepasados de todas las criaturas vivientes. Los biotecnólogos (un grupo en auge en el Japón) investigarán también las bacterias del fondo del mar para buscar genes tan útiles como los descubiertos en las bacterias que pueblan las fuentes termales.
La industria biotecnológica ya está utilizando muchos otros microorganismos. Uno de ellos es un componente de un detergente japonés, porque su enzima «celulasa» limpia la suciedad eliminando la celulosa mugrienta sin atacar la fibra de algodón. Otro fabrica una enzima llamada «amilasa alcalina», que une moléculas de glucosa para formar otra llamada «ciclodextrina», utilizada para las cápsulas de liberación retardada. Y por último, pero no menos importante, está la bacteria que digiere los vertidos de petróleo.
Existe a su vez el barniz de roca. Es una capa oscura de menos de medio milímetro de espesor, compuesta de minerales (en su mayor parte arcilla y manganeso), que se cree depositada por bacterias que viven en las superficies porosas de las rocas más húmedas. Algunos barnices de roca son antiguos y se pueden fechar. Extendiendo barniz de superficie en un pictograma es posible determinar la edad de la roca que lo sustenta sin deteriorarla.
El barniz de roca indica cómo era el medio ambiente en el pasado y cómo cambió el clima. De este modo identifica «formas de terreno estables» para que la gente pueda vivir sin peligro en zonas a las que los geólogos llaman «abanico aluvial» sin preocuparse de sufrir un día inundaciones. También se comprueba la estabilidad de las superficies, en caso de que se necesite un lugar seguro para almacenar residuos tóxicos.
La Trichodesmiun es una cianobacteria diazotrópica de gran dimensión y muy importante, que forma parte del fitoplancton. Dejando a un lado su estrafalario nombre, parece ser el principal fijador del nitrógeno del océano Atlántico norte tropical. Las plantas necesitan este nitrógeno, y el océano alimenta a muchos animales, incluido al hombre.
La nueva microtecnología ha logrado un gran provecho de los microorganismos, al encontrar medios de cultivarlos y utilizar la biotecnología para elaborar productos necesarios. Las bacterias pueden producir en masa hormonas humanas, receptores de medicamentos y factores de crecimiento para administrarlos en alimentos que son fundamentalmente algas procesadas. Todavía más importante, los microorganismos hacen factible el envío de los medicamentos a las zonas del cuerpo que los necesitan. Por ejemplo, ciertas bacterias producen enzimas que les ayudan a orientarse en campos magnéticos. Si se utilizan estas enzimas en un medicamento, los médicos pueden guiarlos a la zona enferma mediante un imán.
Otros microorganismos, producto de la biotecnología, liberarán pesticidas o fertilizantes directamente sobre las plantas leguminosas (alfalfa, alubias, trébol o guisantes). En el código genético del microorganismo existe un «promotor» que responde como un interruptor de conexión-desconexión a los mensajes químicos de la planta. Utilizando técnicas de empalme de genes, los científicos unen este interruptor a otro gen que liberará el pesticida o el fertilizante únicamente en las raíces de la planta. Esto significa que se podrán utilizar concentraciones mucho menores de pesticidas y fertilizantes y se alterará menos el medio ambiente.
Los microorganismos también son atractivos porque son los antepasados remotos del hombre, los precursores de toda la vida sobre la Tierra. El hombre y todas las criaturas pluricelulares estamos formados por células eucariotas. Muchos científicos sostienen que todas las células eucariotas están formadas por antiguas bacterias que vivían libres y que aprendieron a vivir unidas o unas dentro de otras.
Si cada hombre es una comunidad de células y, a su vez cada una de ellas es una comunidad de organismos vivos, ¿es demasiado esperar que algún día toda la vida inteligente se convierta en una comunidad solidaria?

EL ENCANTO DE LA DIVERSIDAD
Diversidad en realidad significa variedad. A los seres humanos nos gusta la variedad. En Estados Unidos solíamos llamar a algunos de nuestros establecimientos comerciales «tiendas de variedades». En los países en los que los artículos de consumo han estado regulados por el Estado, hay ahora un clamor ciudadano que exige la variedad de la que disfrutan otras personas.
El problema reside en que los seres humanos, que eligen el traje o el coche que compran, o el programa de televisión, olvidan que nuestro planeta es el mundo de la diversidad, y que nosotros los humanos hemos estado «reglamentando las condiciones» de este pobre planeta en una monotonía que no sólo resulta aburrida sino también peligrosa.
El principal problema es que hay demasiados humanos. Demasiados individuos de cualquier especie es malo, pero si, además, esta especie está equipada tecnológicamente para agotar y destruir su hábitat, entonces se originan muchas dificultades. Ser humano significa utilizar tecnología, incluso la tala y quema primitiva para desmonte de la tierra; también el uso del fuego es tecnología, una de las primeras que adquirimos.
Los países sin petróleo (que de cualquier forma se acabará. antes o después para todos) están tratando de diversificar sus fuentes de energía. Otros Estados y ciudades se preocupan por diversificar el trabajo, sobre todo cuando un área se ha concentrado demasiado en una industria. Cuando los soviéticos perdieron interés en la carrera de armamento nuclear, y después dejaron de ser soviéticos como conjunto, en las fábricas estadounidenses de armamento se produjo un estremecimiento de temor muy comprensible.
Pero de lo que nos tenemos que preocupar es del propio planeta, ya que somos parte de su vida y dependemos de él por completo. Cuando los hombres tratamos incansablemente de «controlar la naturaleza», perdemos el sentido del lugar que ocupamos en ella y nos disponemos a perder nuestro hogar. Los seres humanos deberían diversificar sus hábitats y repartirse en bóvedas lunares o marcianas o en colonias espaciales en órbita, pero puesto que no estamos dispuestos a invertir en este factor de seguridad, mejor haríamos en ocuparnos de nuestro único hogar.
Le ecología, cuyo nombre deriva de dos términos griegos que significan «casa» y «ciencia», define que nuestra «casa», el planeta Tierra, posee una increíble diversidad. Las nuevas exploraciones de las selvas pluviales han mostrado que hay que aumentar radicalmente el número de especies de la Tierra. ¿Son todas estas especies necesarias, sobre todo para el hombre? ¿Qué pasa con las ballenas, el panda, las orquídeas únicas? ¿Son necesarias? No lo sabemos. Puede que nunca seamos capaces de saber exactamente qué es necesario para nuestro propio bienestar. Por tanto, más nos valdría ser más conservadores en nuestro tratamiento de la diversidad terrenal porque no sabemos qué perjuicios puede causar su destrucción. A la misma velocidad que desaparece la selva pluviosa, los científicos descubren nuevos medicamentos procedentes de plantas amenazadas de extinción. Vacas y ovejas ocupan un terreno que en origen había de servir para mantener a criaturas herbívoras diferentes. Los caimanes, que muchos consideran monstruosos, deben vivir, formando sus «agujeros de caimán» que se transformarán en charcas y construyendo los «nidos de caimán» que luego formarán islas.
Todo está relacionado. La diversidad de la vida en la Tierra está entretejida de manera intrincada, las partes se solapan, protegiendo su existencia entre sí. Los ecosistemas funcionan mejor cuando son complejos, a base de la participación de distintas plantas y animales donde cada cual ocupa su sitio, hace su vida y no necesariamente compiten.
Para la humanidad la diversidad es un seguro a todo riesgo. Nos arriesgamos a provocar una catástrofe si concentramos la alimentación en una serie de plantas y animales reducida, cuya diversidad genética no garantiza que puedan soportar cambios sustanciales del entorno. Se aconseja que comamos más pescado, pero no protegemos las aguas en que viven los peces y en algunas áreas pescamos en exceso sin prevenir su repoblación. Nos gustan y necesitamos muchas plantas, pero no protegemos a las criaturas que las polinizan: insectos, pájaros y murciélagos.
Imagínese un guión en el que, en el planeta, no quedaran sino los seres humanos y lo que ellos han creado. Esto no es factible porque posiblemente no perduraríamos hasta tal extremo, pero sólo imaginémoslo. Hay muchas probabilidades de que restituyéramos la diversidad, millones de robots especializados para cubrir los distintos objetivos. Se seguirían discusiones sobre la conveniencia de controlarlos o no, y decidiríamos no hacerlo o no seríamos capaces de lograrlo. Con el tiempo habría robots que plantaran árboles, polinizaran las plantas y patrullaran contra los furtivos en silencio.
De todas formas, la verdad es que disfrutamos de la diversidad y del tesoro de la vida salvaje, como lo llamó Thoreau. Nos gusta ir a la playa, la montaña y el desierto, donde nos sentimos parte de algo más grande que nosotros mismos, un planeta que seguirá viviendo después de que nosotros hayamos desaparecido.
Además, ¿alguien se sentiría satisfecho comiendo sólo una fruta? ¿O basado en rebanadas de pan blanco ordinario? ¡No se olvide que la diversidad incluso sabe bien!


SEGUNDA PARTE
NUESTRO PLANETA Y NUESTROS VECINOS

MANTO Y NÚCLEO
¿Preocupación por la economía? ¿La política? ¿La tendencia, aparentemente imposible de erradicar, de los seres humanos a complicar no sólo sus vidas, sino el planeta en que viven? Algunas ciencias presentan una perspectiva tan amplia, profunda y lejana que es una liberación sumergirse en ellas y olvidarse de las vicisitudes de la vida cotidiana.
La astronomía y la cosmología pertenecen a este grupo, pero normalmente imponen a la gente porque parecen ajenas a la humanidad. Una vez, Isaac recibió una llamada telefónica de un joven compungido que le preguntó: «¿De verdad es posible que el Universo se acabe algún día?» Es posible, pero no merece la pena preocuparse por ello en estos momentos.
Otra es la geología. Los buscadores de rocas recogen sus ejemplares, lo que debe suponer una agradable evasión, pero la geología no se ocupa sólo de las rocas. Es tan asequible como pueda serlo cualquier otra ciencia, porque la geología trata de nuestro hogar, la Tierra. Los geólogos son los científicos que estudian entre otras cosas las erupciones volcánicas (con muchas probabilidades de afectar a la vida humana) y los terremotos (lo mismo).
Con todo, cuando los geólogos estudian la estructura profunda de la Tierra, la perspectiva es sin duda mucho más amplia que la de la mayoría de los problemas corrientes. La historia geofísica del planeta supera todas las historias románticas de todos los países situados en la corteza terrestre, de sólo 64 kilómetros de espesor.
Nuestro Sistema Solar se formó hace unos 4.600 millones de años por condensación de una nube de gas y polvo. A medida que la bola de polvo y gas crecía, la materia ligera se condensó en el exterior formando la atmósfera, mientras que la materia pesada se amasó para formar el planeta en sí, aumentando la presión y el calor en su interior. El interior de la Tierra es un lugar notable, aunque no asimilable a la descripción de Julio Verne en «Viaje al centro de la Tierra».
Bajo la corteza rocosa de la Tierra se encuentra el manto, de unos 2.900 kilómetros de espesor. El manto también es rocoso, pero las rocas son del tipo olivina, ricas en hierro y magnesio, más densas que las de la corteza. Es fácil pensar que no hay agua en el manto, pero la hay, en forma de hidroxilo ligado a la estructura de los minerales. En la actualidad se piensa que el agua de las rocas del manto en forma de hidroxilo equivale a un alto porcentaje de la de los océanos y participa decisivamente en el reciclado del agua a través de las capas superiores de la Tierra. Estudios recientes indican que el hidrógeno del hidroxilo puede contribuir a la conductividad eléctrica del manto.
Bajo el manto se encuentra el núcleo del planeta, sometido a una presión que alcanza 1.550 toneladas por centímetro cuadrado en la parte superior y 3.800 en el centro. Después de estudiar los sismógrafos, el geólogo británico Richard Dixon Oldham estableció en 1906 que el manto rocoso de la Tierra se sustentaba en una zona líquida. Durante años se creyó que todo el núcleo era líquido, pero ahora se sabe que hay un núcleo externo de hierro y níquel fundidos, seis veces mayor que el núcleo interno sólido, que flota en él como un pequeño planeta, a 5.000 kilómetros bajo nuestros pies.
En su desarrollo primitivo, a medida que la Tierra se enfriaba, el núcleo interno se formó por solidificación lenta del núcleo líquido. El núcleo sólido evolucionó durante unos 3.600 millones de años hasta alcanzar su tamaño actual. El geofísico canadiense, doctor Douglas Smylie, estudió y demostró recientemente el modo en que el núcleo interno sólido se mueve en el núcleo externo líquido. Con el tiempo, las nuevas técnicas podrán mejorar las apreciaciones sobre la masa del núcleo interno.
Las dos partes del centro de la Tierra forman una «geodinamo» impulsada por el calor de convección de los fluidos del núcleo externo y el crecimiento del núcleo interno sólido, en la actualidad tan grande que la energía gravitatoria que crea puede constituir la razón de ser de la geodinamo. Unos geofísicos de la Universidad de Cambridge han elaborado un modelo analítico, basado en la conservación global del calor, que explica (a otros geofísicos, no a mí) la historia del desarrollo del núcleo.
Puede parecer que esta imagen de las entrañas terrestres —metales fundidos alrededor de una bola sólida que crece lentamente— sea demasiado ajena y, para la mayoría de nosotros, demasiado extravagante para darle importancia, pero es real. La geodinamo interna genera el campo magnético terrestre, que desvía parte de la radiación cósmica letal que bombardea al planeta. Las inversiones periódicas de este campo magnético pueden estar dirigidas por alteraciones, no sólo en el núcleo líquido externo sino también en el propio manto rocoso que lo cubre. Las investigaciones sobre el enigma de las inversiones magnéticas continúan.
Los límites entre núcleo y manto y entre manto y corteza están siendo estudiados con gran interés. En determinados «puntos calientes» fijos que se inician cerca del límite entre el manto y el núcleo, los materiales del manto ascienden como un penacho y atraviesan la corteza formando volcanes. Se piensa que islas como el archipiélago hawaiano se han formado al desplazarse las placas tectónicas de la corteza sobre los puntos calientes del manto. Roger Larson ha lanzado la hipótesis de que un «superpenacho» hizo erupción desde el manto hace 120 millones de años y causó no sólo la formación de la corteza sino también una estabilización temporal (durante 40 millones de años) de la polaridad del campo magnético terrestre. Los superpenachos pueden aumentar la velocidad de movimiento del núcleo externo líquido, alterando la fuerza de la geodinamo.
Bajo la frágil capa de vida sujeta a la corteza terrestre, se hallan el manto y el núcleo, el corazón de nuestro planeta, que, sin duda, merecen un estudio.

LAS ROCAS MÁS VIEJAS
Durante años, los geólogos han tratado de encontrar sobre la superficie terrestre rocas viejas de las que poder deducir la historia primitiva del planeta. No es fácil, ya que hay que hallar rocas que solidificaran hace miles de millones de años y que han permanecido en el suelo desde entonces sin sufrir grandes alteraciones.
Hace algunos años, Samuel A. Bowring, de la Universidad de Washington en San Luis, y sus colegas, descubrieron unas rocas en el noroeste de Canadá que tenían 3.960 millones de años. Al parecer se habían formado cuando la Tierra tenía sólo 600 millones de años, es decir, la octava parte de su edad actual.
¿Cómo es posible saber la edad de las rocas? La respuesta está en unos diminutos cristales de circón que hay en el interior de las rocas. El circón es «silicato de circonio», una sustancia rocosa que contiene átomos de circonio, un metal de presencia considerable, junto con átomos de silicio y oxígeno.
Cuando se forman cristales de circón, crean redes regulares de átomos de circonio, silicio y oxígeno. Hay, desde luego, otros tipos de átomos metálicos en las inmediaciones. Algunos de estos átomos encajan en la red y pueden reemplazar ocasionalmente a algún átomo de circonio. Otros átomos metálicos no tienen esta posibilidad y se mantienen fuera del minúsculo cristal.
Lo insólito de los cristales de circón es que pueden albergar átomos de uranio absorbidos de los alrededores, pero no los de plomo. El resultado es que los cristales de circón contienen pequeñas cantidades de uranio pero no de plomo.
No tienen plomo, al menos en principio, pero acaban teniéndolo porque los átomos de uranio son radiactivos. De vez en cuando alguno de ellos se desintegra y forma un segundo tipo de átomo radiactivo que a su vez se descompone en un tercero, y así sucesivamente. Finalmente, las desintegraciones forman un átomo de plomo, estable y permanente.
La desintegración del uranio no es muy rápida. En realidad es tan lenta que, para que la mitad del uranio de un cristal de circón se convierta en plomo, se necesitan 4.500 millones de años. Por otro lado, la desintegración es muy regular y sigue unas reglas muy sencillas que se han reproducido con precisión en el laboratorio. Si se analiza un cristal de circón y se calcula el porcentaje de uranio y de plomo, se puede calcular cuánto tiempo le ha costado al uranio desintegrarse y producir el plomo, lo cual, a su vez, indica la edad de la roca.
Por supuesto las cosas no son tan sencillas como parecen. Realizar las medidas propiamente dichas e interpretarlas adecuadamente no siempre es fácil. Lo lógico sería tomar el cristal de circón entero y analizar el contenido de plomo y uranio. Por desgracia, nada es perfecto. El cristal de circón contendrá diminutas fracturas casi imperceptibles por entre las cuales el plomo se desintegra.
Es preciso, pues, analizar distintas partes del diminuto cristal para encontrar las más ricas en contenido de plomo y, en consecuencia, con pérdidas mínimas.
Con tal objeto, Bowring llevó sus rocas a Australia, donde contaba con el aparato adecuado para este tipo de medidas. Disparó un haz de partículas cargadas al cristal de circón, y la energía del impacto vaporizó unas dos milésimas de microgramo de material. Se analizó este minúsculo fragmento de vapor de circón mediante un aparato llamado «espectrómetro de masa», que calcula el plomo, prácticamente átomo por átomo. Y así se descubrió que las rocas tenían 3.960 millones de años.
Aunque parezca mentira, se han encontrado cristales de circón todavía más antiguos. Diminutos cristales de circón descubiertos en rocas australianas han contabilizado 4.300 millones de años. Sin embargo, estos cristales estaban en el interior de rocas relativamente jóvenes. En otros tiempos debieron de formar parte de rocas muy viejas, pero la erosión descompuso las rocas y los cristales se incorporaron a otras más nuevas. La mera existencia de los cristales de circón antiquísimos no aclara los orígenes de la Tierra. Necesitamos encontrarlos en su roca original, y es dudoso que los geólogos lo consigan alguna vez.
Mientras tanto, las rocas del noroeste de Canadá resultan de interés. Son de naturaleza granítica: del tipo de rocas de que están hechos los continentes de la Tierra. Esto indica que hace casi 4.000 millones de años ya existían continentes en la Tierra.
Además, estas rocas graníticas no han proporcionado lo que se debería esperar de unas rocas primitivas. Los descubrimientos de los geólogos demuestran que tales rocas graníticas han evolucionado de predecesoras más sencillas. Lo cual quiere decir que, hace 4.000 millones de años, la Tierra ya había sufrido cambios complejos desde el momento de su formación.

MÁS ANTIGUO DE LO QUE PENSÁBAMOS
A veces, los científicos, cuando reciben nueva información, deben modificar cosas de las que, hasta entonces, se sentían bastante seguros. Esto sucedió cuando las perforaciones en los arrecifes de coral obligaron a revisar algunas fechas de las que los arqueólogos estaban, hasta ese momento, convencidos.
Las fechas en cuestión son las que se obtienen al estudiar el contenido en carbono 14 de organismos antiguos. El carbono se presenta en tres variedades: carbono 12, carbono 13 y (en cantidad escasa) carbono 14. De ellos, el carbono 12 y el 13 son estables, pero el carbono 14 se desintegra lentamente. Mientras un organismo esté vivo, sigue incorporando carbono nuevo a sus tejidos, incluido el carbono 14. El nuevo carbono 14 se incorpora a la misma velocidad que se desintegra el viejo, de manera que permanece constante en los tejidos.
Sin embargo, después de morir un organismo, el carbono 14 continúa desintegrándose, pero no se incorpora de nuevo a la materia muerta. Esto quiere decir que la cantidad de carbono 14 va disminuyendo lentamente, y a partir de la cantidad que se pierde, los científicos pueden deducir con precisión cuánto tiempo ha transcurrido desde que la materia estaba viva.
De esta manera, los científicos pueden fechar trozos antiguos de madera o carbón y decir el tiempo que ha pasado desde que formaban parte de los árboles vivos. Pueden fechar semillas o trozos de coral muerto y calcular el tiempo que ha transcurrido desde su estado vivo.
Este método parece digno de todo crédito. El carbono 14 se descompone a una velocidad constante y uniforme, y la medida de la cantidad presente es minuciosa y precisa. ¿Qué puede fallar? Para empezar, depende en gran medida de la cantidad de carbono 14 (en forma de dióxido de carbono) que haya en el entorno. Si la cantidad aumenta, se incorpora más, y si la cantidad disminuye, se incorpora menos. La actividad volcánica aumenta el contenido de dióxido de carbono en el aire, al igual que un incremento en la actividad de los rayos cósmicos. Una disminución de la temperatura del océano incrementa la cantidad de dióxido de carbono disuelto en él, y todos estos efectos se pueden producir también a la inversa.
Esto significa que los científicos no pueden estar seguros de la cantidad de carbono 14 que «debería» de haber tenido la materia antigua en estado vivo, y por tanto cuántos años indica el nivel actual. La suposición más sencilla es pensar que el nivel de carbono 14 del medio ambiente ha sido más o menos siempre el mismo, pero no es muy seguro hacerlo así.
Es preferible correlacionar los descubrimientos del carbono 14 con otros medios científicos. Por ejemplo, se pueden determinar algunas edades tanto por los anillos de los árboles como por el carbono 14. Los datos de estos anillos indican la variación de los niveles de carbono 14, y hay razones para creer que las edades obtenidas con carbono 14, mediante el procedimiento normal, eran algo más bajas, pero es difícil saber cuánto exactamente, sobre todo teniendo en cuenta que los datos que proporcionan los anillos de los árboles se remontan sólo hasta 10.000 años.
Las perforaciones en los corales proporcionan edades mucho mayores que éstas, y se pueden comprobar por la cantidad de isótopos de uranio y torio presentes. También éstos se desintegran a velocidad uniforme y conocida, pero no se trata de medir la variación de las cantidades de estos isótopos en el tiempo, de modo que las edades basadas en el uranio/torio son más fidedignas que las basadas en el carbono 14, sobre todo ahora que las técnicas de medida de los isótopos de uranio/torio son mucho más precisas.
Se demuestra pues que existe una discrepancia del 20%. Los datos de carbono 14 mostraban que el máximo de la glaciación más reciente se produjo hace 18.000 años, pero ahora se piensa que la fecha real data de hace 21.500 años.
Cuando estos cambios se consideran necesarios, a menudo los profanos dicen, con más o menos alegría: «Habrá que revisar todos los libros de texto», pero esto ocurre pocas veces. En realidad, sólo significa que se tendrán que modificar algunos párrafos. La nueva actitud hacia el carbono 14 no altera el orden en el que se supone que sucedieron las cosas. Lo único que hay que hacer es aumentar en un 20% la edad que se aplicaba a todo lo que se ha medido por medio del carbono 14.
Esto no quiere decir que tales cambios no puedan ser importantes en otros aspectos. Por ejemplo, muchos científicos piensan que las glaciaciones del último millón de años aumentaban y disminuían con arreglo a ligeros cambios cíclicos en la órbita terrestre, que suponían la llegada a la Tierra de un poco más de calor o un poco menos.
Estos cambios cíclicos, si están bien calculados, indican que hace unos 23.000 años hubo una tendencia lenta hacia el calentamiento. Esto hizo disminuir la velocidad de acumulación de los glaciares y, finalmente, después de unos miles de años, los hizo detenerse y los forzó a retirarse. Una espera de 5.000 años antes de que se estableciese el máximo y empezara la retirada era demasiado larga, y los científicos se preguntaban por qué persistían los glaciares. Pero si el tope ocurrió hace 21.500 años, se produjo sólo 1.500 años después de que empezara la tendencia al calentamiento, y esto es mucho más lógico. En lo que respecta a esta teoría, al menos, la modificación del sistema de determinación de la edad es bienvenida.

AGUA: LA CIRCULACIÓN INFERIOR
La Tierra tiene un océano. A pesar de los distintos nombres de sus diferentes zonas, el océano es una entidad, como se puede comprobar mediante cualquier fotografía tomada desde el espacio. Nuestro planeta es maravillosamente azul porque tiene un océano abierto y líquido, único en el Sistema Solar. Europa, un satélite de Júpiter, puede que tenga agua líquida bajo su superficie helada, pero no hay nada que rivalice con el océano terrestre.
Incluso en la edad del hielo, el agua líquida cubría el 70% de la Tierra, hasta una profundidad media de 3.730 metros. Este océano favorece la vida, incluso en tierra firme, ya que el agua que se evapora entra en la circulación superior, en la atmósfera, y vuelve a la tierra como lluvia o nieve.
El océano se mueve, no sólo como mareas que suben y bajan, sino también en forma de grandes corrientes de agua que fluyen. Al girar la Tierra, su superficie rota a más de 1.600 kilómetros por hora en el ecuador, moviéndose más lentamente al norte y sur hacia los polos. En 1835, el matemático francés Gaspard Gustave de Coriolis estudió el efecto de la rotación de la Tierra y demostró que causa el llamado «efecto de Coriolis»: cualquier cuerpo en movimiento sobre la superficie de la Tierra, o cerca de ella, presenta un desplazamiento lateral.
El efecto de Coriolis se aplica al océano, en el cual las corrientes del hemisferio norte se mueven en el sentido de las agujas del reloj, y en sentido contrario en el hemisferio sur. Muchas corrientes son famosas, sobre todo la Corriente del Golfo, a la que el estadounidense Matthew Fontaine Maury llamó «un río en el océano», el mayor río de la Tierra. Nuevos datos muestran que ésta no es una descripción exacta, ya que aunque la Corriente del Golfo parezca una entidad aislada y singular en el océano Atlántico, en realidad es un sistema de corrientes que lleva el agua más templada a las zonas más frías.
A pesar de la fuerza de gravitación, el océano no está «nivelado», hay ascensos y descensos debido al efecto de Coriolis. Los satélites científicos lanzados en los últimos años muestran que a 30° de latitud norte o sur hay un claro abombamiento en el océano entre los vientos predominantes. ¡También hay un declive real de 1,4 metros de la orilla exterior del sistema de la Corriente del Golfo a su interior!
En el océano hay dos tipos de circulación. Una es superficial, en su mayor parte dirigida por el viento. La otra es la circulación termohalina, más lenta y profunda, causada por las diferencias de densidad y temperatura del agua. El agua marina más salada o más fría se hunde y se mueve por debajo del agua de superficie.
El agua del océano, al circular, modera la temperatura general del planeta, no sólo porque dispersa el calor, sino porque absorbe los gases que de otra manera se sumarían al efecto invernadero, que los humanos parecemos decididos a fomentar quemando combustibles fósiles. Necesitamos nuestro océano y hemos de mantenerlo limpio y saludable. La urgencia de esta necesidad ha incitado a su estudio intensivo.
Los oceanógrafos australianos Nathaniel Bindoff y John Church han determinado que el agua del fondo del océano Pacífico, desde 1967, ha aumentado su temperatura en 0,01°C. Esto parece no significar mucho, pero un calentamiento así representa que el agua de mar se ha dilatado, y que el nivel del mar ha subido casi en tres centímetros.
Debido a la importancia de la circulación marina, los científicos estudian no sólo su patrón actual, sino también los del pasado. Se pensaba que las glaciaciones pudieron ser favorecidas por el agua dulce derretida (de los glaciares) que disminuía el contenido en sal del océano, eliminando las diferencias de densidad entre el agua de fondo y la de superficie. Entonces nada impulsaba el movimiento del agua de superficie al fondo y viceversa. Este «ciclo circulatorio» reducía su velocidad y el agua tropical templada no transcurría hacia el norte como normalmente. La teoría es que esta cadena de acontecimientos produjo una glaciación, que inmovilizó agua dulce en forma de hielo, de manera que el hielo no se fundía, lo que a la larga provocaba las diferencias de densidad. La circulación se originaba, el agua templada transcurría hacia el norte de nuevo, y la glaciación terminaba.
Los paleo-oceanógrafos E. Jansen y T. Veum no están de acuerdo con esta teoría de la circulación del océano. Después de haber estudiado datos de isótopos de carbono en micro-fósiles, piensan que la circulación de fondo siguió incluso durante las glaciaciones, aunque de algún modo no se permitió al agua templada fluir hacia el norte. Se están llevando a cabo más estudios para determinar si la circulación de fondo —termohalina— se interrumpió y se activó o no, o si continuó funcionando a distintos niveles.
Se dice que «aquel que no conoce la historia está condenado a repetirla». Yo pienso que quien no entienda el pasado de la Tierra no está preparado para su futuro. Si vamos a provocar en la Tierra el efecto invernadero, haríamos mejor en descubrir cómo ha funcionado en el pasado la circulación del océano y cómo es probable que actúe ahora.
Las últimas noticias sobre la contaminación del océano son bastante deprimentes. Pesca en exceso. Litorales abarrotados de aguas residuales. Pájaros y otros animales muertos por envenenamiento tóxico, enfermedades y capturas con plásticos y redes de pesca inadecuados. Arrecifes de coral expoliados y muertos. ¿Queda alguna esperanza?
Alguna. Más artículos, más gente interesada. Funciona una nueva sonda oceanógrafica informatizada que mide la calidad del agua e informa a la base control sobre el nivel y la contaminación. Los científicos están estudiando el lenguado, Limanda limanda, que vive en el fondo y cuyo hígado muestra cambios químicos y moleculares debidos a la contaminación. En la actualidad el hígado del lenguado muestra degeneración de las grasas, un precursor del cáncer.
La humanidad debería plantar algodoncillo. No sólo atrae a la mariposa monarca, sino que sus fibras (junto con el algodón y el kenaf) son buenas para absorber los vertidos de petróleo en el océano. Todos los poquitos ayudan. Y también ayudaría a cambiar nuestros hábitos.

AIRE: LA CIRCULACIÓN SUPERIOR
A un médico, la palabra circulación le hace pensar en un esquema de los vasos linfáticos y sanguíneos del cuerpo humano, perfectamente representados en rojo y azul. Para otros, «circulación» puede significar el número de lectores de una revista o la eficacia con que el motor de un refrigerador conduce el aire frío al resto del aparato. La circulación del aire es más importante, ya que no existe en ninguna otra parte del Sistema Solar una atmósfera tan rica en oxígeno como la de la Tierra. La atmósfera mantiene la vida y está formada, aproximadamente, por un 21% de oxígeno molecular y un 78% de nitrógeno molecular, más alrededor de un 1% de argón y componentes traza como dióxido de carbono, helio, neón, criptón, xenón, óxido nitroso, metano y monóxido de carbono.
En las capas superiores de la atmósfera, donde la mezcla 1:4 de oxígeno y nitrógeno es mucho menos densa, la radiación solar hiperenergética descompone su forma atómica a una cantidad de oxígeno y otra de nitrógeno algo menor. Parte de él desciende, y el Sol combina el oxígeno atómico con el oxígeno molecular normal para formar una variedad de tres átomos llamada «ozono», esa palabra que aparece tan a menudo en los periódicos y revistas científicas. El ozono es inestable, de manera que nunca se forma en grandes cantidades, pero el que hay protege a la Tierra de la radiación ultravioleta del Sol, que resulta letal.
Todo es correcto, pero hay que tener en cuenta la circulación. La atmósfera terrestre es algo más que una sábana alrededor del planeta. Se mueve, y la materia que hay en su interior se desplaza hacia arriba y a su alrededor. La atmósfera ha sido comparada a un océano de aire con vida en sus profundidades. Lo que transcurre en las profundidades del aire afecta al resto, debido a la circulación.
La Tierra es redonda (más bien un esferoide achatado y rugoso) y gira sobre sí misma mientras describe una órbita alrededor de la estrella que llamamos «Sol». La atmósfera también se mueve, gracias a la rotación de la Tierra y al calor solar, absorbido y reflejado por la superficie del planeta. Puesto que el aire caliente sube, el aire tropical asciende y transcurre en dirección norte y sur hacia los polos, donde se enfría, se hunde y se pone en movimiento en forma de viento debido a la rotación de la Tierra. En el hemisferio norte la atmósfera fluye en el sentido de las agujas del reloj, ligeramente sesgado, y ocurre al contrario por debajo del ecuador. Al espacio que se sucede con la circulación lo llamamos «tiempo».
Por el momento, los seres humanos no pueden controlar el tiempo, pero quizá la Tierra —como planeta vivo— regule en parte su atmósfera con medios biológicos. Un estudio reciente de uno de los gases que aumenta el efecto invernadero, el metano, demuestra que algunas bacterias del suelo pueden oxidarlo incluso en el desierto. Las bacterias de los suelos forestales son las más eficaces, pero el hombre está destruyendo los bosques al tiempo que contribuye al incremento de metano al quemar combustibles fósiles.
En 1992, ciento cincuenta naciones trataron de establecer a nivel internacional límites estrictos a la producción humana de gases que contribuyen al efecto invernadero. Como Estados Unidos no estuvo de acuerdo, no se fijaron. Al mismo tiempo y en el mismo día aparecieron dos titulares en distintas publicaciones: «LA CAPA DE OZONO SUCUMBE AL ASALTO» y «EL OZONO SOBREVIVE». El primer artículo decía que los contaminantes químicos destruyen la capa de ozono en mayor medida de lo que se había pensado. El segundo artículo afirmaba que el agujero de la capa de ozono sobre el Ártico no estaba tan dañado como se esperaba. Si se leían los dos artículos más allá de los titulares, estaba claro que ambos coincidían: en el futuro las cosas irían peor. La circulación de nuestra atmósfera no puede hacer frente a la contaminación que enviamos y la capa de ozono disminuirá.
Hay otros planetas con atmósfera. La de Venus también circula con la rotación del planeta. Los datos sobre Venus acumulados por las sondas Galileo y Pioneer Venus están siendo estudiados con detenimiento, sobre todo por los astrónomos M. D. Smith, P. J. Gierasch y P. J. Schinder. Aparentemente, las espesas nubes de la atmósfera venusiana se forman cerca del ecuador, transcurren hacia los polos y se disgregan en forma de viento según un patrón rayado en forma de Y característico, que se mueve alrededor de Venus cada cuatro o cinco días. Se piensa que este patrón, sólo visible con imágenes ultravioletas, es un tipo especial de onda llamada «Kelvin», impulsada por la gravedad, alterada por los efectos de la rotación del planeta y probablemente mantenida por la «realimentación de las nubes» de calor. Esto es interesante, pero se sigue manteniendo la opinión de que la mayor parte de la atmósfera de Venus, compuesta de dióxido de carbono, está sumida en una situación de invernadero arrolladora, demasiado caliente y tóxica para que los humanos podamos respirar.
Tenemos a Marte, sin marcianos, probablemente sin vida en absoluto, y con una atmósfera muy ligera y pobre en oxígeno.
Pero volvamos a la Tierra. Hace poco, una de mis conversaciones telefónicas con amigos del Medio Oeste se vio interrumpida por un fuerte ruido en su aparato. Me dijeron que sólo se trataba de la alerta local de tornado. No ocurrió nada, pero por un momento me recordó cómo la circulación de la atmósfera terrestre sustenta y pone en peligro a los seres humanos (excepto a la afortunada Dorothy, transportada a toda velocidad a tierra de Oz).
Podemos maldecir los caprichos del tiempo, el aire contaminado que nosotros mismos hemos provocado, los peligros de un potencial efecto invernadero o la disminución de la capa de ozono. Pero como demuestran los datos de otros planetas, no podemos ir a ninguna otra parte, al menos por ahora. En este momento podemos hacer dos cosas: 1) cuidar nuestro planeta y 2) —en caso de fracaso con la número uno— construir hábitats protegidos en otro lugar, en la Luna o en Marte, o en mundos artificiales en rotación que diseñemos nosotros mismos. Será mejor que empecemos.

EL LAGO MÁS PROFUNDO
El lago Baikal, al este de Siberia, no es el lago más grande del mundo. Este honor corresponde al lago Superior, con una extensión de 81.500 kilómetros cuadrados, mientras que la del lago Baikal es sólo de 30.000 kilómetros cuadrados. Sin embargo, la máxima profundidad del lago Superior es de 406 metros, mientras que la del lago Baikal llega a los 1.740 metros.
El Baikal es el único lago que tiene pesca de altura. Debido a su profundidad contiene una quinta parte de toda el agua dulce de la Tierra. De hecho, contiene el doble de agua dulce que los cinco Grandes Lagos juntos. Por tanto, es importante descubrir cómo funciona el lago Baikal. Por ejemplo, ¿cómo circula el agua para que las capas más profundas posean oxígeno en abundancia y puedan mantener seres vivos?
Para averiguarlo, el doctor Ray F. Weiss, de la Institución Scripps de Oceanografía, ha utilizado recientemente gas freón, que por lo general se utiliza en aparatos de refrigeración y aerosoles, y al que ahora se le acusa de ser uno de los gases que contribuyen a destruir la capa de ozono. Como el freón es muy estable y no experimenta cambios, se puede utilizar como marcador. Se puede añadir al agua del lago Baikal y su presencia aquí y allá nos dirá cómo circula.
Weiss descubrió que cada año se renueva el 12,5% de las aguas profundas del Baikal, así que, más o menos cada ocho años, las aguas del fondo del lago reciben un aporte nuevo de oxígeno.
A mediados de los ochenta, un equipo dirigido por Kathleen Crane, del Departamento de Geología y Geografía del Hunter College, hizo un descubrimiento todavía más importante.
En los últimos años se ha descubierto que en los océanos se localizan «puntos calientes» o «cráteres hidrotermales». En dichos puntos surge materia de las profundidades, gracias a la cual se desarrollan algunas formas de vida. Ahora se ha podido comprobar que estos cráteres se encuentran también en el fondo del Baikal, en el extremo nordeste.
Se han tomado fotografías de las zonas próximas a los cráteres que muestran una capa casi continua de vida bacteriana, formada por bandas blancas, largas y gruesas dentro de una matriz de materia blanquecina. Estos puntos calientes son efectivamente calientes. Mientras que el agua tiene una temperatura de unos 3,5°C, la materia que se esconde bajo la matriz bacteriana alcanza los 16°C.
La vida que existe cerca de los respiraderos no es de naturaleza puramente bacteriana. Hay esponjas blancas y otros animales llamados «gasterópodos» y «anfípodos», que no se encuentran en zonas del fondo del lago, alejadas del punto caliente.
Los animales encontrados en el Baikal ofrecen cierto parecido con formas halladas en agua salada, por lo que es posible que en alguna época el lago hubiera estado conectado con el océano. Por otro lado, puede que el Baikal se está extendiendo y que sea el núcleo de un nuevo océano que aparecerá algún día. En realidad no lo sabemos.
Hay una cierta perplejidad en cuanto al lugar donde aparecen los puntos calientes en el fondo del lago. En el océano estos puntos surgen donde el fondo marino se está dilatando, donde la roca fundida emerge de las profundidades. Éste no es el caso del Baikal.
En el Baikal, los respiraderos hidrotermales se encuentran a lo largo de una falla, a más de 18 kilómetros del eje del valle de dislocación. Se piensa que depende de los lugares en los que pueda haber magma o roca fundida y pueda ser forzada a salir hacia arriba. Es posible que el Baikal contenga, por comparación, poco magma y, por lo tanto, no abunden los puntos calientes.
Por otro parte, el lago Baikal forma una comunidad de vida aislada y contiene un gran número de plantas y animales autóctonos. Hay más de mil doscientas especies que viven a diferentes niveles en el agua y unas tres cuartas partes de ellas no se encuentran en ningún otro lugar.
De las cincuenta especies de peces que viven en sus aguas, el salmón y el corégono son los que más se pescan. Los peces más grandes del Baikal son los esturiones, algunos de los cuales miden 1,80 metros y pueden llegar a pesar 120 kilos.
Sólo hay un mamífero originario del lago, y es la foca del Baikal.
Se están tomando medidas para evitar la contaminación del lago. Después de todo, es único, no hay nada semejante en ningún otro lugar de la Tierra. Es importante mantenerlo lo más prístino posible y proteger sus plantas y sus animales propios.

LA GRAN FUSIÓN
Los huracanes provocan grandes daños, pero son una minucia comparados con algunos de los desastres naturales que han podido azotar a la Tierra. Y no estoy hablando del choque del cometa, hace 65 millones de años, que acabó con los dinosaurios, sino de los acontecimientos posibles hace sólo unos pocos milenios, cuando los seres humanos estaban en ciernes de establecer civilizaciones en el Oriente Medio.
Durante el último millón de años, la Tierra ha pasado por períodos intermitentes en los que enormes capas de hielo cubrían la mitad septentrional de América del Norte, así como grandes extensiones del norte de Eurasia. Su causa se puede referir a ligeros cambios periódicos en la órbita terrestre, y las consecuencias han sido muy graves durante esta época debido a los desplazamientos de la corteza terrestre que han rodeado el polo Norte de zonas de tierra firme.
Parece ser que hay períodos durante los cuales los veranos del hemisferio norte son un poco más fríos. Si eso sucede, la nieve del invierno no tiene posibilidad de fundirse completamente antes de que se produzcan las nevadas del invierno siguiente. Poco a poco, de año en año, la cubierta de nieve aumenta. Al hacerlo, cada vez más se refleja al espacio la luz solar y deja de calentar la Tierra, puesto que la nieve refleja la luz más que la tierra desnuda. Por tanto, los veranos son cada vez más fríos.
De esta manera, los glaciares se formaban lentamente e iban avanzando hacia el sur, llegando tan lejos como el río Ohio y Long Island. El nivel del mar descendía y aparecían puentes de tierra que conectaban Asia con América del Norte por el norte y con Australia por el sur, de manera que los hombres se abrieron camino hasta estos continentes desde sus orígenes en el Viejo Mundo.
Pero después, los veranos se templaron un tanto, cuando los ciclos orbitales terrestres volvían a ser los de antes, y entonces se fundía más nieve de la que caía al invierno siguiente. Se reflejaba menos luz y se absorbía más, puesto que la tierra desnuda quedaba al descubierto, y los veranos resultaban todavía más calientes. Poco a poco, los glaciares retrocedían. Hace diez mil años completaron su retirada más reciente y el mundo se convirtió en lo que es ahora.
Por lo general, se piensa que las idas y venidas de la capa de hielo son lentas, glacialmente lentas, en realidad. No hay otra manera de imaginar el avance de los glaciares que no sea lento, pero ¿y su fusión?
Allá por 1975, Cesare Emiliani, de la Universidad de Miami, estudió los restos fósiles de organismos microscópicos presentes bajo los sedimentos del fondo del golfo de México. De sus estudios dedujo que hubo un período, hace 11,000 años, en el que el agua del golfo era mucho menos salada que la actual. Sostenía que las capas de hielo habían experimentado una fusión repentina y que una gran avenida de agua penetró en el golfo y provocó la subida del mar de manera notable.
Su idea fue ignorada en gran parte porque era difícil imaginar el hielo fundiéndose tan deprisa, pero en 1989, John Shaw, de la Universidad de Queen en Kingston (Ontario), propuso una teoría sobre la formación de estas enormes avenidas. En las regiones en otro tiempo cubiertas por el hielo hay pequeñas colinas desperdigadas llamadas «drumlins». Siempre se ha supuesto que se habían formado por la acción pulverizadora de los glaciares mientras avanzaban y retrocedían. Sin embargo, Shaw cree que es más fácil que se hayan formado por la acción de un gran torrente de agua.
Según él, las capas de hielo sí se fundieron lentamente, pero no es necesariamente cierto que el agua se desbordara, empapara la tierra, se vertiera en los ríos y llegara al mar a medida que se formaba.
En vez de eso, el agua pudo haberse depositado bajo la capa de hielo, empapando la tierra hasta alcanzar un lecho de roca y, entonces, se acumulara poco a poco. De esta manera habría formado un lago de agua bajo la capa de hielo al que el dique no dejaba desbordarse.
Con el tiempo, como los glaciares seguían fundiéndose lentamente, algunas zonas del dique debieron debilitarse y terminaron por romperse. Entonces, el lago de agua helada que había quedado encerrado debió vaciarse hacia el mar en una avalancha enorme que excede a cualquier otra que podamos imaginar.
Shaw ha calculado que pudieron verterse de golpe algo así como 80.000 kilómetros cúbicos (80 billones de metros cúbicos) de agua procedentes del hielo, que formaron los campos de drumlins del norte de Saskatchewan. El río Amazonas, el mayor de la Tierra, tarda diez años en descargar esa cantidad de agua en el océano Atlántico, pero el lago de hielo pudo haberlo hecho en cuestión de unos pocos días. Por tanto, debió tener el efecto de un río unas mil veces mayor que el Amazonas.
Tal cantidad de agua, vertida sobre el océano, pudo haber hecho subir el nivel del mar más de 20 centímetros en unos pocos días. El agua creciente debió cubrir la plataforma continental poco profunda que había quedado al descubierto durante las glaciaciones. Los hombres que se habían retirado tierra adentro antes de la avalancha de agua, más tarde habrían debido recordar viejas historias y después las iban a exagerar, dando origen a leyendas de continentes hundidos y diluvios universales.

ROCAS LUNARES
En 1990 se descubrió que una roca extrañamente encontrada en la Antártida era un fragmento de la Luna. La gente se preguntaba cómo podía haber un trozo de Luna en la Antártida, pero no es algo tan misterioso como parece. La Luna y todos los cuerpos del Sistema Solar se formaron por la unión de fragmentos menores. Una vez que planetas y satélites se acercaron a las condiciones actuales, hace unos 4.000 millones de años, todavía algunos cuerpos colisionaban con ellos. En realidad, con una frecuencia mucho menor, estas colisiones siguen ocurriendo incluso en la actualidad.
Observamos las señales de estas colisiones en los cráteres que hay en tantos mundos sin atmósfera, océanos ni flujos de lava que los erosione. En la Tierra, la mayoría de los cráteres ha sido arrasada, pero en la superficie de la Luna permanecen intactos y nuestro satélite está cubierto de cráteres.
Cada cráter es el resultado de un meteoro, a veces bastante grande, que choca contra la Luna a una velocidad de 30 kilómetros por segundo, más o menos. Un objeto así, que colisiona a semejante velocidad, provoca una enorme explosión en la superficie lunar y lanza gran cantidad de materia hacia el exterior.
Lo mismo ha ocurrido en la Tierra, pero debido a la gravedad, para que el material pueda expandirse es necesario que sea propulsado a una velocidad de 11 kilómetros por segundo. Ni siquiera el impacto de un meteoro enorme produciría semejantes velocidades, así que el material cae de nuevo a la Tierra. La Luna es un cuerpo más pequeño con una atracción gravitatoria mucho menor. Para expandirse, los objetos sólo necesitan moverse a una velocidad de 2,5 kilómetros por segundo. El resultado es que el bombardeo meteórico sobre la Luna propulsa partículas de materia hacia fuera constantemente.
Los pedazos de Luna no son nada extraordinarios. Los más grandes probablemente son poco mayores que la grava, y la mayoría es polvo. Muchos de ellos son arrastrados por el viento solar y los transporta a los confines lejanos del Sistema Solar. Otros, con el tiempo, caen de nuevo en la Luna. Y los que quedan en el espacio entre la Tierra y la Luna son polvo, un poco más denso que el material de las regiones del espacio exterior. Y alguna vez, uno de estos pedazos de Luna serpentea alejándose lo suficiente como para colisionar con la Tierra.
La Tierra es bombardeada constantemente por meteoritos diminutos, la mayoría de los cuales no son lo bastante grandes para sobrevivir al paso por la atmósfera y alcanzar la superficie del planeta. La mayoría de estos meteoritos son «primordiales», o sea han existido en el espacio desde que el Sistema Solar estaba en proceso de formación. Otros son restos de cometas muertos, pero sólo unos pocos son fragmentos de la Luna.
¿Cómo se estudian los meteoritos? Algunos se reconocen con facilidad porque son trozos de hierro metálico, que no se encuentra de manera natural en la Tierra. Pero por lo menos el 90% son objetos rocosos difíciles de distinguir de las rocas terrestres. A menos que se vea caer realmente a dichos meteoritos rocosos, es difícil localizarlos, e incluso si se logra, con el paso del tiempo, están contaminados con materia terrestre.
Hay una excepción poco común. Rodeando el polo Sur se encuentra el continente de la Antártida, con una extensión de 13 millones de kilómetros cuadrados y cubierto por una capa de hielo espesa y continua. En estos últimos años, los exploradores de la Antártida han encontrado de manera ocasional rocas en la superficie helada. Cualquier roca de la Antártida que no haya sido llevada por seres humanos tiene que ser un meteorito. No hay ninguna otra posibilidad de que una roca permanezca sobre el hielo. Por consiguiente, ha sido factible estudiar los meteoritos con más intensidad que nunca en la historia.
Pero aclarado esto, surge otra cuestión: ¿cómo se determina que un determinado meteorito es de origen lunar? Mediante análisis químicos. La Tierra y la Luna están compuestas por los mismos elementos químicos, pero en distinta proporción, porque los dos cuerpos son de diferente tamaño y han evolucionado de forma diferente. Hasta cierto punto, la proporción de los diferentes elementos representa una especie de «huella dactilar» del planeta. Así por ejemplo, los meteoritos primordiales, incluso cuando son rocosos, contienen mucho más hierro que las rocas de la Tierra o las de la Luna.
Se afirma que casi una docena de meteoritos de la Antártida tienen una composición elemental exactamente igual a la que caracteriza a la Luna, y la conclusión es que dichos meteoritos son fragmentos de ella. La primera roca lunar de la Antártida se encontró en 1979 y pesaba unos 60 gramos.
La roca lunar de mayor dimensión encontrada hasta la fecha fue descubierta en 1990 por Jeremy Delaney, de la Universidad Rutgers. Pesaba unos 700 gramos y medía poco más de 13 centímetros de largo. La totalidad de los restos lunares encontrados hasta ahora suman unos dos kilos y cuarto de peso y se pueden estudiar con tranquilidad sin necesidad de acceder a la Luna.
En ese caso, ¿por qué nos hemos molestado en ir a la Luna? Porque de esta manera y disponiendo de rocas lunares sobre el terreno, podemos determinar la «huella dactilar» química de las rocas lunares y, por tanto, identificar los objetos encontrados en la Tierra como pertenecientes a la Luna, sin ninguna duda.

NUEVAS INCÓGNITAS SOBRE LOS PLANETAS
Hasta la generación actual, los astrónomos estaban desgraciadamente seguros de que nunca podrían conocer la superficie de Venus, porque el planeta está rodeado por una capa de nubes espesa y continua, impenetrable a la vista.
El radar, sin embargo, utiliza ondas muy semejantes a las ondas luminosas, pero un millón de veces más largas. La ventaja del radar es que puede atravesar las nubes, la niebla y el polvo. Puede atravesar la capa de nubes de Venus como si no existiera, chocar contra la superficie sólida del interior y reflejarse. Las ondas de reflexión rebasan las nubes de vuelta y pueden ser detectadas.
El radar tiene dos inconvenientes. Primero, no disponemos una forma biológica de detección; por decirlo de otra forma, no hay «ojos para el radar», y segundo, las ondas largas no «ven» con tanta claridad como las ondas cortas de la luz. Ambas desventajas se han corregido. Existen instrumentos para detectar las ondas de radar reflejadas y dispositivos para agudizar la «visión».
El resultado es una gran mejora respecto de los anteriores intentos de trazar el mapa de Venus mediante el radar, y observamos su superficie casi con tanta claridad como la de la Luna. Naturalmente, algunos resultados son sorprendentes. Como ocurre con la ciencia en general, las nuevas observaciones plantean también nuevas cuestiones.
Por ejemplo, en Venus se han detectado varios cráteres grandes, pero casi ninguno pequeño. Esto tiene su explicación. La atmósfera de Venus es casi cien veces más densa que la de la Tierra, de manera que los meteoritos pequeños son calentados y volatilizados con más eficacia que en el aire terrestre, más ligero. Sólo los meteoritos grandes pueden sobrevivir al viaje a través de la atmósfera de Venus, y son ellos la causa de los grandes cráteres.
Lo que resulta extraño, sin embargo, es que el polvo y los cascotes propulsados desde los cráteres grandes forman un círculo discontinuo. Se parecen algo así como a los pétalos abiertos de una flor. Algo parecido ocurre en Marte y suele atribuirse a la acción del agua. Cuando en un mundo no hay agua, como en el caso de la Luna, los restos forman un círculo continuo.
Aquí está la pega. Venus es absoluta y totalmente seco, así que, ¿por qué los cráteres están rodeados de estructuras en forma de pétalos? ¿Puede ser debido al viento (no hay viento en la Luna) o al efecto de los gases forzados a salir a la superficie cuando el meteorito choca? Una sugerencia que no he oído hacer a nadie, pero que para mí tiene sentido, es la de que el meteorito penetra lo suficiente como para lanzar hacia fuera «magma», o roca líquida del interior. La roca líquida puede producir el mismo efecto que el agua líquida.
A 3.200 millones de kilómetros de Venus se encuentra el planeta Neptuno, con un satélite bastante grande (algo menor que nuestra Luna), llamado Tritón, fotografiado de cerca por el Voyager II.
Las fotografías muestran manchas oscuras sobre la superficie de Tritón, por lo general brillante, deslustradas con metano y nitrógeno congelados. Es como si alguien hubiese pasado la mano por encima del globo con los dedos manchados de chocolate. Después de estudiar las fotos, los astrónomos redujeron las posibles explicaciones a dos, las que consideraron más probables.
Una posibilidad es que la superficie de nitrógeno, en su mayor parte clara y blanquecina, contenga zonas con partículas oscuras que absorben la luz débil del Sol, muy lejano, y se calienten lo suficiente para volatilizar el nitrógeno sólido.
Al convertirse una determinada cantidad del sólido en gas («un volcán de nitrógeno»), podría producirse una explosión repentina que lanzara el material oscuro hacia fuera. Tritón tiene una atmósfera muy ligera y su viento puede arrastrar la materia y formar pequeñas extensiones ovales, origen de las manchas oscuras. Otra posibilidad es que de vez en cuando se produzcan pequeños remolinos en la atmósfera de Tritón, algo parecido a los «remolinos de polvo» con los que estamos familiarizados en la Tierra, los cuales pueden provocar que el polvo oscuro se arremoline y se pose formando figuras alargadas.
Aprender más de lo que sabíamos antes sobre cualquier cuestión puede responder preguntas que nos hacíamos con anterioridad, pero también nos induce a plantear otras cuestiones diferentes.
Por ejemplo, un satélite de Urano, Umbriel, es casi totalmente oscuro, pero muestra una región blanca en forma de rosquilla. No sabemos lo que es. Otro satélite de Urano, Miranda, parece haberse roto y vuelto a componer, de manera que es un montón extraño de estructuras, incluidas unas marcas similares a los galones de un sargento. En realidad, no tenemos ni idea de lo que es todo esto. El satélite mayor de Saturno, Titán, tiene nubes tan opacas como las de Venus. Es preciso obtener más información sobre su superficie con ayuda del radar.
Y el planeta Neptuno es una sarta de enigmas, con sus vientos extraordinariamente rápidos y una gran «mancha negra». ¡Nuevas incógnitas por todas partes!

LA ATMÓSFERA DE MERCURIO
¿La atmósfera de Mercurio? La cuestión resulta extraña porque es bien sabido que Mercurio no tiene una «verdadera» atmósfera. Mercurio está muy cerca del Sol y es muy caliente. Es bastante pequeño y su atracción gravitatoria débil. Los gases calientes son más difíciles de retener que los fríos y, de todas maneras, la escasa atracción de Mercurio no es un buen asidero. Por tanto, nada de atmósfera.
No obstante, depende de lo que consideremos una atmósfera. Nuestra Luna, por ejemplo, no tiene atmósfera en el sentido terrestre. Existe una zona de vacío alrededor de su superficie. Sin embargo, hay muchas más moléculas de gas en un metro cúbico del espacio próximo a la superficie de la Luna que en un metro cúbico del espacio alejado de los planetas. Por tanto, se debería considerar que la Luna tiene una atmósfera muy ligera, con una densidad de sólo alrededor de una milmillonésima parte de la de la Tierra. No es lo mismo, pero consiste en algo, y es lo que hay.
De forma parecida, en las inmediaciones de la superficie de Mercurio hay una capa muy ligera de gas. Los dos elementos de este gas se detectan con facilidad. El sodio y el potasio son elementos metálicos que se funden a temperaturas relativamente bajas. Mercurio no está lo bastante caliente como para que estos líquidos hiervan, pero sí lo suficiente como para mantenerlos al menos en parte en forma de vapor. (De la misma forma, la Tierra no está lo bastante caliente para hervir el agua, pero sí lo suficiente como para mantener una parte del agua en forma de vapor en la atmósfera).
Pero Mercurio no puede retener estos vapores. Cualquier vapor de sodio o potasio que hubiese existido en el pasado debería haber desaparecido hace mucho tiempo. Puesto que los vapores permanecen, deben originarse de algún modo, a la misma velocidad que desaparecen.
Una posibilidad es que meteoros pequeños colisionen continuamente contra la superficie de Mercurio, lo cual proporcione nuevos suministros de sodio y potasio para que se conviertan en vapor por acción del calor. Otra posibilidad es que partículas cargadas procedentes del Sol (el «viento solar») golpeen la superficie de Mercurio y arranquen sodio y potasio de sus rocas.
Sin embargo, da la casualidad de que en Mercurio hay un enorme sistema de cráteres llamados «Caloris» («calor» en latín), que mira hacia el Sol cuando se aproxima a él. No hay duda de que Caloris se formó por un choque colosal de meteoritos en los primeros días del Sistema Solar. Debieron de romper y fracturar la corteza de Mercurio que probablemente ha permanecido así desde entonces, ya que parece un planeta muerto desde el punto de vista geológico, y por tanto su corteza permanece en la forma que ha sido forzada a adoptar.
Ann L. Sprague, de la Universidad de Arizona, descubrió que cuando Caloris se observa desde la Tierra sobre la superficie de Mercurio se detecta potasio unas diez veces más que cuando está fuera de la vista. La conclusión evidente es que aunque el sodio y el potasio de la superficie de Mercurio pueden haber desaparecido hace tiempo, todavía existen grandes cantidades de estos metales bajo su superficie. El Sol calienta la provisión subsuperficial y pequeñas cantidades son propulsadas a través de huecos y fisuras de la corteza del planeta. Esto debe ocurrir con más facilidad en las zonas donde la corteza está realmente machacada, como en Caloris, y ésa es la razón por la cual se detecta más potasio cuando la zona queda a la vista.
Estudios como éste puede darnos una idea más clara sobre el interior de los mundos, en zonas que no podemos estudiar directamente.
Por ejemplo, la Luna también tiene átomos de sodio y potasio en su ligerísima atmósfera. El átomo de sodio es menor que el de potasio, y en el Universo, en general, los átomos pequeños son más comunes que los grandes. Por tanto, hay más sodio que potasio en la atmósfera de la Luna. De hecho, hay cinco veces más sodio que potasio.
No es sorprendente, por tanto, que también haya más sodio que potasio en la atmósfera de Mercurio. Pero hay quince veces más sodio que potasio en ella.
Una explicación que surge de inmediato es que el potasio se convierte con más facilidad en vapor que el sodio, porque tiene un punto de ebullición menor. Esto quiere decir que en Mercurio, que es mucho más caliente que la Luna, la provisión subsuperficial de sodio y potasio se ha volatilizado a mayor velocidad que en la Luna, y esto es sobre todo cierto en el caso del potasio. Por esa razón, las capas bajo la corteza de Mercurio deben de haber perdido mucho más potasio que las de la Luna. Por consiguiente, Mercurio no tiene más sodio en su interior, sino menos potasio.
Probablemente todos los planetas emiten gases. La Tierra está geológicamente viva, de manera que sus volcanes arrojan roca fundida y vapor de agua. lo, el satélite de Júpiter, se calienta por la acción de las mareas y tiene volcanes que arrojan azufre. Tritón, el satélite glacial de Neptuno, expulsa hielo. Puesto que la fuga de vapores del interior de un planeta se puede considerar una forma lenta de descarga volcánica, cualquier mundo de tamaño considerable puede hacerlo.

MÁS SOBRE VENUS
El 8 de octubre de 1992 señaló la muerte de uno de los servidores más leales y trabajadores de Venus, el satélite artificial en Venus Pioneer XII. Entró en órbita alrededor del planeta el 4 de diciembre de 1978 y desde entonces no ha dejado de transmitir datos.
No obstante, el Pioneer XII era una más de las treinta y cinco sondas espaciales que investigan Venus desde 1961, cuando Venera I, de origen soviético, llegó al planeta. La primera nave espacial transmisora de datos sobre el interior de la atmósfera venusiana fue Venera IV, que emitió durante 93 minutos después de penetrar en las nubes de Venus el 18 de octubre de 1967. Desde 1989, la nave espacial Magallanes ha estado cartografiando Venus mediante el radar y se espera que continúe haciéndolo. El último año ha recogido muchos artículos científicos sobre los datos de Venus.
Venus es el segundo de los planetas más próximos al Sol y sólo un poco menor que el tercer planeta, la Tierra. En la antigüedad se pensaba de Venus que eran dos cuerpos celestes: las «estrellas» de la mañana y de la tarde, hasta que se hizo evidente que nunca aparecían juntas en la noche. Los griegos la bautizaron con el nombre de Venus en recuerdo de la diosa del amor y la belleza.
En el cielo de la Tierra no hay duda de que Venus es bello, el objeto más brillante sin tener en cuenta la Luna. En 1610, Galileo descubrió que, al igual que la Luna, Venus tenía fases. Esto corroboraba la teoría heliocéntrica o del Sol como centro de nuestro sistema planetario, propuesta por primera vez por el griego Heráclides en el año 350 aC, que fue desdeñada. Que Venus tuviera fases significaba que brillaba porque reflejaba la luz solar, y si lo hacía era porque tenía que estar girando alrededor del Sol, y no de la Tierra.
Venus es mucho menos bello de cerca. Sin agua y más caliente que el infierno de Dante, no es probable que contenga vida. Se calcula que la temperatura de su superficie es de 730°K o 454°C, tan caliente como para fundir plomo.
La atmósfera de Venus es 95 veces más densa que la de la Tierra. Está formada mayormente toda por dióxido de carbono, y ácido sulfúrico, fluorhídrico y clorhídrico, todavía más venenosos. A principios de 1992, R. David Baker II y Gerald Schubert, de UCLA, mostraron que en ciertas zonas de la atmósfera de Venus se forman células de convección más bien finas pero muy grandes en sentido horizontal, probablemente debido a la dinámica de las capas atmosféricas, ahora bajo investigación.
Una de las razones por las que los científicos están investigando la atmósfera venusiana es porque algún día puede ser factible un intento para mejorarla (como sembrar las nubes de bacterias y algas verdeazuladas).
Otra razón es la amenaza del «efecto invernadero» que caliente la Tierra. Venus ya tiene un efecto invernadero desbocado, y si se averigua el porqué, podríamos evitar un destino semejante para la Tierra.
Utilizando modelos de simulación por ordenador, Matthew Newman y Conway Leovy, de la Universidad de Washington, investigaron recientemente los fuertes vientos que cubren una vuelta completa alrededor de la atmósfera de Venus cada cuatro días, mientras que Mercurio tarda 243 días en completar el giro. Parece que la acción de la radiación solar sobre la atmósfera densa gobierna las mareas termales que favorecen los vientos. Los científicos todavía buscan respuesta a otras preguntas sobre la atmósfera venusiana, como: ¿Por qué las nubes que hay sobre los polos son tan calientes? ¿Qué causa mantiene la velocidad de rotación de fondo de la atmósfera inferior?
También se está estudiando la superficie de Venus. Está plagada de cráteres, es montañosa (a la montaña más grande se la conoce como Maxwell), presenta valles agrietados, domos volcánicos y ríos de lava más largos que cualquier río terrestre de agua. Se interpretó que las imágenes del Magallanes revelaban un corrimiento de tierras reciente; después se asumió como error. Estudios más recientes indican que probablemente eran corrimientos de tierra, pero ocurridos en el pasado.
Los científicos pensaban que Venus no tenía placas tectónicas como las que se mueven en la superficie terrestre. En mayo de 1992, Dan P. McKenzie, de la Universidad de Cambridge, anunció a la Unión Geofísica Americana que Venus podía tener una variedad modesta y desigual de placas tectónicas. La prueba más convincente era una mole enorme y borrosa llamada Artemisa en las tierras montañosas ecuatoriales conocidas como Tierra de Afrodita. Artemisa puede ser una zona en la que se haya formado corteza nueva. Cerca de Artemisa hay fosas semejantes a las fosas de subducción observadas en el fondo del océano, donde unas placas descienden por debajo de otras.
Gerald Schubert, de UCLA (Universidad de California en Los Ángeles), y David T. Sandwell, de la Institución Scripps de Oceanografía, también han analizado las imágenes del Magallanes. Afirman que la subducción en Venus es diferente. La corteza terrestre surge de una cresta en mitad del océano, después se alarga durante una gran distancia horizontalmente para hundirse bajo otra placa en la zona de subducción. En Venus, no parece que las placas se alarguen horizontalmente. Se interpreta que cuando su superficie se rasga merced al calor del manto, la corteza a ambos lados del desgarrón se hunde verticalmente al tiempo que emerge roca fundida del manto.
La mitad de los cráteres de Venus están rodeados por bordes oscuros, pero también existen estas crestas sin cráter central. El geofísico K. J. Zahnle cree que muchos meteoritos se desmenuzan al sumergirse en las «tensiones aerodinámicas» de la atmósfera de Venus, causando impactos de choque similares a la sacudida que derribó los árboles de Tunguska, en Siberia, el 30 de junio de 1908.
A diferencia de Marte, Venus y la Tierra son dos planetas con atmósferas considerables. En la Tierra, el agua borra las pruebas de la mayoría de los acontecimientos de su superficie. En Venus es posible detectar su estado y la evolución que sufrió su superficie, y cómo le afecta su extraña atmósfera.

¿UN ASTEROIDE MARCIANO?
En 1990, Henry E. Holt y David Levy, del observatorio de Palomar en California, descubrieron un pequeño asteroide desconocido. Lo interesante es que parece moverse en la órbita del planeta Marte.
La historia de los asteroides se remonta a 1772, cuando un astrónomo francés, Joseph Louis Lagrange, demostró que existían cinco zonas en las que un pequeño cuerpo podía llevar el paso de un planeta mientras éste giraba alrededor del Sol.
Estos lugares se conocen como «puntos de Lagrange» y se numeran como L1, L2, L3, L4 y L5. De ellos, L1, L2 y L3 son inestables. Cualquier objeto situado en uno de estos puntos, si se desviara aunque fuera ligeramente de su posición, seguiría alejándose y nunca regresaría. Sin embargo, L4 y L5 son estables. Si un asteroide se sitúa en uno de estos dos puntos, entonces, incluso si se aparta, vuelve de nuevo a su posición, de manera que vibra alrededor de ese punto, por decirlo así, y puede permanecer allí indefinidamente.
L4 y L5 son puntos de la órbita del planeta. L4 está 60° por delante del planeta y L5, 60° por detrás. En ambos casos, si se trazan líneas imaginarias del asteroide al planeta, de éste al Sol y de vuelta al asteroide, se obtiene un triángulo equilátero, con todos los lados de igual longitud.
Lagrange sólo hablaba en teoría. No se conocía ningún caso real de asteroides en las posiciones L4 o L5 de ningún planeta. Pero en 1906, un astrónomo alemán, Maximilian Wolf, descubrió un asteroide (el del orden 588 descubierto, dicho sea de paso) que giraba alrededor del Sol en la órbita de Júpiter. Poco después se descubrieron más de estos asteroides, unos llevando el paso de Júpiter en la posición L5, 60° por detrás, y los otros en la posición L4, 60° por delante.
Wolf llamó al primero de estos asteroides «Aquiles», en recuerdo del héroe griego de la guerra de Troya. Otros de los asteroides descubiertos en las posiciones L4 y L5 recibieron los nombres de otros griegos y troyanos que según la leyenda lucharon en dicha guerra. Por consiguiente, las posiciones L4 y L5 han acabado siendo conocidas como las «posiciones troyanas» y los asteroides que hay en ellos, como «los Troyanos».
Hasta ahora, los asteroides troyanos relacionados con Júpiter son los únicos que se conocen. Puede que haya asteroides en las posiciones troyanas de Saturno, Urano y Neptuno, pero estos planetas están tan lejos que los asteroides que los acompañasen alrededor del Sol no aparecerían lo bastante nítidos para ser vistos, a no ser que fueran extraordinariamente grandes.
Por lo que se refiere a los planetas más cercanos al Sol que Júpiter, son pequeños y escasos en satélites.
Por supuesto, las posiciones troyanas que más nos interesan son las de la Tierra. ¿Hay un asteroide o dos compartiendo nuestra órbita alrededor del Sol, pero permaneciendo siempre 60° por delante o por detrás? Todavía más apasionante sería que existieran asteroides en posiciones troyanas con respecto a la Luna. Compartirían la órbita lunar alrededor de la Tierra, permaneciendo siempre 60° por delante o por detrás.
Un asteroide en una posición troyana de la Tierra estaría por lo menos a 150 millones de kilómetros de la Tierra. (Debería de estar a la misma distancia del Sol puesto que el asteroide, la Tierra y el Sol formarían un triángulo equilátero.) Un asteroide en la posición troyana de la Luna estaría sólo a 381.000 kilómetros (la distancia a la Luna), y podríamos visitarlo con la misma facilidad con que hemos ido a la Luna. O más, puesto que el asteroide no tiene gravedad propia que interfiera.
El problema está en que, aunque se ha buscado, no se ha descubierto ningún asteroide en las posiciones troyanas de la Tierra y de la Luna. Hace unos años se anunció que podían aparecer unas ligeras nubes de polvo en las posiciones troyanas de la Luna, pero el resultado fue negativo.
Algunos proponen la construcción de grandes estaciones espaciales capaces de albergar a 10.000 personas en las posiciones L4 y L5 de la Luna. Se convertirían en satélites troyanos artificiales moviéndose alrededor de la Tierra en la órbita lunar. Hay incluso un grupo de entusiastas que apoya esta idea y que se llaman a sí mismos «La Sociedad L5».
Ahora volvamos al nuevo asteroide descubierto por Holt y Levi. Ocurre que su posición se sitúa cerca del punto L5 de Marte, por tanto, puede tratarse de un nuevo asteroide troyano, el primero descubierto en relación con un planeta que no sea Júpiter. Por supuesto, puede que no sea un asteroide troyano incluso si está en la posición L5. Puede que mantenga una órbita diferente por completo y que casualmente recorte (o casi) la órbita de Marte en un punto que, en está única ocasión, está cerca del punto L5.
Por tanto, se debe mantener el asteroide bajo observación durante algún tiempo, para poder calcular su órbita con precisión. El tiempo demostraría que es o no un troyano. Si no es un troyano, no volveremos a oír hablar de él. Si lo es, se hará famoso (Por supuesto, si Marte tiene uno, me va a molestar que la Tierra no lo tenga también. Esto es chovinismo planetario).

MARTE PARA LOS HUMANOS
La Asociación de Exploradores Espaciales (formada por quienes han estado en el espacio) celebró recientemente su octavo congreso planetario, y el tema era «Juntos hacia Marte». El «juntos» es crucial para la investigación y el aprovechamiento rentable del planeta Marte, que debería representar un esfuerzo global de todas las naciones de la Tierra, trabajando unidas. Parecerá raro, pero resolver problemas referentes a la exploración espacial puede resolver también problemas propios de la Tierra.
La exploración espacial invierte dinero en la Tierra, crea nuevas industrias y mercados útiles, y puestos de trabajo. Los 25.000 millones de dólares dedicados a las misiones Apolo de los años sesenta y setenta, posteriormente reportaron veinte veces lo mismo en importantes avances, muy útiles en la Tierra. Gracias al esfuerzo espacial se produjo un enorme salto en muchos campos, sobre todo en los de la metalurgia, la electrónica, la cerámica y la tecnología de ordenadores.
La exploración y colonización de Marte no es una idea fantástica. Es práctica. A la larga podría proporcionar otro hogar para la humanidad en caso de que algo le sucediera a la Tierra. Además, como nuestros recursos merman y la contaminación se convierte en una amenaza creciente, tenemos que aprender a reciclar, utilizar el espacio con eficacia (en especial para cultivar alimentos), protegernos de la radiación letal (recuérdese el agujero creciente en la capa de ozono) y vivir juntos en armonía, porque es imposible ocupar tierras fronterizas para establecerse sin problemas si no apetece el domicilio habitual. Vivir en Marte, un planeta inhóspito, nos enseñaría todo esto con rapidez.
En los mercados terrestres aparecerán nuevos productos para hacer posible la vida en Marte con más rapidez que si perdiéramos el tiempo fabricándolos sólo para la Tierra. En el pasado, la necesidad en tiempos de guerra espoleó la invención y la industria de nuevos productos vitales, pero ya no queremos este tipo de motivaciones. Primero podemos construir una base en la Luna (sólo está a tres días de distancia), pero para establecer una colonia, Marte es un planeta. No es tan grande como la Tierra (aproximadamente 6.000 kilómetros menos de diámetro) y su año dura 687 de nuestros días. Su gravedad es mucho mayor que la de la Luna, pero sólo un 38% de la de la Tierra.
Por desgracia, la atmósfera marciana está formada por un 95% de dióxido de carbono, pero si se abriese una vía en las colonias abovedadas que se hubiesen construido, podrían hacerse reparaciones sin preocuparse de que el aire fuera mortal instantáneamente, como pasaría en Venus.
Astrónomos de las Universidades de Hawai y Tel Aviv sostienen que cometas helados que chocaron contra Venus, la Tierra y Marte contribuyeron a la formación de atmósferas. No podemos averiguar nada más sobre ello en la Tierra y sólo con mucha dificultad en Venus, pero sería fácil de investigar en Marte. Otros han especulado sobre la posibilidad de llevar agua a Marte remolcando un cometa hasta allí.
Los seres humanos necesitan agua en cualquier parte a la que vayan. ¿Pueden encontrar en Marte la suficiente? El planeta tiene en la actualidad una temperatura media de -60°C y una presión atmosférica muy baja. Esto hace que la existencia de agua líquida en Marte sea imposible. Pero hay esperanzas de encontrar agua.
Las características de la superficie marciana indican que el planeta pudo haber tenido en otro tiempo gran cantidad de agua, serpenteando el paisaje de enormes canales. Jeffrey Kargel y Robert Strom, astrónomos de la Universidad de Arizona, examinaron recientemente fotografías del Viking tomadas hace catorce años y llegaron a la conclusión de que en Marte hubo hace tiempo una glaciación, con glaciares compuestos de una mezcla de agua y dióxido de carbono. Muchos científicos creen que los casquetes polares de hielo siguen conteniendo hielo de agua así como dióxido de carbono helado.
En el Departamento de Estudios Terrestres y Espaciales de UCLA, David A. Page ha estudiado antiguos datos suministrados por la sonda marciana Viking. Mientras que en las muestras de suelo marciano de una pequeña área no aparecieron pruebas de presencia de agua subsuperficial, el Viking realizó mapas térmicos de tres regiones que siempre habían aparecido más brillantes que el resto de Marte: Tarsis, Arabia y Elíseo. Parece que estas zonas están recubiertas de una capa de polvo muy fino, que constituye un buen aislante. Paige sostiene que en estas áreas puede haber, y probablemente hay, hielo de fondo cerca de la superficie.
Puede que en Marte no se haya desarrollado vida (la cuestión necesita más investigación), pero es un planeta activo. El doctor Baerbel Lucchitta, del US Geological Survey, ha vuelto a examinar fotografías del Viking y descubrió pruebas de desprendimientos de terreno en acción. ¿Que más está sucediendo? Necesitamos saber más sobre Marte y encontrar modos de utilizar el planeta para obtener provecho propio.

LOS ANILLOS DE SATURNO
Los anillos de Saturno son los objetos más bellos del Sistema Solar. Aunque otros planetas exteriores tienen anillos, los de Júpiter, Urano y Neptuno son delgados, oscuros y de aspecto insignificante. Los anillos de Saturno son grandes, brillantes y magníficos.
¿Por qué? Luke Done, del Instituto Canadiense de Astrofísica Teórica, cree que lo único que ocurre es que estamos viviendo en una época en que los anillos de Saturno se aprecian en toda su belleza porque se están desvaneciendo poco a poco.
Parece que hay dos fenómenos que están llevando a los anillos hacia su desaparición. En primer lugar, los satélites de Saturno están tirando continuamente de ellos y robando energía orbital de las enormes cantidades de partículas que los componen. Como consecuencia, estas partículas caen girando en espiral en dirección a Saturno y, con el tiempo, desaparecerán. Done calcula que la desaparición se producirá dentro de unos 100 millones de años.
Un segundo proceso es la colisión constante de las partículas del anillo con granos de polvo procedentes de cometas. El polvo de los cometas deshace las partículas del anillo, reduciendo su tamaño y, en consecuencia, su energía desaparece con más rapidez. Se calcula que el efecto del polvo de los cometas provocará la desaparición de los anillos dentro de 100 millones de años.
Además, el polvo de los cometas es de color absolutamente negro, de manera que aunque la cantidad que se añade al material del anillo sea pequeña, los anillos de Saturno se volverán mucho más oscuros. Con todo, hay partes de los anillos que son brillantes y no hay duda de que están formadas por hielo. Esto indicaría que los anillos no llevan mucho tiempo expuestos al polvo de los cometas.
El mismo proceso podría afectar a los anillos delgados de Júpiter, Urano y Neptuno, pero en estos casos las partículas podrían ser sustituidas por material expulsado por los satélites de estos planetas. Los anillos de Saturno, por otro lado, no pueden ser reemplazados puesto que son demasiado grandes.
La cuestión es, ¿de dónde proceden los anillos de Saturno? Dones piensa que uno o varios cometas grandes deben de haber pasado lo bastante cerca de Saturno como para ser destruidos. Los cometas están hechos de materia helada, por tanto, los anillos estarían formados por hielo.
Por supuesto, surge una pregunta: ¿por qué los cometas son despedazados por Saturno y no por los otros planetas, en particular por Júpiter, que es mucho mayor? Además, no puede ser un único cometa el destruido. Dones cree que los cometas deberían ser entre diez y cien. ¿Por qué Saturno y no los demás?
Algún día, una sonda de Saturno estará en posición de estudiar los satélites de Saturno y comprobar si se impulsan hacia fuera lentamente mientras roban la energía del anillo.
En otras palabras, se mueven hacia fuera a medida que los anillos se mueven hacia dentro, hacia Saturno. Esto crearía una tendencia hacia la sedimentación de la materia.
Saturno también tiene un gran número de satélites, y algunos de ellos han resultado ser extraordinarios. Charles Yoder, del Jet Propulsion Laboratory, estudió los satélites interiores, Jano y Epimeteo. Están justo un poco más lejos del borde de los anillos de Saturno y no fueron descubiertos hasta 1966, cuando se observó el borde de los anillos de Saturno desde la Tierra.
Resulta que Jano y Epimeteo, que son satélites pequeños, tienen órbitas casi idénticas. Cada cuatro años pasan muy cerca uno de otro e intercambian sus órbitas. Una concluye un poco más cerca de Saturno y la otra algo más lejos. Yoder estudió la manera en que los satélites intercambian sus órbitas y concluyó que éstos deben tener densidades inferiores a 0,7 gramos por centímetro cúbico. Ésta es una densidad mucho menor que la de los otros satélites y también menor que la del hielo puro.
Parece que estos satélites no son sino masas heladas con alrededor de un 30% de su estructura formada por espacio vacío. ¿Es posible que estos satélites sean en realidad conglomerados de partículas de hielo de los anillos de Saturno? No es algo tan increíble. Jano mide 220 kilómetros por 160, y Epimeteo 140 kilómetros por 100. Estos y otros tres pequeños satélites que giran al lado de los anillos de Saturno —Atlas, Prometeo y Pandora— pueden ser todos ellos coagulaciones de partículas de los anillos de Saturno. Son lo bastante pequeños para ello y también pueden estar contribuyendo a la desaparición, con el tiempo, de los anillos del planeta.
Por supuesto, cien millones de años es mucho tiempo en la escala humana, y no tenemos que temer que los magníficos anillos desaparezcan de nuestra vista. Con todo, ello, es una pena pensar que algo tan maravilloso no sea eterno.

LA ATMÓSFERA DE TITÁN
Las atmósferas son un fenómeno interesante. Los mundos muy grandes con gravedad potente pueden retener las moléculas de gas y evitar que se escapen al espacio. Así, la Luna y Mercurio, mundos pequeños, no tienen atmósfera y la de Marte es muy ligera. La Tierra y Venus tienen atmósferas densas.
La gravedad potente es sólo una de las maneras en que se puede retener una atmósfera. Cuanto más frío es un mundo, más despacio se pueden mover las moléculas a su alrededor y con más facilidad se pueden retener en la superficie. Los satélites de Júpiter, aunque cuatro de ellos son bastante grandes, están todavía demasiado calientes para mantener una atmósfera. Titán, el satélite mayor de Saturno y el segundo más grande de todo el Sistema Solar, es mucho más frío y puede mantener una atmósfera. Tritón (satélite de Neptuno) y Plutón, mundos todavía más fríos, también tienen atmósferas pero son ligeras. La de Titán es densa, incluso más que la de la Tierra.
Cuando Gerard Kuiper detectó por primera vez la atmósfera de Titán en 1944, parecía que su densidad era sólo el 1 o 2% de la de la Tierra y que estaba formada por una capa ligera de metano, un gas muy común. Lo malo es que el metano es un compuesto muy fácil de detectar. Si hubiera otros gases más difíciles de detectar, el candidato lógico sería el nitrógeno.
No obstante, hasta que no llegó la era de las sondas espaciales Titán no pudo ser observado de cerca. En cierto modo fue decepcionante, ya que sólo se trataba de un globo naranja sin rasgos distintivos y sin apreciaciones visibles, ya que su atmósfera era demasiado brumosa. Pero las sondas penetraron en su atmósfera y enviaron la noticia asombrosa de que estaba formada en su mayor parte por nitrógeno, quizás hasta en un 90%. Eso era lo que hacía la atmósfera de Titán tan densa.
Esto es interesante, porque sólo Titán y la Tierra tienen una atmósfera formada en su mayor parte por nitrógeno. En las de los planetas gigantes predomina el hidrógeno. Marte y Venus tienen atmósferas cuyo componente principal es el dióxido de carbono. Sólo Titán y la Tierra son extraordinarios en cuanto a esto.
¿De dónde procede el nitrógeno de Titán? Una respuesta posible surge de la estructura interna de Titán. Su parte central es de naturaleza rocosa, pero alrededor de esta roca hay una capa de hielo muy, muy espesa, dura como el diamante, debido a las bajas temperaturas.
Se ha dicho que en los principios Titán, a medida que se formaba la capa de hielo, iba atrapando nitrógeno (que aparentemente es fácil de aprisionar en estas condiciones). Después, durante miles de millones de años, el nitrógeno se fue fugando y formó la atmósfera. Esto, en realidad, no responde a la pregunta. ¿De dónde procedía el nitrógeno inicial?
Otra sugerencia. Saturno, al igual que los demás planetas gigantes, contiene un buen porcentaje de amoniaco en su atmósfera. El amoniaco está formado por nitrógeno e hidrógeno. Si Titán captase amoniaco de Saturno, la radiación ultravioleta lo convertiría en nitrógeno e hidrógeno puros. Los átomos de hidrógeno son muy pequeños. Cuanto menor es un átomo, con más rapidez se mueve y Titán no podría retenerlo, pero sí podría hacerlo con los átomos de nitrógeno, que son más pesados.
El problema es que Titán tendría que estar mucho más caliente de lo que está para que dicha reacción se pudiera producir. Es posible que fuera así al principio, pero no lo sabemos, con lo cual subsiste el problema para los astrónomos.
Estudios recientes realizados con radar muestran que las reflexiones varían al girar Titán, y parece que la mejor explicación es que su superficie es en parte sólida y en parte líquida. Las superficies sólidas son continentes de hielo duro. ¿De que está compuesto el líquido?
La luz ultravioleta altera con facilidad el metano de la atmósfera de Titán y lo convierte en etano, una especie de molécula doble de metano. El metano permanece en estado gaseoso incluso a las bajas temperaturas de Titán, pero el etano es líquido, así que la teoría actual es que Titán tiene un gran océano de etano.
Esto es muy interesante porque el etano se sitúa a medio camino entre el gas natural y la gasolina. Arde bien y proporciona energía como el petróleo. De hecho, podríamos considerar que Titán es el mayor pozo petrolífero del Sistema Solar. Naturalmente, uno se imagina a la humanidad extrayendo el etano y acarreándolo para utilizarlo en otra parte. Sería un suministro que duraría tanto como la raza humana.
Pero hay una pega (siempre hay una). Titán está tan lejos que llegar hasta allí, recoger el etano y acarrearlo a cualquier punto del Sistema Solar interno, en donde fuera útil, supondría un gasto prohibitivo. Quizá llegue un tiempo en el que encontremos un modo de hacerlo de manera rentable.

LOS NOMBRES DE LOS SATÉLITES DE NEPTUNO
En su máxima aproximación a Neptuno, en 1989, el Voyager ll localizó seis pequeños satélites cerca del planeta. A cuatro de ellos los han bautizado con nombres que se harán oficiales en el congreso de la Unión Internacional de Astronomía en Buenos Aires.
A los astrónomos no siempre les ha preocupado poner nombres a los satélites. Durante casi tres cuartos de siglo, a los satélites de Júpiter, aparte los cuatro primeros, se les fue conociendo por el orden en que se iban descubriendo: Júpiter V, Júpiter VI y así sucesivamente, hasta llegar a Júpiter XIV. No empezaron a recibir nombre hasta que las sondas cohete emprendieron el estudio más detallado de los satélites planetarios.
En 1846, poco después de que se descubriera Neptuno, se encontró un satélite que giraba en torno a él. Neptuno fue bautizado así en honor del dios romano de los mares debido a su color verdoso. El equivalente griego de su nombre era Poseidón. Al satélite se le puso el apropiado nombre de Tritón, un hijo de Poseidón en la mitología griega. A Tritón se le representaba como un ser con cabeza, torso de hombre y cola de delfín.
Tritón es un satélite de tamaño considerable y durante más de cien años se creyó que era mayor que nuestra Luna, porque se pensaba que su superficie era mate y que para reflejar tanta luz como reflejaba, tenía que ser muy grande. Pero el Voyager II descubrió que su superficie era brillante, de manera que reflejaba la luz justa, aun cuando era claramente menor que nuestra Luna.
Durante un siglo, Tritón fue el único satélite conocido que tenía Neptuno. En 1949, sin embargo, se descubrió un satélite bastante más pequeño con una órbita excéntrica muy alejada del planeta. Giraba alrededor de Neptuno durante 365 días, por mera coincidencia el mismo tiempo que tarda la Tierra en hacerlo alrededor del Sol. Recibió el nombre de Nereida, que en realidad no es el nombre de un solo personaje mitológico, sino el de un grupo. Las nereidas eran ninfas marinas, las cincuenta hijas de un dios del mar llamado Nereo.
En los años setenta y ochenta los astrónomos daban por sentado que Neptuno tenía más satélites girando alrededor del planeta a distancias menores. Las sondas habían descubierto satélites parecidos rotando alrededor de Júpiter, Saturno y Urano. No se veían desde la Tierra, en primer lugar porque eran pequeños y, por tanto, muy oscuros, pero sobre todo porque estaban tan cerca de los planetas en torno a los que giraban que la luz que reflejaban éstos los ocultaban.
En efecto, cuando el Voyager II pasó por delante de Neptuno, se descubrieron seis satélites a su alrededor.
Uno de ellos era un poco mayor que Nereida, así que pasó a ser el segundo satélite más grande de Neptuno mientras Nereida pasaba a ocupar el tercer puesto. Que Nereida se descubriera antes desde la Tierra, y no el nuevo satélite más grande, se debió a la posición de Nereida, suficientemente alejado de Neptuno para ser visto.
El nuevo satélite más grande, que mide por término medio 400 kilómetros de ancho y se sitúa a unos 105.000 kilómetros del centro de Neptuno, va a llamarse Proteo. Proteo es un personaje mitológico interesante. Era un pastor de Poseidón que cuidaba los rebaños de focas del dios del mar. Según la mitología, tenía el aspecto de un anciano y podía predecir el futuro. Pero sólo aquel que fuera capaz de acercarse a él furtivamente y sujetarlo conocería su destino. Esto no resultaba fácil, porque Proteo podía transformarse en un animal salvaje, en fuego o adoptar otra forma, y el aspirante a su futuro debía tener mucho valor para seguir sujetándolo. Al final, Proteo terminaba cediendo, volvía a su aspecto primitivo y predecía el futuro.
Proteo fue el primero de los nuevos satélites descubiertos. El tercero mide unos 145 kilómetros de ancho y se sitúa a unos 52.000 kilómetros del centro de Neptuno. El nombre propuesto ha sido «Despina», que no resulta muy apropiado porque no tiene que ver con el mar. Significa «la señora» y los griegos utilizaban este término para Afrodita, diosa del amor, para Deméter, diosa de la agricultura y para Perséfone, diosa del averno. Ni rastro del mar.
El quinto de los satélite descubiertos recientemente mide unos 80 kilómetros de ancho. V se sitúa a unos 48.000 kilómetros del centro de Neptuno. Ha recibido el nombre de «Talasa» que, a diferencia de Despina, parece un nombre apropiado. Esta palabra griega significa «océano», y qué mejor nombre para un satélite del dios del mar.
El sexto de los satélites mide unos 65 kilómetros de ancho y se sitúa a unos 45.000 kilómetros del centro. El nombre propuesto es «Náyade». Náyade, como Nereida, es el nombre de un grupo de seres mitológicos. Las náyades eran ninfas acuáticas que se suponía que gobernaban las aguas dulces de la Tierra: ríos, arroyos, manantiales y fuentes. Por lo general se les representa como mujeres bellas y jóvenes apoyadas en jarrones de los que mana el agua.
El segundo y el cuarto de los satélites de Neptuno recién descubiertos todavía no tienen nombre. No sé por qué, pero podemos estar seguros de que no serán pasados por alto. ¿Por qué no Escila y Caribdis? Son dos monstruos marinos, el primero una especie de pulpo, el segundo una vorágine con la que Ulises se tropezó en su Odisea.

TRITÓN, EL ÚLTIMO SATÉLITE
En el Sistema Solar hay siete grandes satélites, que sepamos, y ahora los astrónomos han podido observarlos de cerca. Nuestra Luna ha sido estudiada con el telescopio durante cerca de cuatro siglos. Durante la última década, más o menos, las sondas espaciales han estudiado de cerca los cuatro grandes satélites de Júpiter —Calixto, Ganímedes, Europa e Io— y también el satélite mayor de Saturno, Titán.
Sin embargo, hasta 1989, el satélite de Neptuno, Tritón, el último (y más alejado) de los siete, seguía viéndose como un punto de luz a través del telescopio. El grandioso Voyager II pasó a 40.000 kilómetros de Tritón y pudo fotografiarlo de cerca.
Se sospechaba que Tritón se parecía en su aspecto al satélite de Saturno, Titán, pero resultó un error. La gran diferencia era que Titán tenía una atmósfera densa de metano y nitrógeno. La luz del Sol distante actúa sobre el metano y forma moléculas de hidrocarburos mayores que se extienden por toda la atmósfera formando una niebla de gotas líquidas. Las cámaras del Voyager II no pudieron atravesar la niebla y la superficie sólida de Titán nunca ha sido vista.
Por otra parte, Tritón está tres veces más lejos del Sol que Titán y, por tanto, es bastante más frío. Es, en realidad, el cuerpo más frío que han estudiado hasta ahora los astrónomos. La atmósfera de Tritón también es de metano y nitrógeno, pero la mayor parte está congelada y sólo queda una atmósfera ligera de vapores a través de los cuales pueda observarse su superficie con facilidad. Y resulta que la superficie está pulida por una capa de metano y nitrógeno congelados, sobre todo en el hemisferio sur.
El brillo es fundamental. Hasta ahora, la única manera de calcular el diámetro de Tritón era medir la cantidad de luz que reflejaba. Se suponía que la intensidad de la reflexión era equivalente a la de los otros satélites grandes. A partir de estos datos, los astrónomos podían calcular el tamaño que tendría que tener Tritón para reflejar la luz suficiente para aparecer tan brillante cuando se ve desde la Tierra. Los cálculos más aproximados suponían que su diámetro era de unos 33.800 kilómetros, lo que lo convertía en ligeramente superior a nuestra Luna.
Sin embargo, con una superficie lisa cubierta de gases helados y brillantes, Tritón refleja la luz con mucha más intensidad de lo que se creía. En estas condiciones, debería de ser menor para reflejar la cantidad de luz que vemos, y lo es. Resulta que Tritón sólo tiene 2.735 kilómetros de diámetro, convirtiéndose en el menor de los siete satélites.
A pesar de todo, sigue siendo el más coloreado. Su superficie tiene regiones de color rosa en las que el Sol ha convertido al metano en moléculas más complejas. Es también azulado, donde minúsculos cristales reflejan la luz solar con el mismo efecto de dispersión que ofrece a nuestro cielo su maravilloso color azul.
Sin embargo, lo más interesante de Tritón son las singulares variaciones en la estructura de su superficie. Hay cadenas montañosas, grietas y todo tipo de formas irregulares, pero muy pocos de los cráteres que caracterizan la mayoría de los demás cuerpos pequeños del Sistema Solar.
Debieron de formarse cráteres en los primeros mil millones de años de su vida, cuando fue bombardeado por distintos cuerpos de tamaño considerable que se aglomeraban para formar los planetas y satélites actuales. Después de esto, sin embargo, Tritón debió de fundirse y volvió a congelarse lentamente.
¿Qué causó su fusión? No lo sabemos. Es posible que colisionara con otro de los satélites de Neptuno. O que el choque fundiera ambos cuerpos y los combinara. Puede ser la razón por la que Tritón gira alrededor de Neptuno en el sentido equivocado. Todos los demás grandes satélites giran alrededor del planeta en el mismo sentido que el planeta rota sobre su eje, pero Tritón lo hace en el sentido opuesto a la rotación de Neptuno.
Si a Tritón no le hubiese ocurrido nada después de congelarse, su superficie sería lisa por completo, pero hay varias irregularidades. Esto lo diferencia de Europa, el satélite de Júpiter, que es completamente liso porque está totalmente cubierto por un glaciar helado que se vuelve a congelar siempre que es golpeado, fundido y fracturado por un meteorito, de manera que siempre aparece liso. Tritón se parece más a otro satélite de Júpiter, Io, que es volcánico. La roca fundida que vierten los volcanes de Io llena los cráteres y conserva la superficie lisa, excepto donde los volcanes permanecen activos.
Parece que Tritón también es volcánico, pero en su caso no se puede hablar de rocas en sus capas externas ni de una fuente de calor lo bastante potente para fundirlas. En vez de eso, la temperatura de Tritón, aunque extremadamente baja, sigue siendo lo bastante caliente (sobre todo en lugares en los que el calor llega a la superficie del interior del satélite, que es más caliente) como para fundir y volatilizar el nitrógeno.
El nitrógeno se vaporiza hacia el exterior y funde parte del agua helada que le rodea. El hielo se vuelve a congelar enseguida, formando crestas y montículos. Estas crestas pueden alcanzar hasta algunos cientos de metros de altura y, en algunos casos, se extienden por la superficie a lo largo de cientos de kilómetros. La variedad de la superficie de Tritón puede ser el resultado de los «volcanes de hielo», los únicos de este tipo que conocemos en el Sistema Solar.

LA MAYOR TORMENTA DEL SISTEMA SOLAR
En 1990, dos astrónomos aficionados, Stuart Wilbur y Alberto Montalvo, independientemente, detectaron los primeros signos de lo que sería la mayor tormenta atmosférica observada en todo el Sistema Solar. Y no se produjo en Júpiter.
Esto, en sí, constituye una sorpresa, puesto que Júpiter es con diferencia el mayor de los cuatro «gigantes gaseosos» del Sistema Solar exterior. Además, es, de los cuatro, el más cercano al Sol y el que más energía recibe de él. No sólo eso, sino que también gira más deprisa que cualquiera de los otros, lo que hace que su atmósfera se remueva con violencia. Esta combinación de gran afluencia de energía, giros vertiginosos y una fuerte atracción gravitatoria convierte a Júpiter, en apariencia, en el planeta más activo de todos. Su atmósfera es asolada por grandes tormentas que lo barren de oeste a este y que aparecen como cinturones multicolores interrumpidos por espirales de ciclones. La tormenta más aparatosa de Júpiter, la «gran mancha roja», es una especie de huracán activo durante siglos, que se extiende por un área en la que cabría con comodidad la Tierra.
Saturno está más alejado del Sol que Júpiter; es ostensiblemente menor y rota un poco más despacio. Todo esto nos llevaría a pensar que la atmósfera de Saturno debería ser más tranquila, menos turbulenta que la de Júpiter, y así es.
Urano se sitúa todavía más lejos del Sol, es aún menor y rota más despacio, por tanto debería ser más tranquilo, y lo es. En realidad, Urano es un planeta plácido con casi ninguna característica atmosférica que podamos comprender.
En 1989, cuando el Voyager II observó Neptuno de cerca —el planeta es prácticamente un gemelo de Urano, pero se encuentra más lejos del Sol— los astrónomos esperaban ver un planeta tan tranquilo como Urano. En vez de eso, comprobaron que las perturbaciones atmosféricas de Neptuno eran muy parecidas a las de Júpiter. Incluso tenía una «gran mancha roja» del tipo de la de Júpiter. ¿De dónde saca Neptuno la energía de estos fenómenos? Es un problema que desconcierta a los astrónomos.
Pero lo que Wilbur y Montalvo descubrieron el 24 de septiembre tampoco provenía de Neptuno. Era un pequeño punto blanco en Saturno. No era extraordinario en sí mismo. Saturno gira alrededor del Sol en veintinueve años y medio, y durante esta vuelta alcanza un punto en el que la inclinación de su polo norte respecto del Sol es la máxima posible. Es el punto equivalente al «solsticio de verano» terrestre. En ese momento, el hemisferio norte de Saturno recibe la máxima cantidad de energía solar, lo que significa que hay más probabilidades de que se produzcan tormentas. En consecuencia, cada treinta años, más o menos, se observan manchas blancas en Saturno.
En el otoño de 1990, Saturno atravesaba su solsticio de verano y, por tanto, se esperaban tormentas. Así que los primeros informes de la mancha blanca parecían cosa de rutina.
Pero entonces se produjo la sorpresa. La mancha blanca empezó a crecer de una forma sin precedentes. Tres días después de su descubrimiento se había convertido en un óvalo brillante. Después de una semana había alcanzado una extensión superior a 16.000 kilómetros y al cabo de un mes frisaba los 80.000 kilómetros. El 23 de octubre, la «gran mancha blanca» rodeaba a Saturno por completo y se convertía en la mayor tormenta observada en el Sistema Solar. Nunca antes se había visto nada parecido.
Quizá lo más satisfactorio del descubrimiento consistió en que el Telescopio Espacial Hubble (HST o Hubble Space Telescope) tomó fotografías de Saturno que mostraban la tormenta con mucho más detalle de lo que cualquier otro aparato con base en la Tierra podía hacerlo. Los detalles de las fotos del HST han permitido a los astrónomos estudiar la tormenta pormenorizadamente y observar su desarrollo y evolución paso a paso. Aparecieron más puntos blancos y otras líneas oscuras. Los detalles de la tormenta concordaban con los pronósticos de los científicos, lo que resulta muy satisfactorio.
¿En qué consistía la tormenta? La creencia general es que era alimentada por corrientes ascendentes de gas procedentes de la base. El amoniaco, abundante en la atmósfera de Saturno, se mueve hacia arriba y se congela en cristales blancos, de manera que lo que observamos son extensiones de miles de kilómetros de amoniaco congelado.

UN SATÉLITE CALCULADO
En 1990, Mark Showater, del Centro de Investigación NASA-Ames de California, descubrió un nuevo satélite dando vueltas alrededor de Saturno, y lo hizo patente de una forma sin precedentes. Estudió fotos de primeros planos de los anillos tomadas en 1980 y 1981, y descubrió determinados patrones ondulatorios, de lo que dedujo la existencia de algún satélite, calculó su posición, la observó y lo encontró.
El descubrimiento de los satélites planetarios (a excepción de nuestra Luna, que se conoce desde que los seres humanos miramos al cielo) se inició en 1610. En ese año, el científico italiano Galileo enfocó su telescopio recién inventado (hacia Júpiter) y descubrió cuatro satélites de tamaño considerable dando vueltas a su alrededor. Eran Io, Europa, Ganímedes y Calixto.
En 1654, un satélite igualmente grande, Titán, fue descubierto alrededor del planeta Saturno. Antes de que terminara el siglo, se observaron cuatro satélites más, de menor (pero todavía considerable) tamaño, girando alrededor de Saturno.
Los descubrimientos de este tipo continuaron. A medida que los telescopios eran más potentes, se podía ver los satélites menores situados más lejos. Poco después de que se descubriera el planeta Urano, en 1781, William Herschel, su descubridor, localizó los satélites de tamaño intermedio girando a su alrededor. Medio siglo después se descubrieron dos más. De nuevo, poco después del descubrimiento de Neptuno en 1846, se observó un satélite de grandes proporciones, Tritón, dando vueltas a su alrededor.
Desde 1846 no se ha descubierto ningún satélite grande y es muy probable que no haya ninguno. Sin embargo, se sigue encontrando un aluvión de satélites menores.
El más emocionante de estos descubrimientos se produjo en 1877, cuando Asaph Hall examinaba las proximidades de Marte en busca de satélites pequeños. Por fin decidió abandonar, pero su mujer le animó: «Inténtalo una noche más, Asaph». Así lo hizo y descubrió los dos satélites de Marte, Fobos y Deimos.
En 1892, E. E. Barnard encontró un quinto satélite en Júpiter, mucho más pequeño que los cuatro primeros, que rodeaba al planeta a una distancia también menor. Fue el último satélite descubierto por el ojo humano. Desde entonces, los nuevos satélites han sido descubiertos mediante la fotografía.
Estos descubrimientos continuaron durante el siglo XX. Incluso en 1948, G. P. Kuiper localizó el quinto satélite de Urano y en 1949, un segundo satélite en Neptuno. Los dos eran bastante pequeños. En 1978 se produjo una auténtica sorpresa cuando J. W. Christy descubrió que el minúsculo planeta Plutón tenía un satélite casi tan grande como él.
Por tanto, cuando la era espacial amanecía, la cuenta de satélites conocidos en el Sistema Solar estaba así: Mercurio no tenía ninguno. Venus, nueve. La Tierra, uno (la Luna). Marte, dos minúsculos. Júpiter, doce (cuatro grandes y el resto bastante pequeños). Saturno tenía nueve (uno grande y varios de tamaño medio). En Urano había cinco (cuatro de ellos de tamaño medio). En Neptuno, dos. Plutón tenía uno. El conjunto hacía un total de treinta y dos.
Sin embargo, a principios de 1979, las sondas Voyager pasaron zumbando cerca de los planetas exteriores y sus cámaras detectaron pequeños satélites que no se podían observar desde la Tierra. Se descubrieron tres alrededor de Júpiter y no menos de nueve alrededor de Saturno. Girando alrededor de Urano se localizaron diez y alrededor de Neptuno otros varios desconocidos. El número de satélites conocidos actualmente se acerca a la cifra de sesenta.
El conjunto más magnífico de satélites pertenece a Saturno. Tiene hasta diecisiete, y varios de ellos comparten órbita. Tetis, satélite de tamaño medio, comparte su órbita con otros dos minúsculos, uno precediéndole y otro siguiéndole. Dione comparte su órbita con otro minúsculo satélite. Saturno posee, además, un sistema de anillos esplendente, ancho y brillante. Júpiter, Urano y Neptuno también tienen anillos, pero son delgados, oscuros, ligeros y casi imperceptibles. No sabemos por qué Saturno está tan espectacularmente dotado.
Los anillos de Saturno están formados por minúsculos fragmentos de hielo que se distribuyen de manera casi uniforme en toda su gran extensión. No obstante, hay huecos en los anillos. Al mayor se le conoce como la división de Casini y el segundo más grande es la división de Encke, y reciben sus nombres de los astrónomos que los observaron por primera vez. Los huecos son el resultado de la influencia gravitatoria de los satélites saturninos más cercanos a los anillos, de manera que a determinadas distancias los fragmentos de hielo son atraídos hacia fuera o empujados hacia el interior.
Las fotografías de los Voyager mostraban la división de Encke con los bordes ondulados. Showalter interpretó este fenómeno como la influencia de un satélite que se situara dentro de los anillos. Utilizó un ordenador para determinar la posición del satélite para producir las ondas. Después estudió las zonas de los anillos, aumentándolas con las técnicas modernas, y encontró el satélite número dieciocho de Saturno. Sólo medía 20 kilómetros de ancho, pero era mucho mayor que los fragmentos de hielo que componen el anillo. Era el primer satélite encontrado por un ordenador.

UN COMETA EXTRAÑO
Entre las órbitas de Saturno y Urano pulula un objeto extraño dando vueltas alrededor del Sol, un objeto que interesa cada vez más a los astrónomos.
Lo descubrió en 1977 Charles Kowal, del Cal Tech, y lo bautizó con el nombre de Quirón. Pensaba que era un asteroide. Mide unos 240 kilómetros de diámetro, en demasía en el caso de un asteroide, y gira alrededor del Sol muy lejos del cinturón de asteroides ordinario.
Esto sería suficiente para establecer su anormalidad, pero actualmente se localiza en el extremo más próximo de su órbita y los astrónomos, al estudiarlo de cerca con instrumentos modernos, han determinado —en 1988— que lo envolvía una capa de polvo y gas, lo que significa que no se trata de un asteroide sino de un cometa. Esto lo hace más anómalo todavía, ya que se trata del cometa más grande que jamás se haya visto, con una masa unas diez mil veces mayor que la del famoso cometa Halley.
En los últimos tiempos surge una gran polémica en torno a los cometas en general. Hay dos tipos: los «cometas de período largo», que giran alrededor del Sol en períodos de miles de años, y los «cometas de período corto», que lo hacen en menos de doscientos años. Halley y Quirón son ambos de período corto.
Los de período largo se dirigen hacia el Sol procedentes de los confines remotos del espacio, mil veces más lejanos que el planeta más distante. Además, proceden de todas las direcciones posibles. En consecuencia, los astrónomos están seguros de que hay una enorme esfera de muchos miles de millones de cuerpos cometarios en torno al Sol. Se le conoce como la «nube de Oort», en nombre del astrónomo que habló por primera vez de su existencia. De vez en cuando uno de estos cuerpos, afectado por la gravedad de estrellas distantes, cae en el Sistema Solar interior.
Durante mucho tiempo se creyó que, de vez en cuando alguno de los cometas de período largo pasaba lo bastante cerca de un planeta, sobre todo de Júpiter, el gigante, como para que su órbita se modificara debido a la atracción gravitatoria. Entonces, el cometa podía ser «capturado» y permanecer definitivamente en el sistema planetario, convirtiéndose de esta manera en un cometa de período corto.
Pero los cometas de este tipo no proceden de todas direcciones sino que giran alrededor del Sol más o menos en el plano que utilizan los planetas. Esto no invalida la teoría, ya que se daba por sentado que al capturar un cometa de período largo, los planetas le forzaban a mantenerse en su propio plano orbital.
La confusión en torno a esta idea estriba, actualmente, en que unas simulaciones por ordenador de la situación, llevadas a cabo recientemente, muestran que los cometas de período largo son muy difíciles de capturar. Se podrían atrapar uno o dos, pero hay 150 cometas de período corto y tantas capturas parecen algo imposible.
Por tanto, en la actualidad se piensa que existe una segunda región cometaria alrededor del Sol, mucho más próxima que la nube de Oort que, en realidad, no es una esfera sino un cinturón reducido que recibe el nombre de «cinturón Kuiper», así llamado en nombre de otro astrónomo, que puede ser la fuente de los cometas de período corto.
El astrónomo Mark Bailey, de la Universidad de Manchester, hace una propuesta bastante sorprendente. Según él, muy pocos cometas acceden al Sistema Solar procedentes del cinturón de Kuiper, quizás uno o dos, pero son cometas gigantes como Quirón.
Mediante un ordenador, siguió la órbita de Quirón durante los últimos cien mil años y descubrió que se trata de una órbita inestable que en ocasiones se mueve mucho más cerca del Sol que en otras. Por tanto, Bailey sostiene que, hace tiempo, en el pasado remoto, cuando Quirón pasó bastante cerca del Sol se fragmentó y originó todos los cometas de período corto.
No es algo imposible. Todos estos cometas juntos, dejando aparte Quirón, sumarían un 2% de la masa de Quirón.
Esto significa que después de la fragmentación, el 98% de Quirón permanece.
Es una idea realmente interesante, pero a mí me resulta difícil de creer. Algunos cometas de período corto, como Biela, no son más que masas de sustancias heladas aglomeradas con polvo, y después de acercarse al Sol varias veces pueden desvanecerse por completo en una nube de polvo, tal como hizo Biela. Otros, como Encke, tienen núcleos rocosos, de manera que han desaparecido casi todo el hielo y el polvo y sólo mantiene el núcleo rocoso, con lo que es actualmente una especie de asteroide. Es difícil de explicar las formas en que Quirón se puede fragmentar y originar unos cometas con núcleo rocoso y otros sin él.
Otra cuestión es si existe realmente el cinturón Kuiper. La nube Oort se sitúa tan lejos que es inútil tratar de detectarla, pero el cinturón Kuiper debería poderse detectar. Varias sondas han rebasado la órbita de Neptuno y no han detectado ningún cuerpo cometario. De todas formas, incluso si el cinturón existiese, los cometas estarían muy separados y no podrían ser detectados por una sonda que atravesara el cinturón por un punto determinado.
Se hace necesaria una sonda que se sitúe en una órbita alrededor del Sol, un poco más allá de Neptuno. Debería rodearlo en el sentido contrario al que giran los planetas (y probablemente los cuerpos cometarios del cinturón Kuiper). Entonces sería posible que, en determinadas ocasiones en su viaje de doscientos años alrededor del Sol, descubriera la aproximación de un cometa gigante como Quirón.

MÁS SOBRE COMETAS
Los problemas que plantea el presente, el futuro cercano y el siglo próximo ya son bastante graves, pero titulares periodísticos recientes anuncian un grave peligro procedente del cielo, en agosto del 2126. El causante será un cometa.
Así que hagamos un repaso a los cometas, cuerpos celestes que han apasionado a la mente humana desde la prehistoria e intrínsecamente interesantes y bellos. Son útiles, porque estudiarlos nos acerca a la comprensión del Sistema Solar, y algún día podríamos utilizar su hielo para abastecer de agua las colonias de Marte.
Los cometas son objetos que por lo general no miden más de un kilómetro de ancho, rodeados por una «cabellera cometaria» de polvo y gas. El cuerpo del cometa está compuesto de hielo sucio o barro helado alrededor de un núcleo rocoso.
La teoría del barro congelado es reciente. Se basa en los estudios por medio de infrarrojos que indican que el hielo de los cometas se aglomera con «suciedad» más de lo que se había creído. Esto relaciona a los cometas con cuerpos similares del Sistema Solar externo como Plutón y Tritón, de los que muchos científicos creen que pueden haberse formado como resultado de la condensación de muchos cometas.
La estructura cometaria del Sistema Solar está ocupada por muchos miles de millones de cometas, todos ellos originados hace 5.000 millones de años, al mismo tiempo que el resto del Sistema Solar se condensaba para formar el Sol, los planetas, los satélites y los asteroides.
Por supuesto, siempre hay excepciones. El cometa Yanaka ha sido analizado recientemente y no parece que contenga materia carbonosa. Si se formó al mismo tiempo que los otros cometas, da al traste con las teorías sobre la composición de la nebulosa que originó nuestro Sistema Solar. En vez de eso, los científicos sostienen que se originó en el interior de una nube de materia molecular interestelar y que, después, fue capturado por nuestro Sistema Solar.
Cuando los cometas se acercan al Sol desarrollan «colas», compuestas de polvo, hielo vaporizado y un «plasma» de electrones e iones moleculares. Algunas veces, los componentes de las colas se presentan separados, en cuyo caso las colas de polvo se curvan, mientras que las de «plasma» son rectas. Debido a la presión del viento solar, las colas siempre se orientan hacia fuera desde la dirección del Sol, un hecho ya observado hace cuatro siglos y medio por Girolamo Fracastoro y Peter Apian.
Se observa cantidad de cometas, algunos con colas magníficas, que es obvio que no todos los cometas permanecen en órbitas remotas en el límite del Sistema Solar. Las órbitas de muchos cometas son deformadas por colisiones con otros cometas y asteroides o por la fuerza de la gravedad de los planetas gigantes o incluso de otras estrellas.
Algunos cometas se escapan del Sistema Solar, otros oscilan más cerca del Sol, donde pierden masa. Se descubrió que Halley perdía 30 toneladas por segundo. Aunque la nave espacial Giotto informó de que el cometa Grigg-Skerllerup está perdiendo sólo 100 kilos por segundo, sigue siendo más de lo que se preveía.
De los cometas que llegan a nuestra zona del Sistema Solar, la órbita menor corresponde a Encke, que tarda en su viaje alrededor del Sol 3,3 años. Se acerca al Sol casi tanto como Mercurio. Otros cometas penetran en el Sistema Solar interior una sola vez cada muchos años: Halley cada 76, Kokoutek cada 21.700 años, otros cada millones de años.
La NASA inicia actualmente la Vigilancia Internacional de Cometas Ulises, mientras la misión de la nave espacial Ulises estudia el Sol (en 1994 Ulises cruzará el polo sur solar). Se espera que durante este tiempo, astrónomos aficionados fotografíen a los cometas cuando aparezcan. Los datos de las fotos y de Ulises ayudarán al estudio del viento solar, cuyas partículas cargadas también afectan a la Tierra.
A veces es difícil distinguir un cometa «muerto» de un asteroide. Recientemente, astrónomos del Observatorio Europeo del Sur llegaron a la conclusión de que es muy probable que el asteroide 4015 sea lo mismo que el cometa Wilson-Harrington, que parece haber perdido su cubierta de hielo desde su descubrimiento en 1949. Es posible que existan muchos cometas muertos en el espacio.
Se piensa que cometas que chocaron contra la Tierra le han aportado materia. Puesto que agua, amoniaco y ácido cianhídrico (presentes en la mayoría de los cometas) forman adenina, uno de los componentes del ADN, se ha aventurado que los compuestos orgánicos que condujeron a la vida en la Tierra fueron iniciados o acelerados por los cometas. Existe una teoría, muy discutida, que afirma que sigue habiendo cometas enanos muy próximos, que dejan manchas misteriosas en las imágenes ultravioletas de la atmósfera terrestre y que depositan agua sobre la Tierra cuando la alcanzan.
Y ahora, hablemos del más grande, del cometa que puede suponer un quebradero de cabeza para nuestros descendientes, según la advertencia recién publicada por la Unión Astronómica Internacional, de talante moderado. Es el cometa Swift-Tuttle, observado por primera vez en 1862. Fue localizado de nuevo el 27 de septiembre de 1992 por el astrónomo japonés Tsuruhiko Kiuchi y parece haber aumentado el despliegue de perseidas (procedentes de otros restos anteriores del cometa). La órbita de este cometa lo acercará más la próxima vez, y la siguiente; y hay una probabilidad entre 10.000 de que en el 2126 choque contra la Tierra provocando una catástrofe. Para esas fechas, la raza humana dispondrá naves espaciales patrullando el Sistema Solar, dispuestas a abatir o a obligar a alejarse del camino a los objetos peligrosos. Si nuestra tecnología no sabe controlar el cometa para entonces, querrá decir que habremos destruido nuestra civilización, y posiblemente nuestra existencia, antes de que el cometa haya tenido la oportunidad de hacerlo en nuestro lugar. ¡Así que no se preocupe nadie por el cometa, limítese a apoyar la civilización!

NUESTRO PROPIO SOL PRIVADO
The sun, whose rays are allablaze with ever-living glory, Does not deny his majesty-he scorns to tell a history! He don 't exclaim, «I blush for shame, so kindly be indulgent». Butfierce and bold, in fiery gold, He glories all effulgent!
(El Sol, cuyos rayos resplandecen con gloria eterna, / No rechaza su majestuosidad, ¡no se digna a contar una historia! / No exclama: «Me ruborizo de vergüenza, así que sed indulgentes». / Pero feroz y temerario, de oro ardiente, / ¡Se enorgullece de su resplandor!).
Cuando El Mikado se representó por primera vez en 1885, la mayoría de la gente, incluido el poeta lírico W. S. Gilbert, aceptaba la teoría heliocéntrica del Sistema Solar. Aunque habían pasado 342 años desde que el libro de Copérnico había sido prohibido por la Iglesia católica, sólo hacía cincuenta desde que la prohibición había sido levantada.
Claro que, en el año 280 aC el filósofo griego Aristarco había afirmado no sólo que el Sol era mayor que la Tierra, sino que todos los planetas giraban a su alrededor. (No podía probarlo y no se le creyó).
En El Mikado, Yum-Yum creía que la gloria del Sol era eterna, pero ahora sabemos que nuestro Sol tiene 4.700 millones de años y que está en mitad del camino de su existencia. No obstante, otros 4.700 millones de años nos dan el tiempo suficiente para estudiar el Sol y decidir qué hacer cuando se dilate hasta formar una gigante roja y se trague la Tierra. Puesto que no podemos esperar a que el Sol gigante rojo colapse una enana blanca, lo más sensato sería emigrar en colonias espaciales cerradas y propulsadas a las que previamente hubiéramos aprendido a adaptarnos.
Aunque el «majestuoso» Sol no es más que una estrella «enana amarilla de secuencia principal» en un brazo en espiral galáctico, es la estrella de la Tierra, cuya radiación no afecta a ningún otro planeta vivo.
A 150 millones de kilómetros de nosotros, nuestro Sol produce la luz y el calor necesarios para que haya vida en la Tierra. Las plantas usan la energía solar mediante la fotosíntesis. Los animales la utilizan al comer plantas u otros animales.
La peligrosa práctica de quemar combustibles fósiles podría reemplazarse por el uso de la energía solar. Las nuevas tecnologías han perfeccionado la célula fotovoltaica, que se inventó en 1876 para convertir la luz solar en electricidad. Las células y los paneles solares actualmente son más eficaces y se perfeccionan mediante el uso de películas delgadas o paneles de silicona de varios tipos. Yo mismo utilizo una calculadora de bolsillo que funciona con luz, así que nunca tengo que cambiarle las pilas.
El Sol es realmente «feroz y temerario». En su interior, el hidrógeno se convierte en helio por fusión nuclear alcanzando una temperatura que puede llegar a los 15 millones de grados centígrados en el núcleo.
La superficie visible del Sol, dorada y en ebullición, llamada «fotosfera», está cubierta por la cromosfera, una capa delgada de la que procede la mayoría de la radiación ultravioleta. Se desconoce por qué la cromosfera es mucho más caliente que la superficie interior.
A continuación aparece la corona, misteriosamente bella, todavía más caliente y visible para nosotros sólo durante los eclipses solares.
La «atmósfera» del Sol se extiende hasta los extremos más remotos del Sistema Solar y está siendo estudiada muy a fondo, pero hasta hace poco el «cuerpo» del Sol no ha empezado a revelar alguno de sus secretos.
El doctor David H. Hathaway, del Observatorio Solar Nacional, descubrió recientemente que los gases del «cuerpo» solar experimentan una dirección de flujo definida. Transcurren por la capa exterior del Sol desde el ecuador hacia los polos, y otra vez en sentido contrario por entre una capa más profunda, de donde vuelven a emerger para unirse al flujo de superficie. Hathaway piensa que el flujo transporta campos magnéticos que originan las manchas y llamaradas solares.
Las llamaradas surgen de la corona solar, y se observan en todas las fotos de los eclipses. Una sonda japonesa lanzada en agosto de 1991 confirmó la relación causal entre las manchas y llamaradas solares y el aumento de la producción de rayos X solares. La sonda demostró que las llamaradas duran más de lo que los científicos pensaban, probablemente debido a un proceso autónomo con un patrón de flujo en los campos magnéticos que se extiende radialmente. Una llamarada puede hacer que una protuberancia cercana libere su energía de manera que grupos de llamaradas se expandan violentamente. Según los observatorios en órbita, un aumento de rayos gamma va asociado a una llamarada, cuyo campo magnético estimula a las partículas nucleares.
Charles Lindsey y colaboradores astrónomos especializados en el Sol, lo estudiaron durante el eclipse total de 1991. Utilizando el telescopio James Clerk Maxwell de «longitud de onda submilimétrica» del Mauna Kea, en Hawai, pudieron medir la altura y temperatura de la cromosfera con más exactitud. Descubrieron que en la superficie solar había «chimeneas de gas retenidas por magnetismo» que se calentaban, pero no tanto como se pensaba. Midieron, además, las vibraciones de la superficie. Descubrieron «sombras» en el Sol, bandas de movimiento ondulatorio que parecen conectar áreas con actividad magnética, como las manchas solares, y que parecen estar emergiendo de las profundidades.
Serían necesarios otros descubrimientos sobre las manchas solares y sus ciclos (de once años). Cuando las manchas solares son más activas, el incremento de radiación resultante puede causar estragos en los aparatos electrónicos de la Tierra (y de los que permanecen en órbita). El peligro que acecha al hombre justifica el incremento de la investigación sobre el Sol y toda su gloria.

PROCEDENTE DEL SOL
Nuestras vidas están afectadas inevitablemente por lo que los astrónomos solares llaman la «interfase Sol-Tierra», pero la mayoría de los humanos no es consciente de todo lo que reporta el Sol además de la luz. La zona ultravioleta del espectro de luz es invisible a nuestros ojos, a pesar de que nos pone morenos e induce el cáncer de piel. Tampoco podemos observar el infrarrojo, que supone el 60% de la luz al otro extremo del espectro. El Sol, sin embargo, no sólo emite luz sino también rayos X, partículas de carga y neutrinos.
Las partículas de carga son lanzadas fuera del Sol en forma de lo que se conoce como «viento solar» y alcanzan la Tierra en tres días y medio. Durante un episodio de llamaradas solares intensas, el viento solar puede aumentar hasta niveles peligrosos en forma de «tormentas solares».
Cuando la fuerza del viento solar aumenta, las latitudes inferiores de la Tierra son testigos de auroras boreales, las bellas luces nórdicas. Desde 1989, en que las tormentas magnéticas desviaron importantes satélites y dejaron sin electricidad a Quebec, los científicos se han esforzado por mejorar su predicción. La respuesta por el momento consiste en vigilar la corona solar y observar el desprendimiento de fragmentos de masa hacia el espacio con el aumento consiguiente de viento solar.
Puesto que nuestro destino final puede depender de la exploración y colonización espacial, es importante aprender el máximo posible sobre el viento solar. El STEP (Solar-Terestrial Energy Program o Programa de Energía Terrestre-Solar) consiste en un programa de siete años que coordina los resultados de las investigaciones de observatorios, satélites y simulaciones por ordenador. Como el Sol cambia continuamente, también varía lo que se desprende, alterando la transferencia de energía solar en su interfase con la Tierra. Todas estas variaciones del viento solar deben ser observadas y hechas constar.
El estudio del viento solar ayuda, además, a los científicos a entender otras estrellas.
El propio Universo puede ser más fácil de entender, ya que parece que los gases ionizados conocidos en el viento solar constituyen la mayoría del Universo.
Una de las partículas procedentes del Sol es el neutrino, que no tiene carga. Es un objeto minúsculo pero al mismo tiempo un gran y perpetuo enigma. En el pasado, los científicos creían que el flujo de neutrinos procedente del Sol era una medida exacta de la fusión nuclear que se suponía que se desarrollaba en el interior del Sol.
Hace veinticinco años, cuando se contaron los neutrinos solares por primera vez, los científicos se sorprendieron al encontrar menos de los esperados según las teorías del «modelo estándar» sobre el funcionamiento de las estrellas de secuencia principal como el Sol. Los científicos se inquietaron pensando que había que desechar el modelo estándar. Parecía haber tres posibilidades.
Primera: es posible que la reacción de fusión protón-protón que se produce en el Sol, en realidad no origine neutrinos en grandes cantidades.
Segunda: los neutrinos se producen en las grandes cantidades esperadas, pero sólo se contabilizan unos pocos porque en su camino hacia la Tierra son mediatizados.
Tercera: (discutida con calor): la energía producida por la fusión nuclear en el Sol podía ser, de algún modo, más potente de lo que se pensaba. Esto significaría una menor temperatura en el núcleo, lo que permitiría un menor número de neutrinos.
Las reacciones de fusión protón-protón en el núcleo solar producen neutrinos, que transcurren a dos velocidades: con alta y con baja energías. Hasta este año, los «detectores de neutrinos» podían registrar sólo los neutrinos de alta energía. En los años sesenta, Raymond Davis utilizó tanques de tetracloruro de carbono situados en la profundidad de una mina. Los proyectos más modernos utilizan tanques de galio. Recientemente se ha aumentado el tamaño de uno de los tanques de galio. Este tanque ha detectado algunos neutrinos de baja energía, pero todavía no los suficientes. Un físico de la Universidad Browm, S. Bandler, ha propuesto un nuevo detector compuesto de láminas de silicona con helio líquido superfluido para descubrir más neutrinos de baja energía.
Otra teoría sobre los neutrinos está llamando la atención. La teoría «MSW» recibe su nombre de los científicos rusos y americano Stanislav P. Mikheyev, Alexi Smirnov y Lincoln Wolfenstein. Según su teoría, las reacciones nucleares solares producen un porcentaje considerable de neutrinos, pero oscilan entre tres formas: el conocido y estipulado neutrino, y el muón y el tauón, que se conocen a base de experimentos de laboratorio.
Si la teoría MSW es correcta y los neutrinos electrones adoptan diferentes formas, puede que realmente se produzcan los neutrinos solares suficientes para confirmar las teorías estándar sobre la fusión solar, pero que no los veamos en la forma esperada porque se han transformado en su camino hacia la Tierra. El problema es construir un detector que descubra los neutrinos solares muones y tauones.
Si los científicos logran pruebas de la oscilación entre las tres formas de neutrinos, tales cambios indicarían que los neutrinos contienen masa. ¡Se produciría una conmoción en el mundo de la cosmología! Hay una ingente cantidad de neutrinos emitidos por un enorme número de estrellas en todas las galaxias del Universo.
Si estos neutrinos no tienen masa nula, podríamos obtener la respuesta a una cuestión fundamental sobre el Universo, ¿cuál será su final? Tantísimos megabillones de neutrinos ligeramente «pesados» proporcionarían la suficiente «masa crítica» al Universo para asegurar su colapso final.
¡Entonces el argumento de la gran explosión («Big Bang») puede empezar de nuevo!

PELIGRO CÓSMICO
Los rayos cósmicos son producidos por acontecimientos violentos en el espacio remoto, tales como la explosión de estrellas o la vida de los agujeros negros. Están formados por partículas de carga muy energéticas, protones en su mayor parte, que atraviesan a gran velocidad el vacío del espacio interestelar. Su trayectoria gira y se curva al atravesar los campos electromagnéticos y acaba bombardeando la Tierra en todas direcciones.
Al chocar violentamente contra los átomos y las moléculas de nuestra atmósfera, se forma una «radiación secundaria» que alcanza a la superficie terrestre, tan energética que atraviesa cualquier objeto que encuentre en su camino, incluidos los seres humanos, y se deposita en la Tierra.
Al atravesar el cuerpo humano, la radiación choca contra las moléculas y las afectan. Por lo general el daño no es importante y el cuerpo puede repararlo. De vez en cuando, sin embargo, un rayo cósmico puede afectar a un gen y cambiar su estructura, produciendo una «mutación». Esta mutación puede dar lugar a un cáncer o a algún otro estado indeseable.
La atmósfera de la Tierra, por lo general, consigue absorber y debilitar la mayor parte del bombardeo de rayos cósmicos, convirtiéndolos en relativamente inofensivos, de manera que la cantidad que nos alcanza no es mortal. La vida ha continuado durante miles de millones de años sin que los rayos cósmicos supongan un peligro evidente.
En realidad, hay gente que piensa que el bombardeo de rayos cósmicos es esencial. Las mutaciones que producen por lo general son perjudiciales, pero alguna vez pueden ser provechosas. El proceso de la evolución se desarrolla gracias a la producción al azar de dichas mutaciones útiles y poco frecuentes. Algunos creen que sin rayos cósmicos la evolución se habría producido de manera tan lenta que incluso en la actualidad la vida en la Tierra podría remontarse al estado de bacteria.
No obstante, todo esto depende de la acción protectora de la atmósfera. Cuanto más alta se sitúa la posición, menos aire existe y mayor es el número de rayos cósmicos que se reciben. La población de Denver (Colorado), situada a gran altitud, recibe muchos más rayos cósmicos que la de Los Ángeles o Nueva York, situadas al nivel del mar (Con todo, la población de Denver está suficientemente protegida). La gente que vuela en avión a gran altitud recibe todavía más radiación cósmica, pero se expone sólo durante unas horas.
El problema surge, sin embargo, cuando el hombre llega más allá de la atmósfera y no dispone de ninguna protección contra estos rayos. Los recibe con toda su fuerza y en gran cantidad.
Por supuesto, nuestros astronautas han llegado a la Luna y han vuelto sin observar ningún efecto perjudicial. El cohete permanece en el espacio durante un tiempo limitado y la gente que lo pilota no se ve afectada. Pero, ya en este caso, estamos hablando de exposiciones que se prolongan, en un supuesto, una semana. Sin embargo, algunos astronautas han permanecido en órbita durante más tiempo. Algunos cosmonautas rusos han permanecido en el espacio incluso hasta un año, pero han sufrido cambios fisiológicos durante el proceso.
Pero, ¿y si se tratara de un vuelo a Marte, durante el cual los astronautas tuvieran que permanecer en el espacio durante un año y medio? ¿Y si habláramos de hombres que van a trabajar a la Luna durante largos períodos de tiempo? ¿Y si se trata de construir colonias espaciales, pequeños mundos independientes en los que los seres humanos quieran pasar toda su vida?
No sólo necesitamos preocuparnos por la cantidad normal de rayos cósmicos. De vez en cuando el Sol produce «llamaradas», pequeñas explosiones en su superficie. Esto origina una explosión de radiación energética, por lo general no tan potente como los rayos cósmicos pero lo bastante como para dañar a los seres humanos que se encuentran sin protección en el espacio.
¿Qué es lo que hay que hacer?
Es obvio que la gente en el espacio tiene que ser protegida. Las naves y las colonias espaciales deben estar recubiertas de metales del tipo del aluminio; pero los rayos cósmicos saturan estos metales y producen una radiación de neutrones que puede ser igualmente perjudicial.
Probablemente se podría amalgamar la materia lunar y extenderla en capas en la cubierta de las naves espaciales, proporcionándoles la protección de la roca, aunque posiblemente también fuera saturada por los rayos cósmicos.
Un físico de la NASA, Rein Silberberg, es de la opinión de que el agua sería una barrera efectiva. Imagina una especie de doble barrera con agua en su interior. Piensa que una capa de agua de 10 centímetros de espesor reduciría la radiación cósmica hasta el punto de que el riesgo de cáncer sólo aumentaría en un 2% respecto a la Tierra, aunque el método no sería adecuado en el caso de una llamarada solar repentina. Debemos resolver el problema de la radiación cósmica, así como otras consecuencias graves de la exposición a largo plazo a la gravedad cero, como la desmineralización de los huesos. La vida siempre ha seguido avanzando y a los seres humanos siempre nos ha gustado llegar a las fronteras. Sin duda rebasaremos la Tierra, desafiando a la nueva frontera del espacio.

¿«PLANETAS HELADOS» INVISIBLES?
Entre las órbitas de Marte y Júpiter se despliega un cinturón de asteroides que gira alrededor del Sol. El primer asteroide fue descubierto en 1801, y desde entonces se han localizado unos mil seiscientos.
El astrónomo S. Alan Stern sostiene que existe un segundo cinturón mucho más allá de la órbita de Plutón. En realidad, es probable que se encuentre doscientas veces más lejos que Plutón o a 10 billones de kilómetros, a una distancia aproximada de un año luz.
Las probabilidades de observar cuerpos tan distantes con un telescopio normal son prácticamente nulas. Se puede alegar que Plutón y Carón son los objetos más grandes y los más cercanos a la Tierra y que por eso son visibles. Pero la cuestión no es ésa.
Entonces, ¿qué es lo que hace suponer a Stern y a otros que hay «planetas helados» invisibles a un año luz de distancia? La razón principal es el extraño comportamiento de los planetas más remotos. Urano, por ejemplo, gira de lado. Ningún otro planeta mantiene su órbita rotacional tan inclinada. Una hipótesis es que, cuando se formó Urano, en un principio rotaba más o menos verticalmente, tal como lo hacen los demás planetas, pero al cabo, y en su período de formación, recibió el impacto de un objeto con una masa tan densa que le hizo inclinarse. En realidad tendría que haberse tratado de un objeto cuya masa comprendiera entre la quinta parte y cinco veces la de la Tierra. El objeto que colisionó podía haber sido uno de los «planetas helados».
Además, está el caso de Tritón, el gran satélite de Neptuno. Gira alrededor del planeta en sentido contrario. Es decir, todos los satélites giran alrededor del planeta en el mismo sentido que el propio planeta, pero Tritón lo hace en sentido contrario. Es el único satélite de tamaño considerable que lo hace así. La hipótesis más admitida es que chocó con un objeto de gran masa en los comienzos de su historia y cambió su giro. De nuevo un planeta helado. Es posible.
Pero observemos Plutón, con su satélite Carón. La masa de Plutón es sólo seis veces mayor que la de Carón, más semejantes en el tamaño que la Tierra y la Luna. ¿Cómo llegó Carón a girar alrededor de Plutón?
Es posible que Plutón chocara contra un objeto que lo partió en dos. O puede que encontrara a Carón y simplemente lo capturara. Ambos casos son bastante poco probables a no ser que hubiese numerosos objetos en las proximidades. En realidad, tiene que haber muchos objetos en los alrededores para suponer que Urano chocara y se atravesara y que Tritón chocara e invirtiera el movimiento de su órbita.
Pero si hubiese planetas helados situados bastante cerca de los planetas exteriores como para afectarles, ¿dónde están?
La atracción gravitatoria de las estrellas más cercanas es un hecho. Afecta a los planetas helados del límite exterior del Sistema Solar de la misma forma que a los cometas (los cometas, que también se sitúan a esa distancia, son mucho más numerosos que los planetas helados, pero además de tamaño mucho menor). Parte de la atracción gravitatoria haría que los planetas helados avanzaran hacia el Sistema Solar interno, donde habrían perdurado. Otros serían atraídos hacia el exterior, hacia los vastos espacios a un año luz de distancia.
¿Hay alguna manera de detectar los planetas helados aunque no podamos verlos? Se han enviado varias sondas a toda velocidad mucho más lejos que Plutón, pero no se ha percibido nada. ¿Quiere esto decir que los mundos helados no existen? En absoluto. Supongamos que hay tres mil planetas helados (Stern piensa que puede haberlos). Imaginemos que están distribuidos de manera uniforme por el espacio, que es enorme. Estarían separados por millones de kilómetros. Parecería que no hay ninguno y la probabilidad de un encuentro entre una sonda y uno de ellos sería prácticamente nula.
Si un telescopio ordinario no puede encontrarlos, uno infrarrojo muy potente sí podría, ya que los mundos de hielo emiten mucha más cantidad de rayos infrarrojos que luz visible.
Si el Sol tiene un cinturón de asteroides a gran distancia, también otras estrellas podrían tenerlo. Hay dos estrellas, Vega y Beta Pictoris, de las que no hay duda que tienen nubes de polvo a su alrededor. No es imposible que parte de estas nubes sean los mundos de hielo lejanos.
Más cerca de casa, los mundos de hielo pueden explicar objetos tales como Plutón, Carón y el recientemente descubierto Quirón, que es sin duda un mundo de hielo. Tiene la estructura de un cometa, pero su masa es, por lo menos, mil veces la del cometa Halley.
Podríamos descubrir mucho más sobre el origen del Sistema Solar. Por eso, sería realmente apasionante que fuésemos capaces de instalar una sonda en Plutón para estudiar este planeta y su satélite de forma más próxima.
¿Quién sabe lo que podríamos descubrir?

ASTEROIDES A NUESTRO ALREDEDOR
Los asteroides son, probablemente, los objetos inalterados más antiguos del Sistema Solar. Son tan pequeños que no tienen océanos, atmósferas, ni ninguna otra cosa que los pueda modificar, y cuentan con más de 4.000 millones de años. Esto quiere decir que un estudio a fondo de los asteroides nos puede ofrecer mucha información sobre los primeros tiempos del Sistema Solar y su formación.
¿Qué podemos aprender sobre estos objetos tan pequeños que sólo podemos ver como puntos de luz? Por un lado, reflejan la luz solar, y ahora podemos captar estas reflexiones con precisión suficiente para saber cómo varían con el tiempo. Se cree que estas variaciones se producen porque los asteroides se mantienen girando (todos los cuerpos celestes que conocemos giran) y porque muestran zonas de la superficie más brillantes que otras. Este tipo de observaciones nos permite averiguar la velocidad a la que gira el asteroide. También observamos algunos asteroides en conjunto más oscuros que otros, que tienden a situarse más lejos del Sol. Esto también puede proporcionarnos indicios sobre el Sistema Solar primitivo.
A los vacíos que hay entre las órbitas de los asteroides se los conoce como «espacios de Kirkwood», por el astrónomo que los descubrió. En parte como consecuencia de esto, los asteroides se agrupan en familias. Es posible que los asteroides se formaran en los orígenes como resultado de las colisiones y que cada familia represente la ruptura de un determinado asteroide mayor. No lo sabemos.
Los asteroides también reflejan la luz infrarroja, que es mensurable. Esto nos permite averiguar dos cosas: el brillo infrarrojo y el brillo normal. Ello nos ayuda también a determinar el tamaño del asteroide y cuánta luz refleja.
¿De qué forma son los asteroides? De vez en cuando, un asteroide circula por delante de una estrella y durante unos pocos segundos desaparece la luz estelar. Teniendo en cuenta el tiempo de desaparición, podemos estimar la extensión del asteroide. Si es señalado por un círculo amplio de observadores al mismo tiempo, se puede incluso relacionar la extensión y sus variaciones con la posición, lo cual indica su forma. Se interpreta que la mayoría de los asteroides son de forma irregular.
No todos los asteroides permanecen seguros y en orden entre las órbitas de Marte y Júpiter. Algunos se aventuran más allá de Júpiter y otros se desplazan hasta situarse más próximos que Marte. El último grupo es el más interesante, porque estos asteroides próximos en ocasiones pueden circular a muy poca distancia (hablando en términos astronómicos) de la Tierra.
Es difícil observar estos asteroides próximos con detalle porque se mueven con tanta rapidez que es poco menos que imposible disponer los instrumentos en funcionamiento antes de perderlos de vista. Un asteroide próximo (o «desollador terrestre», como se les conoce) es el asteroide 4769. Un examen rápido, que incluía los estudios de aproximaciones anteriores, mostró que tenía forma de pesa.
Hoy en día, por supuesto, no tenemos que depender sólo de los instrumentos terrestres. Hay sondas que, probablemente, circularán cerca de un asteroide y en poco tiempo aportarán más información que la que se ha obtenido hasta ahora en su estudio desde la Tierra.
La cuestión fundamental sobre los asteroides plantea que alguno sea capaz de chocar contra la Tierra. Esto es bastante probable. En realidad, si esperamos lo suficiente (a lo mejor millones de años), es inevitable. Los científicos están cada vez más seguros de que ya ha sucedido en el pasado; una colisión de este tipo con un asteroide (o quizá con un cometa) hace 65 millones de años pudo haber terminado con los dinosaurios.
Estamos hablando de una catástrofe real. Otro choque de este tipo sin duda destruiría la civilización y quizá la especie humana. Ésta es una buena razón para descubrir todo lo posible sobre los asteroides, llevar a cabo los cálculos necesarios y comprobar si alguno se está acercando demasiado como para exponernos al peligro. Y si así fuera, ¿qué haríamos entonces? Ahora mismo, nada.
Por supuesto, no debemos considerar a los asteroides sólo como instrumentos de catástrofe. Puesto que algunos de ellos se acercan lo bastante (a menos de 1,5 millones de kilómetros aproximadamente) serían mucho más fáciles de alcanzar que Marte, dado el caso, si alguna vez abrimos camino efectivamente a los viajes espaciales. En ese caso, resultarían muy útiles como fuente de minerales y metales. Debido a que la gravedad en los asteroides es insignificante, se necesitaría muy poca energía para extraer estos minerales y transportarlos a la órbita terrestre y utilizarlos en la construcción de las ciudades espaciales con las que sueñan algunos astrónomos y otros científicos.

ASTEROIDES GEMELOS
El 9 de agosto de 1989, Elinor Helin, del Instituto Tecnológico de California, descubrió un nuevo asteroide. El hecho en sí mismo no es asombroso, ya que se conocen cerca de dos mil asteroides. Pero al investigarlo resultó ser el más asombroso que conocemos.
El primer asteroide fue descubierto el 1 de enero de 1801 (el primer día del siglo XIX) por un astrónomo siciliano, Giuseppe Piazzi, totalmente por casualidad. Los astrónomos sostenían que tenía que haber un planeta entre Marte y Júpiter, pero Piazzi no lo estaba buscando. Se limitó a encontrarlo y lo bautizó con el nombre de Ceres, diosa protectora de Sicilia en la antigüedad.
Ceres es muy pequeño, sólo tiene unos mil kilómetros de diámetro, mucho menos que cualquier otro planeta, razón por la que no había sido descubierto antes. Otros astrónomos pensaron que era demasiado pequeño y que debía haber algo más entre Marte y Júpiter. En 1807 se habían descubierto otros tres pequeños planetas en la misma zona, todos ellos más pequeños todavía que Ceres. Eran tan pequeños que, incluso en un telescopio, aparecían sólo como puntos de luz, como lo hacen las estrellas, y no se expandían hasta parecer pequeñas esferas de luz como lo hacían otros planetas mayores. Debido a su aspecto, a los nuevos planetas pequeños se los llamó «asteroides», en griego «semejantes a las estrellas».
A medida que pasó el tiempo se descubrieron más y más asteroides, todos pequeños, la mayoría de sólo unos kilómetros de ancho. Todos se concentraban en el espacio entre Marte y Júpiter y parecían ser restos de un planeta que hubiera explotado o, más probable, de uno que nunca había llegado a formarse porque la atracción gravitatoria de Júpiter evitó que los asteroides se agruparan.
La región entre Marte y Júpiter donde se encuentran los asteroides se conoce como el «cinturón de asteroides».
Los asteroides del cinturón están repartidos por una zona que dista de la Tierra entre 65 y 650 millones de kilómetros, incluso cuando se sitúan lo más cerca posible. Debido a la distancia y a su pequeño tamaño, nunca se había podido ver ningún detalle en estos cuerpos.
Sin embargo, en 1898, Gustav Witt, un astrónomo alemán, descubrió un asteroide que, en su órbita, penetraba en el espacio entre Marte y la Tierra. Era el asteroide número 433 en orden a su descubrimiento y recibió el nombre de Eros. Algunas veces, si Eros y la Tierra estaban situados en el punto adecuado de sus órbitas, Eros se encontraba a sólo 23 millones de kilómetros de la Tierra, más cerca que cualquier otro objeto que no fuera la Luna. En 1931 se acercó hasta 41 millones de kilómetros y su localización fue medida con tanta exactitud que la distancia entre todos los demás cuerpos del Sistema Solar se calculó a partir de ella. Éstos fueron los cálculos más exactos de las proporciones del Sistema Solar hasta que los astrónomos dispusieron de las ondas de radar que reflejan los planetas y empezaron a calcular las distancias de esta manera.
Eros es ejemplo de un «desollador terrestre» y en los últimos cincuenta años se han descubierto muchos más. En la actualidad se conocen unos 130 asteroides que se mueven más cerca del Sol que la Tierra. Algunos, en ocasiones, se pueden acercar a sólo unos pocos millones de kilómetros de la Tierra. Un asteroide, Hermes, que debe de tener unos dos kilómetros de ancho, no chocó con la Tierra por una diferencia de 320.000 kilómetros en los años treinta y, desde entonces, no se le ha vuelto a ver...
Un desollador terrestre u otro cuerpo similar podría chocar con la Tierra cada cien millones de años. Un asteroide o un cometa relativamente grande pudo haber chocado con la Tierra hace 65 millones de años, eliminando los dinosaurios y muchas otras formas de vida.
El nuevo asteroide descubierto por Elinor Helin es un desollador. Una de las razones de su descubrimiento fue su aproximación a la Tierra (realiza una cada cincuenta años aproximadamente), a sólo cuatro millones de kilómetros.
A esa distancia, existe la posibilidad de distinguir algún detalle, sobre todo con los equipos tan avanzados de hoy en día. Hay un radiotelescopio de 300 metros en Arecibo (Puerto Rico), por ejemplo, que es el mejor del mundo de su clase. Si se envía un haz de microondas (como las del radar) al asteroide, se reflejará y el telescopio de Arecibo captará la reflexión. Un equipo dirigido por Steven Ostro desarrolló el haz y pudo «ver» el asteroide mediante su reflexión (igual que cuando se refleja la luz).
La prueba se llevó a cabo el 22 de agosto de 1989; se analizaron los datos y, para asombro general, mostraron dos asteroides que parecían estar en contacto, girando como una hélice, cubriendo una vuelta completa cada cuatro horas. Que se sepa hasta el momento, sin embargo, nunca se habían visto antes asteroides gemelos, y es posible que haya más que no podemos ver porque se sitúan demasiado lejos para apreciar detalles.
Es posible que estos asteroides gemelos se formaran porque se trataba de dos asteroides casi con idéntica órbita, moviéndose uno al lado del otro alrededor del Sol. Una fuerza gravitatoria mínima pudo acercarlos hasta que finalmente se pusieron en contacto. Y permanecen juntos en un tímido abrazo, rodeándose el uno al otro, en ocasiones aproximándose más a la Tierra.

EL VIGILANTE DEL ESPACIO
A los asteroides pequeños que se aproximan hasta relativamente cerca de la Tierra se les llama «desolladores terrestres». Recientemente, David Rabinowitz, de la Universidad de Arizona, descubrió el objeto más pequeño y más cercano que nunca se haya visto fuera de la atmósfera terrestre, pues es posible que no midiera más de nueve metros de diámetro.
Se siguió al asteroide durante seis horas, utilizando detectores electrónicos muy sensibles, y se calculó su órbita.
Emplea entre tres y cuatro años en dar una vuelta completa al Sol, y, en su punto más próximo a él, se sitúa tan cerca como la órbita de Venus. En el otro extremo, el punto más lejano, se retira hasta el cinturón de asteroides entre las órbitas de Marte y Júpiter. En el camino, pasa cerca de la órbita terrestre y, muy de vez en cuando, la corta cuando está muy cerca. En estos casos, se aproxima a 170.000 kilómetros de la Tierra, algo menos de la mitad de la distancia a la Luna.
Por supuesto, 170.000 kilómetros significan una distancia inmensa para el hombre, pero desde el punto de vista astronómico no representan nada. Además, las órbitas de estos pequeños asteroides pueden variar con mucha facilidad. Por ejemplo, en este caso, al haberse acercado tanto a la Tierra, su trayectoria debió de curvarse aun mínimamente debido a la atracción gravitatoria de la Tierra y es posible que después no siguiera siendo la misma. Un pequeño asteroide cuya trayectoria se acerque a la de la Tierra a diferentes distancias, en el transcurso del tiempo puede adoptar una órbita que lo impulse hacia el planeta y lo avasalle.
¿Es algo que nos deba preocupar? Sí, ya que el impacto de un asteroide, aunque no mida más de nueve metros, podría ejercer un daño considerable y, además, no estamos hablando de un solo asteroide. Los astrónomos tienen conocimiento de cincuenta asteroides con diámetros entre uno y dos kilómetros que, en ocasiones, pueden acercarse a la Tierra a una distancia de 32 millones de kilómetros o menos. Debe de haber unos 1.500 con diámetros de alrededor de medio kilómetro y muchos miles, también al descubierto, que miden unos pocos metros de ancho.
Si uno de estos cuerpos choca contra la Tierra, los resultados pueden ser catastróficos. Incluso el golpe de un asteroide de sólo nueve metros de ancho, pero que viaja a 32 kilómetros por segundo, podría destruir una ciudad casi por completo si impacta de lleno. Un asteroide que mida un kilómetro de ancho puede destrozar miles de kilómetros cuadrados. O bien, si cae en el océano (y las probabilidades de que lo haga son de siete a tres) originaría un maremoto que podría anegar millones de kilómetros cuadrados y destruir cantidades inimaginables de propiedades a lo largo de todas las regiones costeras del mundo. Un asteroide de diez kilómetros, si impacta, podría provocar la destrucción de la mayor representación de la vida.
Entonces, ¿por qué no ha sucedido nada de esto? Pero es que sí ha sucedido. En 1908, algún tipo de asteroide o cometa cayó en Siberia central y destruyó todos los árboles en 65 kilómetros a la redonda. Por fortuna era un área deshabitada y nadie murió, pero un hombre a 100 kilómetros fue derribado de su silla por la sacudida. Se trataba de un asteroide pequeño, quizá del tamaño que los astrónomos acaban de localizar.
En Arizona aparece el «cráter Meteoro», un cráter redondo de alrededor de ochocientos metros de diámetro causado por el impacto de un pequeño asteroide hace unos 50.000 años. Tuvo que ser más grande que el caído en Siberia, y si un asteroide de esas dimensiones chocase en la actualidad contra una región de la Tierra densamente poblada, morirían millones de personas instantáneamente.
La mayoría de los científicos supone que hace 65 millones de años se produjo un impacto todavía mucho mayor y que un asteroide o un cometa, que podía medir hasta 10 kilómetros de ancho, chocó y destruyó la mayoría de la vida existente en el planeta, incluidos todos los dinosaurios.
Hasta ahora los humanos no podíamos hacer nada respecto a los impactos futuros, salvo esperar y confiar. Aunque probablemente en un millón de años no choque ningún cuerpo, podría haber una gran sacudida mañana. Hasta ahora, no podíamos ni siquiera observar un cuerpo que se acercara hasta que hubiera sido demasiado tarde, pero actualmente, como hemos dicho, podemos localizar objetos incluso pequeños a suficiente distancia.
Sin duda, lo que necesitamos es un vigilante del espacio. Debería haber satélites o estaciones espaciales que custodiasen permanentemente el espacio más próximo en busca de estos objetos. Cualquier objeto potencialmente capaz de acercarse demasiado a la Tierra debe ser destruido por una bomba nuclear o por un instrumento más eficaz que pueda descubrirse en el futuro. De esta forma podría ser desmenuzado en guijarros. Otra solución es provocar una explosión lo bastante cercana al objeto para alterar su curso y desviarlo del de la Tierra.
Los astrónomos en la actualidad están considerando colocar un vigilante del espacio. No importa lo que cueste, sería compensado millones de veces si se evitara un solo impacto importante. Sin embargo, debo decir que allá por 1959, en un artículo que escribí para una revista de tirada reducida que ya no se edita, recomendaba este vigilante del espacio exactamente por la misma razón que he esgrimido aquí. Los astrónomos están considerándolo ahora, pero yo vengo recomendándolo desde hace más de veinte años.

MÁS SOBRE METEOROS
Los meteoros son porciones de materia que llegan a toda velocidad procedentes del espacio exterior y se calientan en la atmósfera terrestre (cuando son visibles se les llama «estrellas fugaces»). Los meteoritos son meteoros que se han precipitado y los meteoroides son meteoros que permanecen en la atmósfera.
Los griegos sabían que las «estrellas fugaces» no eran verdaderas estrellas, puesto que las distinguían, y después de una «lluvia» de meteoros, el número de estrellas reales seguía siendo el mismo. En ocasiones, los pueblos de la antigüedad observaban la caída de un meteoro grande y localizaban después el meteorito. También hay meteoritos rocosos, pero es menos obvio que su origen sea extraterrestre.
Hace unos años, algunos meteoritos localizados en la Antártida llenaron los titulares de los periódicos, cuando los científicos decidieron que procedían de Marte. Se basaban en que estos meteoritos eran demasiado jóvenes para datar su origen en los comienzos del Sistema Solar, hace 4.600 millones de años. También eran demasiado jóvenes para haber sido impulsados desde la superficie lunar, como podía haber sucedido con otros meteoritos. Los volcanes lunares han estado inactivos 3.000 millones de años, mientras que la roca volcánica de los meteoritos «marcianos» se calcula que tenía unos 1.300 millones de años. Puede que un asteroide enorme chocara contra Marte con tal fuerza que algunos trozos del planeta alcanzaran la velocidad de escape, abandonaran la gravedad de Marte y salieran al espacio. Finalmente, algunos debieron ser capturados por el campo gravitatorio terrestre. Desde que se ha iniciado el estudio de los ejemplares de la Antártida, se piensa que unos pocos meteoritos de otras partes de la Tierra también proceden de Marte.
Los análisis de los meteoritos «marcianos» mostraron que contenían gases semejantes a los de la atmósfera marciana, conocida gracias a los datos enviados por el módulo de aterrizaje Viking. En 1992, los científicos presentaron pruebas de que los meteoritos marcianos contenían también de un 0,04 a un 0,4% de agua. Los análisis isotópicos del oxígeno revelaron que el agua no procedía de la Tierra. Lo que es más importante, el agua no estaba en «equilibrio isotópico de oxígeno» con el meteorito huésped, lo que indicaba que Marte tenía dos depósitos diferentes de oxígeno isotópico.
El significado puede estribar en que, aunque Marte tuvo en otros tiempos agua en su superficie, el planeta es y era muy diferente de la Tierra. Nuestro planeta contiene placas tectónicas, con un intercambio constante entre el agua del océano y la materia que surge ininterrumpidamente del manto, a través de las crestas que hay en mitad del océano, todo lo cual es reciclado al océano a través de la corteza terrestre (el proceso tarda un millón de años o más, pero ¿qué supone esta cifra geológicamente?). Por el contrario, la roca y el agua de Marte evolucionaron por separado, y no mediante una interacción profunda como sucedió en la Tierra.
Se requiere un gran esfuerzo para que la naturaleza, o los seres humanos, transformen el grafito en diamantes. Por tanto fue impresionante encontrar diamantes minúsculos en los meteoritos (el primero, al menos hace un siglo). En los análisis recientes de los espectros de absorción de luz infrarroja procedentes de nubes densas de moléculas de nuestra Vía Láctea, los científicos han descubierto más diamantes minúsculos.
No se sabe si estos diamantes del espacio están ligados o no a las nubes o flotan libremente, pero el descubrimiento ha llevado a ciertos científicos a lanzar la teoría de que algunos diamantes meteóricos de la Tierra pueden haber constituido parte de la nube original que se fusionó para formar nuestro Sistema Solar. Algunos otros diamantes meteóricos pueden haberse formado por el impacto de las colisiones mientras todavía se mantenían en el espacio.
También en 1992, algunos científicos británicos y alemanes analizaron otro tipo de diamantes meteóricos. Dedujeron que los diamantes «Abee» mayores tenían «la composición isotópica de carbono, nitrógeno y xenón típica del Sistema Solar». Esto quiere decir que no se formaron en la nube galáctica que precedió al Sistema Solar, sino después. Además, parecen haberse formado a una presión relativamente baja, lo que excluye el impacto de colisión. Está claro que estos diamantes Abee se hacen objeto de estudios adicionales que podrían revelar más datos sobre la formación inicial del Sistema Solar.
Los astroquímicos Paul H. Benoit y D. W. G. Sears han investigado los orígenes de los meteoritos. Según los análisis, los meteoritos experimentan dos velocidades de enfriamiento, lo que puede significar que un grupo se formó en el cuerpo madre a mayor profundidad que el otro. Es posible que los meteoritos formados a poca profundidad se hayan desgajado y hayan sido lanzados entonces, llegando antes a la Tierra. La principal conclusión de su trabajo es que, a lo largo del tiempo, el tipo, tamaño y número de meteoros caídos a la Tierra han sido muy variables.
Otros objetos procedentes del espacio pueden parecer «estrellas fugaces». Es comprensible que caigan meteoros a la Tierra, pero otra cosa es que nos caigan encima restos de chatarra desde nuestro propio espacio. Sería mejor que el dinero que se gasta en armas de combate contra otros hombres se empleara en limpiar la basura de nuestro espacio.

POLVO DE COMETAS
Hasta hace unos años, se suponía que la Tierra estaba rodeada de minúsculos granos de materia que no había manera de estudiar. Pero el especialista planetario de la Universidad de Chicago, Edwards Anders, ha cambiado las cosas.
Anders se dedicaba a estudiar los meteoritos en busca de «núcleos exóticos». Son núcleos resultado de la fisión de elementos superpesados. Como parte de su investigación, Anders sumergió los meteoritos en ácidos fuertes y se dio cuenta de que quedaba un minúsculo residuo de polvo muy fino. Eran diamantes minúsculos además de trazas insignificantes de carbón y carburo de silicio.
Parecían gránulos diminutos que no formaran parte del Sistema Solar, sino que se hubieran formado fuera de él hacía miles de millones de años y que aterrizaban en la Tierra.
Ernst Zinner, de la Universidad de Washington en San Luis, midió los isótopos presentes en los gránulos con un pequeño instrumento llamado «microsonda iónica». Los isótopos se pueden utilizar para determinar la naturaleza de los hornos nucleares de las estrellas. O también para averiguar la naturaleza de las estrellas muertas hace mucho tiempo.
Los gránulos se formaron en el intenso calor a partir del cual se originaron el Sol y los planetas. En esas circunstancias, los gránulos se destruyeron, pero unos pocos sobrevivieron en los límites externos, más fríos, del Sistema Solar en formación. Se han encontrado estos gránulos excedentes en los asteroides que giran alrededor del Sol entre las órbitas de Júpiter y Marte, y también en cometas, y es muy probable que el polvo de los cometas, que se forma continuamente, los contengan en abundancia.
Lo principal es que los gránulos no se han originado en el Sistema Solar sino fuera de él. La naturaleza de los gránulos y sus isótopos podría determinar la naturaleza de las estrellas de las que proceden.
El hecho de que los diamantes, el grafito y el carburo de silicio contengan todos carbono, indica que se formaron a partir de estrellas ricas en carbono. Para eso, las estrellas tendrían que tener atmósferas muy grandes en cuyo interior se formaran los gránulos. Parece ser que las estrellas en cuestión eran gigantes rojas.
Anders tenía que realizar un trabajo genérico con las estrellas, pero entonces llegó Zinner con su microsonda iónica y pudo estudiar los isótopos de gránulos aislados para obtener información sobre la estrella de la que procedían.
En general, la historia de los gránulos concuerda con la teoría de la formación de los elementos. No obstante, hay algunas cuestiones que resultan enigmáticas.
Anders señala que mediante la razón criptón/selenio se puede averiguar la temperatura de una estrella. Cuanto más caliente es la estrella, menos criptón contiene.
También hay algunos indicios de que los gránulos se pueden originar en las explosiones de supernovas y no sólo en gigantes rojas.
La existencia de los gránulos también pone de relieve el origen de nuestro Sistema Solar. Hay gránulos cuyo origen parece indicar que se formaron cerca de la nube que dio lugar al Sistema Solar y lo puso en movimiento. Puede que los gránulos que hay en el Sistema Solar indiquen el modo en que muchas estrellas se implicaron en su formación. Hubo una época en la que los astrónomos pensaban que cinco o seis estrellas habían ayudado a dar un empujón a la nube del Sistema Solar, pero Anders cree que pueden llegar a un millar.
También se puede saber la edad de los gránulos. Cuando éstos se mueven por el espacio, tropiezan periódicamente con partículas de radiación cósmica. Anders estudia los gránulos para saber exactamente con qué partículas han chocado. Una partícula puede encontrarse con un átomo de carbón y hacerle ligar una partícula de neón. Parece que los gránulos más antiguos tienen alrededor de 1.000 millones de años más que el Sistema Solar. Algunos pueden tener incluso más.
Puesto que no hay duda de que hay gran abundancia de gránulos en los cometas y puesto que los cometas chocan contra la Tierra muy pocas veces, la Agencia Espacial Europea ha diseñado un plan para llegar a un cometa que se acercara suficientemente a la Tierra. La nave recogerá parte del material helado y lo trasladará a la Tierra para un estudio más detallado. Los cometas son fríos, mucho más fríos que los asteroides, así que seguramente están llenos de gránulos. Por desgracia es poco probable que se pueda arañar tanto dinero para este propósito. Pero si así se hiciera, podrían pasar décadas antes de que la nave pudiera despegar.
De la información que aporten los gránulos sobre el Universo más allá del Sistema Solar, podríamos aprender mucho sobre él y sobre la formación de nuestro propio Sistema Solar.
Algunos astrónomos piensan que ello representa un campo nuevo de investigación en la astronomía y que las «micro-sondas iónicas» son los nuevos telescopios.

MINAS EN EL ESPACIO
Si vamos a construir una sociedad abocada al espacio que incremente el área de distribución del hombre y nos proporcione nuevas fuentes de materia, energía, producción industrial y conocimiento abstracto, tendremos que hacerlo pronto. Si esperamos demasiado, la población de la Tierra, cada día más numerosa y empobrecida, así como el medio ambiente del planeta cada vez más deteriorado, puede que nos haga incapaces de realizar el esfuerzo.
Pero si realmente construimos esa sociedad asomada al espacio, no podemos contar sólo con los recursos de la Tierra. Ya son bastante escasos. Debemos utilizar la energía y materiales estructurales de otras zonas, además de la Tierra. La energía, es obvio, puede llegar directamente del Sol, si construimos centrales eléctricas que conviertan la energía solar en electricidad. Pero ¿dónde se encuentran los materiales para construir en el espacio las centrales y las viviendas para miles de seres humanos?
La fuente más cercana de materiales, aparte de la Tierra, es la Luna. Científicos como el fallecido Gerard O'Neill, de la Universidad de Princeton, han planeado durante años la creación de estaciones mineras lunares. Las ventajas son que la Luna es bastante grande, está muy cerca y tiene una gravedad en superficie de sólo una sexta parte de la de la Tierra.
El inconveniente de la Luna es que se trata de un mundo «calcinado». A causa del calor y la baja gravedad, no ha retenido los materiales que se evaporan con facilidad («volátiles»). Esto significa que la Luna no tiene hidrógeno, carbono ni nitrógeno, elementos vitales. No importa cómo explotemos los yacimientos de la Luna, estos elementos deben ser suministrados por la Tierra.
El segundo mundo grande más cercano es Marte. Sabemos que Marte tiene provisión de volátiles. En Marte podemos conseguir todo lo que conseguimos en la Luna y, además, hidrógeno, carbono y nitrógeno.
Los inconvenientes son que Marte está mucho más lejos que la Luna y que su gravedad de superficie es dos veces y media más intensa que la de la Luna. Por tanto, Marte es mucho más difícil de alcanzar y cuesta mucho más extraer los materiales mencionados.
¿Algún otro lugar? Podemos contar con los asteroides. Son cuerpos pequeños, con una gravedad en superficie despreciable. Además, los hay de gran variedad de tipos químicos. Algunos son «condritos carbonosos» que contienen los elementos volátiles que necesitamos. Otros son metálicos, compuestos principalmente por hierro, níquel y cobalto, y en ellos, estos materiales estructurales ya están concentrados, junto con pequeñas cantidades de oro y platino. Otros son rocosos y tienen todo tipo de materiales de silicatos rocosos amalgamados con hierro.
Los asteroides representarían sin duda una fuente de la materia que necesitamos para construir una sociedad en el espacio, pero la desventaja es que se sitúan todavía más lejos que Marte, ya que casi todos ellos giran alrededor del Sol entre las órbitas de Marte y Júpiter.
Pero obsérvese que he dicho «casi todos». Hay algunos asteroides que han encontrado órbitas que los acercan a la Tierra, y algunos incluso los sitúan muy cerca. En 1989, uno muy pequeño pasó muy próximo, a una distancia de 700.000 kilómetros de la Tierra, menos del doble de la distancia a la Luna.
En los últimos diez años se han descubierto más de 122 asteroides capaces de aproximaciones muy cercanas a la Tierra y pueden llegar a ser un total de unos mil. También pueden ser peligrosos ya que pueden chocar con la Tierra. Una colisión así destruyó los árboles en 65 kilómetros a la redonda en Siberia en 1908, pero no mató a ningún ser humano. Se piensa que una colisión mucho más importante, hace 65 millones de años, extinguió a los dinosaurios.
En 1959 escribí un artículo en el que sugería que, una vez que los seres humanos desarrollaran la tecnología necesaria, se estableciera un vigilante espacial que acechara a estos satélites cercanos a la Tierra, para destruir a cualquiera que mostrara signos de acercarse de manera peligrosa a nuestro vulnerable planeta.
Ésta, sin embargo, era una sugerencia destructiva por completo, necesaria pero no suficiente. ¿Por qué destruir simplemente? Sería mejor pensar en capturar estos asteroides y utilizarlos como fuente de materias valiosas a partir de las cuales podamos construir la nueva sociedad.
Es posible que parezca que estos satélites cercanos a la Tierra representan un recurso muy limitado, pero si podemos encontrar un solo asteroide de hierro y níquel de un kilómetro de ancho y utilizarlo, dispondríamos de una fuente de metal durante muchísimos años. Además, son muchos los asteroides lanzados hacia la Tierra desde el cinturón, ya que sus órbitas no son fijas sino atraídas por los planetas, sobre todo por Júpiter, el gigante.
Para terminar, incluso si al cabo de un siglo nos encontramos con que hemos utilizado los mejores asteroides próximos a la Tierra y que se agota el suministro de los útiles, nuestra sociedad en el espacio seguramente habrá avanzado hasta el punto en que los viajes largos al cinturón de asteroides se habrán convertido poco menos que en rutina.
Allí dispondremos no de mil, sino de cien mil objetos, algunos de varios cientos de kilómetros de ancho. Sería un recurso lo bastante grande como para permitirnos conquistar el Sistema Solar de extremo a extremo, y poder fijar nuestra mirada en las estrellas.


TERCERA PARTE,
CIENCIA Y TECNOLOGÍA

FALSA ALARMA
En 1990, otro descubrimiento científico asombroso resultó ser una falsa alarma.
Estas cosas ocurren en ocasiones en el mundo de la ciencia. Se tropieza con algo que amenaza cambiar la visión fundamental en algún aspecto respecto del Universo. Se produce una gran conmoción, otros científicos comprueban el asunto y la amenaza se derrumba.
El caso más espectacular de este tipo en los últimos años ha sido un entusiasmo repentino por la posibilidad de la fusión fría: la perspectiva de energía sin límite a partir de un equipo sencillo, después de que los físicos habían gastado innumerables millones de dólares en máquinas enormes para el mismo fin, sin éxito hasta el momento.
El proceso de la fusión fría fue investigado en todo el mundo y resultó ser una falsa alarma. Los dos científicos que lo anunciaron se habían precipitado y nadie más fue capaz de obtener cantidades significativas de energía mediante el proceso.
Este no fue el único caso de ese tipo. En el Universo sólo hay cuatro fuerzas conocidas que justifican todo lo que sucede. Son la gravitación, el electromagnetismo, la fuerza nuclear fuerte y la débil.
Hace algún tiempo se aludió a una quinta fuerza con propiedades muy extrañas. Era más débil que la gravitación, sólo se percibía a una distancia limitada a unos pocos metros y variaba para las distintas sustancias químicas. Si esto fuera así, habría dado al traste con la teoría general de la relatividad de Einstein. No obstante, las comprobaciones metódicas mostraron que dicha quinta fuerza no existía.
En otra ocasión se publicó que las pequeñas burbujas de aire atrapadas dentro del ámbar demostraban que hace millones de años la atmósfera contenía el 30% de oxígeno y no el 20%, como se sabe en la actualidad. A primera vista esto parece poco probable. Con un 30% de oxígeno, cualquier fuego que se iniciara en un bosque arrasaría un continente. En efecto, exámenes posteriores demostraron que el informe estaba equivocado.
La gran supernova descubierta en 1987, en la Gran Nube de Magallanes, produjo supuestamente una estrella de neutrones que giraba a una velocidad de dos mil revoluciones por segundo. Al menos las observaciones parecían mostrarlo. Esto conmocionó a los astrónomos, que no podían justificar una velocidad de giro tan inusualmente rápida. Pero entonces resultó que las observaciones estaban equivocadas. Se trataba de un error y en realidad no se había observado la estrella de neutrones.
Hacia finales de 1989, dos físicos japoneses, H. Hayasaka y S. Takeuchi, informaron de un hecho realmente asombroso. Instalaron giroscopios a gran velocidad y descubrieron que, en determinadas circunstancias, cuanto más rápido giraban los giróscopos, menos pesaban. Lo que equivalía a que el aparato desarrollaba algún tipo de antigravedad. Esto es, de por sí, totalmente inconcebible. Si se pusiese a dar vueltas una hélice de juguete, se elevaría por los aires como consecuencia de fuerzas aerodinámicas bien conocidas. No lo haría en el vacío. Sin embargo, en el caso del giroscopio, los científicos no podían descubrir la causa de la disminución de peso. Con todo, si se estableciera, sería de máxima importancia. Podría representar una nueva forma de transporte por el espacio sin necesidad de cohetes.
Pero esto no era lo más apasionante del informe. Los físicos japoneses sostenían que la pérdida de peso sólo se producía si el giroscopio giraba en un sentido. Si lo hacía en el otro, no había ninguna pérdida de peso.
Esto resultaba difícil de creer. El Universo se rige por ciertas reglas de «simetría». Si algo sucede en una dirección debe suceder en la otra. Por ejemplo, el Sol atrae a la Tierra situada a una determinada distancia con la misma fuerza independientemente de donde esté, a un lado del Sol o a otro, arriba o abajo. ¿Cómo podía el giroscopio comportarse de una forma cuando giraba en un sentido y de otra cuando giraba en el contrario?
Naturalmente, físicos de todo el mundo empezaron a juguetear con los giróscopos. En febrero de 1990, T. J. Quinn y A. Picard, dos físicos establecidos en Francia, publicaron una investigación realizada con la máxima precisión. Hicieron dar vueltas a los giróscopos a velocidades de hasta 8.000 revoluciones por minuto, en condiciones que garantizaban que no se verían afectados por los cambios de temperatura, la fricción, las influencias del entorno, etc.
Comunicaron que los giroscopios se comportaban de la misma manera desde todos los puntos de vista en todos los sentidos de giro y que, en ningún caso, había pérdida de peso significativa. Otra falsa alarma.
¿Quiere decir esto que ningún hallazgo científico asombroso tiene probabilidades de credibilidad? En absoluto. Alguna vez, hay científicos que hacen una propuesta inesperada con resultados probados. Así, hace algunos años, se descubrieron sustancias superconductoras a temperaturas muy altas. Lo que parecía totalmente increíble resultó ser verdad.

EL ENCOGIMIENTO DEL DELTA
Expediciones recientes, patrocinadas por la Institución Smithsoniana y la National Geographic Society bajo la dirección del oceanógrafo Daniel J. Stanley, indican que una de las zonas más fértiles de la Tierra y que ha contribuido al progreso intelectual y social durante diez milenios, se está encogiendo.
La región en cuestión es el delta del Nilo. Hace diez mil años se inventó la agricultura en las mesetas situadas entre las actuales naciones de Iraq e Irán. Al principio, la agricultura dependía del agua de lluvia, algo poco seguro, pero poco a poco los agricultores se trasladaron a las cercanías de las orillas de los ríos, donde el suministro del agua era mucho más seguro.
Puede parecer que los ríos son una fuente de agua tan obvia que los hombres no deberían haber tardado tanto en trasladarse allí, pero los ríos no ayudan a menos que se construyan diques y se abran acequias para llevar el agua a las cosechas y evitar las inundaciones. Esto requería el desarrollo de procedimientos de cooperación y se necesitó tiempo.
No obstante, después del 4000 aC empezaron a surgir ciudades-estado a lo largo de las orillas de los ríos Tigris y Éufrates (Irak actual) y a lo largo del río Nilo (Egipto actual). Los sumerios, que se instalaron en el curso inferior del Éufrates, inventaron el arte de la escritura hacia el 3500 aC y construyeron la primera gran-civilización. Los egipcios, en el Nilo, se apresuraron a copiar la idea y construyeron allí la segunda gran civilización.
Las dos fueron diferentes en un aspecto. El Tigris-Eufrates estaba abierto por ambos lados a las tribus nómadas, de manera que los sumerios no sólo luchaban entre sí, sino que tenían que defenderse de invasores como los acadios, los casitas, los arameos y otros. Sin embargo, el Nilo fluía a través de un desierto. Al este y al oeste no había prácticamente nadie y los habitantes del Nilo podían vivir en paz y lo hicieron durante miles de años, el período más largo de estabilidad que haya disfrutado cualquier pueblo antes o después.
El Nilo era una autopista perfecta, fluía de sur a norte, mientras que el viento soplaba uniformemente de norte a sur. Izando las velas, los botes podían ser conducidos hacia el sur; arriándolas, la corriente los llevaba de nuevo al norte. Además, no había tormentas y el río siempre estaba en calma. Sé fomentó el comercio y las ciudades-estado a lo largo del río se unieron para formar una «nación» que compartía una cultura y una herencia comunes. Egipto fue la primera nación de la Tierra.
Todos los años, la nieve fundida en las montañas del este de África, muy lejos al sur de Egipto, provocaba una crecida del Nilo que originaba una inundación anual y dejaba una capa de arcilla fértil en sus orillas. Puesto que se trataba de una inundación anual, los egipcios inventaron el calendario que todavía utilizamos, y la geometría para volver a trazar los lindes de los campos después de la inundación. Pocas veces padecían escasez de comida, ya que las inundaciones mantenían la tierra fértil. Según la Biblia, con ocasión de la hambruna de Canaán, los hijos de Jacob tuvieron que ir a Egipto a comprar grano, puesto que allí siempre había.
Por supuesto, la franja fértil se extendía sólo unos pocos kilómetros a cada lado del Nilo. Hacia su desembocadura, el río se abría en un triángulo con muchos cauces, formando el fértil delta del Nilo (llamado así porque tenía una forma triangular como la letra griega «delta»). En la actualidad, a todas las desembocaduras se les llama «deltas», incluso cuando su forma, como en el caso del Mississippi, difiere en absoluto de la triangular.
En la antigüedad, Egipto era la nación más rica del planeta. Durante el período entre el año 1500 aC y el 1200 aC sus ejércitos invadieron el alto Nilo y el oeste de Asia y formaron el «Imperio Egipcio». Finalmente sucumbió a los persas en el 525 aC y ya nunca volvió a ser realmente independiente, pero siguió floreciendo. Entre el año 300 aC y el 30 aC fue la nación más adelantada de la Tierra desde el punto de vista intelectual. Disponía de museo, la primera organización que puede considerarse una universidad, y la mayor biblioteca nunca vista antes de la invención de la imprenta. Y siguió siendo el granero del Imperio Romano.
Su importancia continuó durante el medievo como parte del mundo musulmán. Incluso hoy en día mantiene una enorme población, 50 millones de personas, agrupadas a lo largo del curso del río Nilo. La mayoría vive en el delta y lo cultiva.
Pero ahora han llegado los malos tiempos para el delta. La presa de Asuán, construida en 1964 para controlar el suministro de agua, ha reducido la cantidad de limo que llega al delta. El limo que hay se hunde poco a poco y, puesto que no llega suficiente para reemplazarlo, el mar Mediterráneo está avanzando tierra dentro.
Stanley calcula que, en los próximos cien años, el mar avanzará unos 30 kilómetros tierra adentro y quizá más si se produce un calentamiento general y sube el nivel del mar. Engullirá muchos kilómetros cuadrados de tierra fértil y será una gran catástrofe para los egipcios, a menos que tomen medidas para proteger su litoral.

¡BASURA!
Parece que la palabra «basura» deriva del latín versura o barrer. El Diccionario de la Real Academia define «basura» como «inmundicia, especialmente la que se recoge barriendo» o «estiércol de las caballerías», y añade además «Desecho, residuos de comida, trapos viejos, trozos de trapos viejos y otros desperdicios». En términos informáticos son «datos incomprensibles producidos por un ordenador o introducidos en él». Y en los últimos tiempos se ha empezado a utilizar para referirse a los restos de cohetes construidos por el hombre que ya no funcionan y permanecen en órbita alrededor de la Tierra.
Independientemente de lo que quiera decir la palabra basura, estamos invadidos por ella. En alguna enciclopedia, la basura aparece como «residuo sólido» y cita una producción de 360 millones de toneladas anuales sólo por parte de Estados Unidos. Se gastan miles de millones en eliminar los 11 kilos de residuos que cada persona desecha todos los días.
Muchos creen que las enormes reservas de armas son asimismo basura inútil esparcida por la Tierra, así que también se suma el problema de su eliminación.
Los métodos de eliminación siempre han sido ineficaces. En el comienzo de la civilización, los basureros eran criaderos de animales transmisores de enfermedades e insectos, sobre todo de ratas y de sus transmisores de plagas, las pulgas. Los primitivos cazadores recolectores se organizaban mejor, no eran muchos y la mayoría de la basura que dejaban detrás de sí era biodegradable y se volvía a reciclar en la ecología del planeta. La palabra clave es biodegradable. Por lo general, la basura producida en las sociedades industriales no es en absoluto biodegradable. Se está considerando el problema, pero si la ingeniería genética obtiene un microorganismo que devore el plástico y el metal en los basureros, ¿se detendrá ahí? ¿Se desmoronarán nuestras ciudades de plástico y metal?
Los vertederos controlados son menos repugnantes y transmiten menos enfermedades que los basureros sin control, pero la superpoblación merma el espacio en el planeta. No se puede verter la basura donde no vive la gente (desiertos, campos de hielo, océano, cumbres de montañas, etc.). En el planeta Tierra toda su vida está imbricada, así que lo que se ensucia aquí, destruye allá, sin tener en cuenta la destrucción de una ecología potencialmente valiosa.
Mientras tanto, los vertederos son cada vez mayores. Uno de los más grandes del mundo es el de Fresh Kills en Staten Island (Nueva York). Es una ironía que kills en inglés signifique «relacionado con la muerte», pero en este caso proviene del holandés y quiere decir «canal». Algún día las barcazas de la ciudad serán desviadas de Staten Island, a menos que queramos contemplar un nuevo Everest tras Verrazano Narrows.
Los vertederos son un problema. No se convierten en suelo útil de la noche a la mañana. Gran cantidad de plásticos y metales pueden permanecer allí indefinidamente e incluso el papel necesita sesenta años para degradarse (a menos que se trate de un libro moderno que parece volverse amarillento y desmenuzable en pocas semanas). Es estúpido quemarlo todo y aumentar la contaminación del aire que ya es bastante peligrosa, pero existen proyectos locales para construir incineradores de basura que cuestan 100 millones de dólares cada uno y que pueden emitir 3.000 toneladas de cenizas tóxicas al día.
Si el vertido y el relleno establecen sus límites y la incineración es peligrosa, entonces, ¿qué hacer? Es importante mejorar los métodos de fabricación. Batelle ha desarrollado un material plástico llamado «Bicellat» para hacer biodegradables los soportes de los cirios conmemorativos que los humanos depositan en los cementerios. Los refrigerantes de los frigoríficos destruyen la capa de ozono, así que la empresa Sony Compressor Systems se dispone a fabricar frigoríficos que funcionen mediante ondas acústicas de resonancia para comprimir el gas. Entonces se podrán utilizar refrigerantes inofensivos porque ya no habrá pistones convencionales ni lubricantes que estropear. El funcionamiento de estos frigoríficos será, además, más barato.
Se debería seguir trabajando sobre el reciclado de basuras, pero con precaución; algunas empresas químicas han sido procesadas por haber intentado librarse de metales pesados tóxicos mezclándolos con fertilizantes a la venta.
Exportar basura es difícil, como en el caso de la gabarra de basura que no pudo encontrar un puerto que aceptara su carga. Isaac escribió una vez un cuento corto sobre el desprecio que los extraterrestres profesaban a los terrícolas que tiraban su basura en la Tierra en vez de enviarla fuera del planeta. La cara oculta de la Luna es muy grande...
También existe el problema de la basura que permanece en el espacio. La NASA está considerando blindar las estaciones espaciales que diseñan para protegerlas de los choques contra la chatarra en órbita: son 30.000 pedazos lo bastante pequeños como para actuar como balas capaces de penetrar las paredes de la estación y los trajes espaciales de los astronautas en sus paseos espaciales. Incluso un resto de pintura daña tanto el parabrisas de una nave que hay que reemplazarlo. Durante la locura de la carrera de armamentos se explotaron en el espacio, accidental o deliberadamente, muchos satélites espía y cohetes, y sus fragmentos han quedado en órbita.
La probabilidad de uno a treinta de que una nave choque con chatarra espacial sin duda ha aumentado. Un ingeniero del Johnson Space Center ha patentado una especie de escoba espacial para barrer los escombros en órbita y se está trabajando para que actúe selectivamente, de manera que los objetos útiles sigan en órbita.
Mientras nos preocupamos por la basura que se amontona a nuestro alrededor y sobre nuestras cabezas, recordemos la arqueología, una ciencia que no trata sólo de encontrar bellas pinturas rupestres o piedras interesantes. La mayoría de las veces se trata de revolver la basura antigua y a los arqueólogos les encanta. Buscan en la basura de muchas Troyas para descubrir cuál era la de Hornero. Ahora mismo están investigando las condiciones de vida reales y los esfuerzos creativos de los esclavos negros en los siglos XVII y XVIII.
Algún día, arqueólogos que nos visiten de otros mundos podrían regocijarse ante la variedad de artefactos que se pueden estudiar en el planeta Tierra. ¿Nos habremos condenado a nosotros mismos a la extinción para entonces?

LOS HABITANTES DEL CUERPO
«Una infección oportunista cada vez más frecuente»; «descubierto un posible origen común de la enfermedad»; «Aumentan las infecciones transmitidas por mosquitos». Todos estos titulares se refieren a enfermedades diferentes, y sin embargo todas son causadas por animales que viven en el cuerpo humano. Los parásitos (criaturas capaces de existir sólo si viven dentro o sobre otras formas de vida) pueden ser plantas, bacterias, virus, etc., pero en terminología médica la palabra está restringida a los animales que parasitan a los seres humanos.
Desde un punto de vista médico, la historia es un relato de la locura humana por la sanidad, los alimentos y los espacios elegidos para trabajar y vivir. En la actualidad, según los últimos informes, los gusanos intestinales causaron 20.000 muertes el año pasado; el anquilostoma, 60.000; se registraron 200 millones de casos de fiebre de las babosas (esquistosomiasis) y probablemente muchos otros no lo fueron, y la ceguera de los ríos (causada por un gusano filaria llamado Onchocerca volvulus) afecta a 20 millones de personas de África y América del Sur. Hay muchos otros ejemplos de parásitos que continúan afectando a la humanidad.
Las enfermedades parasitarias se pueden combatir con educación, diagnósticos correctos y nuevas drogas. Investigaciones recientes, llevadas a cabo sobre todo en Estados Unidos y Gran Bretaña, la han emprendido incluso con ese asqueroso insecto, el mosquito, que transmite más tipos de parásitos y enfermedades virales que ningún otro «vector».
Un trabajo reciente sobre la biología molecular y la genética de los mosquitos discutía modos de controlar a los mosquitos. Se está elaborando el mapeo del genoma de determinadas cepas de mosquitos para descubrir los genes que los incapacitan para transmitir enfermedades. Los científicos esperan clonar los resistentes a las enfermedades. Se encontrarán medios para que los mosquitos resistentes cubran el lugar de los infecciosos que ocupan nuestro entorno.
Además de otras enfermedades, los mosquitos transmiten ese terrible azote que es el paludismo y que afecta a una población que vive en más de cien países. El parásito del paludismo es un protozoo que habita sobre todo en los glóbulos rojos de la sangre. Mata a más de un millón de personas cada año. En estos momentos, no sólo está aumentando su campo de acción sino que las drogas normales para combatirlo están perdiendo eficacia.
Muchos tipos de parásitos no causan apenas síntomas en personas por lo demás sanas, pero muchos provocan enfermedades que pueden ser mortales. Hay demasiadas enfermedades parasitarias como para poder recogerlas en un artículo tan corto, pero algunas se han convertido en noticia periodística.
Algunos niños de quienes se pensaba que tenían problemas emocionales se curaron cuando se eliminó la infección de la lombriz infantil. Por lo general esta lombriz no causa sino una comezón anal, pero parece que hay niños que pueden ser afectados de manera más negativa, aunque nadie sabe muy bien por qué. Los niños pequeños tienen más probabilidades de ser infectados porque no tienen mucho cuidado con lo que se llevan a la boca.
El «síndrome del colon irritable» por lo general se atribuía a la herencia y a las emociones. En un congreso reciente del American College of Gastroenterology, el doctor Leo Galland afirmó que en muchos casos de este síndrome ha utilizado un nuevo análisis que detecta la infección de los intestinos por un trofozoito, Giardia lamblia. Giardia está en todas partes, y siempre se había pensado que era inocuo, a menos que el intestino del paciente estuviera plagado.
Las infecciones parasitarias que causan pocos síntomas son mucho más graves en los pacientes con problemas inmunológicos. Por ejemplo, últimamente han ocurrido infecciones más serias, a veces fatales, de Strongyloides stercoralis, un nemátodo parásito del intestino que se recoge del suelo igual que el anquilostoma. El problema ha empeorado por el hecho de que la mayoría de los parásitos puede suprimir el sistema inmunitario incluso en población sana.
Solamente se llega a albergar parásitos comiendo alimentos crudos. ¿Estamos? Es probable que antes de la invención del fuego los seres humanos tuvieran más parásitos, ya que la comida elaborada destruye muchos. La lista de parásitos transmitidos por alimento crudo es amplia, pero algunos de ellos no son perjudiciales, en vista de los hábitos alimentarios actuales.
La especie Diphyllobothrium pertenece al género de los Cestodes o tenias. Su nombre proviene de las palabras griegas «dos», «hoja» y «pequeño arroyo». La más importante es la Diphyllobothrium latum, la tenia del pescado, con un ciclo vital muy interesante. Sus huevos, procedentes de las heces humanas, son engullidos por la pulga de agua. Dentro de la pulga, el huevo se transforma en un «procercoide». Si un pescado engulle la pulga, el procercoide se convierte en una forma plerocercoide en los músculos del pescado. Sigue siendo tan pequeña que no es visible cuando se examina el pescado. Si un hombre lo come, permanece en el intestino y pasa a tenia adulta, que enseguida, entre cuatro y seis semanas, empieza a producir huevos, iniciando el ciclo de nuevo. La Diphyllobothrium latum se encuentra sobre todo en las zonas septentrionales del planeta donde la población come pescado crudo. Al microscopio, su cabeza, espatulada y estriada, es singularmente graciosa, pero no se trata de una enfermedad divertida, puesto que la Diphyllobothrium latum es la tenia humana más grande y causa graves problemas intestinales e incluso fuerte anemia (ya que el gusano engulle toda la vitamina B12 y el ácido fólico privando de ellos a su huésped humano). La enfermedad se diagnostica examinando una muestra húmeda y fresca de las heces hasta hallar los huevos. Existe un tratamiento adecuado, pero lo más sensato es cocinar cualquier pescado, incluso el que se supone que se pesca en agua salada. Congelar el pescado a -10°C durante al menos dos días mata al parásito, pero yo seguiré cocinando el pescado, gracias.
Hay una tenia del cerdo, pero la mayoría de la gente conoce suficientemente el tema para comer sólo cerdo cocinado, a causa de otro parásito que se extiende por todo el mundo —Trichinella spiralis— y causa una grave enfermedad, la triquinosis, que no se puede detectar en el cerdo crudo. La mayoría de los buenos carniceros no pican la carne de cerdo en la misma máquina que otras carnes, que pueden ser cocinadas no tan a fondo.
Lo que me lleva al steak tártaro y a la tenia de buey. Y ya he dicho suficiente.

MONSTRUOS
El monstruo más famoso de nuestros días es el del lago Ness, al que a veces se le llama, más o menos cariñosamente, Nessie. El Ness es un lago alargado y estrecho de Escocia, y se considera que Nessie es algo parecido a un plesiosaurio extinguido, con cuello y cola largos y cuerpo ancho.
En realidad nadie ha visto nunca a Nessie y en mi opinión nadie lo verá, porque no existe. El lago Ness no es lo bastante grande para alojar a un plesiosaurio; es inimaginable que pudiera vivir ahí y a pesar de todas las investigaciones nadie lo haya vislumbrado siquiera.
Entonces, ¿por qué sigue siendo tan popular y por qué hay tanta gente que cree que existe? En primer lugar, a la gente le encanta que los científicos sabelotodo resulten estar equivocados. En segundo lugar, los lugareños obtienen mucho dinero del turismo y la gente visita el lago sobre todo con la esperanza de ver a Nessie.
En realidad, la humanidad ha vivido siempre con monstruos, por lo general mucho más temibles que la pobre Nessie, a lo largo de toda su historia. El hecho se remonta, sin duda, a los tiempos de los primitivos antepasados del hombre, cuando iban de un sitio a otro bajo el temor constante a los grandes depredadores que les rodeaban. Por muy terribles que puedan haber sido el mamut, el tigre primitivo y el oso de las cavernas, es la esencia misma de la mente humana la que los ha imaginado todavía peor. Las fuerzas temibles de la naturaleza se visualizaban como animales gigantes. Los escandinavos imaginaban que el Sol y la Luna eran perseguidos por lobos gigantes. Cuando éstos alcanzaban a su presa se producía un eclipse.
Animales relativamente inofensivos podían ser magnificados hasta convertirse en terroríficos. Los pulpos y los calamares, con sus tentáculos retorcidos, fueron transformados en Hidra, la serpiente mortal de siete cabezas destruida por Hércules; en Medusa, con su pelo ondulado, y en Escila con sus seis cabezas.
Probablemente el animal más temido era la serpiente. Se deslizan sin ser vistas por la maleza y saltan sobre su víctima de improviso. Sus ojos sin párpados, su mirada fría y maligna, su ataque repentino, todo sirve para aterrorizar a los seres humanos. No es una sorpresa que a menudo se utilice como el epítome de la maldad, como en el Paraíso Terrenal.
Pero la imaginación puede incluso perfeccionar la imagen de la serpiente. Se pueden imaginar serpientes que matan no por mordedura, sino por una simple mirada, y aparece un «basilisco».
O si no, convertir a la serpiente en un ser inmenso, en lo que los griegos llamaron «pitón», que representaba el caos original que tuvo que ser destruido por los dioses antes de que pudiera ser creado el Universo en orden.
Drakon es una palabra griega para designar a una serpiente grande, que se convirtió en el monstruo más popular de todos, el «dragón». A la longitud de la serpiente le fueron añadidos el cuerpo más ancho y las patas achaparradas de otro reptil temible, el cocodrilo. Así conocemos al monstruo Tiamat, que el dios babilonio Marduk tuvo que destruir para organizar el Universo. Piénsese en el mordisco ardiente de la serpiente venenosa y obtendremos al dragón lanzando fuego por la boca.
Por supuesto, algunos monstruos son animales que han sido malinterpretados en el sentido de la belleza en vez del horror. El rinoceronte con su cuerno único puede haber contribuido al mito del unicornio. El espantoso manatí, con su cola en forma de aleta, saliendo apenas del agua y llevando a su cría sujeta en el pecho, bien puede haber sido metamorfoseado en una bella sirena.
A lo largo de la historia, el mayor enemigo del hombre es el propio hombre, por tanto, no es sorprendente que los hombres hayan servido de idea a muchos de los monstruos más espantosos: Los gigantes y los ogros caníbales de todo tipo. Algunas de estas historias surgieron cuando las tribus primitivas encontraban civilizaciones más avanzadas. Así, las tribus israelitas, que eran bastante primitivas, al encontrar ciudades amuralladas y soldados bien armados, pensaron que los cananeos eran una raza de gigantes. En la Biblia hay recuerdos de estas creencias.
También una gran civilización puede derrumbarse, y los que la suceden pueden olvidar la civilización pero observan las ruinas gigantescas que dejaron detrás de sí y piensan que sólo pudieron ser construidas por gigantes. Los primitivos griegos, al encontrar las murallas enormes y anchas que rodeaban a las ciudades en ruinas de los micénicos, anteriores y más civilizados, imaginaron que tenían que haber sido construidas por gigantes de un solo ojo, los «Cíclopes».
Los cíclopes fueron situados posteriormente en Sicilia. Deben de haber sido dioses celestes y su único ojo debe de haber representado el Sol en el cielo. También pudieron haber surgido por el hecho de que los elefantes vagaran por Sicilia en tiempos prehistóricos. El cráneo de dichos elefantes dispondría de un gran orificio nasal en la parte anterior que pudo ser interpretado como un único ojo.
A medida que el conocimiento humano sobre el mundo se enriquece, el sitio libre debido a los monstruos temibles o hermosos inventados por el hombre disminuye y la creencia en ellos se desvanece. En cierto modo es una pérdida.

RUIDO
La mayoría de la gente dice que odia el ruido, incluso los que se sienten incómodos en un lugar especialmente tranquilo. La generación de los mayores se queja del ruido que hace la gente joven, olvidando que sus padres probablemente tenían la misma queja contra ellos.
Los diccionarios por lo general definen el «ruido» como un sonido chillón, alto y discordante. Aunque el ruido es mucho más complicado que eso, discordante es una buena palabra, ya que es a lo que los científicos se refieren cuando dicen que el ruido es una señal al azar y, por tanto, impredecible.
En general, la contaminación por ruido es de origen humano y puede ponernos materialmente en peligro. Permanezcamos cerca de un avión que despega, de una taladradora que abre las calles o de una banda de rock superamplificada. Hagámoslo durante demasiado tiempo y sufriremos daños permanentes en los oídos, y algo más.
En Bulgaria, los investigadores han descubierto que los ruidos altos y constantes causan una grave disminución de la fertilidad en los animales de laboratorio, cuyas escasas crías ya eran más pequeñas de lo normal. El peso de un recién nacido puede disminuir si su madre está expuesta a ruido excesivo. Después del nacimiento, los niños aprenden más despacio en entornos ruidosos. Los adultos maltratados por el ruido pueden experimentar pérdida de oído, dolores de cabeza, hipertensión, disminución de la capacidad inmunológica, debilitamiento cognoscitivo y tensión emocional.
Los investigadores médicos han demostrado que los voluntarios sanos se enfrentaban mejor a los ruidos que podían controlar. La falta de control sobre el ruido causa alteraciones graves del humor, así como cambios perjudiciales en el sistema nervioso autónomo. Si un vecino pone el tocadiscos a las tres de la mañana o limpia la hierba con la cortadora mientras uno echa la siesta, el sonido puede no dañar los oídos, pero al no poder controlarlo, resultará extraordinariamente irritante.
El daño causado a los oídos por la asistencia regular a discotecas de rock y a conciertos de heavy metal es de sobra conocido. Es especialmente malo cuando el amante de la música ejecute un trabajo ruidoso. Algunos aficionados al rock inteligentes se esfuerzan en la petición de que bajen el volumen del sonido y muchos músicos llevan ahora auriculares. Incluso el ruido «moderado» puede afectar el voltaje producido por las neuronas del cerebro de modo impredecible y paradójico. No es extraño que la gente se sienta confusa en situaciones de mucho ruido.
El problema está en que no todos los sonidos malos son fuertes. Los sonidos de baja frecuencia similares a los producidos por las tormentas o por muchas máquinas pueden causar mareos y náuseas, así como afectar negativamente a la capacidad de una persona para pensar con creatividad. Los «infrasonidos», inaudibles, pueden hacerle sentir a la gente como si su pecho vibrara y sus tímpanos oscilaran pesadamente hacia delante y hacia atrás.
El sonido electrónico, no necesariamente audible para nosotros, chapucea nuestros ordenadores y sistemas de comunicaciones, incluido el aparato de televisión. Esto no sólo es algo molesto, sino que puede resultar realmente peligroso cuando los sistemas electrónicos afectados son ordenadores que funcionan en los bancos, oficinas gubernamentales, establecimientos militares y añádase lo que se quiera, ya que los ordenadores están por todas partes.
En la actualidad se está haciendo un enorme esfuerzo para controlar el ruido. Las máquinas se instalan sobre plataformas que absorben las vibraciones, no sólo para reducir el ruido a los oídos humanos, sino para prolongar la vida de la máquina. La insonorización es un gran negocio. Se está estudiando una nueva técnica de «control acústico estructural activo» para utilizarlo en los fuselajes de los aviones, los cascos de los barcos y en otras aplicaciones industriales. Se han variado lo suficiente las configuraciones modales de una estructura como para que disminuya el sonido emitido. Si la técnica resulta ser tan eficaz como parece haber sido hasta ahora, nos ahorrará dinero y reducirá la contaminación por ruido.
El concepto de «ruido» depende de cada uno. Un turista en África puede pensar que los elefantes son ruidosos. Barritan, gritan y sus estómagos producen ruidos sordos constantemente. Imperceptible para el turista —a menos que sienta la vibración—, el elefante también está vocalizando a una frecuencia por debajo de la capacidad auditiva humana. Nadie sabe si esto es una forma auténtica de comunicación o no. Esperemos que se descubra antes de que se haya matado a todos los elefantes por aprovechar su marfil.
Muchos animales hacen y responden a sonidos que nosotros no percibimos. Los animales pequeños oyen y producen sonidos en frecuencias más altas de lo que podemos oír. Para matar o ahuyentar ratones caseros y cucarachas, compramos pequeños artilugios que producen lo que para nosotros son ondas ultrasónicas. Ruido «bueno» para nosotros y malo para los animales perjudiciales.
Hay ruidos intencionados que pueden resultar molestos pero útiles, como los pitidos de un camión cuando da marcha atrás. Los investigadores han descubierto que los murmullos, cloqueos y chasquidos que hacen los padres, en realidad calman y atraen a los niños. ¡Aparentemente todos los mamíferos hacen ruidos de chasquidos a sus vástagos!
El ruido se utiliza también para confundir a los espías del campo contrario, ya sea el campo militar, político o económico. La información se transmite en secreto utilizando un sistema «semicaótico» (no me pida nadie que se lo explique, porque si todavía no entendemos el caos, mucho menos el semicaos).
Y para terminar, investigadores de la Universidad de Northwestern han descubierto que el gráfico de ondas sonoras del grito de alarma de un primate se parece al de un sonido que molesta de forma especial a los humanos: el chirrido del metal o el de las uñas cuando rayan una pizarra. ¿A lo mejor los conjuntos de rock están emitiendo chirridos de manera inconsciente para defenderse de los depredadores?

ENFRIAMIENTO
Un modo seguro de conseguir energía es obtenerla de la propia Tierra. En zonas de manantiales termales sólo hay que socavar agujeros y aprovechar el calor que liberan en electricidad.
Una de esas regiones, a 185 kilómetros al norte de San Francisco, empezó a ser explotada en 1960. Parecía que ofrecía electricidad barata y no contaminante extraída del interior de la Tierra, lo que significaba el abastecimiento de más electricidad de la misma manera. Se decía que para 1990 se obtendrían 2.000 megavatios.
Por desgracia, la cantidad de electricidad producida en la actualidad es sólo de 1.500 megavatios. Además, la presión de vapor está cayendo en picado. El problema es que, aunque en el suelo hay calor en abundancia, no hay mucha agua.
Lo que ha sucedido es que se ha utilizado demasiada tecnología. Todo lo que había que hacer era perforar los agujeros en las grietas de la roca llenas de vapor y esperar que el calor y la electricidad surgieran. Y lo hicieron, pero a medida que se perforaban más y más agujeros, surgía cada vez menos calor y electricidad. Hacia finales de los ochenta era evidente que el campo estaba demasiado explotado.
Mientras tanto, los ingenieros estaban convencidos de que se podría producir vapor para obtener 3.000 megavatios, energía en cantidad suficiente para tres millones de personas. Pensaban que aquello podría seguir funcionando durante treinta años. Pero estaban equivocados.
Si la región se hubiese explotado lentamente, era probable que pudiera seguir funcionando razonablemente. Pero no fue así como ocurrió. El precio del petróleo se disparó con el embargo petrolífero y estaba claro que se podía disponer de energía geotérmica. Al mismo tiempo, el gobierno proporcionó incentivos económicos para garantizar el desarrollo de este tipo de energía. El resultado fue que se aceleró el desarrollo, pasando de 70 megavatios anuales a 150 megavatios. En 1988, la capacidad de producción era más del doble que la de 1981. Los nuevos niveles de producción siguieron funcionando pero ya estaba claro que la presión de vapor disminuía a pasos agigantados.
Ahora todo el mundo sabe que no hay agua suficiente en las rocas y fisuras subterráneas para que se siga adelante, pero la explotación continúa. De hecho, la Comisión de Energía de California ha aprobado todos los pasos a fin de explotar el campo. Los expertos están tratando de encontrar métodos para regenerarlo. El más factible parece ser la inyección de agua fría utilizando el vapor que se condensa antes de desvanecerse en la atmósfera. A pesar de todo, el agua es tan escasa que es probable que los operadores tengan que obtener agua de las plantas depuradoras para la recarga.
Otras regiones de fuentes termales se pueden explotar con precaución. Se piensa que el calor próximo a la superficie de las áreas volcánicas de Estados Unidos es unas diez veces superior a la energía calorífica de todos los depósitos de carbón del país. La pega está, por supuesto, en el suministro de agua. Los ingenieros perforan la roca seca y caliente y la fracturan. Después irrigan agua al interior que vuelve a ascender por otro agujero perforado. Los análisis del flujo permitirán controlar si el sistema puede mantener la emisión de calor sin enfriarse con demasiada rapidez o rezumando demasiado.
La energía geotérmica no sólo surge de la roca caliente sino también del magma: roca fundida a una profundidad de entre cinco y siete kilómetros. No existe ninguna maquinaria que aguante para abrirse camino a través del magma, aunque se ha perforado en Long Valley, al este del Parque Nacional de Yosemite, para tratar de llegar a los seis kilómetros de profundidad, o a una temperatura de 500°C, lo primero que se alcance.
También hay energía geotérmica en Texas y Luisiana procedente de una mezcla de energía geotérmica y depósitos de combustibles fósiles. Los depósitos se formaron desde hace 15 a 18 millones de años, cuando el agua salada fue absorbida en lechos porosos de arenisca entre capas impermeables de arcilla. A medida que se amontonaba más sedimento, el material se comprimía. Además, se liberaba metano procedente de la descomposición de la materia orgánica formada.
En los años setenta se hablaba de que un simple agujero perforado en la zona de compresión geológica dispararía un chorro de calor geotérmico más metano o gas natural. Diez años de investigaciones han rebajado el optimismo, ya que hasta ahora las experiencias con la energía geotérmica ordinaria hacen dudar de su utilidad como nueva fuente de energía. Son necesarios más estudios.

FABRICAR HIDRÓGENO
El tema principal de una Conferencia Mundial de la Energía reciente fue las perspectivas para fabricar hidrógeno como combustible, ya que la quema de combustibles fósiles (madera, carbón, petróleo y gas natural) podía estar afectando seriamente al clima terrestre. Todos estos combustibles contienen átomos de carbón que, al quemarse, se combinan con el oxígeno para formar dióxido de carbono, mientras que los átomos de hidrógeno se combinan con el oxígeno para formar agua.
El dióxido de carbono tiende a retener calor, y al quemar combustible se bombean millones de toneladas de dióxido de carbono al aire, de manera que la Tierra experimenta una tendencia al calentamiento, conocida como «efecto invernadero». Puesto que a la larga puede ser catastrófico, se debería dejar de quemar átomos de carbono y habría que concentrarse en los de hidrógeno. La formación de agua no hace ningún daño.
Pero el hidrógeno no se encuentra como tal en la Tierra. El que existe está combinado con otros tipos de átomos y debe ser forzado a deshacer esas combinaciones. El modo más fácil de hacerlo es romper los enlaces carbono-hidrógeno del gas natural y almacenar el hidrógeno. Al hacerlo, sin embargo, se forma dióxido de carbono, que es lo que no conviene.
Un modo de conseguir hidrógeno sin producir dióxido de carbono es a partir del agua, formada por una combinación de oxígeno e hidrógeno. Si los enlaces se rompen, se puede almacenar el hidrógeno y liberar el oxígeno a la atmósfera, donde no será perjudicial. Además, al quemar el hidrógeno, se combinará de nuevo con el oxígeno para formar agua otra vez.
Para separar el agua en hidrógeno y oxígeno hay que hacer pasar por ella una corriente eléctrica, un proceso llamado «electrólisis». Pero una corriente eléctrica es una forma de energía que se obtiene de forma más barata y más sencilla quemando carbón, petróleo o gas y que produce dióxido de carbono que, de nuevo, es lo que no conviene.
Por tanto, se debe producir corriente eléctrica utilizando alguna forma de energía que no implique la quema de combustible. Para este propósito se pueden usar los saltos de agua (como en las cataratas del Niágara), la energía eólica o la fisión nuclear. Las cataratas están restringidas a determinadas zonas, el viento es irregular y la gente teme la fisión nuclear. Una alternativa lógica es el uso directo de la energía solar.
La luz solar, al incidir sobre «células fotoeléctricas», producirá una corriente eléctrica que se podrá utilizar para electrolizar agua y producir hidrógeno. Pero las células fotoeléctricas son caras y, por lo general, poco eficaces. Eso significa que no pueden competir con la quema de combustible como fuente de energía.
Por tanto, se deben hacer todos los esfuerzos posibles para conseguir que las células fotoeléctricas sean más baratas y eficaces. La mayor esperanza parece estar en el uso de sílice, el segundo elemento más común en la corteza terrestre, así que no se agotará. Pero los átomos de sílice sólo existen combinados con otros y es bastante costoso romper los enlaces para preparar la sílice en forma pura, necesaria para las células fotoeléctricas. Por esta razón, cuanto menos sílice se utilice en las células fotoeléctricas, más económicas serán.
En el pasado, la sílice adoptó la forma de cristales en los que los átomos están dispuestos de forma ordenada. Los cristales de sílice pueden convertir en electricidad el 30% de la energía solar que incide sobre ellos, lo que proporciona una eficacia bastante alta. Pero fabricar los cristales es un trabajo laborioso y también se añade a los gastos.
John Ogden y Robert Williams, de la Universidad de Princeton, trabajan con «sílice amorfa» una forma en que los átomos están desordenados. La sílice amorfa es menos eficaz que la cristalina: convierte en electricidad sólo entre el 6 y el 13% de la energía solar que incide en ella. Sin embargo, la sílice amorfa es mucho más fácil de obtener que la cristalina.
Además, sería útil que, en vez de usar cristales gruesos, se empleara una película fina de átomos de sílice pulverizados sobre cristal o plástico. El peso de la película de sílice utilizada para una célula fotoeléctrica sería sólo cinco milésimas partes del peso de los cristales de sílice que se tendría que utilizar. Además, Ogden y Williams señalan que es más fácil preparar una película fina de sílice amorfa que cristalina y que la fabricación de la película se podría automatizar.
A pesar de la menor eficacia de la sílice amorfa, esto significa que podría ser más económico producir una determinada cantidad de electricidad utilizando células fotoeléctricas de película de sílice amorfa que cualquier otro tipo de célula fotoeléctrica conocida en la actualidad.
Por lo tanto, debemos confiar en la posibilidad de que grandes cantidades de células fotoeléctricas de película de sílice dispuestas en serie produzcan enormes cantidades de electricidad a partir de la luz solar. Esta corriente eléctrica se utilizaría para electrolizar agua y producir hidrógeno. Este hidrógeno, por tanto, puede suponer el combustible limpio y no contaminante del futuro.

LA PRIMERA ETAPA EN LA SÍNTESIS DE LA VIDA
Tres científicos del MIT (Instituto Tecnológico de Massachusetts), Julius Rebek, Tjama Tjivikua y Pablo Ballester, han producido recientemente una molécula sintética que presenta una característica clave de las propiedades de los sistemas vivos, lo cual puede proporcionar un indicio de cómo se originó la vida en la Tierra.
Todas las formas de vida pueden multiplicarse o «reproducirse». Los seres humanos tienen hijos; otras formas vivas, de la más complicada a la más sencilla, también tienen descendencia. Incluso los organismos unicelulares pueden dividirse en dos, formando dos células donde sólo había una. Esto se cumple en todos los organismos, hasta en los más pequeños de todos, las bacterias.
Lo que lo hace posible son los ácidos nucleicos que contienen todas las formas vivas, de símbolo ADN y ARN, siendo el primero el más importante. Ambos dirigen la formación de las enzimas que mantienen la química celular en funcionamiento y a todos los organismos vivos.
Los ácidos nucleicos tienen la capacidad de «replicación». Están formados por largas cadenas de unidades, llamadas «nucleótidos». Un ácido nucleico puede atraer a nucleótidos aislados presentes en el fluido celular y alinearlos en el orden preciso, de manera que se combinen para formar un segundo ácido nucleico exactamente igual al primero. Así, hay un suministro continuo de ácidos nucleicos nuevos para las células y organismos nuevos. La replicación de los ácidos nucleicos es el proceso clave de la formación de todos los organismos vivos.
El ácido nucleico replicante se encuentra en pequeñas estructuras llamadas «cromosomas» presentes en el núcleo celular. Hay algunas formas de vida llamadas «virus» que son todavía más pequeñas que las bacterias y que parecen cromosomas libres. Una vez que un virus ha penetrado en una célula puede replicarse a sí mismo repetidas veces.
Pero ¿cómo empezó el proceso?
Los biólogos están convencidos de que los organismos vivos han evolucionado lentamente a lo largo de los 4.500 millones de años de existencia de la Tierra. Alrededor de 1.000 millones de años después de que se formara la Tierra, aparecieron las primeras formas de vida en forma de células bacterianas, y durante 2.000 millones de años constituyó la vida sobre el planeta. Después evolucionaron células más complejas, a las que siguieron los organismos «pluricelulares». Sabemos todo esto gracias a los estudios amplios y detallados no sólo de las formas de vida actuales, sino también de los «fósiles» abandonados por los organismos muertos hace mucho tiempo.
No obstante, todos estos organismos, hasta los más pequeños, contienen ácidos nucleicos. Las moléculas de ácido nucleico de los organismos sencillos son tan complicadas como las de los más complejos, y están formadas por cadenas de hasta varios miles de nucleótidos. Pero ¿cómo se formó la primera molécula de ácido nucleico?
En realidad no lo sabemos. Lo que hace más difícil encontrar una explicación es que, para replicarse, los ácidos nucleicos necesitan utilizar enzimas, pero las enzimas existen gracias a los ácidos nucleicos que dirigen su formación. Ninguno de los dos puede hacer su trabajo en los tejidos vivos sin el otro, así que ¿cuál fue primero?
Los ácidos nucleicos evolucionaron probablemente en los primeros 1.000 millones de años de existencia de la Tierra, pero no ha quedado ninguna huella de este proceso.
Esto es lo que pudo haber sucedido: las moléculas que existían cuando la Tierra era joven, pequeñas y muy abundantes —agua, metano, amoniaco, dióxido de carbono y otras— se combinaron entre sí (utilizando la energía solar o el calor volcánico) para formar otras mayores y más complejas. Con el tiempo se desarrolló una con la capacidad de replicarse sin la ayuda de enzimas. Al replicarse a sí misma, a lo mejor con torpeza, a veces reproducía versiones ligeramente más complejas que se podían replicar con mayor eficacia y que incluso podían dirigir la formación de enzimas. Entonces, estas enzimas podrían cooperar en el proceso haciendo mucho más eficaz la replicación y, de esta manera, nació la primera y más sencilla forma de vida.
Pero, ¿cuál fue este primer compuesto tan sencillo que pudo experimentar replicación sin ayuda de las enzimas? Puede que ya no exista en la Tierra, pero no hay duda de que los químicos podrían fabricarlo en el laboratorio.
Rebek y su equipo han creado un compuesto llamado «éster triácido de aminoadenosina» que parece contener esta propiedad. Se compone de dos partes. La primera parece un nucleótido (llamémosle A) y la segunda (llamémosle B) no tiene ninguna relación. Las dos pueden unirse para formar A-B.
Si A-B es rodeado de moléculas aisladas de A y B, la parte A de A-B atrae a una B, mientras que la parte B atrae a una A.
Los A y B atraídos se unen a su vez a A-B y después se relacionan entre sí para formar B-A. Entonces las dos partes de la molécula combinada se separan y originan dos moléculas de A-B. Cada una de ellas puede sufrir de nuevo el mismo proceso y al final, la solución aparece llena de gran cantidad de moléculas A-B.
Ésta es la primera vez que se ha encontrado capacidad de replicación en una molécula mucho más sencilla que un ácido nucleico. El proceso es lento y torpe comparado con la velocidad deslumbrante a la que funcionan los ácidos nucleicos, pero este compuesto sencillo, el éster triácido de aminoadenosina, no necesita enzimas para hacer su trabajo. ¿Apareció en la Tierra hace mucho tiempo un compuesto parecido a éste y evolucionó a ácido nucleico? ¡Quizá!

MÁS SOBRE REPLICACIÓN
La palabra «replicación» no es muy bonita, pero cuando entra en acción hace posible la belleza de la vida. Se puede definir como «hacer una copia», «repetición» o «hacer una réplica».
En la replicación natural, los grandes animales pluricelulares no hacen copias exactas de sí mismos. Su replicación es el producto de una reproducción sexual, de manera que la descendencia resultante es única. Otros animales (sobre todo muchos insectos) pueden hacer una copia exacta o clon: un organismo formado asexuadamente a partir de un padre.
Estas dos formas de replicación se producen en realidad a nivel celular. En la «mitosis», proceso asexual, los cromosomas, que contienen el ADN, se multiplican por dos; después la célula se divide de manera que cada célula hija es exactamente igual a la original.
Cuando los cromosomas de la célula no se multiplican por dos, la célula se divide para formar una dotación «haploide» del material genético. A esto se llama «meiosis» («reducir» en griego). Cuando un espermatozoide fertiliza a un óvulo, se restablece la doble hélice con una nueva mezcla de genes.
Tanto en la meiosis como en la mitosis se pueden producir cambios inesperados. Los propios genes pueden mutar o los cromosomas no dividirse como deben. En la actualidad, los científicos están trabajando en la bioquímica de la división celular. Por ejemplo, han descubierto una «proteína del ciclo de la división celular» (cdc2) que, con ayuda de otra proteína llamada «ciclina», desempeña un papel clave en la mitosis. Se producen cambios en las proteínas enlazadas que surcan la membrana que rodea el núcleo de la célula, se supone que para que la célula pueda dividirse. Puesto que la proteína cdc2 está presente en todas las células (¡la cdc2 humana es semejante en un 63% a la de la levadura más primitiva!) su existencia se remonta probablemente a los primeros días de la vida celular sobre la Tierra.
Se están investigando otras proteínas que controlan los distintos cambios del ciclo celular y que pueden tener importantes aplicaciones en la investigación del cáncer, donde los ciclos celulares se desbaratan.
Todas las células se pueden dividir mediante la autorreplicación de los ácidos nucleicos de los cromosomas. Cuando Julius Rebek Jr. y otros dos químicos orgánicos lograron la autorreplicación de una molécula más sencilla que un ácido nucleico, se convirtieron en noticia ya que su descubrimiento podía referirse a las moléculas primitivas que se autorreplicaron por primera vez en la Tierra.
Más recientemente, científicos de Zurich y Estrasburgo fabricaron micelas sintéticas. Una micela es una partícula coloidal de moléculas poliméricas con carga eléctrica. Un polímero es una combinación de muchas moléculas pequeñas para formar otra grande y compleja, como el almidón, las proteínas y, en las fábricas, el nailon. Las micelas recién creadas se replicaban cuando las reacciones químicas producían más compuestos para formar sus membranas. Los científicos piensan que la vida es, esencialmente, un proceso cerrado, separado de su entorno por una frontera (como la membrana) que se replica a sí mismo dentro de sus propios límites.
Rebek (junto con Pong-In Hong, Qing Feng y Vincent Rotello) pasó luego a desarrollar dos moléculas sintéticas, muy afines, capaces de replicarse, y que coexistían y se ayudaban entre sí durante la replicación. La exposición de una de las moléculas a la radiación ultravioleta provocaba una «mutación» que le permitía replicarse con más frecuencia. La molécula mutada podía superar a la no irradiada al captar de su entorno las materias primas para la replicación. Pronto, la molécula mutada eclipsó a la otra, de forma similar a una «supervivencia de los mejores» evolutiva.
Estas moléculas sintéticas no son las que precedieron a la vida tal y como la conocemos en la Tierra, pero manifiestan, como dice Rebek, «el mismo comportamiento (replicación, cooperación y mutación) que ellas».
Mientras tanto, otra clase de «vida» sintética se desarrolla en la investigación informática. Se han diseñado programas que pueden evolucionar de manera independiente para resolver los problemas. También hay programas que se autorreplican que empiezan extendiéndose y, como «virus» secretos, pueden chapucear los programas auténticos. Recientemente los expertos en ordenadores han encontrado el modo de ayudar a los programas que se autorreplican a hacerlo con más eficacia. Un gran cambio desde los días de los primeros ordenadores, que ni siquiera disponían del disco duro que los virus pudieran controlar.
Los cambios en las teorías sobre la replicación, tanto natural como artificial (química o informática), nos están dejando asombrados. En 1992, Santa Fe, México, fue sede de una conferencia sobre la vida artificial. Se dedicó un día al hardware (si no se sabe lo que es, es que no se ha visto un ordenador, ni siquiera una calculadora de bolsillo) y otro al software (sabemos lo que es si se ha utilizado alguna vez un ordenador mediante un programa, imprescindible para que el hardware haga el trabajo que queremos, como puede ser un tratamiento de textos).
Lo más asombroso es que la conferencia también dedicó un día al wetware, las moléculas replicantes sintéticas desarrolladas por personas como el doctor Rebek. Se desarrolló incluso una «Exhibición de 4 horas» sobre vida artificial (como en las ferias rurales de ganado), en la que los científicos mostraron sus formas favoritas de vida artificial.
Quizá, algún día no muy lejano, los científicos creadores de todas estas ideas combinarán la «vida» química artificial con la «vida» informática para producir un ser vivo que pueda evolucionar. ¿Será ésta la «respuesta» final que la vida humana confiere al silencio del Universo?

NANOMAGIA
La nanotecnología es proceder a una escala muy pequeña, a nivel molecular e incluso atómico.
La ultraminiaturización se inició en la industria electrónica y se ha extendido enormemente. En la actualidad, se está creando el hardware microminiaturizado en laboratorios y talleres tales como el National Nanofabrication Facility de la Universidad Cornell, y en muchos otros lugares de diferentes países. Aquellos de nosotros que todavía estamos asombrados por la transición de las lámparas de radio a los transistores, nos sentimos mareados sólo ante la idea misma de aparatos tan pequeños que sus componentes se miden en nanómetros.
Hasta ahora, el componente más pequeño microminiaturizado mide alrededor de unos cincuenta nanómetros, que es la anchura de 500 átomos de hidrógeno uno al lado de otro. Un nanómetro equivale a 10-9 metros o a 10 ängstroms. Puesto que un ängstrom equivale a una cienmillonésima de centímetro, se trata de una dimensión muy reducida.
Es obvio que las nanoestructuras son algo más que discos de sílice diminutos. Los que trabajan en ese campo hablan de fuentes cuánticas (cosa que tiene que ver con electrones confinados en dos dimensiones por películas semiconductoras ultrafinas) y cables cuánticos (más pequeños, con una sola dimensión). La idea es que los aparatos que utilizan las fuentes «cuánticas» pueden funcionar con menos consumo y desperdicio de energía. Ya están funcionando en los receptores de microondas de los satélites, en los sistemas de comunicación de fibra óptica e incluso en los tocadiscos de discos compactos.
Los métodos para fabricar nanoestructuras son tan fascinantes y complicados como las propias estructuras. Por ejemplo, está el microscopio de barrido por efecto túnel, inventado hace sólo 11 años. Este microscopio muestra cómo está dispuesto cada átomo y también se puede utilizar para marcar superficies.
Otras técnicas extrañas permiten tallar montículos y accesos minúsculos —a nivel molecular— o construir nanoestructuras átomo a átomo. A nivel humano, estas técnicas pueden seguir aplicaciones tales como velcros microscópicos para ser utilizados por los cirujanos, en especial en áreas delicadas como la cirugía del cerebro.
Es asombroso pensar que cuando el siglo XX se acerca a su fin, algunos se dediquen a los átomos y no sólo por diversión. El futuro puede depender de su trabajo. En la actualidad, los investigadores han adelantado mucho en el problema de reducir el límite nanométrico de 50 a 10, la longitud de la onda electrónica. Si logran fabricar un «transistor de interferencia cuántica» se dispondrá de un dispositivo microminiaturizado que consumirá y perderá mucha menos energía.
Como el almacenamiento de datos se microminiaturiza en cuestión de semanas, los científicos, sobre todo en Japón, están considerando seriamente la posibilidad de diseñar algún día los componentes y las conexiones múltiples microminiaturizados que caracterizan el cerebro humano (los cuales, apresurémonos a añadir, todavía no se comprenden del todo). Puede que algún día el viejo concepto de Isaac de un cerebro artificial «positrónico» sea una realidad. Se puede oír a los «Trekkies» gritando que Data ya tiene uno...
¿Pero por qué tomarse tanto trabajo para construir estas nanoestructuras? ¿Por qué no dejar que se ensamblen solas de la misma forma que lo hacen esos aparatos microminiaturizados llamados «componentes de la célula viva»? Está estudiándose y el trabajo ya ha comenzado.
El teórico K. Eric Drexler ha trabajado y promovido la nanotecnología durante años. Imagina muchos inventos fascinantes, incluido uno que los médicos acogerían con júbilo: máquinas moleculares capaces de reparar células humanas defectuosas o enfermas. Fantástico viaje, ¿verdad?
La nanotecnología, camino de convertirse en un gran negocio, afectará en gran medida no sólo al mundo de la investigación sino también a la economía y a la política del planeta. Debemos ahorrar energía. Debemos convertirnos en una sociedad más global, lo que será posible mejorando las comunicaciones. Será un mundo diferente, pero seguramente nadie se quejará demasiado. Y si la nanotecnología es bastante más difícil de entender que las lámparas de radio, limitémonos a utilizar las palabras que nos dirigimos a nosotros mismos para convencernos de algo. Son las palabras que se decía Maxwell Smart en televisión, confundido por la idea de la microminiaturización:
«Lo que puede hacer una nadería». Eso es todo.

FULLERENOS FANTÁSTICOS
Buckminster Fuller, que inventó la cúpula geodésica, tenía una personalidad carismática. Cuando daba una conferencia (asistí una vez a una) era mentalmente estimulante, a pesar de que costaba entenderle. Ahora, una molécula que lleva su nombre para honrarle está estimulando a los científicos y a los medios de comunicación. Tratar de escribir un artículo muy corto sobre esta molécula es algo así como tratar de explicar en una tarjeta de tres por cinco cómo se derrumbó el Imperio Romano. A Gibbon le hizo falta mucho más espacio para hacerlo.
Para empezar, una molécula es un grupo de átomos. Si los átomos no son iguales, a la molécula se la llama «compuesto químico». Algunos son simples, como el agua, y otros complejos, como la mayoría de los compuestos orgánicos. A los químicos les ha costado mucho descifrar la estructura de algunas moléculas mayores. Un avance decisivo bien conocido se produjo en 1865, cuando el químico alemán Friedrich August Kekule von Stradonitz se durmió en un autobús y soñó que una cadena de átomos de carbono se convertía en una serpiente que se enrollaba para agarrar su propia cabeza. Kekule se despertó seguro de que la estructura de los átomos del benceno formaba un anillo hexagonal, y tenía razón.
En 1984 se produjo otro tipo de descubrimiento decisivo. En la Universidad Rice en Houston, Richard Smalley, Bob Curl y el químico británico Harry Kroto querían reproducir en el laboratorio la disposición de las cadenas de átomos en las estrellas gigantes de carbono. Cuando dispararon haces de láser contra el grafito, observaron que se formaban moléculas de carbono grandes y estables, de un tipo desconocido hasta entonces.
Se le llamó «carbono 60», porque sesenta átomos de carbono se disponían por sí mismos en hexágonos y pentágonos para adoptar una forma que recordaba mucho a un balón de fútbol. O a una cúpula geodésica de Fuller, de ahí el nombre de «Buckminsterfullerenos» o «buckybolas». Este gigante fue nombrado «Molécula del año» por la revista Science.
Después de estudiar los resultados del laboratorio de Smalley, los físicos Donald Huffman y Wolfgang Kratschmer descubrieron que en 1982 ya habían obtenido buckminsterfullerenos por accidente cuando vaporizaron electrónicamente grafito sumergido en gas inerte. Esta técnica resultó ser un modo de fabricar grandes cantidades de fullereno. Se han encontrado también otras técnicas, de manera que la investigación sobre los fullerenos está progresando y los científicos están descubriendo cada vez más aspectos sobre la nueva molécula y formando una familia química entera de fullerenos. Las nuevas aplicaciones siguen apareciendo en los periódicos.
Por ejemplo, las buckybolas de carbono 60 proporcionan propiedades ópticas a la película que no dependen linealmente de la intensidad de la luz. En vez de oscurecerse poco a poco, la película, en un punto concreto, se vuelve opaca. Con el tiempo obtendremos métodos más perfectos para protegernos a nosotros y a nuestros equipos de luz de gran intensidad. La regulación eficaz de la luz es una propiedad que tiene muchos otros usos prácticos. Las redes de fibra óptica que utilizan interruptores y moduladores completamente ópticos son una posibilidad apasionante. Algún día podremos tener procesadores digitales ópticos.
De buckybolas comprimidas se obtienen diamantes, pero los fullerenos «forrados» son todavía más interesantes, ya que se transforman en superconductores cuando se consigue que átomos de metales como el rubidio y el potasio rellenen los espacios entre las moléculas de carbono. En Japón, los químicos apelmazan las moléculas con paladio para formar un polímero que es extraordinariamente estable y eléctricamente neutro.
Moléculas de gases como el oxígeno pueden rellenar los espacios octaédricos entre buckybolas tan apretadas entre sí como naranjas embaladas. Resulta que estos fullerenos son selectivos, las moléculas de gas no pueden ser ni muy grandes ni muy pequeñas. Un producto muy útil serían membranas permeables sólo a ciertos gases.
Puesto que los fullerenos son como balones de fútbol, huecos, y se pueden considerar una especie de «cajas», los científicos tratan de cubrir el exterior de la estructura con diferentes átomos, o bien tratan de rellenarla por dentro. Han utilizado potasio, titanio, hierro y escandio. Algo asombroso. ¿Para qué queremos distintos átomos encerrados en una gran molécula de carbono? Depende de lo que contengan, los fullerenos pueden ser unos catalizadores eficaces o desarrollar propiedades magnéticas muy útiles. Se espera también que medicamentos recubiertos con ellos se puedan depositar dentro de un tumor sin dañar otras zonas del cuerpo en su acceso. Se están considerando muchos otros aspectos de los fullerenos utilizados como estuches.
Se ha hablado también de los buckytubos. Se pensaba que eran fullerenos que adoptaban la forma de tubo de estructura helicoidal y no geodésica. Se espera que se puedan convertir en fibras más resistentes. El único problema es que algunos científicos han logrado fotografiar fullerenos con el microscopio de barrido por efecto túnel. Las bolas existen, pero cuando un grupo intentó encontrar buckytubos, no pudo.
Mientras tanto, el resto podemos sentarnos a contemplar boquiabiertos cómo llueven los resultados y cómo se convierten en realidad las aplicaciones prácticas a partir de los fullerenos.

SUPERDIAMANTES
El diamante es una supersustancia en tantos aspectos diferente que puede parecer que no hay posibilidad de que existan superdiamantes. No obstante, eso es sin duda lo que el ingeniero químico William F. Banholzer, de General Electric en Schneactady, consiguió en 1990.
¿Qué convierte a un diamante en una supersustancia? ¿Qué la hace ser la sustancia más dura conocida?
Una sustancia es dura cuando los átomos que la componen son tan compactos que es difícil separarlos mediante un impacto. Cuando un diamante se utiliza para rayar otras sustancias duras, los átomos de éstas son separados por el diamante, pero nada puede separar los átomos del diamante unos de otros.
Para mantenerse unidos los átomos, cada uno debe enlazar el mayor número posible de vecinos. La amalgama más estrecha se consigue cuando cada átomo se enlaza a cuatro más. Cuanto más pequeño es el átomo que se une de esta forma más cerca están los átomos unos de otros y con más firmeza permanecen unidos. El átomo de carbono es el átomo menor capaz de enlazarse con cuatro vecinos y el diamante está formado sólo de átomos de carbono.
Sin embargo, los átomos de carbono no siempre están amalgamados en la disposición más cerrada posible. Lo están de forma más suelta en el carbón, el coque y el hollín, por ejemplo. Y también en el grafito (la mina de los lápices). No obstante, si un trozo de grafito, digamos, se calienta a grandes temperaturas de manera que los átomos se puedan reordenar por sí mismos y si, además, se somete a una gran presión de manera que se obliga a los átomos a juntarse lo máximo posible, el resultado es un diamante.
A grandes profundidades bajo tierra, la presión y la temperatura son lo bastante altas para producir diamantes y, en unas pocas zonas, esos diamantes se han abierto camino lo bastante cerca de la superficie como para ser descubiertos. Hasta los años cincuenta, los científicos de la General Electric no fueron capaces de diseñar métodos capaces de conseguir presiones y temperaturas suficientemente altas (en presencia de determinados metales) para conseguir diamantes sintéticos, idénticos al producto natural.
Los diamantes son transparentes y desvían la luz que los atraviesa en enjambres de arco iris. Si se talla uno con las facetas adecuadas presenta destellos de colores diferentes («se enciende») cuando gira, a pesar de que es una sustancia sin color. Es algo increíblemente bello y su aspecto más valorado.
Pero en la industria, su dureza lo convierte en el mejor abrasivo que conocemos para lijar y alisar desigualdades. (Hay abrasivos que son más baratos y casi tan buenos, pero sólo casi.) Además, aunque los diamantes no conducen la electricidad, son muy buenos conductores del calor. Esto significa que el uso de pequeños diamantes en microchips o en otros componentes miniaturizados en los aparatos modernos evitará su sobrecalentamiento. Además, de todas las sustancias transparentes, el diamante es el que tiene menos probabilidades de ser dañado por la radiación, lo que significa que podría ser muy útil en aparatos que utilizan rayos láser.
Sería positivo conseguir una sustancia que conduzca el calor y resista la radiación todavía más que el diamante, pero puesto que la disposición de los átomos del diamante es la más eficaz, ¿cómo podría hacerse mejor?
Bien, hay dos tipos (o «isótopos») de átomos de carbono; carbono 12 y carbono 13. Cada trocito de carbón, incluidos los diamantes, contienen alrededor de un 99% de carbono 12 y un 1% de carbono 13.
Ambos tipos de carbono tienen casi exactamente el mismo comportamiento químico, pero el carbono 13 tiene alrededor de un 8% más de masa que el carbono 12 y esto crea unas diferencias mínimas. Hace unos cincuenta años, por ejemplo, un físico soviético sostenía que cuando pasa calor a través de un diamante, lo hace con más eficacia cuando todos los átomos son del mismo tipo. Incluso si todos son de carbono, los carbonos 13 que aparecen de vez en cuando tropiezan con la energía calorífica de alguna manera y disminuyen su velocidad.
Los científicos han desarrollado métodos para separar los distintos isótopos de un elemento. Se puede hacer con metano, un gas rico en carbono, y tratarlo de forma que se eliminen prácticamente todas las moléculas de metano que contengan carbono 13. Entonces tenemos moléculas de metano que contienen sólo átomos de carbono 12 y este metano se puede utilizar para fabricar diamantes sintéticos que sólo contengan carbono 12. Esto fue realizado por primera vez por un equipo dirigido por Banholzer en General Electric en el año 1988.
Científicos de la Universidad Estatal Wayne, en Detroit, han hecho pruebas con los diamantes de carbono 12 y han encontrado auténticos superdiamantes. Estos diamantes pueden conducir el calor un 50% mejor que los normales y pueden soportar diez veces más intensidad de radiación. Se ha superado lo que se pensaba que era definitivo.
Por desgracia, los diamantes de carbono 12 son incluso más caros que los diamantes comunes, así que no se puede esperar que se utilicen a gran escala. Sin embargo, no hay duda de que se utilizarán a pequeña escala ya que son ideales y es bastante posible que sean esenciales para los ordenadores y el láser del futuro.

LOS MINEROS BACTERIANOS
Un grupo de científicos del Laboratorio Nacional de Ingeniería de Idaho informó en 1990 sobre la utilización de bacterias para ayudar a purificar cobalto en las meras pobres. Es posible que se trate de una técnica desconocida y adecuada para proseguir la búsqueda de metales, algo a lo que se han dedicado los seres humanos durante cinco mil años. Los metales acabaron con la Edad de Piedra, ya que se trata de materiales que se podían moldear con facilidad golpeándolos, mientras que la piedra tenía que ser tallada o triturada. Las herramientas de metal eran más duras y resistentes que las de piedra, les costaba más romperse y su filo duraba más tiempo. Sólo había una pega. Los metales eran mucho más difíciles de encontrar que las rocas. La propia palabra metal quiere decir en griego «buscar».
Al principio sólo se podían utilizar los metales que se encontraban en estado libre: oro, plata, cobre o hierro meteórico. Cuando se descubrió que ciertos «minerales rocosos» se podían calentar y fundir para obligarlos a liberar los metales, el suministro de estos materiales tan deseables aumentó. La metalurgia, por tanto, se convirtió en uno de los indicadores de las primeras civilizaciones.
A pesar de todo, los metales seguían siendo escasos. El cobre era demasiado blando para ser utilizado en utensilios, pero cuando se mezclaba con estaño se convertía en «bronce», mucho más duro. El bronce se utilizó en utensilios y armas («Edad de Bronce») hasta que se descubrieron métodos eficaces de fundir el mineral de hierro.
El estaño, no obstante, no es fácil de encontrar y las fuentes de mineral de estaño disponibles para las civilizaciones primitivas estaban casi agotadas en el año 1000 aC. Éste fue el primer caso de desaparición real de un recurso. Los fenicios viajaron por el océano Atlántico y descubrieron este mineral en las «Islas del Estaño», que debía de ser Cornualles en Gran Bretaña, y se hicieron ricos al monopolizar un material tan valioso hasta que el hierro lo convirtió en algo obsoleto.
Desde entonces, los seres humanos han buscado por todo el mundo concentraciones naturales de minerales que contuvieran los metales deseados. No se trata sólo de oro, plata, cobre y hierro, sino también de nuevos metales descubiertos en los tiempos actuales. Níquel, cobalto, tungsteno, manganeso, cromo, vanadio, niobio y otros más, todos tienen usos muy valiosos.
Las grandes concentraciones de minerales necesarios se extrajeron y fundieron. Se utilizaron los metales y, con el tiempo, se los desechó como chatarra. Se agotaron las concentraciones más altas y los metalúrgicos aprendieron a utilizar concentraciones más pobres y extraer el metal de forma rentable. Los metales nunca se agotan, pero están dispersos por toda la superficie terrestre en aleaciones cada vez menores, de manera que conseguir concentraciones de estos materiales es un problema acuciante.
Muchas formas simples de vida son más capaces de concentrar determinados elementos de fuentes de escasa pureza que cualquier tecnología humana. Por ejemplo, el yodo es un elemento muy útil pero muy escaso. Se encuentra en el agua de mar, pero en concentraciones tan bajas que los químicos no pueden extraerlo de manera rentable. Pero las algas sí pueden hacerlo. Las plantas filtran el yodo de ingentes cantidades de agua y posteriormente se pueden cosechar las algas, quemarlas y aislar el yodo de sus cenizas. Las algas son nuestros mineros del yodo.
Hay una bacteria llamada Thiobacillus ferroxidans que vive sobre los minerales. Extrae los átomos de azufre de los minerales y los combina con oxígeno para obtener la energía necesaria para sus procesos vitales. Al hacerlo, la bacteria rompe el mineral y libera el contenido de otros átomos. Esto puede causar la liberación de venenos tales como arsénico y cianuro. Así que las bacterias pueden ser peligrosas para los mineros.
Sin embargo, en condiciones debidamente controladas, se descubrió que determinadas variedades de esta bacteria proliferaban en minerales que contenían cobalto en concentraciones demasiado bajas para poderse obtener por fusión de manera rentable. Cuando las bacterias han roído el mineral durante un tiempo, se puede extraer con facilidad por disolución el 10% del contenido en cobalto. Hasta el momento, la gente del Laboratorio Nacional de Ingeniería de Idaho ha realizado este trabajo sólo en muestras a pequeña escala, pero no hay razón para que, a la larga, no se pueda llevar a cabo a gran escala.
Es posible desarrollar cepas bacterianas que puedan vivir en una gran variedad de minerales de forma que se pueda obtener todo tipo de metales de fuentes que, por lo general, se abandonarían por su poca rentabilidad. En realidad, se puede conseguir mucho más. Se las podría poner a trabajar en la chatarra metálica desechada que no se puede aprovechar para su reciclado.
Las pequeñas bacterias trabajadoras son capaces de vivir en la chatarra enriquecida con el tipo de roca de que se alimentan y entonces reciclarán los metales que necesita el hombre. En tal caso, nunca nos quedaremos sin metal.

EL FENÓMENO DE LOS PARQUES
Algunas criaturas marcan el territorio que les resulta más adecuado, otras crean hogares. Los seres humanos también lo hacemos, pero además marcamos y creamos lugares no para vivir en ellos sino para lo que se ha calificado como «recreo». A estos lugares se les llama ahora parques y la mayoría sentimos que renuevan nuestra salud física y mental.
El tipo de parques de que disponemos a finales del siglo XX no ha existido siempre. El primer parque conocido que se utilizó como recreo perteneció a un antiguo rey de Persia para su pasatiempo de caza. Con el paso del tiempo, las propiedades de la mayoría de los monarcas contaban con jardines y zonas de caza y, a veces, se permitía entrar al vulgo. A medida que la población común se fortaleció, utilizó y construyó parques para sí. El primer parque público de Estados Unidos fue el Boston Common y data de 1634.
La mayoría de los países ha reservado zonas deshabitadas y la mayoría de las ciudades dispone de parcelas de terreno con hierba y árboles. No es sólo una coincidencia curiosa que los parques grandes y pequeños a menudo se parezcan tanto al hábitat de bosque-sabana en el que evolucionaron nuestros antepasados. Los cazadores recolectores primitivos vivían en lo que sin duda reconoceríamos como un entorno parecido a un parque. Incluso la agricultura encaja en el paisaje. Probablemente la inventó una mujer primitiva pensando que sería más cómodo que deambular buscando plantas a la ventura. Con el tiempo, los humanos aprendieron no sólo a plantar y recolectar, sino a trabajar con plantas vivas. Eligieron las semillas, no sólo la colecta. Había nacido el verdadero jardín.
En muchos países, los parques con jardines adoptaron un aspecto formal, tal vez con el afán humano de demostrar que podían ejercer un control completo sobre la naturaleza. En Gran Bretaña, estas sabanas artificiales adoptaron su aspecto con arreglo a las ideas del «naturalismo». Los parques, sobre todo en las propiedades grandes, se diseñaron para que parecieran «naturales», con sus correspondientes ondulaciones, y no a base de líneas rectas como las favorecidas en Versalles.
Hay un parque excepcional, ejemplo del entorno jardín-bosque-sabana naturalista, diseñado de forma deliberada. Se llama Central Park y soy afortunado por vivir junto a él. Central Park, como a los neoyorquinos les gusta decir, tiene aproximadamente el tamaño del principado de Mónaco. Los grandes arquitectos paisajistas Olmstead y Vaux diseñaron y construyeron Central Park en una tierra baldía llena de chabolas ilegales y basura. En Central Park hay una sola línea recta, el Mall, bordeado de árboles, y concluye en las famosas escaleras que conducen a la fuente del Belvedere y al estanque de botes.
Central Park tiene de todo: un paisaje ondulado, salpicado de árboles y rocas altivas, arroyos y estanques, césped y campo. Cualquier cazador recolector estaría encantado, aunque en la actualidad, por desgracia, los únicos cazadores son los hombres que atacan a otros hombres. Sin embargo, hay muchos recolectores de distintos grupos étnicos que consiguen ejemplares tales como ajo de oso, cenizo blanco, persicaria picante, bollunera, espino, cerezas, manzanas y nueces (que debemos compartir con pájaros, ardillas, ratas, marmotas y a lo mejor hasta algún mapache).
Con la excepción de la fantástica Alicia en el país de las maravillas que se puede escalar, las estatuas más famosas de Central Park no son humanas: el Patito Feo al lado de Hans Christian Andersen, el león de la montaña Kemeys agazapado sobre el paseo oriental y Balto, el husky de Alaska, jefe del tiro de perros que llevó el suero de la difteria para «socorrer a la ciudad de Nome, atacada por la enfermedad», en 1925. Y por supuesto hay un zoológico, recién remodelado y más naturalista que nunca, sobre todo cuando se pasea por la casa tropical y los pájaros pasan silbando sobre las cabezas y lo contemplan a uno desde las ramas de los árboles a su alcance. Nuestros antepasados primitivos no tenían idea de la maravillosa historia del planeta que pisaban, una historia legible sabiendo cómo hacerlo. En Central Park, el afloramiento de los esquistos de Manhattan —una roca metamórfica formada hace unos 500 millones de años (y tan dura que es adecuada como fundamento para los rascacielos)— contiene estrías cinceladas por un glaciar de la Edad de Hielo.
Algunos dicen que en Central Park hay demasiados árboles y que no se ha llevado a cabo el desmonte como se debería. A lo mejor a muchos de nosotros nos gusta que haya muchos árboles porque nuestros antepasados eran cazadores primitivos en los bosques, mientras que los pueblos de las tierras menos boscosas construían Babilonia o se dedicaban a discutir filosofía en el Ágora.
Para el homínido nostálgico que hay dentro del habitante de ciudad, un parque —sobre todo Central Park— es un lugar de respiro con un paisaje para descansar la vista y la mente, con aire menos contaminado y más rico en oxígeno. Olmstead plantó árboles alrededor del perímetro del parque para ocultar los edificios que había detrás. En algunas áreas, sobre todo en «Ramble», zona montañosa y boscosa, es fácil olvidarse que se encuentra uno en medio de la ciudad hasta que se oye a lo lejos el ruido del tráfico. Suena como un animal de acero y hormigón hecho un ovillo alrededor del parque que respira con dificultad.

LA SALVACIÓN DE LAS ESPECIES
Seguimos teniendo noticias sobre los esfuerzos por encontrar ejemplares vivos de especies en vías de extinción y salvar a las que están en peligro. Este deseo de preservar la diversidad de la vida representa una observación que honra los instintos civilizados de al menos algunos seres humanos.
No siempre ha sido así. Los pueblos de la Edad de Piedra son responsables, al menos en parte, de la desaparición de los impresionantes mamuts y otros grandes mamíferos de la época. En los tiempos actuales hemos vivido la destrucción despreocupada, o incluso desenfrenada, de formas de vida fascinantes, por seres humanos o por gatos y perros. El dido, una gran paloma no voladora de isla Mauricio, fue aniquilada, al igual que la gran alca de los mares septentrionales, la versión ártica del pingüino. La vaca marina Steller, el mayor de todos los sirénidos, fue avasallada de forma despreocupada al igual que las palomas migratorias de América del Norte que, en otros tiempos, surcaban los aires en bandadas de miles de millones. Los grandes rebaños de bisontes del oeste americano fueron destruidos implacablemente, en parte para derrotar a las tribus indias que dependían de ellos para su sustento, y llevados al borde de la extinción antes de que se tomaran medidas para salvar a los supervivientes.
Los tiempos han cambiado. La gente trabaja sin descanso para salvar a las especies en peligro, como la grulla gigante o el cóndor de California. A veces, estas especies sólo se pueden salvar capturándolas y aislándolas en zoológicos donde están a salvo de la depredación. La eclosión de un huevo de cóndor en un zoológico suele ser objeto de titulares en la prensa, por ejemplo.
En Tasmania, la isla situada en la costa sudeste de Australia, existió en otro tiempo un mamífero carnívoro parecido al perro, aunque no tenía nada que ver con la especie. Era un mamífero con saco ventral, un marsupial, más relacionado con el canguro o el koala. Sus patas traseras eran rayadas y por eso se le conocía como el «tigre de Tasmania» aunque su nombre científico era Thylacine. Fue aniquilado después de que los europeos llegaran a la isla, porque se alimentaba de ovejas. El último Thylacine murió en un zoológico de Hobart, la capital de Tasmania, en 1936. Desde entonces, no se ha visto ninguno vivo, aunque hay informes ocasionales de observaciones fugitivas de estas criaturas en las partes más salvajes de la isla, y los científicos tratan de seguir las huellas de este animal tan evasivo con ayuda de ordenadores programados a fin de descubrir los puntos más aptos según las necesidades de vida de estos animales. Si se encuentra alguno, se tomarán todas las medidas posibles para prohibir el acceso de la gente a la zona y, si es posible, se llevarán al zoológico algunos especímenes, machos y hembras, donde podrían reproducirse. (Muchos animales no se reproducen en cautividad. Parece que se requieren determinados estímulos que actúan sólo en la vida salvaje).
En las selvas de Madagascar vivía la mayor de todas las aves, el Aepyornis (o «ave elefante»), que llegaba a pesar una tonelada, ponía los huevos más grandes que se conocen, sirvió de modelo para el «rocho» de Las mil y una noches y fue condenado a la extinción incluso antes de que llegaran los europeos. Su leyenda eclipsó a un animal de Madagascar mucho más pequeño del que también se pensaba que se había extinguido, pero que ha sido descubierto recientemente por Bernhard Meier, de la Universidad del Ruhr. Descubrió el «lémur ratón», un animal que no se había visto desde que una de sus pieles cayera en manos de los científicos en 1964.
Un lémur es un primate primitivo, la clase de animales a la que pertenecen los seres humanos. Este lémur enano es el primate más pequeño que se conoce, con un cuerpo de sólo 13 centímetros de largo, sin tener en cuenta la cola, y que pesa alrededor de cien gramos. Probablemente es el ejemplo viviente más próximo al tipo de primates que existían cuando los dinosaurios desaparecieron. No hay duda de que se hará todo lo posible por preservar su existencia.
En Nueva Zelanda vivió en otros tiempos el moa gigante, el ave más alta que nunca haya existido, aunque era más ligero que el Aepyornis. Algunos moas medían hasta 12,5 metros, pero fueron abocados a la extinción por los maoríes antes de que llegaran los europeos.
En Nueva Zelanda vive también el kakapú, un loro nocturno, grande y no volador, en otros tiempos abundantes en toda la isla y ahora al borde de la extinción. Esta ave pone huevos una vez cada cuatro años y sólo cuando hay suficientes alimentos, así que es difícil lograr que sobreviva. Únicamente quedan 43 ejemplares, 14 de ellos hembras. Hace algunos años, 22 kakapúes fueron trasladados a una pequeña isla a poca distancia de la costa en la que no había gatos ni cualquier otro depredador.
Se llevaron alimentos extra para que las aves, lo bastante gordas y a gusto, pudieran reproducirse. Cuando un kakapú ponga un huevo, la noticia será titular de periódico.

EL PODER DE LAS PLANTAS
Los tomates están cerrando el círculo. Los indios sudamericanos los comían, pero cuando los españoles llevaron las plantas al viejo mundo, los europeos llamaron a los tomates «manzanas del amor» venenosas. Se necesitaron siglos para que el tomate se convirtiera en el alimento que es tan popular en la actualidad. O era, ya que, según los titulares de prensa, los tomates están bajo sospecha. Algunos de ellos (inspiración profunda, escalofrío) han sido «¡tratados con ingeniería genética!» Con esta intervención los tomates se conservan frescos más tiempo por medio del gen «Flavr Savr» (!), que inhibe el gen que madura al tomate.
Otros productos biotecnológicos están en camino. Debido a que parte del material genético inoculado puede resultar alergénico, cualquier intervención debería ser controlada, pero no hay razón para la histeria, sobre todo si tenemos en cuenta que las frutas y verduras de los supermercados son tratadas con pesticidas y recubiertas de cera.
Desde que comenzó la agricultura, los seres humanos han alterado la producción de alimentos, seleccionando semillas de las mejores plantas, produciendo plantas y verduras más grandes y de más calidad. De hecho, uno de los problemas de la humanidad es que ha rebasado el proceso de selección y está mermando la diversidad de plantas, algo vital. Cuando un entorno cambia, otras plantas diferentes a las habituales al medio pueden resultar más adaptables.
Se han dotado bancos de semillas para preservar la diversidad, algo de valor inestimable, pero casi todos ellos contienen pocas variedades y están en entredicho porque demasiados países siguen pensando que es más importante proporcionar fondos a los militares que proteger a las generaciones futuras. Hace poco, los noruegos han instituido el Banco Internacional de Semillas Svalbard en las profundidades de una vieja mina de carbón en Spitsbergen, una isla del Ártico, en el que preciadas semillas se mantendrán congeladas y listas en caso de que se produzca la extinción de alguna planta en cualquier lugar de la Tierra.
Los hombres prehistóricos aprovecharon la gran diversidad de plantas. Aunque comían mucha carne, era dura y magra, con pocas grasas saturadas. Los pescados y las aves que capturaban y los frutos secos, frutas y verduras que recolectaban contribuían a una dieta sana. Jane Goodall ha demostrado que los chimpancés también son omnívoros, pero el chimpancé, al igual que el gorila, tiene un intestino grueso mucho más grande que el de los humanos. Al hombre le cuesta más digerir una dieta totalmente vegetariana rica en fibras, que no proporciona las proteínas suficientes cuando la limpieza cuidadosa elimina los nutritivos insectos que infestan a las plantas dietéticas.
Las plantas son una fuente tan valiosa de fármacos que hace todavía más esencial mantener la diversidad de las plantas silvestres. La única forma de conseguirlo es educar a los humanos para detener la destrucción ambiental. Los bosques del planeta están amenazados por la marea devoradora de la superpoblación de humanos avarientos, y estos bosques contienen no sólo gran cantidad de fuentes de medicamentos que ya se utilizaban, sino también muchas plantas que hasta ahora no se habían investigado. En Belice, los botánicos Michael Balick y Robert Mendelsohn descubrieron que el valor de la tierra se destruye a la larga cuando los bosques son desmontados para uso agrícola ordinario, que es muy poco productivo, pero que aumenta cuando el terreno se utiliza para cosechas medicinales. En la Guayana se está llevando a cabo un plan de la ONU para salvar las selvas pluviales, con la esperanza de encontrar genes vegetales valiosos para la ingeniería genética, así como compuestos farmacéuticos útiles.
Se están descubriendo nuevos usos para las plantas comunes no alteradas por la ingeniería genética. Una variedad de la asimina que crece en el este de Estados Unidos contiene una droga contra el cáncer llamada «bullatacina», actualmente en investigación. En India y Birmania los nativos utilizan las hojas de la margosa para matar insectos, así que los investigadores modernos están estudiando los compuestos pesticidas del árbol (llamados «limonoides»). En Sudáfrica, el monte bajo tipo fynbos contiene una gran diversidad de plantas (¡1.470 distintas en el monte Table!) con muchas aplicaciones medicinales, pero todas están amenazadas por la vegetación importada. En la actualidad surge una gran controversia sobre los métodos de control de la vegetación importada, ya que los colonizadores de Sudáfrica han llegado a depender de las nuevas plantas y árboles de muchas maneras. La ecología del planeta es un asunto muy complejo.
Los humanos no somos los únicos en utilizar las plantas para algo más que para comer. Algunas aves revisten sus nidos con hojas que ayudan a combatir las plagas de parásitos. Los osos mordisquean una planta para frotarse la piel, probablemente para librarse de los insectos. Los principales animales que utilizan las plantas de manera consciente y deliberada como medicamentos son los chimpancés, nuestros parientes más próximos. Los chimpancés son muy selectivos a la hora de comer determinadas plantas cuando se sienten mal y la planta seleccionada, por lo general, se adecua a su problema médico. Al elefante hembra se le vio comer las hojas de un árbol que los nativos de Kenia masticaban como inductor al trabajo. El elefante dio a luz, y los investigadores se preguntan si comió las hojas como medicina o por accidente.
Mientras estudiamos a otros animales que utilizan el poder de las plantas y tratamos de preservar su increíble variedad, que algún día podríamos necesitar, sigue siendo importante experimentar con nuestra capacidad tecnológica para cambiar, mejorar y proteger las plantas. Así que si alguien oye que un científico dispara a una planta con un «pistola de partículas», no se alarme. A lo mejor sólo está intentando ayudar a la planta a resistir una enfermedad de manera que no tenga que ser cultivada con pesticidas. También es posible que se obtenga una fruta o una verdura mejor, más sana, más duradera y menos contaminada.

AYUDAR A LAS PLANTAS
Todos sufriríamos si la vida vegetal desapareciera de repente. Las criaturas que se alimentan de plantas serían las primeras en desaparecer, y después los carnívoros que se alimentan de herbívoros. En las profundidades del océano sobrevivirían los animales que se alimentan de las bacterias que viven de los compuestos químicos procedentes de los cráteres volcánicos, pero la tierra sería un cementerio lleno de bacterias. La humanidad, si hubiese sido lo bastante sensata, habría almacenado semillas en una colonia espacial, o algún que otro humano desesperado superviviente podría experimentar el cultivo de bacterias —¡puf!— en tinajas para alimentarse, mientras intentaba acelerar la evolución artificial y desarrollar de nuevo las plantas.
Los seres humanos son omnívoros, y siempre lo han sido, a pesar de la idea que tenemos de que nuestros antepasados vivían de la caza. El hecho es que el Homo Sapiens Sapiens prehistórico era un recolector de alimentos vegetales y, además, cazador. También lo era el Homo Sapiens Neanderthalensis, que se zampaba los frutos del bosque y adornaba con flores los féretros de sus seres queridos.
En los últimos tiempos, el aspecto botánico de la naturaleza ha destacado en los periódicos. Muchos tipos de cáncer son estadísticamente menos frecuentes en población cuya dieta es abundante en verduras, fruta y frutos secos. Se dice que los compuestos químicos de plantas crucíferas como la berza y el brócoli disminuyen el riesgo de cáncer de mama, al aumentar el metabolismo de los estrógenos, reduciéndolos a una forma inactiva.
A medida que disminuye la selva lluviosa, los botánicos la investigan en busca de plantas maravillosas para ayudar a la humanidad. Más al norte, una conífera llamada Taxus, o tejo, está logrando cierta notoriedad. Su corteza contiene taxol, útil como droga anticáncer, ya que interrumpe la división celular.
A un nivel algo menos médico, científicos como Sharon Long, de Stanford, estudian el crecimiento de las plantas con la intención de ayudar a la humanidad. El laboratorio de Long ha desarrollado un ensayo para descubrir las variedades más ventajosas de alfalfa y está investigando cómo funciona su relación simbiótica con la bacteria Rhizobium meliloti, que vive en sus nódulos radiculares. El conocimiento botánico alcanzado a partir de estos estudios puede ayudar a desarrollar fertilizantes y pesticidas dirigidos sólo a las raíces de ciertas plantas, sin efecto en otras.
Las plantas ayudan a los humanos de muchas formas, pero ¿qué hacemos para ayudar a las plantas? Luchar para salvar las zonas verdes en desaparición es la batalla principal, pero hay otros modos de ayudar más asequibles. Por ejemplo, la producción de tomate en invernaderos para los mercados británicos se ha visto impedida por el hecho de que a las abejas melíferas no les gusta mucho la flor del tomate y son melindrosas respecto de la temperatura y la luz del Sol, ninguna de las cuales son de fiar en los países nórdicos. La polinización artificial por trabajadores es muy costosa, ineficaz y a veces perjudicial para las flores del tomate. Se ha descubierto una abeja doméstica y menos social que trabaja durante más horas, más meses y sin perjudicar a las flores del tomate.
El mundo vegetal sería mucho más sano si los seres humanos no contaminaran el aire quemando plásticos no biodegradables. Recientemente, ingenieros genéticos estadounidenses han inoculado genes bacterianos en un tipo de berro, que entonces fabrica polihidroxibutirato, un plástico biodegradable. Si algún día logramos plásticos «sanos» podríamos dejar de fabricar los que se acumulan en los vertederos, matan la vida marina y contaminan el aire. Me divierte la idea de un granjero roturando sus plantaciones de tabaco para sustituirlo por el cultivo del plástico.
Según un grupo de científicos de Edimburgo, los granjeros, con el tiempo, serán capaces de saber con antelación que sus cultivos están en peligro. En cada campo se instalarán «biosensores» para detectar el peligro y la necesidad de ayuda. Mediante la ingeniería genética ya se han producido plantas que contienen una proteína llamada «ecuorina», que en sus orígenes procede de una medusa. Los científicos depositan el gen de la medusa productor de ecuorina en un trocito de ADN, que a su vez se inocula en lo que ellos llaman un microorganismo «caballo de Troya». El microorganismo (Agrobacterium tumefaciens) parásita la planta, añadiendo el gen a los de la planta. El resultado es un vegetal que emite una luz azulada al sufrir tensiones.
Los esfuerzos para salvar árboles están logrando progresos. Los biólogos moleculares podrían ayudar a recuperar los magníficos castaños que proporcionaban sombra, belleza y alimento a los primeros colonizadores de América del Norte. El devastador añublo de los castaños (un hongo) puede ser bloqueado inoculándole el gen de un virus que reduce su virulencia.
Los humanos malgastan el papel, lo que representa enormes cantidades de árboles abatidos. Después de utilizado, el papel se puede reciclar. Actualmente la fabricación del papel se puede mejorar. Por lo general, la pulpa de madera se procesa eliminando sus carbohidratos y después alisándola y secándola. El ingeniero químico G. Graham Alian de la Universidad de Washington afirma que el espacio vacío resultante en la pulpa de la madera se podría rellenar sumergiendo la pulpa en una solución que precipite carbonato cálcico en los espacios. Con este método, el 30% de la pulpa podría reemplazarse por el relleno, salvando de esta manera enormes cantidades de árboles, necesarios para la pulpa inicial.
Si todo mi énfasis en la ayuda a las plantas parece de rebote un SOS a la humanidad, ése es el asunto, pues todo está implicado. ¡Somos vida en un planeta!

BAJO TIERRA
Japón, superpoblado, con el valor del terreno rayano en la estratosfera, está pensando en desplazarse hacia el interior, bajo tierra. Los japoneses comenzarán construyendo depuradoras de aguas residuales bajo tierra, más tarde trenes subterráneos y, finalmente, ciudades bajo tierra.
En realidad no es tan difícil de imaginar. Ya contamos con trenes subterráneos o «metros». Ciudades como Nueva York disponen un mundo subterráneo de cableado eléctrico, colectores, conducciones de gas, etc. En las ciudades nórdicas con inviernos largos y duros, hay tendencia a construir centros comerciales subterráneos que son auténticas ciudades por sí mismos.
La idea de vivir bajo tierra, de enterrarnos como topos, de separarnos del aire y el cielo puede parecer poco grata, pero si dejamos de pensar en eso, puede contarse con muchas ventajas en vivir bajo tierra.
En primer lugar, el clima dejaría de preocuparnos, puesto que es un fenómeno fundamentalmente atmosférico. La lluvia, la nieve, el aguanieve y la niebla no perturbarían el mundo subterráneo. Incluso los cambios de temperatura se limitan a la superficie abierta y no existirían bajo tierra. Ya fuese de día o de noche, invierno o verano, zona subtropical o subpolar, las temperaturas en el subsuelo se ubicarían siempre entre los 13° y 16°C. Se podrían ahorrar las grandes cantidades de energía que se gastan en la actualidad en calentar el entorno en superficie cuando hace demasiado frío, o enfriándolo cuando hace demasiado calor. El daño que ocasiona el tiempo atmosférico a la humanidad y a sus estructuras desaparecería. Incluso los terremotos causarían la quinta parte de los daños que causan en superficie.
En segundo lugar, la hora local ya no sería importante. El paso del Sol, la tiranía del día y la noche que sobreviene a diferentes horas en los diferentes lugares se podría evitar. Bajo tierra, donde no existe el día establecido desde el exterior, la alternancia del trabajo, el ocio y el juego se puede ajustar hasta que se adapte. El mundo entero podría moverse en turnos de ocho horas, iniciándose y finalizando en el mismo uso horario en todas partes, al menos por lo que se refiere a los negocios y esfuerzos de la comunidad. Esto sería importante en un planeta en el que todo el mundo se puede desplazar libremente. El transporte aéreo en las distancias largas entre el este y el oeste ya no implicaría desajuste horario. Si salimos de Nueva York a mediodía y cuesta doce horas llegar a Tokio, llegaríamos a medianoche allí y a la misma hora en nuestro reloj biológico.
En tercer lugar, el equilibrio ecológico de la Tierra mejoraría. Hasta cierto punto, la humanidad es una carga para la Tierra. No sólo la numerosísima población ocupa tanto espacio, también las estructuras que construimos para albergar a la población y a nuestras máquinas, para hacer posible el transporte, las comunicaciones y el ocio. Todo esto altera la vida salvaje, privando a muchas especies de plantas y animales de su hábitat natural, y a veces, de manera involuntaria, favoreciendo a otras pocas como ratas y cucarachas. Cuantos más hombres y más fábricas se instalen bajo tierra, bajo el reino de la vida de las madrigueras, más espacio habrá en el planeta para otras formas de vida.
Para acabar, la naturaleza estaría más cerca de nosotros. Podría parecer que retirarse bajo tierra sería hacerlo del mundo natural, pero ¿por qué debería ser así? ¿Sería la retirada mucho más completa de lo que es ahora, cuando tanta gente trabaja en edificios en ciudades, a menudo sin ventanas y con aire acondicionado? Incluso si hay ventanas, ¿cuál es el panorama que vemos en algunos lugares aparte de otros edificios?
Se podría alegar que hay una diferencia psicológica. Por muy divorciadas que estén las ciudades actuales de la naturaleza, estamos a la vista del Sol y del cielo, al mirar por la ventana o al salir a la calle. ¿No es cierto?
Pero mirémoslo de esta manera. Para salir de la ciudad ahora mismo y alcanzar las zonas verdes y una naturaleza relativamente intacta, un habitante de Nueva York, Londres o Tokio debe avanzar horizontalmente durante kilómetros y horas a través de un tráfico denso, primero a través de ciudades pavimentadas y después en una interminable extensión de barrios periféricos de los alrededores.
Si estuviéramos viviendo bajo tierra, si tuviéramos una cultura de mundo subterráneo, el campo seguiría existiendo, a unos pocos metros sobre el nivel superior de las ciudades, donde quiera que nos encontrásemos en su interior. El mundo de la naturaleza se situaría a la distancia de una subida en ascensor y los habitantes del interior verían más campo verde y en condiciones ecológicamente más saludables que los habitantes de las ciudades de superficie actuales.
Y recordemos, como un punto más, que en un mundo subterráneo con un clima estabilizado, caminar sería mucho más agradable. Habría menos razones para utilizar los transportes en recorridos cortos, ahorrando energía y mejorando nuestro estado físico.
¿Hay alguna desventaja en vivir bajo tierra? Unas pocas. Sería necesaria una inversión enorme de capital y un gran ajuste psicológico. Subsistiría el problema de los enormes sistemas de ventilación necesarios y, por supuesto, el peligro del fuego, que puede causar más daños en las cavernas que al aire libre.
Entre paréntesis, una vez más no soy un observador del todo desapasionado. Sucede que me gustan los lugares cerrados, y allá por 1953 escribí una novela titulada Bóvedas de acero, que trata y describe una Tierra formada sólo por ciudades subterráneas.

LOS NEGOCIOS POR EJEMPLO
Las «tarjetas inteligentes» son cada vez más importantes. Básicamente son objetos informatizados que se pueden hacer lo bastante pequeños como para parecer tarjetas de crédito o presentarse en muchas otras formas manejables. Pueden contener tanta información personal sobre cada uno de nosotros como para identificarnos sin ninguna duda —las huellas dactilares, el patrón de la retina, el registro de la voz, etc.—, de manera que garantizan casi con absoluta seguridad que puedan ser utilizadas por un solo individuo. También pueden contener suficiente información económica como para permitir transacciones mercantiles con comodidad, transferencias de fondos, información actualizada de la situación de activos, etc.
Éste es el último adelanto de una larga serie de cambios que se han desarrollado para facilitar el comercio y, por tanto, los negocios.
Al principio, existía el trueque, por el que dos individuos negociaban algún tipo de intercambio que beneficiaba a ambos. Era algo lento y nunca se tenía la seguridad de que, en definitiva, uno o ambos no se sintieran engañados.
Se instituyó un método de intercambio mediante metales preciosos, tales como el oro y la plata, y los bienes materiales se podían valorar en función de ellos. La riqueza se hizo portátil. Las monedas se inventaron en Lidia en el siglo VIII aC. Los gobiernos acuñaron oro y plata en fracciones de peso definido y calidad garantizada, grabados de forma oficial, de manera que había menos oportunidades de engañar.
El papel moneda se inventó en la China medieval, así que la riqueza se hizo todavía más portátil. En la alta Edad Media se inventaron en Europa las casas de banca, y los pagarés de una a otra permitieron las transacciones financieras a escala nacional. Se inventaron los cheques o pagarés individuales, pedazos de papel que equivalían a cualquier cantidad de dinero. Las tarjetas de crédito consiguieron que sólo se necesitara extender un cheque al mes.
Y ahora, las tarjetas inteligentes.
Se podría alegar que la necesidad de facilitar el comercio es la fuerza motora del avance tecnológico. Los fenicios inventaron el alfabeto porque era una nación comerciante que trataba con la gran civilización babilónica al este y la egipcia al suroeste, ambas con un lenguaje escrito increíblemente complicado. El alfabeto era una forma de taquigrafía a la que se podía traducir uno o ambos idiomas y facilitaba el comercio.
La construcción de carreteras, canales y barcos no se desarrolló tanto para que la gente viajara (no se ha hecho hasta los tiempos actuales), sino para que las mercancías se transportaran con más comodidad. Lo mismo se puede decir de inventos más recientes en el campo del transporte y las comunicaciones, desde el barco de vapor y los trenes a los aviones y la radio. Cada adelanto aumentaba el volumen y la extensión del comercio.
Esto es importante, porque ningún individuo ni un grupo reducido puede tenerlo o hacerlo todo. Debido al comercio, los alimentos, los objetos manufacturados y el conocimiento se pueden intercambiar, y cada individuo o grupo reducido encuentra la oportunidad para acceder a un mundo más amplio, tanto físico como mental.
Pero hemos llegado al punto en que el mundo es una unidad económica en la que todos los grupos tienen acceso (unos más que otros, sin duda) a los productos de los demás.
No hay modo de exagerar la importancia de esto. Vivimos en una época en que los problemas y los peligros a los que se enfrenta la humanidad son universales. Los peligros de una guerra nuclear, de la contaminación química y radiactiva, de la superpoblación, de la desertificación, de la disminución de la capa de ozono y del efecto invernadero son globales. Ninguna nación puede escapar.
Los esfuerzos para resolver estos problemas son comunes. Ninguna nación puede enfrentarse sola a ninguno de ellos, si otras naciones no cooperan. Por esa razón, las conferencias internacionales son constantes para tratar tales problemas.
¿Cómo podemos persuadir a la cooperación a naciones divididas por miles de años de tradiciones nacionales que dictan rivalidades, recelos, odios y guerras? Debemos encontrar algún interés común. La lengua, la religión y la cultura por lo general son todas divisorias. La ciencia es un factor unificador, pero poca gente siente un interés irresistible por ella.
Pensemos en los negocios. En estos días, cualquier cosa que interrumpa la libertad de comercio internacional perjudica a todo el mundo. La mayor parte del mundo es consciente del peligro del proteccionismo y surgen objeciones a las formas de proteccionismo que siguen existiendo en Japón y otros lugares.
En la actualidad, las grandes empresas son multinacionales y se ven forzadas a pensar en términos generales. Las consideraciones restrictivas del nacionalismo y patriotismo, simplemente carecen de sentido. Así debe continuar si queremos sobrevivir y cualquier opción que favorezca el comercio y haga los negocios más internacionales requiere un mayor incremento del pensamiento común.
Ello debería facilitar la resolución de los problemas mundiales si quieren resolverse definitivamente. Los negocios, nos gusten o no, dirigen el mundo.

¿JAQUE MATE?
No hace demasiado tiempo, un campeón del mundo de ajedrez, Gary Kasparov, derrotó sin problemas a un ordenador en dos partidas de ajedrez. Mucha gente respiró aliviada. Un ser humano había vencido a un ordenador y la superioridad humana seguía siendo patente.
En realidad, esta reacción es errónea en varios aspectos. Primero, porque la victoria es sólo temporal y no es probable que dure. Los ordenadores ajedrecísticos no son muy antiguos, sólo tienen unas pocas décadas. Han mejorado cada vez más a medida que la programación se ha vuelto más compleja y eficaz, y cuando la cantidad de los ordenadores para tener en cuenta la gran cantidad de jugadas posibles se ha incrementado constantemente.
En este momento el ordenador que juega al ajedrez ha vencido a otros grandes maestros y se necesitó un campeón del mundo para derrotarlo. Las dos derrotas van a ser estudiadas a fondo por los expertos informáticos y corregirán los fallos que aparecen en la programación. La próxima vez, a Kasparov le costará más y puede que sea derrotado.
Pero ¿qué pasa si esto sucede? No quiere decir nada desde el punto de vista de la «superioridad». Los ordenadores ya pueden realizar hazañas matemáticas en menos tiempo que los matemáticos, que necesitarían toda una vida para repetirlas. (Incluso una económica calculadora de bolsillo puede resolver problemas aritméticos con más rapidez que una persona). Los ordenadores no sólo pueden trabajar millones de veces más rápidamente que los matemáticos, sino que pueden hacerlo sin probabilidad de error.
Esto, sin embargo, no significa que los ordenadores sean «más inteligentes» que los matemáticos. Sólo pueden manipular números bajo las órdenes de alguien que piense con más rapidez, más precisión y menos cansancio. Los matemáticos deben seguir ordenando los detalles de la manipulación.
Tampoco la capacidad de jugar al ajedrez representa un avance esencial a este respecto. El ajedrez es un juego con muchas restricciones. Se juega en un tablero de 64 casillas con 32 piezas de 6 tipos diferentes y cada pieza se puede mover únicamente según unas reglas fijas y concretas. Bien es verdad que hay un sinnúmero de jugadas posibles, pero un hombre como Kasparov estudia ajedrez sin descanso y ha memorizado gran cantidad de aperturas, finales y jugadas intermedias, así que en ciertos aspectos (no en todos) juega de forma mecánica. En principio, un ordenador puede hacer esto con una mayor capacidad de memoria y, por tanto, a la larga, puede aventajar a cualquier ser humano. Si lo hace, no muestra más superioridad real que cuando resuelve grandes cantidades de ecuaciones diferenciales de forma simultánea.
De hecho, la victoria de un ordenador ni siquiera acabaría con el ajedrez como deporte de competición. Significaría sencillamente que a la larga se harían partidas entre personas y partidas entre ordenadores. Lo comprobamos en el mundo de las carreras. Un hombre a caballo puede correr más que cualquier ser humano así que, naturalmente, hay carreras de caballos que no admiten en carrera pedestre a los seres humanos. Pero existen las carreras pedestres, que se disputan con la misma ilusión. Y, si vamos a eso, hay carreras de coches que no admiten las de caballos.
Pero ¿podría ser que el juego del ajedrez no fuera más que un síntoma y que, con el tiempo, los ordenadores pudieran superar a los seres humanos en cualquier tipo de empresa intelectual? No creo que esto suceda.
El cerebro humano dispone de 10.000 millones de células nerviosas y 90.000 millones de células de apoyo. Pasará mucho tiempo antes de que los ordenadores contengan tantas unidades. Tampoco es sólo una cuestión de unidades; cada célula del cerebro humano está conectada con una complejidad inimaginable a muchas otras células según una pauta que no entendemos. Para terminar, las células no son meros interruptores de conexión-desconexión como las unidades del ordenador. Cada célula contiene millones de moléculas grandes y complejas cuyo funcionamiento detallado todavía no conocemos bien.
Pasará mucho tiempo antes de que un ordenador pueda imitar la complejidad del cerebro humano, y no tiene mucho sentido esforzarse por lograr ese objetivo. Sería más fácil mejorar el propio cerebro humano mediante técnicas de ingeniería genética y dejar que los ordenadores hagan su tarea, cada vez más eficaz, de rumiar números.
Pero ¿tendrá algo qué hacer el complejo cerebro humano después de que dejemos la resolución de los números a los ordenadores? Desde luego. Los juegos del arte, la literatura, la investigación científica y muchas otras actividades de este tipo son, que sepamos, ilimitados. Las piezas individuales son numerosísimas, sus combinaciones se sitúan más allá de la programación informática. Los seres humanos pueden ser artistas, escritores, científicos, músicos, inventores y muchísimas cosas más, no a tenor de procedimientos que se describen con facilidad sino gracias a la utilización de procesos desconocidos que llamamos «intuición», «perspicacia», «imaginación», «fantasía» y otros parecidos.
Estos procesos no se pueden describir con exactitud en términos que nos permitan programar un ordenador para reproducirlos porque no sabemos cómo los controla nuestro cerebro.
Teniendo esto en cuenta, los seres humanos siempre ocuparán un lugar que los ordenadores no podrán alcanzar. No nos harán jaque mate.

CUCARACHAS Y ORDENADORES
Cuando aparecieron las primeras calculadoras electrónicas —y hundieron las ventas de su libro, nuevo por aquel entonces, sobre la regla de cálculo— Isaac escribió que, por lo que él sabía, las cosas funcionaban porque cada una tenía en su interior una cucaracha muy viva e inteligente.
Treinta años después, la imagen no aparece muy desencaminada. La observación original fue inspirada por el afectuoso recuerdo del famoso Archy de Don Marquis, pero este insecto literario era inteligente porque era un poeta cuya alma, por desgracia, había sufrido una «transmigración» al cuerpo de una cucaracha. Las cucarachas reales no son poéticas.
¿Hay alguna semejanza entre las cucarachas y los ordenadores? Para empezar, las cucarachas han deambulado hace 250 millones de años antes de que los hombres existieran, y los ordenadores son más jóvenes que muchos de nosotros. El pedigrí de las cucarachas es impresionante: phylum Arthropoda, subphylum Uniramia, subclase Insecta (presente en la Tierra durante 630 millones de años). Al igual que todos los artrópodos, las cucarachas tienen un exoesqueleto duro y, como todos los insectos terrestres, respiran a través de conductos de aire provistos de válvulas. Su sistema nervioso está formado por una doble cadena de células nerviosas agrupadas en masas llamadas «ganglios». El ganglio mayor, situado en la cabeza, recibe los impulsos sensoriales y envía instrucciones, pero los del tórax y el abdomen son también lo bastante grandes como para contraer los músculos, incluso cuando se escacha la cabeza de la cucaracha con el pie.
Los exoesqueletos y los conductos respiratorios obligan a todos los insectos a ser relativamente pequeños. No se pueden desarrollar cerebros grandes en animales muy pequeños, pero en conjunto —como si los individuos estuvieran conectados como los chips de un ordenador— algunos insectos hacen cosas extraordinarias. Los insectos sociales tales como las abejas, avispas y hormigas construyen sociedades complejas con comunicaciones intrincadas. Las cucarachas no lo hacen, pero los científicos creen que son las antecesoras de un insecto social impresionante: las termitas, expertas en construir grandes edificios para sí mismas o en derribar los de los humanos.
Las cucarachas parecen pequeñas máquinas, pero aprenden con más rapidez que ellas. Sensibles a la vibración del aire y de las superficies, nos evitan e incluso aprenden a evitar los lugares en los que se suele colocar el veneno. Cada cucaracha vive unos cuatro años y puede llega a poner unos mil huevos. Se las puede encontrar en casi cualquier parte donde pueden vivir los seres humanos. Por poco inteligentes que sean, las cucarachas tienen éxito. También los ordenadores.
Utilizo un ordenador pero estoy de acuerdo con Isaac en que debe de haber un Archy dentro. Llamé a mi hermano, un experto en ordenadores, y aprendí que los ordenadores modernos están basados en chips de silicio de circuitos integrados que tienen el aspecto de pequeños cuadrados con muchas patitas minúsculas (más parecidas a ciempiés que a cucarachas, que andan con seis patas). No corren por debajo del frigorífico porque las patas (para entrada/salida de datos) están soldadas a una placa de circuitos que contiene pequeñas barras metálicas para conectar los chips.
Un chip está compuesto de finísimas capas de silicio adaptadas para que desarrollen las propiedades electrónicas adecuadas. Se utilizan microfotografías de los circuitos para grabar los circuitos en las capas del chip, lo que le permite manejar muchos datos de entrada y salida. Una placa puede contener muchos chips. Con las nuevas técnicas que utilizan haces de electrones y rayos X para grabar los circuitos, los componentes podrán ser más pequeños, así que se integrarán más y aumentará la potencia de los ordenadores.
Mi cerebro estaba saturado cuando mi hermano llegó a las puertas lógicas (partiendo de cuatro tipos de puertas lógicas —como válvulas— se puede construir cualquier ordenador). Seguí imaginando a las cucarachas como máquinas pequeñas pero eficientes y a sus descendientes, las termitas, como chips conectados químicamente.
Después he leído algo sobre quienes construyen «neuronas de silicio», circuitos analógicos integrados que se aproximan a las características de las células nerviosas reales, que utilizan corrientes iónicas para producir impulsos nerviosos. Algunos científicos están intentando incluso combinar muchas neuronas de silicio para formar un microchip y conectar los chips para imitar el modo en que los cerebros orgánicos procesan la información.
Parece que estamos en camino de construir lo que Marvin Minsky ha llamado una «red neural». Los ordenadores, por lo general, estudian un problema de manera lineal, las cosas de una en una, pero un ordenador con una red neural puede asignar partes de un problema a pequeños procesadores que están conectados a todos los demás.
Si la comunicación organiza las actividades de las neuronas de un cerebro humano o de los individuos en una colonia de termitas, la facilidad de comunicaciones en una red neural artificial debería hacer maravillas en los ordenadores. Aprenderían más rápido y mejor: pronto estos chismes artificiales imitarán a los cerebros, pero ¿al de quién?
Los microchips son teóricamente indestructibles, pero pueden ser afectados por el calor o romperse si se los maltrata lo suficiente. A una cucaracha se la puede pisar, envenenar a muchas, pero el clan, con toda probabilidad, sobrevivirá al humano. En la ciencia-ficción, los ordenadores inteligentes también sobreviven a los humanos.
No se desanime nadie. A diferencia de las cucarachas, los microchips no saben cómo reproducirse. Por ahora.

MINIRROBOTS
El MIT, gracias a la presencia de su gurú de la inteligencia artificial, Marvin Minsky, es uno de los centros más importantes por sus progresos en robótica. Rodney A. Brooks, profesor del MIT (Instituto Tecnológico de Massachusetts) nacido en Australia, está abordando la robótica desde un nuevo ángulo, lo diminuto.
Los robots representados en las historias de ciencia-ficción, tanto en los medios escritos como audiovisuales, siempre se han parecido bastante a los seres humanos. Han sido humanoides, seres humanos artificiales. Ésta era en realidad la base lógica de los robots en los días anteriores a la invención de los ordenadores miniaturizados: contar con seres humanos mecánicos que pudieran hacer nuestro trabajo.
Sin embargo, no es difícil demostrar que los seres humanos no son un modelo adecuado para los robots. Los seres humanos son mecanismos para todo uso, con extremidades generalizadas y un cerebro altamente especializado. Un ser humano está diseñado para hacer muchas cosas, desde empujar una carretilla a componer una sinfonía, desde talar un árbol a archivar por orden alfabético una serie de tarjetas, y hacerlo todo con los mismos músculos y el mismo cerebro. Esto, en realidad, es un inconveniente terrible, puesto que las necesidades de la vida, por lo general, obligan a una persona a pasar la mayor parte de su tiempo y a utilizar su cuerpo, una maravilla de la generalización, en especializarse. A menudo se ve obligado a hacer trabajos que infrautilizan su cerebro y lo atrofian. O, por deseo o necesidad, tiene que utilizar el cerebro para un propósito y permitir que sus músculos se atrofien y que su cuerpo se ablande. Por regla general, aprende a hacer unas pocas cosas muy bien y sigue siendo casi un idiota en otros aspectos.
Pero si queremos un aparato mecánico para hacer una tarea determinada, ¿por qué construir una estructura generalizada capaz de una gran variedad de trabajos que nunca se le pedirá que los haga? Intentar construir una estructura de este tipo implica tanta complejidad y dificultad, que lograrlo puede estar muy lejos de nuestro alcance. Por otro lado, una estructura especializada para desarrollar un trabajo determinado puede ser una tarea mucho más sencilla de llevar a cabo.
Así, lo que ahora llamamos «robots industriales» son máquinas informatizadas. El microchip, inventado a mediados de los años setenta, permitió construir robots industriales especializados, económicos y seguros, que no se parecen en absoluto a los seres humanos pero que son brazos programados o palancas, capaces de realizar una variedad limitada de movimientos que les permite llevar a cabo tareas concretas una y otra vez. Hacen esto con mayor eficacia y uniformidad que un brazo humano dirigido por un cerebro superespecializado, y los robots, además, nunca se cansan ni se aburren.
Naturalmente, dichos robots serán más complejos con el tiempo, capaces de variar su trabajo cuando resulte útil. El impulso para una mayor generalización será irresistible. De hecho, uno se puede imaginar al menos dos razones por las que se debería hacer un esfuerzo para fabricar robots humanoides.
Primera, ya existe mucha tecnología diseñada para ajustarse al cuerpo humano. Las máquinas se manejan de una manera determinada porque el cuerpo humano puede estirarse y doblarse de determinada manera, porque brazos, piernas y dedos son de determinado tamaño, etc. Si se diseñan robots de estructura humanoide, pueden utilizar la tecnología que ya existe. No necesitamos que haya dos, una para los hombres y otra para los robots.
Segunda, es mucho más fácil considerar y sentir que un robot humanoide es un amigo y un compañero de trabajo.
Esto puede ser una importante razón emocional para su desarrollo.
Pero Brooks, del MIT, cree que también (y con preferencia) se deberían desarrollar en otras direcciones. Piensa que un modelo más apropiado para el desarrollo de los robots podría ser el cuerpo de los insectos, en conjunto diseñado de manera diferente al nuestro. Los insectos son organismos rentables que funcionan en pequeños volúmenes y, dentro de los millones de especies, tienen millones de especializaciones que les adecuan para una forma de vida u otra. ¿Por que no crear un diluvio de pequeños robots (en los que pienso como en «minirrobots») diseñados para trabajos especializados al modo de los insectos?
El propio Brooks propone que a los pequeños robots se les debería asignar trabajos como limpiar de percebes los cascos de los barcos. Los imagina dirigiendo las exploraciones en el suelo de Marte. Incluso se imagina robots muy pequeños que se pueden inyectar en el flujo sanguíneo para llevar a cabo la cirugía interna.
Sin embargo, debo añadir una nota personal. Me he dedicado a escribir relatos de ciencia-ficción sobre robots durante cincuenta y un años y no es fácil que ningún científico pueda tener una idea sobre robots de la que yo no haya tratado en un momento u otro.
En una historia que escribí en 1974 titulada That Thou Art Mindful of Him, discutía la posibilidad de la existencia de robots minúsculos. Imaginaba uno como un pájaro pequeño que revoloteaba a gran velocidad y cuya tarea era eliminar insectos. Más tarde, en una historia que escribí en 1988 titulada Too Bad, describía un robot miniaturizado dentro del flujo sanguíneo que mataba células cancerígenas sin dañar las normales. ¡No es mala idea!

OTROS TIEMPOS Y LOS ROBOTS DEL FUTURO
En 1920, una obra del autor dramático checo Karel Capek titulada RUR hizo historia. Desde entonces, la palabra checa, robot, que significa «siervo», se ha utilizado para describir un aparato manufacturado capaz de hacer el trabajo de los seres humanos. En la ficción, un robot adopta por lo general aspecto humanoide, pero el nombre ha llegado a aplicarse a muchos aparatos que realizan acciones, obra de alguna parte del cuerpo humano, como los brazos robotizados de una fábrica automatizada para manipular herramientas.
La mayoría de los relatos de ficción e incluso de la especulación científica está relacionada con el futuro de la robótica, un término que utilizó Isaac por primera vez sin darse cuenta de que estaba acuñando algo nuevo. Pero Isaac también contribuyó en gran manera al desarrollo actual de la robótica al escribir Yo, robot, una serie de relatos que influyeron en la elección de la carrera de muchos pioneros destacados en la robótica y la inteligencia artificial. Pienso que a Isaac le habría gustado poner al día a los lectores sobre alguno de los avances actuales de los robots prácticos.
Para ser realmente práctico, en nuestros términos, un robot debería ser capaz de ayudarnos en nuestro mundo. Ya contamos con robots capaces de moverse por el espacio exterior, haciendo fotos para nosotros, extrayendo muestras de la Luna y de Marte. Otros robots descienden a las profundidades del océano para examinar las criaturas extrañas que viven de las bacterias que se alimentan del azufre proveniente de las grietas de la corteza terrestre.
No podemos hacer ninguna de estas cosas por nosotros mismos. Pero ya sea que un robot se aventure en reinos fuera del alcance de los humanos o que nos ayude simplemente en la vida diaria, es más fácil para nosotros que el robot pueda ver como vemos nosotros y manipule los objetos tal como lo hacemos. Es preferible que un robot haga estas cosas mejor. «Mejor» es la palabra clave. En la Operación Tormenta del Desierto, los robots de vigilancia nocturna mostraron a los soldados objetos que el ojo humano no podía ver en la oscuridad. Pero las imágenes eran comprensibles, tal como si los hombres hubieran adquirido de repente una magnífica visión nocturna.
En la actualidad, el Field Robotics Center de la Carnagie Mellon está construyendo un robot que puede acceder al exterior fuera de los transportadores espaciales, inspeccionar los paneles y realizar el mantenimiento. Más cerca de casa de uno existe el proyecto del robot esquilador de ovejas de la Universidad de Australia Occidental.
Con su ayuda se puede esquilar una oveja en 17 minutos, lo que probablemente es mejor tanto para la oveja como para la industria lanar.
Michael Ali es un estudiante licenciado por el Centro Estatal de Nueva York para la Tecnología Avanzada en Automatización y Robótica (pruébese su uso en un himno escolar). Ha diseñado una mano robótica tan similar en forma y actividad a la nuestra que es más fácil aprender a utilizarla. Operada a distancia, esta mano imita lo que pueden hacer las manos humanas, pero en lugares en las que éstas no podrían actuar con seguridad. A lo mejor, algún día, la mano robótica de Ali formará parte de robots humanoides... pero a eso voy, a soñar sobre el futuro.
Volviendo al presente, se están diseñando robots útiles para las reparaciones. Los expertos de la Universidad de Northwestern tienen uno que repara con rapidez los baches, ruina de los felices automovilistas estadounidenses. En la Universidad de California en Davis, un robot de reparación puede reconocer y reparar las grietas de las autopistas.
Se están realizando mejoras en la visión robótica. Los sistemas de visión electrónica que se utilizan en la actualidad son lentos, ya que imágenes de las cámaras de vídeo deben ser digitalizadas y analizadas por ordenador. No sabemos exactamente cómo reconocen los objetos el ojo y el cerebro humanos, pero no hay duda de que los humanos somos más rápidos para ello y, a menudo, mucho más precisos con un mínimo de datos. Podemos ver sólo una parte pequeña de la cabeza de una persona y ser capaces de reconocerla. Hay un test para la «visualización estructural» humana que consiste en presentar un dibujo que se parece a un rompecabezas de unas pocas piezas resuelto. A su alrededor se sitúan rompecabezas parecidos con las piezas desordenadas y separadas: la idea es elegir los dibujos de piezas aisladas que representan exactamente el rompecabezas original. Los artistas y los ingenieros de construcción e incluso muchos médicos lo resuelven bien. Las máquinas no.
Algunos aparatos robóticos pueden ser equipados con un sistema visual óptico en vez de electrónico. Los sistemas ópticos son complejos porque utilizan haces de rayos láser para transportar las imágenes del objeto observado y del objeto que se compara. Este «correlacionador de conversión conjunta» puede distinguir los objetos que cambian con mucha rapidez. Si los creadores pudieran acoplar el test de visualización estructural así... pero hasta ahora no funciona bien cuando los objetos son de distintos tamaños o se observan bajo un ángulo diferente.
La Transaction Research Corporation de Joseph F. Engelberger se especializa en robots útiles para los seres humanos normales. Mientras se ocupa en mejorar la visión de los robots, utilizando imágenes electro-ópticas «con coordenadas polares», su robot repartidor HelpMate rueda por los pasillos de los hospitales, en los ascensores, almacenes y cocinas entregando comidas, medicamentos y material estéril día y noche. Las enfermeras no tienen que abandonar a los pacientes para conseguir medicamentos en la farmacia del hospital, ya que HelpMate los recoge y entrega. HelpMate aprende los caminos y evita los obstáculos a su paso, incluidas las personas. Cuando su camino está bloqueado, lo advierte y pide que le quiten el obstáculo.
Cuando le enseñen a HelpMate a cocinar, me compraré uno.

SIEMPRE LA MÚSICA
Ahora que pertenecemos a la, digamos, generación madura, nos damos cuenta de que damos mayores propinas cuando podemos hacer la carrera del taxi en silencio, o con un acompañamiento de música que, como la voz de Cordelia, siempre es suave, amable y baja. Por desgracia, la mayor parte del tiempo nos inundan los sonidos fuertes y estridentes que algunos llaman «música». Creemos firmemente que esta música estridente impide incluso el crecimiento de las plantas, pero puesto que no hemos podido encontrar ningún artículo relacionado con el tema, podría ser una figuración.
No obstante, la música dentro y fuera de los taxis es importante para la vida humana. La definición de música del Random House Dictionary es muy buena: «Un arte del sonido en el tiempo que expresa ideas y emociones de maneras significativas mediante los elementos del ritmo, la melodía, la armonía y el color».
La primera música humana probablemente fue vocal y empezó antes que los humanos: cantaban los primates en las copas de los árboles y los homínidos en las praderas. El Homo Sapiens Sapiens (o sea, nosotros) componía música mientras pintaba en las cavernas prehistóricas, de las que los científicos han demostrado que tienen tanta resonancia como las salas de conciertos. En las cuevas que no tienen buena resonancia, hay menos pinturas. Se han encontrado flautas de hueso y tambores de hueso de mamut de los hombres de Croo-Magnon, así que no hay duda de que eran melómanos.
Otros animales, por supuesto, también componen música de todo tipo, desde las maravillosas canciones de pájaros y ballenas a las vibraciones de las patas de los saltamontes. Las abejas ni siquiera necesitan observar la danza de la que indica a las demás la abundancia de miel. Pueden oír el sonido y la reconocen.
Los mamíferos están expuestos a algún tipo de música desde su concepción, ya que el feto oye y siente el ritmo de los latidos del corazón de la madre. Los cachorros pequeños se relajan y duermen cuando se coloca en su lecho el tictac de un reloj. La musicoterapia también se utiliza para los humanos. La organización temporal de la música ayuda a ciertos pacientes neuróticos a organizar sus propios movimientos secuénciales, al andar e incluso al hablar. Algunos pacientes que ya no pueden hablar pueden aprender a cantar sus mensajes.
Además de la agradable liberación de endorfinas cuando el cerebro humano procesa la música, entran en juego otras muchas funciones cerebrales. Se piensa que esto ayuda a mantener vivas y en forma las funciones mentales (pero no cuando la música suena tan alta que el oyente sufre pérdida de oído).
La media del ritmo del pulso humano es de unos 70 latidos por minuto. Éste es también el tempo medio de la mayor parte de la música occidental. De hecho, se dice que las partes lentas de la música barroca inducen a la integración mental y emocional (digámoselo a los taxistas). Concentrarse en el ritmo de la música (por lo general dando golpecitos con el pie para llevar el compás) afecta al ritmo respiratorio, haciéndolo más regular y más rápido o lento, a tenor de la pieza.
Hay descubrimientos muy interesantes relacionados con la música. Hay quien está componiendo música «bioeléctrica» grabando los sonidos de los impulsos eléctricos que resultan de la actividad cerebral o del movimiento muscular. Los sonidos se procesan mediante un sintetizador para que lo usen compositores, músicos e incluso gente minusválida que puede aprender a utilizarlo para expresarse. Es posible que mediante el estudio de la «música» compuesta por células, criaturas microscópicas y plantas entendamos mucho mejor la biología.
También existen esas máquinas fantásticas que no son sólo sintetizadores musicales sino también ordenadores de gran potencia. Uno de estos días alguno se dedicará a componer música por iniciativa propia.
Decir que la música es «sonido en el tiempo» quiere decir, para nosotros los humanos, que el sonido procede de la vibración del aire. Los océanos no son silenciosos, sino llenos de sonidos, transmitidos por la vibración del agua. Es probable que el espacio sea silencioso porque no hay aire o agua para transmitir las ondas sonoras convencionales, pero ¿quién sabe? ¿Vibran los campos del Universo?
En una novela (de Janet), unos músicos programan un ordenador con la música compuesta por microorganismos de otro planeta. El ordenador (tan inteligente que podría ser uno de los descendientes de Marvin Minsky) no se desconecta porque está intentando culminar la pieza y explica que la música es una secuencia de sonidos que evoluciona hacia su conclusión, que tendrá lugar al cabo de unos 150.000 millones de años, más o menos el tiempo de que dispone el Universo. La secuencia evolutiva del sonido de esta pieza musical terminará sólo con el final del cambio.
La música, puesto que existe sólo en el tiempo, es la forma artística que expresa y evoca genuinamente la esencia del Universo, el cambio. Nosotros los seres humanos, que amamos y componemos música, somos parte de los patrones motores del Universo, desde el campo de la danza de las partículas subatómicas al vuelo de las galaxias. Y quizás, sólo quizás, el sea una enorme composición musical...


CUARTA PARTE,
EL UNIVERSO, DE LOS QUARKS AL COSMOS

LA UTILIDAD DE LO PEQUEÑO
La pequeñez es útil de muchas maneras. En nuestra civilización tecnológica apreciamos en su valor el minúsculo microchip o los pequeños cables de fibra óptica que utilizan los médicos para determinar diagnósticos.
Para hablar de algo todavía más pequeño, observemos el átomo de carbono. Existe en isótopos ligeramente diferentes, algunos de ellos radiactivos. El carbono 14 es un isótopo con vida media larga, de unos 5.700 años. Fue descubierto por Martin David Kamen y utilizado en 1947 por el químico estadounidense Willard Frank Libby.
El bombardeo de la atmósfera por la radiación cósmica convierte una parte del nitrógeno 14 en carbono 14. A medida que el carbono 14 se descompone radiactivamente, se forma de nuevo. El equilibrio resultante garantiza que una cantidad muy pequeña de este carbono permanezca siempre en la atmósfera terrestre. Unos pocos átomos de este carbono, presentes en el dióxido de carbono absorbido durante la fotosíntesis, pasan a formar parte de los tejidos vegetales. No importa lo pequeña que sea la concentración de estos átomos radiactivos, su presencia y concentración se pueden determinar contabilizando las partículas beta que emiten.
Cuando las plantas mueren, dejan de absorber dióxido de carbono y por lo tanto también carbono 14. Este carbono absorbido se descompone lentamente por desintegración.
Los científicos quieren descubrir la cantidad de carbono 14 que conserva el vegetal sin vida y por lo tanto el tiempo transcurrido desde que la planta murió. Esto quiere decir que pueden descubrir la edad de cualquier objeto constituido por vegetal como casas de madera, rollos de pergamino, ropa, papel y trozos de carbón. De hecho, el pequeño carbono 14 es muy útil.
Hay elementos incluso más pequeños que resultan muy útiles. ¿Qué haríamos sin los fotones, por ejemplo? La mayoría de las plantas necesita los fotones para crecer y los animales necesitan comer plantas u otros animales que a su vez comen plantas. Si el suministro de fotones desde el Sol a la Tierra disminuye de manera notable, la vida se resiente y en ocasiones se producen verdaderas situaciones de mortandad, cuando muchas especies —como los dinosaurios— se extinguen.
El neutrino, menor que el fotón, a primera vista puede parecer inútil. Es la partícula discreta menor no compuesta por otras y se produce cuando un fotón se convierte en neutrón. Recibió el nombre de neutrino del famoso físico Enrico Fermi y significa, del italiano, «pequeño neutral». Los neutrinos son efectivamente neutrales, prácticamente no ínteraccionan la materia. Cuando se forman en el núcleo solar, lo abandonan de inmediato a la velocidad de la luz y pueden, todavía a la misma velocidad, atravesar la Tierra e incluso los cuerpos. Pero la palabra clave la recoge la frase anterior: prácticamente.
Algunos neutrinos chocan con partículas subatómicas, un incidente que va a proporcionar información sobre dicha partícula. Los neutrinos son también decisivos porque están presentes en la energía que emiten las supernovas. La detección de neutrinos en la última supernova visible (en la Nube de Magallanes) nos aportará más datos sobre las espectaculares explosiones de las estrellas.
Y por último, y no menos importante, es que las propias minúsculas partículas subatómicas están compuestas a su vez de «elementos» menores llamados quarks. Hasta ahora, los científicos han descubierto tres y los han descrito utilizando términos familiares tales como color y sabor. Parece divertido, pero en este tema lo más minúsculo cobra su importancia, puesto que se trata de los elementos que componen la materia.

LOS QUARKS Y LA ÚLTIMA PARTÍCULA
La percepción actual de la física subatómica es que todo el Universo está formado, básicamente, por dos tipos de partículas: leptones y quarks. Cada una está constituida por tres parejas, y a cada pareja se la denomina como un «sabor».
Los tres sabores de los leptones son 1) el electrón y su neutrino; 2) el muón y su neutrino y 3) el tauón y su neutrino. Esto significa seis leptones. Cada partícula refleja su imagen en el espejo o antipartícula, así que en total se cuentan doce leptones. Todas ellas se han detectado efectivamente, y, recientemente, los físicos han llegado a la conclusión, mediante un razonamiento complicado, de que los tres sabores de leptones existen. ¡Los tenemos a todos! (De entre los leptones, el electrón y su neutrino son los verdaderamente importantes en el transcurso cotidiano, pero los físicos los consideran a todos partes indispensables del Universo).
Para los físicos la simetría es fundamental, así que creen que la naturaleza de los leptones se debería reflejar en otros tipos de partículas, los quarks. Por tanto, debería haber tres sabores de quarks: 1) el up-quark (arriba) y el down-quark (abajo), 2) el strange-quark (extraño) y el charmed-quark (encantado), y 3) el top-quark (encima) y el bottom-quark (fondo). Cada uno se corresponde con su antipartícula imagen en el espejo, así que en total se cuentan doce quarks.
Los quarks nunca se han detectado como partículas aisladas y probablemente nunca lo serán. Se mantienen enlazadas en grupos de dos y tres y no se pueden separar.
No obstante, cuando se unen forman otras partículas más complejas (se conocen más de cien), y a partir de estas partículas mayores se pueden averiguar las propiedades de los quarks integrantes.
El primer sabor, el up-quark y el down-quark, es el verdaderamente importante para el transcurso temporal, ya que son los componentes de los protones y neutrones que se encuentran en los núcleos atómicos. Pero insistimos, los físicos aprecian todos los sabores.
A partir de las partículas que contienen quarks se puede deducir la masa (o peso, por decirlo así) de cada quark individual y, en general, los quarks tienen más masa que los leptones. Esto es importante, porque la masa es una forma de energía, y cuanto más masa tiene una partícula más energía se necesita para que sea artificialmente compuesta, en el proceso de desintegración del átomo y más difícil es de detectar.
La masa del up-quark, que es la menor, es unas cinco veces la del electrón, y la del down-quark, unas siete veces mayor. Son valores muy pequeños. Los quarks up y down se conocen desde que Murray Gell-Mann descubrió por primera vez la existencia de los quarks en 1963, por lo que recibió el premio Nobel.
En el caso del segundo sabor, el strange-quark tiene una masa unas 150 veces la del electrón, lo que tampoco está mal, y su existencia se conoce desde 1963. La masa del charmed-quark, sin embargo, es unas 1.500 veces la del electrón y cualquier partícula que lo contenga debe tener todavía más masa, así que es muy difícil de formar. No se descubrieron partículas que contuvieran charmed-quarks hasta 1974. Burto Ritcher y Samuel Ting, que realizaron la hazaña, recibieron el premio Nobel por ella.
En el caso del tercer sabor, el bottom-quark tiene una masa de unas 5.000 veces la del electrón y se descubrió en 1978. En el caso del top-quark, entre todos los leptones y quarks, se trata de la partícula más ínfima, la única no detectada. Los físicos están convencidos de que existe, pero les gustaría descubrir o crear una partícula que lo contuviera efectivamente.
El problema es que se sospecha que la masa del top-quark es por lo menos 45.000 veces la del electrón y esta cantidad de masa requiere la cantidad máxima de energía que pueda producir el artificio desintegrador de átomos más potente.
Se puede conseguir. Hay determinadas partículas, llamadas partículas W, que en realidad no son verdaderos constituyentes de la materia pero sí necesarias para que otras partículas interaccionen de determinada forma. Estas partículas W tienen aproximadamente la misma masa que el top-quark y fueron detectadas por Cario Rubbia, que recibió el premio Nobel por ello.
Fermilab de Illinois y también el desintegrador de partículas CERN de Ginebra, Suiza, buscaban las partículas W, y CERN ganó la carrera definitivamente. En la actualidad, Fermilab está tratando de descomponer partículas a niveles de energía superiores a los utilizados con anterioridad y los físicos esperan encontrar entre los restos partículas que contengan top-quarks.
Si no las pueden detectar, los físicos empezarán a dudar de toda la estructura que tanto trabajo les ha costado construir.
Pero ¿es realmente el más ínfimo el top-quark} En realidad, hay muchas probabilidades de que no. Asociadas a las partículas W que acabo de mencionar, existen otras «partículas Higgs» de las que se conoce muy poco. Hasta ahora no se han detectado. Y, por supuesto, es probable la existencia de otras partículas sobre las que los físicos, de momento, sólo pueden especular.

EL DESCUBRIMIENTO DEL QUARK
El premio Nobel de Física de 1990 fue concedido a tres físicos, Jerome Friedman y Henry Kendall de Estados Unidos, y Richard Taylor de Canadá, por un trabajo realizado veinte años antes.
Lo que sucedió fue lo siguiente. Desde 1930 se sabía que el núcleo del átomo estaba formado por protones y neutrones, referentes a un tipo de partícula subatómica llamada «hadrón». El problema fue que los científicos siguieron encontrando más hadrones, hasta que se descubrieron más de cien, todos diferentes entre sí.
Constituía éste un fenómeno extraño y, en 1964, el físico estadounidense Murray Gell-Mann elaboró una teoría según la cual todos los hadrones estaban formados por unas pocas partículas todavía más elementales a las que llamó «quarks». (Otros desarrollaron la misma teoría de manera independiente). Estos quarks se combinaban entre dos y tres, y cada combinación diferente originaba un hadrón diferente.
Esta teoría sustituía el caos respecto a tal cantidad de hadrones por un tipo de orden mucho más sencillo y juicioso, así que Gell-Mann recibió el premio Nobel en 1969.
El problema radicaba en que nadie era capaz de aislar quarks individuales o detectarlos. Muchos científicos creían que los quarks no eran más que instrumentos matemáticos para justificar los hadrones, pero que no tenían existencia real. (De la misma manera que un billete de 1.000 pesetas se puede cambiar por diez monedas de veinte duros. Pero si rompemos el billete en diez pedazos no equivaldrá a una moneda de veinte duros).
¿Cómo se puede descubrir cómo es realmente la estructura interna de un protón (el hadrón más común y familiar)?
Allá por 1911, el físico británico Ernest Rutheford se enfrentó con un problema similar al determinar la estructura interna del átomo. Dispuso una película de oro muy fina y la bombardeó con partículas alfa, grandemente energéticas, procedentes de materiales radiactivos. Estas partículas atravesaban la película de oro e impresionaban una película fotográfica colocada detrás. Puesto que casi todas las partículas alfa se registraban intactas, Rutheford decidió que el átomo era en su mayor parte un espacio vacío.
No obstante, una de cada varios millones de las partículas alfa rebotaba y se desviaba en una nueva dirección. Esto quería decir que en alguna parte del átomo existía un elemento pesado. Además, puesto que eran tan pocas las partículas alfa afectadas, este elemento pesado del átomo debía de ser sumamente pequeño y difícil de detectar. En el transcurso de este experimento Rutheford dedujo que en el centro del átomo existía un «núcleo atómico» pesado cuyo tamaño era sólo la cienmilésima, parte del propio átomo.
Este núcleo estaba compuesto de partículas todavía menores, protones y neutrones, y eran estas partículas las que a su vez podían estar constituidas por quarks todavía menores. A medida que pasaban los años, los físicos desarrollaron una artillería atómica mucho más potente que las partículas alfa. Disponían de aparatos que podían acelerar las partículas subatómicas hasta casi la velocidad de la luz. Estas partículas aceleradas contenían una gran energía y cuando chocaban contra otras partículas, se descubrían muchos aspectos de los detalles de la colisión.
La Universidad de Stanford cuenta con un gran «acelerador lineal». Es un tubo vacío de unos tres kilómetros de longitud. Los electrones se pueden acelerar cuando pasan a través de él. Los imanes que lo rodean empujan sin descanso a los electrones a lo largo del tubo cada vez más deprisa hasta que aparecen al otro extremo con una energía de 20.000 millones de electrovoltios (Lo cual significa mucha energía). Friedman, Kendall y Taylor empezaron a trabajar con este acelerador lineal en 1967.
Lanzaron los electrones energéticos contra hidrógeno líquido, cuyo núcleo atómico contiene sólo un protón. De esta manera, el experimento forzaba a los electrones a chocar contra los protones. Los electrones tenían la suficiente energía para abrirse camino dentro y a través de los protones.
Si los protones estaban hechos de «materia de protones» distribuida de manera uniforme por toda la partícula, los electrones no sufrirían mucha desviación. Pero si los protones estaban formados por quarks, entonces un electrón que alcanzara a un quark podría ser desviado ligeramente, tal como en el experimento de Rutheford pero en una escala mucho más potente.
En 1968, Friedman y sus colaboradores habían detectado el tipo de desviación que parecía indicar que había partículas dentro del protón. Durante años desarrollaron sus experimentos intentando determinar las características de las partículas. Otros científicos, sobre todo Richard Freynman, se unieron a estos esfuerzos.
En 1974 estaba claro que las partículas interiores de los protones eran iguales a las partículas que Gell-Mann había propuesto. Algunas de sus propiedades eran muy raras, como el hecho de que los quarks fueran las únicas partículas conocidas con carga eléctrica fraccionaria, algo que la mayoría de los científicos habría considerado imposible.
Actualmente conocemos los quarks y sus propiedades. Sabemos cómo se combinan para formar hadrones y, en resumen, conocemos el Universo mucho mejor que antes.

GLÓBULOS DE QUARKS
La materia corriente no es muy densa. El agua, por ejemplo, tiene una densidad de un gramo por centímetro cúbico. Esto se debe a que los electrones mantienen a la parte verdaderamente densa del átomo, el protón del núcleo, separada de los demás protones.
Algunos elementos contienen núcleos formados por varios protones y electrones enlazados. Los electrones mantienen aislados estos núcleos, pero aun así, la materia es mucho más densa que el agua. El metal osmio tiene una densidad de 22 gramos por centímetro cúbico, por ejemplo.
La materia del núcleo de una estrella como el Sol está sometida a tanta temperatura y presión que los átomos se rompen y los núcleos se mueven libremente, acercándose unos a otros mucho más de lo que pueden hacerlo en la materia corriente. Esta materia es mucho más densa que cualquier otra en la Tierra y se conoce como «materia degenerada».
Cuando una estrella explota, parte de ella puede colapsarse en una bola de materia degenerada y se convierte en una «enana blanca». En ese caso, su tamaño, por lo general, es menor que el de la Tierra, pero contiene tanta masa como el Sol. Imagínese lo densa que debe de ser toda esta masa comprimida en el espacio que ocupa un planeta pequeño.
Con todo, esto no es lo esencial. Incluso en una enana blanca los electrones mantienen separados los núcleos en cierto grado. Sin embargo, si la enana blanca es lo bastante grande y tiene la masa suficiente, los núcleos se colapsan hasta el punto de que los electrones no los pueden retener. Los protones se convierten en neutrones. Los neutrones no tienen carga eléctrica y no se repelen entre sí. Por tanto, todos los neutrones se agrupan hasta que se tocan y el resultado es una «estrella de neutrones».
Una estrella de neutrones tiene la densidad de un neutrón, que asciende a 15 billones de kilogramos por centímetro cúbico. Una estrella de neutrones puede comprimir la masa de un sol en un pequeño globo de unos 14 kilómetros de ancho. Estas estrellas de neutrones fueron descubiertas en 1969.
Pero los neutrones no son partículas sencillas. Cada uno está compuesto por tres quarks y existe la posibilidad de que, a medida que los neutrones se comprimen cada vez más, se descompongan en los quarks integrantes que, a su vez, se pueden comprimir todavía más y producir una estrella todavía más densa. Esta estrella de quarks sería el material más denso posible de materia. (Incluso los quarks se pueden descomponer y, cuando sucede, la estrella se limita a reducirse hasta la nada aunque mantiene su masa. Se transforma en un «agujero negro»).
Podemos detectar las estrellas de neutrones porque emiten ráfagas minúsculas de radioondas mientras rotan a gran velocidad. Hay algunas estrellas de neutrones que giran a tanta velocidad que emiten ráfagas con una frecuencia de milésimas de segundo. A semejante velocidad de giro, incluso una estrella de neutrones con toda su densidad apenas puede mantenerse íntegra.
Los físicos noruegos T. Overgard y E. Ostgaard creen que si pueden encontrar una estrella de neutrones que gire a menos de 0,5 milésimas de segundo, no sería una estrella de neutrones sino una estrella de quarks.
Brian McCusker, de la Universidad de Sydney en Australia cree que si las estrellas de quarks existiesen, auténticamente éstos serían estables.
En realidad, nadie ha detectado un quark en la Tierra y algunos científicos piensan que es imposible hacerlo. Por otro lado, puede que una vez que una estrella de quarks se forme se desprenda en fracciones a medida que gira. El resultado sería «glóbulos de quarks», cada uno formado por cientos de ellos.
Tales glóbulos de quarks pueden vagar por el Universo en gran cantidad y algunos pueden caer ocasionalmente en la Tierra. Una vez que un globo choca contra la atmósfera terrestre se puede descomponer en tripletes, formando cada uno de ellos un neutrón o un protón. Por otro lado puede que algún quark aislado quedara libre y pasaría a integrar los rayos cósmicos. Los quarks individuales contendrían cargas eléctricas fraccionarias, algo que no contiene ninguna otra partícula, y se detectarían gracias a ello. En varias ocasiones se ha informado sobre partículas con cargas eléctricas fraccionarias, pero ninguna de ellas ha tenido confirmación.
Así que la «caza de quarks» continúa.
Pero si nunca hemos detectado un quark, ¿cómo sabemos que existen efectivamente?
La respuesta es que hay tantos aspectos de la física nuclear que se explican con la existencia de los quarks y en sus reacciones entre sí de determinada forma que es casi imposible negar su existencia. Sin embargo, independientemente de la sensatez de esta idea, a los físicos les gustaría detectar uno.

LOS ÁTOMOS DE UNO EN UNO
Ahora podemos hacer juegos con átomos aislados, cogerlos de uno en uno y hacer que dibujen letras. Hace poco, dos científicos de IBM, Donald M. Eigler y Erhard K. Schweizer, consiguieron átomos sueltos que deletreaban «I B M».
Nuestros conocimientos sobre los átomos son bastante recientes. Algunos filósofos griegos de la antigüedad aventuraron que toda la materia estaba formada por átomos minúsculos, pero no tenían ninguna prueba. Sólo en 1830, el químico británico John Dalton afirmó que si la materia estuviese compuesta de átomos explicaría el modo en que los elementos forman compuestos. A esta idea se le llamó la «teoría atómica moderna» y, durante todo el siglo XIX, los químicos utilizaron los átomos para explicar todo lo que sucedía en los tubos de ensayo.
No obstante, los átomos, si existían, eran tan pequeños como para resultar invisibles. Incluso los mejores microscopios de la época no podían mostrarlos, porque las ondas luminosas, por muy cortas que fueran, eran lo bastante largas como para pasar por alto los átomos y ocultarlos.
Así que algunos químicos insistían en que, aunque el del átomo era un concepto útil, no tenían por qué existir realmente. Sin embargo, en 1905, Albert Einstein desarrolló una ecuación para mostrar el modo en que los átomos (si existían) bombardearían a partículas diminutas en solución y las harían moverse al azar. En 1913, un científico francés, Jean B. Perrin, utilizó la ecuación para calcular lo grande que tenían que ser los átomos para producir el movimiento que se observaba. Resultó que medían aproximadamente 1,6 X 10-10 centímetros de ancho. El hecho de que las pequeñas partículas en solución se movieran exactamente como si los átomos chocaran contra ellas, por fin convenció al mundo de que los átomos existían de verdad.
En 1895 se descubrieron los rayos X. Eran una especie de ondas luminosas pero mucho más cortas. Lo bastante cortas como para detectar átomos, pero demasiado potentes para lograrlo. Atravesaban la materia en vez de ser reflejadas como la luz. Además, no se podían concentrar en un punto con facilidad.
Los electrones se descubrieron en 1896 y, en 1923, un científico estadounidense, Arthur H. Compton, demostró que se componían de ondas de tamaño semejante al de las de rayos X. Pero los electrones se podían concentrar y, además, la materia los reflejaba. Por consiguiente, se pudieron construir «microscopios electrónicos», mucho más potentes que los microscopios ópticos normales. El primer microscopio rudimentario de este tipo fue diseñado en 1932 por el ingeniero alemán Ernst Ruska, y recibió por ello el premio Nobel en 1986 (¡Cincuenta y cuatro años después!).
Con el paso de los años, los microscopios electrónicos se perfeccionaron y fueron cada vez más potentes. El último se perfeccionó en 1985, cuando dos científicos de IBM, Gerd Binning y Heinrich Rohrer, inventaron el «microscopio de barrido por efecto en túnel». También recibieron por ello el premio Nobel de 1986.
Este nuevo microscopio utiliza una aguja de tungsteno que se sitúa casi en contacto con la superficie a estudiar. Una corriente eléctrica minúscula dispara electrones a través de la aguja que rebotan en la superficie y muestran la posición de los átomos que la componen. Se observa cada átomo como una minúscula esfera sin ningún rasgo distintivo.
Existe una pequeñísima atracción entre la superficie y la aguja de tungsteno, separadas sólo por la distancia de unos pocos átomos. Si se manipula la aguja con cuidado, puede arrancar un átomo determinado de la superficie.
Su funcionamiento resulta más fiel con átomos de xenón, que son suficientemente grandes y no están ensamblados con demasiada fuerza. Los átomos de xenón se pulverizan sobre una superficie de níquel. En condiciones normales no permanecerían en dicha superficie, pero si ésta y los átomos de xenón se enfrían casi hasta el cero absoluto, el xenón tiene tan poca energía que permanece sobre la superficie de níquel.
La aguja de tungsteno los va arrancando uno por uno y los desplaza a un lugar diferente de la superficie y después se retira. El átomo de xenón permanece en la nueva posición. Se traslada otro átomo de xenón y después otro, y cada uno de ellos se coloca en un nuevo lugar y, finalmente, 35 átomos forman con toda claridad las letras IBM.
Es un magnífico ejemplo de técnica científica de alta precisión, pero ¿sirve para algo? En este momento, no. Sin embargo, en el futuro puede que sea posible manipular átomos aislados para que formen sustancias compuestas de combinaciones específicas de átomos («moléculas»), sustancias que no se pueden formar por métodos químicos ordinarios.
Además, es probable que los microchips de nuestros ordenadores modernos y de otros equipos electrónicos se compongan algún día de átomos aislados estratégicamente situados. Se conseguirían de esta manera microchips más «micro» que nunca. Dispondríamos de pequeños ordenadores que trabajarían mucho más en menos tiempo y que incluso podrían ser elaborados para rivalizar con el cerebro humano en complejidad. ¡Algún día!

CÓMO MEDIR ELECTRONES
Para comprobar las reglas fundamentales que gobiernan el funcionamiento del Universo, los científicos tienen que medir propiedades muy sutiles y hacerlo con la mayor precisión posible. Los físicos dedican mucho tiempo a elaborar los métodos de medición y, en los últimos años, han establecido otros nuevos mucho más exactos que los anteriores.
Como ejemplo, consideremos el electrón. Es la partícula subatómica (partícula mucho menor que el átomo) más conocida de todas. Los electrones forman parte de todos los átomos y se pueden separar de ellos con facilidad. Por ejemplo, la corriente eléctrica es el resultado de un flujo de electrones, y por eso a la partícula se le llama «electrón».
Según una teoría desarrollada ya en 1930, debía haber otra partícula exactamente igual que el electrón, pero de carga eléctrica opuesta. El electrón contiene carga negativa y la nueva partícula debe contener una carga positiva exactamente igual. La nueva partícula fue descubierta en 1932 y se la llamó «positrón» debido a su carga eléctrica positiva.
La teoría, que es fundamental, exige que la magnitud de la carga del electrón y el positrón sea exactamente igual, lo cual no quiere decir casi igual. Las medidas sencillas indican que la magnitud de la carga de las dos partículas es casi igual, pero casi no es suficiente. Si existiese la más mínima variación, habría que explicarlo modificando la teoría y esto podría darnos una imagen del Universo todavía más exacta que la actual.
Por tanto, los científicos tienen que medir la carga en ambos y hacerlo de la manera más precisa posible para descubrir una mínima diferencia. El método usual consiste en desintegrar partículas enlazadas y provocarles cambios de naturaleza. De la índole de estos cambios se pueden deducir las propiedades. Pero este método es muy rudimentario, por lo que los científicos buscan un método menos agresivo. (Como comparación, los médicos podrían buscar los tumores mediante cirugía exploratoria, pero utilizan rayos X y resonancia magnética, ya que ambos proporcionan información sin necesidad del bisturí).
Los científicos han descubierto, por ejemplo, cómo atrapar un electrón o un positrón aislados en condiciones que permiten mantenerlos inmóviles durante horas o días. Una partícula casi inmóvil se puede estudiar con mucha precisión. Está girando, lo que quiere decir que está desplazando su carga en un círculo minúsculo, y esto produce un efecto magnético mensurable. Un electrón y un positrón deberían producir exactamente el mismo efecto magnético. En 1989, Hans G. Dehmelt, de la Universidad de Washington en Seattle, publicó las medidas de partículas atrapadas para demostrar que el efecto magnético era el mismo con una precisión de hasta en partes por billón. Esto no quiere decir completamente exacto (la precisión perfecta nunca se puede obtener) pero se acerca más a la exactitud que cualquier otra medida anterior.
¿A qué equivale la precisión de partes por billón? Si tenemos dos piedras enormes, una de las cuales pesa exactamente 20 toneladas y la otra pesa 20 toneladas y 30 microgramos, tendremos una precisión de unas pocas partes por billón.
Hay algo más. Un electrón es una partícula fundamental; o sea, no está formada por partículas más sencillas y no se puede descomponer en partículas más sencillas. Si esto fuera así, el electrón debería comportarse como si tuviese un diámetro cero.
Un diámetro cero no se puede medir, pero los ensayos pueden demostrar que el diámetro debe ser menor de una determinada cantidad. Hasta el momento, las pruebas más precisas han demostrado que los electrones no pueden medir más de una billonésima parte de un átomo. Se necesitarían por lo menos 1 billón de electrones, colocados uno al lado de otro, para ocupar el mismo espacio que un átomo corriente. Haciendo pruebas con electrones prácticamente inmóviles, los científicos han demostrado que el diámetro del electrón no puede ser mayor que una milésima de esta medida. En otras palabras, se necesitarían por lo menos 1.000 billones de electrones, uno al lado de otro, para ocupar el mismo espacio que un átomo.
Esto sigue sin suponer diámetro cero, por supuesto, pero es lo más cerca de cero que se ha conseguido y refuerza el apoyo de las teorías de los físicos sobre las partículas subatómicas.
Por lo general, los últimos ensayos de alta precisión han apoyado las teorías con las que han estado trabajando los científicos, y podríamos suponer que ahora se van a sacudir el polvo de las manos y decir: «Bueno, ya es bastante exacto», para dedicarse a otras investigaciones.
Pero esto no pueden hacerlo jamás. Cada medida precisa nos acerca a un horizonte más amplio que hay que afanarse por alcanzar. Después de todo, unas medidas todavía más rigurosas pueden revelar alguna discrepancia mínima, que hasta ahora no se había sospechado, que proporcione una comprensión del Universo más profunda y satisfactoria. En ese sentido, la ciencia nunca puede dar por acabado su trabajo y los científicos sólo pueden estar agradecidos por ello. Nadie quiere que se termine la búsqueda del conocimiento.

EINSTEIN ACIERTA UNA VEZ MÁS
Gerald Gabrielsen y un equipo de la Universidad de Harvard confirmaron de nuevo recientemente la teoría general de la relatividad de Einstein. Esta teoría fue presentada por primera vez en 1916 y fue una asombrosa hazaña de imaginación, ya que no había prácticamente ninguna prueba a su favor. Sencillamente a Einstein le pareció que era la manera en que el Universo debía funcionar.
Cuando en 1919 se hizo un experimento observando la posición de las estrellas cercanas al Sol durante un eclipse total, se comprobaron determinados desplazamientos debido a que la gravitación del Sol atraía y curvaba el haz de luz. Estos desplazamientos estaban de acuerdo con la suposición de Einstein.
A Einstein le preguntaron: «¿Cómo se habría sentido si los desplazamientos no lo hubiesen confirmado?».
Y respondió: «Me habría dado mucha pena Nuestro Señor, ya que la teoría es cierta».
Una de sus bases fundamentales es la idea de que todos los objetos, independientemente de su masa, caen a la misma velocidad (si se prescinde de algo como la resistencia del aire). Así, una bala de cañón y una pluma caen a la misma velocidad en el vacío. A esto se le conoce como el «principio de equivalencia».
Esta idea fue demostrada por primera vez de una manera tosca por Galileo hace cuatro siglos y desde entonces se ha verificado mediante experimentos cada vez más precisos.
Sólo hay un aspecto en el que el principio de equivalencia resulta, por el momento, incompleto. Toda partícula de materia posee una «antipartícula». La antipartícula del electrón es el «positrón», la del protón el «antiprotón», etc. Estas antipartículas constituyen la «antimateria».
La cuestión es: ¿cae la antimateria de la misma manera que la materia o responde a la gravedad de manera diferente? Después de que se descubriera la antimateria, Einstein afirmó que si la teoría general de la relatividad era cierta, la antimateria tenía que caer igual que la materia. No obstante, ésta no era más que otra de las intuiciones de Einstein, ya que no se contaba con prueba alguna ni era fácil conseguirla.
La gravitación es, con mucho, la más débil de todas las fuerzas conocidas. Nos damos cuenta de su existencia porque estamos familiarizados con ella en lo que respecta a los enormes cuerpos celestes. En un cuerpo como la Tierra, las diminutas fuerzas gravitatorias de cada partícula se suman hasta que todas unidas se convierten en una fuerza enorme. Pero si nos estuviésemos refiriendo a partículas aisladas o a grupos muy pequeños de ellas, la gravitación sería tan débil que no se podría medir, y la gente que trabaja con tales partículas ignora el efecto gravitatorio.
Puesto que sólo conseguimos antimateria en forma de partículas aisladas o en pequeños grupos, no podemos medir directamente el efecto de la gravedad en ellas. Los científicos están obligados a realizar experimentos indirectos.
Por ejemplo, si se puede demostrar que los protones y los antiprotones contienen exactamente la misma masa, entonces tienen que ser atraídos por la gravedad de la misma forma. ¿Cómo se explica si tienen las mismas masas, no aproximada, sino exactamente?
Aquí se abren paso Gerald Gabrielse y su equipo. Hicieron girar a gran velocidad protones y antiprotones mediante campos magnéticos y midieron el número de giros que daban en un segundo. El número de giros depende de la masa y resultó que las masas de los dos tipos de partículas eran iguales con una precisión de 0,04 partes por millón.
De esto se podía deducir que Einstein tenía razón de nuevo y que la antimateria reaccionaba frente a la gravedad exactamente igual que la materia. (Anótese otro tanto a las intuiciones de Einstein).
Eric G. Adelberger y su equipo de la Universidad de Washington, en Seattle, realizaron otro tipo de experimentos. Estaban interesados en establecer medidas que indicaran la presencia o ausencia de una «quinta fuerza», semejante a la gravitación pero más débil. No apareció ninguna quinta fuerza.
Sin embargo, al realizar los experimentos decidieron que si la antimateria caía de manera diferente a la materia, se producirían determinados efectos que se podrían detectar en su experimento. No se detectaron dichos efectos y, a pesar de que Adelberger trabajaba sólo con materia y no con antimateria, llegó a la conclusión de que el principio de equivalencia era válido para la antimateria.
¿Están satisfechos ahora los científicos con el asunto de la equivalencia y con el de la caída de la antimateria? No mucho.
Los experimentos son indirectos. Los experimentos directos implican una respuesta al magnetismo o a la búsqueda de la quinta fuerza. A los científicos les gustaría observar efectivamente las partículas de antimateria en su caída, respondiendo a la gravedad. Entonces estarían seguros. Y, sin embargo, Einstein, a lo largo de ochenta años, no ha podido ser rebatido y no creo que lo sea nunca a este respecto.

EL PRINCIPIO DE EXCLUSIÓN
Una de las glorias del esfuerzo científico es que cualquier creencia científica, por muy firme que esté establecida, se comprueba constantemente para constatar que su validez es universal. Esto es lo que ha hecho recientemente un grupo de científicos dirigidos por D. Kekez, en Yugoslavia, en relación con el llamado «principio de exclusión», y el principio ha sobrevivido.
La historia empezó en 1913, cuando el físico danés Niels Bohr aplicó la recién descubierta «teoría cuántica» al átomo. Demostró que dentro de cada átomo había electrones que sólo podían adoptar determinadas órbitas y no otras. Esto suponía una buena justificación para algunas de las formas en que los átomos absorbían y emitían energía.
Bohr obtuvo por ello el premio Nobel de 1922, pero su teoría estaba poco madura y, a medida que pasaban los años, se amplió y perfeccionó para justificar puntos todavía más delicados del modo en que los átomos absorben y emiten energía.
Por fin en 1925, el físico austríaco Wolfgang Pauli afirmó que en una misma órbita no podía haber más de dos electrones y que estos electrones sólo podían coexistir si giraban en sentidos opuestos. De esta manera, los electrones eran excluidos por completo de las órbitas que contenían un par de electrones de giro contrario. A la regla de Pauli se le llamó por lo tanto el «principio de exclusión».
Este principio resultó ser extraordinariamente útil. Explicaba las propiedades de los distintos átomos en lo que se refería a la química y a sus relaciones energéticas. También explicaba con toda perfección la tabla periódica de los elementos (algo que los químicos valoran considerablemente).
A medida que pasaba el tiempo, la teoría cuántica se perfeccionaba y dejó de ser posible pensar en las órbitas de los electrones como pensamos en las órbitas de los planetas alrededor del Sol. En vez de eso, la naturaleza del electrón se convirtió en una mezcla vaga de ondas que sólo se podían describir mediante relaciones matemáticas. No obstante, el principio de exclusión de Pauli siguió siendo válido no sólo para los electrones sino también para los protones y para todas las otras partículas clasificadas como «fermiones».
Por supuesto que tenía que servir, porque sino los átomos no tendrían las propiedades que sabemos que tienen; el Universo no sería ese Universo familiar que experimentamos y, lo que es más importante de todo, no podríamos existir y no nos preocuparía que existiera tal principio de exclusión o no.
Con todo, los científicos no podían entender por qué el principio de exclusión tenía que existir. Incluso aunque existiera y apoyara la teoría del Universo, ¿no podría haber un caso, alguna vez, en el que un electrón o cualquier otra partícula sujeta al principio pudiera abrirse camino hasta una órbita en la que no debería estar? Podría suceder esto tan ocasionalmente que los científicos, al no ocuparse de ello, nunca se dieran cuenta.
Por esa razón, los científicos tratan de calcular lo que podría suceder si se viola el principio de exclusión. Ciertos acontecimientos podrían suceder de vez en cuando en algún modo excluyente, emitiendo radiación que no se debería emitir. Por tanto diseñan experimentos muy precisos en los que un poco de radiación muy poco frecuente pueda ser detectada en condiciones que indicaran una violación del principio de exclusión.
Por ejemplo, un electrón fuera de un núcleo atómico podría, en ocasiones muy excepcionales, penetrar el núcleo y combinarse allí con un protón para producir un neutrón. El principio de exclusión lo rechaza, pero si sucede, se origina un rayo gamma que no debería existir.
Kekez y su grupo utilizaron el «detector de centelleo líquido» bajo el Mont Blanc en los Alpes. Allí disponían de 90 toneladas de hidrógeno líquido con las que se estudiaron durante seis años los acontecimientos nucleares que podrían suceder. No apareció ninguna prueba de que surgieran haces de radiación extraños procedentes de violaciones del principio de exclusión.
La decisión final fue que si los acontecimientos nucleares se producían al azar, sólo uno de cada 1034 violaría el principio de exclusión. Esto supone un episodio de cada 10.000 billones de trillones.
Hay que confesar que es un límite muy alto. Lo que Kekez y su grupo están queriendo decir es que no hay una probabilidad mayor que ésta de que se produzcan violaciones. La probabilidad real de violación podría ser mucho menor, e incluso podría ser nula, así que el principio de exclusión sigue estando a salvo.
No obstante, los científicos seguirán buscando violaciones. Después de todo, Kekez y su grupo han estado tratando con condiciones terrestres. Podría ser que, en condiciones más extremas, el principio de exclusión se violara con más facilidad.
Por ejemplo, el Sol produce partículas llamadas neutrinos, pero muchas menos de las que los científicos esperaban. No saben por qué, pero algunos han sugerido que en las condiciones extremas del núcleo solar, puede que el principio de exclusión no sea muy válido y que pudiera llevar a una escasez de neutrinos. En mi opinión, esto es muy poco probable, pero es algo que sin duda habrá que comprobar, si a alguien se le ocurre el modo de hacerlo.

ELEMENTOS SUPERPESADOS
Los átomos se denominan según el número de partículas contenidas en su núcleo. Así el hidrógeno, con un único protón en el núcleo, es hidrógeno 1. Por otro lado, el uranio, el átomo más complejo en la Tierra, contiene 92 protones y 146 neutrones, así que es uranio 238.
En el último medio siglo, los científicos han producido, de manera artificial, átomos más complejos que los de uranio. Si bien, en general, cuanto más complejo es el átomo más radiactivo es y más corto tiene su período de vida.
El átomo más complejo que se ha logrado crear es el elemento 109 (contiene 109 protones y 266 neutrones y todavía no ha adoptado nombre). Después de formarse, aguanta sólo unas pocas milésimas de segundo antes de desintegrarse. En consecuencia, cada vez es más difícil estudiar estos elementos artificiales y los científicos decidieron que no merecía la pena fantasear con elementos que sobrepasaran los 109 durante un tiempo.
Sin embargo, entre 1966 y 1972, un físico soviético, Vilen Strutinsky, desarrolló teorías sobre la estructura nuclear que hacían pensar que podían existir y se podían estudiar átomos mayores de 109. De hecho, el elemento 114 parecía tan estable que podría durar millones de años.
Naturalmente, los científicos empezaron a buscar el elemento 114 de inmediato. Pensaban que se podía haber formado por procesos naturales y que algún lugar de la Tierra podría contener pequeñas bolsas. No ha habido tanta suerte. No se han encontrado.
Entonces, también se podría formar de manera artificial como ha ocurrido con los otros elementos pesados. A los elementos mayores de 109 a menudo se les llama los «superpesados». Para ello es necesario formar un elemento con 114 protones y 184 neutrones. Sería el elemento 298 y, según la teoría, relativamente estable.
Un modo de producir un elemento artificial es bombardear con neutrones a otro que ya existe. Un neutrón puede (en ocasiones muy contadas) penetrar un núcleo y unirse a su contenido para formar otro más complejo. Los elementos mayores de 100 se han formado así.
Sin embargo, cuanto más complejo es el átomo, más difícil es insertar un neutrón en el núcleo. En consecuencia, estos átomos se bombardean con partículas más pesadas tales como los núcleos de varios átomos pequeños. Además, estos núcleos deben ser energéticos para abrirse camino en el núcleo pesado, así que se les acelera mediante varios desintegradores de átomos. Así, el elemento 109 se formó al ser bombardeado con núcleos de oxígeno, cromo y hierro. Además, se tenían que formar los átomos de uno en uno.
¿Cómo formar el elemento 114? Los físicos han presentado varias teorías sobre su requerimiento. Las probabilidades de que un núcleo penetre en otro mucho más pesado para formar el elemento 114 parecen muy escasas. Se calcula que menos de un acontecimiento de cada mil millones resultaría en un átomo de 114. Las reacciones restantes producen una reacción de fisión que destruye los átomos. Es probable que no se puedan producir más de tres átomos al día de esta manera.
Se ha informado de más de veinticinco intentos para sintetizar el elemento 114. Han fallado todos. El número de átomos 114 producido puede ser de tres en un billón de reacciones y éstos no son suficientes para que los detecten ni siquiera nuestros mejores instrumentos. Además, incluso si se aislara el elemento 114, subsistiría el problema de comprobar que fuera efectivamente el elemento 114.
Los superpesados más ligeros, digamos hasta el elemento 100, se pueden identificar químicamente, pero a partir de ahí las vidas atómicas son demasiado cortas para que las reacciones químicas sean útiles. Los científicos han estudiado reacciones radiactivas para diferenciar un superpesado de otro. Mientras los elementos se desintegren para formar partículas alfa son relativamente fáciles de identificar, pero el elemento 114 se rompe por fisión espontánea y no hay maneras fáciles de determinarlo. No obstante, los científicos no abandonan. Muchos de ellos están convencidos de que existen los superpesados y de que se pueden localizar y estudiar.
¿Importa mucho? Supongamos que el elemento 114 existe y que es descubierto e identificado. ¿Para qué podría servirnos en general? Puesto que a los científicos no les preocupa gastar en ello tiempo y dinero, ¿qué es lo que están buscando? En realidad, sostienen grandes ideas para la estructura del núcleo atómico. Algunos núcleos son esféricos, otros ovales y la forma dicta su comportamiento, cuando aparece el elemento 114. De su comportamiento los científicos pueden deducir su forma, cosa que los obliga probablemente a un cambio total en sus ideas sobre la forma del núcleo y su comportamiento, sobre todo si el superpesado es bastante estable.
El interés de los científicos descarta las preguntas del tipo ¿es útil? Su pregunta es ¿cómo es el núcleo? Para obtener esta respuesta están dispuestos a invertir dinero, tiempo y esfuerzo.

LO MÁS FRÍO POSIBLE
Un equipo de científicos franceses, bajo la dirección de Alain Aspect, estableció un nuevo récord de frialdad en la primavera de 1990. Enfriaron algunos átomos del elemento cesio hasta una temperatura de 2,5 microkelvins.
¿Qué es un microkelvin? Esta pregunta nos conduce hasta el físico británico William Thomson que, más tarde, se convirtió en el barón Kelvin. Sostenía que la temperatura representaba la energía contenida por una cantidad de materia y que, cuando la energía se redujera a cero, la materia se enfriaría lo máximo posible. No podría haber nada más frío porque no se podría tener nada menor que energía cero.
A esta temperatura lo más fría posible se la conoce como «cero absoluto» y se establece a 273,15 grados Celsius bajo cero o a 459,67 grados Fahrenheit bajo cero. A los científicos a menudo les parece conveniente medir temperaturas como tantos grados Celsius sobre el cero absoluto.
Por ejemplo, el hielo se funde a 0 grados Celsius (°C). Podemos así decir que se funde a 273,15 grados absolutos (273,15°A). No obstante, los sistemas Celsius y Fahrenheit para medir temperaturas reciben ambos el nombre de los científicos que los crearon, así que se pensó que el nuevo sistema también debería de llevar el nombre del propio. Por esa razón, los científicos dicen que el hielo funde a 273,15 grados Kelvin (273,15°K): la millonésima parte de un grado Kelvin es un «microkelvin».
Durante muchos años, los científicos han tratado de eliminar la energía de la materia para obligar a su temperatura a que cada vez sea menor. En 1823, por ejemplo, el químico británico Michael Faraday licuó gas cloro a una temperatura de 238,7°K.
Los científicos siguieron extrayendo energía de la materia, por lo general licuando gases y después dejando que parte de él se evaporara. Esto eliminaba energía y restaba temperatura de la fracción sin evaporar. En 1877, se licuó oxígeno a sólo 90,17°K. Poco después se licuó monóxido de carbono a 81,70°K y nitrógeno a 77,35°K. En 1895, el científico británico James Desar licuó hidrógeno a 20,38°K.
Estos gases se estaban enfriando poco a poco, pero seguía existiendo un gas que desafiaba a la licuefacción, el helio. Hasta 1908, el físico holandés Heike Kamerlingh-Onnes no logró licuar el helio a la temperatura glacial de 4,21°K. Al hacer que el helio se licuara, logró alcanzar una temperatura de 0,83°K, así que los científicos se habían acercado a menos de un grado del cero absoluto.
Al estudiar el comportamiento de la materia a la temperatura del helio líquido, Kamerlingh-Onnes descubrió la superconductividad, la capacidad de algunos materiales de conducir la electricidad sin pérdidas. Sin embargo, el sistema de evaporar líquidos fríos no produce temperaturas menores que medio grado por encima del cero absoluto. Puesto que un microkelvin es una millonésima de un grado, medio grado son 500.000 microkelvins.
En los años veinte se descubrió que si determinados compuestos se sometían a un campo magnético, todos los átomos se alineaban. Si los compuestos se enfriaban lo máximo posible y se eliminaba el campo magnético, los átomos se desordenaban, lo cual consumía energía y reducía la temperatura. Al usar esta técnica, los científicos consiguieron reducir la temperatura hasta 30.000 microkelvins en 1933.
Hay dos tipos de helio: helio 3 y helio 4. En los años sesenta se desarrollaron métodos para utilizar mezclas de los dos para hacer que las temperaturas descendieran todavía más. En 1965, se logró una temperatura de sólo 20 microkelvins.
¿Cómo podían los científicos mejorarlo? En los años ochenta se desarrolló una nueva técnica utilizando láser. Un pequeño grupo de átomos se somete a seis haces intensos de láser: por arriba, por abajo, de frente, por detrás, a izquierda y a derecha. Los átomos se encuentran con que no se pueden mover en ninguna dirección. Siempre está presente la presión del haz de láser que se opone al movimiento. Esto quiere decir que a los átomos no les queda más remedio que quedarse inmóviles, o casi inmóviles. Cuanto más cerca de la inmovilidad están, menos energía tienen y más baja es su temperatura.
De esta manera se obtuvo una temperatura de sólo 2,5 microkelvins (0,25 cienmilésimas grado por encima del cero absoluto).
¿Pueden los científicos alcanzar el cero absoluto real? ¡No! Una de las leyes básicas de la termodinámica dice que no pueden. No importa cuánta energía se extraiga de la materia, siempre queda algo. En este caso los átomos, a los que se mantiene casi inmóviles mediante los rayos láser, no se pueden mantener totalmente inmóviles porque absorben cantidades mínimas de energía del láser y la vuelven a emitir. La emisión provoca en ellos un ligero retroceso que representa energía.
No obstante, los científicos, incluso si no pueden alcanzar el cero absoluto, pueden acercarse cada vez más. Algunos intentan alcanzar una temperatura equivalente a un picokelvin (una millonésima de microkelvin o una billonésima de grado por encima del cero absoluto).
¿Por qué? ¿Con qué propósito? Bien, nunca podemos decir qué nuevo fenómeno se descubrirá. Además, los científicos, como los jugadores de béisbol, disfrutan estableciendo récords.

¡NO HAY ORO!
Los últimos análisis de oro en el agua de mar realizados por Kelly Kennison-Faulkner y John Edmond, geólogos del MIT, demuestran que la cantidad presente es una milésima parte de la que se había pensado con anterioridad. Es una pena, pero tampoco es una tragedia, y me explicaré.
Los ríos de la Tierra fluyen a través de la superficie terrestre y alcanzan el océano, arrastrando con ellos materia disuelta de todas clases. La mayor parte de los materiales sólidos terrestres se disuelven muy poco, pero a pesar de ello pequeñas trazas se abren camino hasta el océano y permanecen allí.
No permanecen allí siempre obligatoriamente, ya que las zonas poco profundas del océano en ocasiones se secan, dejando detrás de sí lo que llamamos «minas de sal», vestigios de los distintos materiales disueltos en el océano además de la sal como principal componente. Incluso admitiendo este secado y la eliminación ocasionales, el agua marina contiene una pequeña parte de todos los elementos conocidos, incluido el oro.
Durante miles de años, los seres humanos han buscado oro por todo el mundo, y los hallazgos sensacionales de oro han provocado una prosperidad repentina de escasa duración en California en la década de 1850, en el Klondike en la década de 1890 y en otros lugares. Pero ¿qué pasa con el oro del océano? ¿No es la mayor mina del mundo?
Eso pensaba la gente antiguamente y la mina del océano incluso provocó la aparición de sueños de riqueza. Después de la Primera Guerra Mundial, cuando se exigió a Alemania pagar una enorme indemnización (que, en realidad, nunca pagó), el químico Fritz Haber, ganador del premio Nobel, pensó en un método para extraer oro del océano y utilizarlo para pagar la deuda de Alemania. Lo intentó, pero no funcionó.
Resultó que había menos oro en el océano de lo que Haber había calculado, y ahora se piensa que todavía hay mucho menos.
Kennison-Faulkner y Edmond, para conseguir análisis muy precisos, comprobaron las muestras a través de un material llamado «resinas de intercambio iónico». Estas resinas contienen determinados átomos con carga eléctrica («iones») que están unidos con poca firmeza a la resina y que se pueden separar de ella. Estos iones son reemplazados por otros presentes en el agua marina. De esta manera, todos los átomos de oro de la muestra de agua de mar son extraídos y después se pueden liberar de la resina.
La resina de intercambio iónico absorbe una mezcla desordenada de iones, por supuesto. Esta mezcla se reconoce por el vacío de un «espectómetro de masas», que aprovecha las cargas eléctricas de los iones para exponerlos a un campo magnético que los hace desplazarse en trayectorias curvas. La curva es diferente para cada tipo de ión y, de esta forma, los iones de oro terminan todos en un punto determinado, separados del resto, de manera que su cantidad es mensurable.
Resultó un gramo de oro por cada 100 millones de toneladas de agua de mar, con independencia de que el agua procediera del océano Atlántico o del Pacífico.
El mar Mediterráneo es algo diferente. Está conectado con el Atlántico sólo a través del estrecho de Gibraltar, que no es muy ancho, así que sus aguas no se mezclan con las del océano. Además, es un mar templado, por lo que se evapora mucha agua, lo que aumenta el contenido en sólidos del agua restante. Hay tres veces más oro en una cantidad determinada de agua del Mediterráneo que en la equivalente del océano. A lo mejor otras extensiones de agua rodeadas de tierra son algo más ricas en oro, pero la cantidad nunca es elevada en ningún sitio, ni siquiera parecida a lo que se pensaba.
Por supuesto, debemos recordar que el océano es enorme. La cantidad total de agua de mar que hay en el planeta pesa alrededor de 1,4 trillones de toneladas. Incluso aunque no haya más que un gramo por cada mil millones de toneladas, resulta que hay 1.500 toneladas de oro en el océano que al precio actual valdrían unos 1.725 billones de dólares.
Hubo una época en que una suma así nos habría hecho hablar de «riquezas incalculables», pero, por desgracia, la riqueza ya no es incalculable. La deuda nacional de Estados Unidos es superior a los cuatro billones de dólares y, a este paso, no pasarán muchos años antes de que el dinero que debe este país a sus propios ciudadanos y al resto del mundo sea igual al doble del valor de todo el oro de los océanos.
Una de las razones por las que el oro tiene el valor que tiene es porque es algo poco abundante. Si las 1.500 toneladas de oro de los océanos se materializaran en los distintos bancos y cámaras acorazadas del mundo, su precio por gramo caería estrepitosamente y se podría pagar una parte mucho menor de lo que suponemos de la deuda nacional.
Por último, lo que cuenta no es la cantidad total que hay en el océano sino lo repartida que está, y lo está mucho. No hay ninguna técnica conocida (ni probabilidades de que se conozca en un futuro previsible) que pueda extraer este oro tan poco concentrado de manera rentable. Extraer oro por valor de un dólar, costaría 1.000 dólares o más, como Fritz Haber descubrió después de la Primera Guerra Mundial. Así que dejemos al oro donde está y busquemos modos más sensatos de resolver los problemas monetarios del mundo y de las naciones.

¿POR QUÉ ES OSCURO EL CIELO?
Quizás el astrofísico Paul S. Wesson, de la Universidad de Waterloo, en Ontario, haya resuelto un problema que ha estado incomodando a los astrónomos durante cerca de doscientos años.
Allá por 1826, un astrónomo alemán, Heinrich W. M. Olbers, señaló lo siguiente: «Si hubiese un número infinito de estrellas, en cualquier dirección que mirásemos, al final veríamos una estrella». La estrella podría ser demasiado tenue para ser vista por sí misma, pero al haber un número infinito de ellas, se vería una nube de luz. De hecho, todo el cielo estaría iluminado por esta nube de infinitas estrellas, de manera que brillarían con tanta luz y calor como la superficie del Sol. La vida sería imposible. Y, sin embargo, por alguna razón, el cielo es negro. A esto se lo conoce como «paradoja de Olbers».
El método más sencillo de resolver la paradoja es suponer que no hay un infinito número de estrellas en el Universo. Sino que hay tantas, que en los tiempos de Olbers se estimaron en unos cuantos cientos de millones, y después un espacio vacío.
Sin embargo, esta opinión perdió fuerza con el tiempo.
En los años veinte no sólo se sabía que nuestra propia Galaxia contenía 300.000 millones de estrellas (miles de veces más de las que se había pensado en la época de Olbers), sino que, además, había cientos de miles de millones en otras Galaxias, todas resplandecientes de estrellas. El número de estrellas seguía sin ser infinito, pero había tantas que los astrónomos se preguntaron cómo podíamos ver el cielo negro a través de ellas.
A principios del siglo XX, se descubrió que muchas galaxias estaban rellenas de nubes de polvo y que el Universo, por lo general, contenía estas capas de polvo por todas partes. Este polvo absorbe la luz con gran eficacia y la gente empezó a pensar que ésta era la respuesta al cielo negro. Había una gran cantidad de luz estelar, pero era absorbida por el polvo.
Una pequeña reflexión demostró que esto no podía ser así. Si el polvo detuviese la luz, el propio polvo se calentaría en el proceso hasta que llegara a brillar. En vez de contar con estrellas encendidas esparcidas en el cielo, habría estrellas y polvo, todo brillante, y seguiríamos enfrentados a la paradoja de Olbers.
Pero entonces, en la década de los veinte surgió algo más. El Universo se estaba expandiendo. Las Galaxias remotas se estaban alejando de la Tierra y su distancia era cada vez mayor. Ello produce un efecto sobre la luz que emiten. A medida que se alejan, la luz que emiten se desplaza hacia la luz roja, de baja energía.
Esto significaba que un gran porcentaje de la luz emitida por las estrellas podría desplazarse tanto que la energía que contienen disminuyera ostensiblemente y no fueran capaces de iluminar el cielo. Eso es, el cielo era negro porque el Universo estaba en expansión. Era una sugerencia tan atractiva que la utilicé como un modo de resolver la paradoja de Olbers en mis libros de astronomía.
Pero seguía siendo un error. Wesson realizó una gran cantidad de cálculos sobre cuánta luz se perdía como resultado de la expansión del Universo y descubrió que no se perdía la suficiente como para justificar la paradoja de Olbers.
Aunque el Universo se expandía, debería seguir iluminando el cielo y haciendo la vida imposible.
Durante un tiempo, pareció que no había explicación posible, pero surgió una. Las galaxias no han existido siempre ni existirán siempre. Hay un período en el que nacen y empiezan a brillar y un período en el que mueren y pierden su resplandor. En otras palabras, puede que en el Universo haya un número casi infinito de estrellas, pero no emiten luz durante un tiempo infinito y la luz que han emitido todavía no ha tenido tiempo de llenar el Universo.
Los cálculos de Wesson muestran que debe ser así y que ésta es la explicación de la paradoja de Olbers. El cielo es negro sólo porque no ha habido tiempo para que se ilumine totalmente. Estamos vivos porque estamos en los comienzos del Universo.
¿Qué significa esto para el futuro? A medida que el tiempo pase, ¿se iluminará el Universo de manera gradual hasta que, dentro de billones de años, alcance el estado en el que la vida sea imposible en él?
O de otro modo, ¿la luz producida por las estrellas se desvanecerá poco a poco a medida que mueran las estrellas, y a medida que se formen otras nuevas se mantendrá la cantidad de luz estable? O, es posible que, como las nuevas estrellas se forman con menos frecuencia que las que mueren, ¿se desvanecerá la luz del Universo gradualmente hasta que haya tanta oscuridad y tan poca luz y calor que la vida sea imposible de todas maneras? O, ¿sufrirá todavía el Universo otros cambios? Este tipo de preguntas revoluciona a los astrónomos.

LUZ ESTELAR Y POLVO
Por primera vez en la historia, los seres humanos son capaces de estudiar la luz pura de las estrellas.
Esto puede parecer una afirmación extraña para cualquiera que alguna vez haya mirado hacia el cielo en una noche tranquila, despejada y oscura, pero es verdad.
El problema para ver las estrellas es que nos encontramos muy próximos a una estrella concreta, el Sol, cuya luz es mucho mayor que cualquier otra cosa que podamos ver e inunda todo lo que le rodea.
Por supuesto, gran parte del tiempo, la rotación de la Tierra nos envuelve en su propia sombra. El Sol se pone, la noche cae y las estrellas surgen. Esto, sin embargo, no es suficiente. Es posible que la Luna en el cielo refleje la luz solar hasta tal punto que su luz sea mucho más fuerte que todo lo que ocupa el cielo nocturno.
Además de la Luna, hay planetas brillantes —Mercurio, Venus, Marte, Júpiter y Saturno— que también reflejan la luz solar y, todos juntos, son más brillantes que todas las estrellas. Además, Urano, Neptuno y Plutón, aunque muy poco brillantes o incluso invisibles a simple vista, también aportan luz solar.
Y, sin embargo, hay veces en que la Luna no es visible en el cielo durante la noche (esto ocurre gran parte del tiempo) y en ocasiones los planetas se encuentran de cara a la Tierra cuando es de día. Esto no sucede muy a menudo, pero es posible, en ocasiones excepcionales, ver el cielo nocturno despejado de Luna y de planetas.
¿Se puede ver entonces la luz pura de las estrellas? Por desgracia, no.
Hay decenas de miles de asteroides girando alrededor del Sol, un número incluso mayor de meteoroides y también un número incierto de cometas. Todos ellos reflejan la luz del Sol y esto atenúa la luz de las estrellas, por lo demás pura, que veríamos.
De hecho, hay otras fuentes menores de luz que interfieren. El Sistema Solar está formado por cuerpos celestes, grandes y pequeños, y algunos de los «cuerpos» son realmente pequeños. En realidad, no son más que partículas de polvo. Hablando claro, el Sistema Solar es un lugar polvoriento.
¿De dónde viene este polvo? Probablemente procede de cometas que se desintegran lentamente y de cuerpos mayores que de vez en cuando chocan y se rompen en pedazos cada vez más pequeños. Algunos calculan que hay diez billones de toneladas de polvo en el Sistema Solar. Los cuerpos mayores lo recogen continuamente, pero sigue formándose a una velocidad de unas diez toneladas por segundo, de manera que la cantidad total permanece estacionaria.
¿Cómo altera esto la luz de las estrellas? Pues bien, el polvo refleja la luz solar y produce una luz difusa constante incluso en las noches más oscuras. La luz es más brillante en el plano en que se mueven los planetas a través de las constelaciones del Zodíaco. Por tanto, a esta luz se le llama «luz zodiacal».
Cuando un telescopio apunta hacia el cielo nocturno, incluso si están ausentes la Luna y todos los planetas y no se quiere tener en cuenta la luz de asteroides y cometas, cerca del 40% de toda la luz que llega a las placas fotográficas es zodiacal.
¿Qué se puede hacer? Por ahora nada. Sin embargo, allá por 1972 y 1973 se enviaron a Júpiter dos sondas, Pioneer X y Pioneer XI. Cumplieron con su obligación al pasar volando por la órbita de Júpiter y ahora se encuentran bastante más allá de las órbitas de los planetas y todavía siguen enviando mensajes por radio.
La polvareda del Sistema Solar disminuye a medida que nos alejamos del Sol, y las dos sondas Pioneer se sitúan actualmente tan alejadas de él que la luz zodiacal es insignificante. Con el Sol, los planetas y el polvo situados en sentido contrario actualmente miran hacia las estrellas y detectan sólo las estrellas y otros objetos fuera del Sistema Solar y nada más (a excepción del parpadeo luminoso, insignificante y ocasional de algún cometa remoto perteneciente al Sistema Solar).
Gary Toller, del Centro de Vuelos Espaciales Goddard de la NASA, en Greenbelt (Maryland), analizó los mensajes enviados por las sondas y descubrió que el 82% de la luz que vemos, cuando miramos hacia el Universo estrellado, en realidad es producido por las estrellas de nuestra propia Galaxia casi toda procedente de estrellas que son demasiado tenues para ser observadas a simple vista.
Puesto que todas las estrellas parecen estar sumergidas en el polvo, millones de estrellas reflejan su luz en millones de luces zodiacales. Casi todo el resto de la luz que se ve, por tanto, no procede directamente de las estrellas sino que es luz estelar que rebota en el polvo.
Una pequeña parte de la luz, alrededor de un 0,6% del total, procede de fuentes exteriores a nuestra Galaxia, de la enorme cantidad de galaxias mucho más alejadas.
A primera vista, la información no parece decirnos mucho, pero combinada con otras medidas ha servido para situar al Sol en nuestra Galaxia con mayor precisión. Hay un plano imaginario que corta a nuestra Galaxia lenticular en dos, y el Sistema Solar, según parece, se sitúa unos cuarenta años luz por encima del plano.

LA CURVATURA DE LA LUZ
Un equipo de astrónomos del Observatorio Nacional de Radioastronomía, bajo la dirección de Glen Langston, localizó un pequeño anillo de radioondas en el cielo. Era el segundo de este tipo de anillos descubierto y uno de los fenómenos menos frecuentes que podemos esperar encontrar en el cielo. Se conoce como una «lente gravitatoria».
Los primeros indicios de que algo así podía existir surgieron en 1916, cuando Albert Einstein concibió su teoría general de la relatividad. Según dicha teoría, los rayos de luz se curvan cuando pasan cerca de un objeto con mucha masa, igual que cuando inciden en un cristal en ángulo oblicuo.
La diferencia está en que, mientras la luz sufre una gran desviación al atravesar el cristal (refracción), la atracción gravitatoria desvía la luz sólo ligerísimamente. Aun así, en 1919, durante un eclipse total se determinó que las estrellas cercanas al Sol eclipsado (y, por tanto, visibles, cosa que no sucedería normalmente si el Sol no lo estuviera) parecían estar levemente fuera de su posición debido a dicha desviación. Pero esto es imposible. La luz es desviada tan mínimamente que su foco tendría que situarse a una distancia de muchos años luz. Esto significa que el objeto de gran masa que enfoca la luz debe estar a muchos años luz de nosotros y que la fuente de luz debe encontrarse todavía mucho más lejos.
Se suponía que los objetos tan lejanos no se podían detectar en absoluto, así que los astrónomos pensaron que, aunque las lentes gravitatorias eran un concepto teórico muy interesante, no era algo que se pudiera observar.
Pero en 1963 se observaron los quásars. Son objetos muy remotos y brillantes. Se sitúan a miles de millones de años luz y se pueden observar gracias a la gran cantidad de luz que emiten y sobre todo a sus radioondas. Estas ondas contienen todas las propiedades de las ondas luminosas y también pueden ser desviadas.
Supongamos que entre un quásar remoto y la Tierra hay un objeto con mucha masa que puede desviar las ondas de radio del quásar y concentrarlas en las inmediaciones de la Tierra. Veríamos al quásar, no como la clásica pequeña mancha de radiación sino como un anillo centrado alrededor del objeto de gran masa que está actuando como foco.
Por supuesto, puede que este objeto no se sitúe exactamente entre la Tierra y el quásar. Las ondas de radio pueden progresar rozando la mayoría un lado y casi ninguna el otro. En vez de un anillo de radioondas veríamos un quásar distorsionado, posiblemente un quásar doble en un lado y otro menor en el otro.
El 9 de marzo de 1979 se descubrió un quásar doble, con ambos componentes muy próximos el uno del otro. Además, sus espectros eran tan idénticos que lo normal era suponer que se estaba viendo un quásar distorsionado por un efecto de enfoque. Así fue, que al estudiarlo más detenidamente resultó que había un cúmulo gigante de galaxias enfrente del quásar, un cúmulo tan lejano que apenas se podía ver.
Después de esto se detectaron siete casos más de galaxias distorsionadas, pero hasta 1987 no se encontró un quásar con un cúmulo galáctico exactamente delante de él, de manera que formara un anillo de radioondas. Era la lente gravitatoria perfecta o, como a veces se le conoce, un «anillo de Einstein». Ahora se ha descubierto un segundo anillo de Einstein, y los astrónomos han sido capaces de definir la distancia a la que se sitúa el quásar que origina la radiación. Calculan que está a 2.800 millones de años luz.
Además, han detectado el objeto que está actuando como foco. Es una gran galaxia que se sitúa exactamente entre el quásar y la Tierra y que tiene una masa equivalente a 300.000 millones de veces la de nuestro Sol. En otras palabras, es una galaxia tan grande o quizás algo mayor que la nuestra, la Vía Láctea.
Esto plantea la cuestión de «masa perdida». Es uno de los dos grandes interrogantes que preocupan en la actualidad a los astrónomos. (El otro es el mecanismo por el que las galaxias se formaron en primer lugar).
Hay razones para pensar que no toda la masa del Universo aparece en forma de objetos visibles. Si sumamos las masas de las estrellas de todas las galaxias, parece no haber masa suficiente para justificar los efectos gravitatorios. Algunos astrónomos piensan que la masa perdida puede ser cien veces mayor que la que podemos ver, pero nadie sabe cuál podría ser la naturaleza de la masa invisible.
Otros astrónomos sostienen con firmeza que la masa perdida en realidad no existe, y la discusión es fuerte y violenta. A propósito del nuevo anillo de Einstein, la masa de la Galaxia que interviene parece ser entre ocho y dieciséis veces la masa de las estrellas que vemos en ella. No es una prueba real, pero es un golpe a favor de la masa perdida.

UN GIRO MINÚSCULO DE LA LUZ
Uno de los mayores enigmas de la astronomía es el «misterio de la masa perdida» y en 1990, algunos astrónomos informaron de que en cierto modo se podía hacer visible esta masa.
La masa perdida corresponde a objetos del Universo que no se pueden ver ni detectar de otra manera, pero los astrónomos aseguran que existe. No saben lo que es o lo que podría ser, pero, sin embargo, están seguros de que está ahí.
¿Cómo? Pues bien, los astrónomos han estudiado un gran número de galaxias. También han estudiado las estrellas y otros objetos brillantes que han observado en su interior. A partir de sus observaciones pueden calcular la masa (o sea, la cantidad total de materia) de la galaxia. Y afirman que el 90% de su masa se concentra en una pequeña región del centro de la Galaxia.
Basándose en esto, pueden apreciar asimismo el movimiento rotatorio de la Galaxia. Las estrellas próximas al centro deberían moverse deprisa; las que están más lejos, más despacio (éste es el modo en que se mueven nuestros planetas en el Sistema Solar). El único problema es que una galaxia tras otra se niega a moverse de esta manera. Las estrellas lejanas se mueven a la misma velocidad que las más cercanas. La única manera de explicar esto es asumir que hay masa adicional en los alrededores de la galaxia, masa que no podemos detectar.
¿Se trata de nubes formadas por cuerpos pequeños, demasiado pequeños para brillar pero con una masa que cada uno añade? ¿Pueden ser cantidades ingentes de partículas subatómicas con masa que nunca hemos detectado y de las que por el momento no sabemos nada? No lo sabemos, pero hay una causa.
No es sólo una cuestión de galaxias que giran. Las galaxias se organizan en cúmulos de todos los tamaños; algunos contienen docenas de ellas, como el nuestro, mientras que otros contienen cientos o incluso miles de galaxias.
Cuando los astrónomos observan los cúmulos, pueden medir la masa de cada una de las galaxias y, por tanto, la fuerza de la atracción gravitatoria que ejercen unas sobre otras. También pueden calcular la velocidad a la que cada galaxia se mueve dentro del cúmulo. Sin embargo, en todos los casos, la cantidad de gravitación que ejercen las galaxias sobre las demás no parece ser suficiente para evitar que las galaxias se muevan cada una por su cuenta, teniendo en cuenta la velocidad a la que se están desplazando.
La única manera en que pueden permanecer juntas es suponer que hay más masa y, por lo tanto, más atracción gravitatoria de la que se puede deducir de la materia que vemos. Cuanto mayor es el cúmulo, más masa extra tiene que contener.
Algunos astrónomos piensan que la masa perdida puede ascender al 90% de toda la masa del Universo y es muy frustrante que no podamos detectarla ni caracterizarla.
¿Hay algo que pueda componer la masa para darnos alguna pista de su localización? Esto ya supondría algo. En teoría lo hay.
Ya en 1916, Albert Einstein, utilizando su teoría general de la relatividad, predijo que los rayos de luz se desviarían al pasar cerca de objetos con mucha masa que los sometían a un campo gravitatorio. La desviación dependería de la masa y de su proximidad a la luz, y Einstein calculó exactamente cómo ocurriría todo. Su predicción se verificó en 1919 y muchísimas otras veces más desde entonces, de muchas maneras diferentes. Todos los astrónomos están convencidos de que la luz se desvía de manera apreciable cuando pasa cerca de un cuerpo con mucha masa.
Supongamos que estamos estudiando una galaxia muy remota, que se sitúe lo más lejos posible que podamos detectar. Su luz viaja hacia nosotros por un espacio de millones de años luz y, al hacerlo, puede atravesar un cúmulo denso de galaxias. El campo gravitatorio de este cúmulo puede provocar un giro minúsculo en este rayo de luz difuso de la galaxia remota.
Los astrónomos de los laboratorios AT&T Bell de Murray Hill (Nueva Jersey) y del Observatorio Nacional de Astronomía Óptica de Tucson (Arizona), dirigidos por J. Anthony Tyson, anunciaron el 18 de enero de 1990 que habían logrado exactamente eso, utilizando unos «dispositivos de carga acoplada» nuevos y muy avanzados, junto con programas informáticos especialmente diseñados, con los que se analizaron los resultados.
A partir del giro minúsculo de la luz se puede deducir, según ellos, dónde se localiza exactamente la masa perdida dentro de la galaxia. Es probable que por medio de esta técnica se pueda por fin cartografiar el Universo, por decirlo así, y determinar la distribución de la masa perdida, más densa en unos puntos y menos en otros. Esto puede proporcionarnos pistas sobre la naturaleza de dicha masa, lo que, a su vez, podría explicar gran cantidad de cosas sobre el Universo que por el momento desconocemos.
Sin embargo, no podemos lanzarnos con demasiado ímpetu. La nueva técnica se sitúa en el límite de lo posible y deberá ser comprobada por otros. De hecho, algunos astrónomos ya han expresado sus dudas de que se pueda confiar plenamente en la nueva técnica.
No obstante es tal la frustración científica sobre el «misterio de la masa perdida» que es seguro que incluso el mínimo avance hacia una posible solución producirá una gran excitación.

MAPAS DE LAS ESTRELLAS
Los mapas de estrellas registran una historia muy larga. El primer mapa significativo lo elaboró un astrónomo de la antigua Grecia, Hiparco, hacia el año 130 aC. Había descubierto una nueva estrella en el cielo (lo que en la actualidad llamamos una «nova») y quería estar seguro de que más adelante ese fenómeno se podría reconocer sin problemas. Para hacerlo, elaboró una lista de las 850 estrellas más brillantes y les adjudicó su posición dividiendo el cielo en líneas de longitud y latitud. Cualquier estrella brillante que no contuviera la lista sería reconocida de inmediato como una nueva estrella.
Hacia el año 150 dC, otro astrónomo, Ptolomeo, incorporó los datos de Hiparco a su propio tratado sobre el tema y añadió 170 estrellas más. El mapa de Ptolomeo se utilizó durante catorce siglos. En la década de 1580, no obstante, el astrónomo danés Tycho Brahe elaboró el primer mapa de estrellas moderno. Utilizó instrumentos diseñados por él mismo para consignar posiciones más exactas que las logradas en la antigüedad. Su mapa incluía 788 estrellas localizadas con toda precisión.
Un siglo después, en 1661, un astrónomo alemán con vista de lince, Johannes Hevelius, trazó un mapa que contenía 1.564 estrellas, más exacto todavía que el de Tycho. Pero Tycho había realizado su trabajo antes de que se inventara el telescopio y Hevelius se había negado a utilizarlo.
Después de la época de Hevelius, las estrellas sólo se cartografiaron utilizando un telescopio. Esto permitió distinguirlas con más precisión de lo que se podía hacer a simple vista. Con el telescopio también se pudo ver y localizar estrellas demasiado tenues para ser distinguidas sin ayuda.
El primer mapa telescópico de estrellas significativas fue realizado por un astrónomo inglés, John Flamsteed. El mapa se publicó en 1725, seis años después de la muerte de Flamsteed, y contenía 3.000 estrellas.
Entre 1859 y 1862, utilizando telescopios más precisos y dedicándose por completo a esta tarea, el astrónomo alemán Friedrich Argelander trazó un mapa gigantesco de las estrellas, catalogando no menos de 457.848 en cuatro grandes volúmenes, en una lista que relacionaba la latitud y longitud de cada una.
Nadie en su época habría pensado posible un mapa de estrellas más amplio y preciso, pero Argelander había trabajado sin las ventajas de la fotografía, que todavía no se había desarrollado hasta el extremo de registrar la luz estelar.
Una vez que se pudo fotografiar el cielo por la noche mediante telescopios enormes, no era necesario calcular la posición de cada estrella mientras se observaba. Bastaba con hacer una foto y después registrar las posiciones de las distintas estrellas con tranquilidad. En la primera década de este siglo, se podía disponer de mapas de estrellas que incluían millones de ellas.
Un mapa de 1989, preparado por el Instituto de Ciencia Telescópica y Espacial, cataloga la posición y el brillo de 18.829.291 objetos. De ellos, alrededor de 15 millones son estrellas de nuestra propia Galaxia. Los tres o cuatro millones restantes se sitúan en otras galaxias fuera de la nuestra.
Los seres humanos con buena visión sólo pueden observar unas 6.000 estrellas a simple vista. Alcanzan hasta la sexta magnitud de brillo (cuanto más alta es la magnitud, más oscura es la estrella). El mapa de 1989 contiene todas las estrellas y otros objetos hasta la magnitud quince, pero nuestros telescopios pueden distinguir objetos hasta de la magnitud veintiuno, así que el nuevo mapa de estrellas en ningún caso incluye todos los objetos visibles.
Los mapas futuros de estrellas —a partir de nuevos descubrimientos— probablemente seguirán registrando inexactitudes, ya que todas las estrellas están en movimiento. Se lanzan a lo largo de trayectorias enormes que las llevan alrededor del centro de la Galaxia, unas en órbitas casi circulares y otras en órbitas alargadas y elípticas. Nuestro Sol, por supuesto, también se está moviendo.
El resultado claro de todo esto es que las estrellas que vemos se mueven en el cielo, en todas direcciones, como un enjambre de abejas. Los movimientos son muy lentos, pero representan cambios en las posiciones que, aunque mínimos, exigirán nuevas observaciones.
Actualmente los astrónomos están calculando el movimiento aparente de todas las estrellas de manera que se pueda incorporar esta información a los futuros mapas de estrellas.

LOS DESCUBRIDORES DE PLANETAS
Dos astrónomos de la Universidad de Princeton, Shude Mao y Bohdan Paczynski, desarrollaron un método nuevo para hallar posibles planetas que giran alrededor de estrellas remotas. Antes de esto, el método era sencillo, siempre que el objeto que daba vueltas alrededor de la estrella fuera grande. Por ejemplo, la estrella Sirio tiene, girando a su alrededor, una enana blanca que posee tanta masa como nuestro Sol y alrededor de dos quintas parte de la masa de Sirio. El resultado es que la enana blanca (Sirio B) sostiene una atracción gravitatoria bastante grande.
Sirio debería de desplazarse en línea recta, pero Sirio B la atrae desviándola de esta trayectoria y la obliga a describir un movimiento ondulatorio. En consecuencia, Sirio B se descubrió mucho antes de que fuera avistada. Lo mismo sucede con Proción B, una enana blanca que gira alrededor de Proción.
Pero ahora supongamos que el objeto que gira alrededor de la estrella es de naturaleza planetaria, digamos un objeto del tamaño de Júpiter. La masa de un objeto así supondría una milésima parte de la del Sol y su atracción gravitatoria sobre la estrella sería insignificante.
No obstante, habría algo que podría verse. Si elegimos una estrella relativamente cercana a nosotros, podríamos quizá detectar un movimiento ondulatorio que de otra manera no podríamos ver. Esto sería cierto sobre todo si la estrella fuera relativamente pequeña y el planeta que gira a su alrededor relativamente grande.
Debido a esto, la estrella de Barnard, a sólo 5,9 años luz de nosotros, dejaba una huella ondulatoria muy borrosa cuando se movía y los astrónomos calcularon que un planeta del tamaño de Júpiter giraba a su alrededor. Se estudiaron otras estrellas del mismo tipo y se encontró que alrededor de media docena tenían planetas girando a su alrededor. Surgía sólo una pega, los movimientos ondulatorios eran tan pequeños que había muchas probabilidades de que escaparan a la visión del telescopio, y así ocurría. Se decidió que había estrellas que no tenían planetas girando a su alrededor.
¿Hay algún modo de saber si hay planetas girando alrededor de estrellas remotas que no implique movimientos ondulatorios?
Mao y Paczynski afirman que, en ocasiones, un planeta grande podría situarse entre la estrella alrededor de la que gira y la Tierra. En consecuencia, la gravedad combinada de la estrella y el planeta distorsionaría la luz de la estrella remota de un modo característico. A esto se conoce como «efecto de microlente». Hasta el momento se han descubierto dos microlentes, pero relacionados con objetos de galaxias remotas. Lo que estamos buscando son microlentes en nuestra propia Galaxia que nos puedan decir algo sobre estrellas próximas a nosotros.
Una de estas microlentes se produciría también si un planeta se situase no sólo delante de su estrella, sino también delante de una estrella más remota. Los astrónomos piensan que estos efectos de microlente se originarían unas pocas veces al año por cada millón de estrellas remotas. El resultado sería una variación rápida de la naturaleza de la luz de la estrella, entre dos horas y media y diez horas. Para que esto suceda, el planeta tiene que pasar casi directamente por delante de la estrella remota y esto debe de suceder entre el 5 y el 10% de los casos de formación de microlentes. Esto quiere decir que los astrónomos tienen que prestar muchísima atención durante todo el año para detectar un solo episodio de microlente.
En apariencia, un efecto de microlente sería más eficaz si el planeta se colocara delante de una estrella doble. No es difícil, puesto que la mayoría de las estrellas son dobles.
Los astrónomos calculan que hasta un 10% de todos los episodios de microlentes mostrarán que el objeto planetario se ha colocado delante de una estrella doble, prolongándose las pequeñas variaciones entre 0,4 y 1,7 días. Además, a partir del efecto de microlente, sería posible calcular el tamaño del objeto que se interpone entre la Tierra y la estrella.
Mao y Paczynski son libres de admitir que la tarea es ardua. Sin embargo, aparentemente no hay más métodos para detectar planetas remotos.
Es importante que se lleve a cabo esa detección o no, puesto que informaría de que la Galaxia esté llena de planetas o no. Si lo está, podría estar también llena de vida, lo que sin duda es de gran importancia.
Además, puede ofrecer una idea del tamaño de los planetas. Si los planetas que descubrimos son del tamaño de Júpiter, sería bastante deprimente. Queremos planetas similares a la Tierra, aunque incluso por el método de Mao y Paczynski no es muy probable que seamos capaces de encontrar planetas pequeños.
Y de todas maneras, si las cosas van bien, habremos logrado localizar planetas que giran alrededor de otros soles y lo habremos hecho por primera vez. Esto también significa algo que celebrar, puesto que, hasta ahora, tenemos un Universo completamente vacío por lo que a planetas respecta. Sólo conocemos nuestros planetas, los que rodean a nuestro Sol y debemos estar dispuestos a sentirnos solos en tales circunstancias.

LOS CAMBIOS DE LA ESTRELLA POLAR
La Estrella Polar es famosa por su constancia. Se encuentra en el cielo, muy cerca del punto que está sobre el polo norte de la Tierra y las estrellas giran alrededor de este punto cuando la Tierra rota. La Estrella Polar, situada casi en el eje de esa rotación, permanece prácticamente en la misma posición en el cielo durante todas las noches del año. Esta constancia la convirtió en algo muy útil en la antigüedad para guiar a los barcos por la noche, ya que la Estrella Polar siempre marcaba el norte, a la manera de una brújula astronómica.
Pero en 1989, Nadine Dinshaw, una joven astrónoma de la Universidad de la Columbia Británica, demostró que la Estrella Polar está cambiando en un aspecto muy importante. No, no es que la Estrella Polar esté desplazándose de su posición; es una cuestión de brillo.
La mayoría de las estrellas brillan de manera uniforme, pero algunas de ellas presentan modificaciones en la potencia de su luz, son «estrellas variables». Hace unos cien años se descubrió que la Estrella Polar era una estrella variable. Sus cambios no se apreciaban a simple vista, pero medidas astronómicas muy precisas demostraron que unas veces era un 10% más brillante que otras.
Basándose en la manera regular en que la luz de la Estrella Polar brilla y se oscurece, los astrónomos pudieron afirmar que se trataba de un tipo particular de estrella variable llamada «cefeida». Las cefeidas reciben este nombre porque la primera estrella de este tipo se descubrió por primera vez en la constelación de Cefeo.
La razón por la que la variación de emisión de luz de las cefeidas es regular es que emite impulsos regulares. Aumenta, después disminuye, después vuelve a crecer y así sucesivamente. Resultó que todas las cefeidas de un brillo determinado emitían impulsos del mismo período, un descubrimiento hecho en 1912 por la astrónoma americana Henrietta Swan Leavitt.
Era un descubrimiento especialmente útil. Quería decir que, simplemente midiendo el tiempo que tardaba una cefeida determinada en pasar de brillante a tenue y de nuevo a brillante, se podía determinar su brillo real. Si se compara éste a su brillo aparente, como la vemos en el cielo, podemos deducir la distancia a la que está.
Midiendo la distancia a varias cefeidas de nuestra Galaxia, los astrónomos podían conseguir una idea fiel de su tamaño por primera vez y demostrar que estaba a 100.000 años luz.
Se pueden observar cefeidas especialmente brillantes incluso en otras galaxias que no están demasiado lejos de la Tierra y se puede medir su distancia. Por ejemplo, se descubrió que la Galaxia de Andrómeda (la gran galaxia más cercana a la Tierra) estaba a 2,3 millones de años luz, midiendo los períodos de sus cefeidas. También se determinó la distancia a otras galaxias relativamente cercanas y estas distancias sirvieron como base para cálculos posteriores de la distancia a los objetos más lejanos que se pueden observar y de la edad probable del Universo.
Naturalmente, a los astrónomos les interesaba saber qué era lo que hacía variar los pulsos de las cefeidas. Las estrellas brillan de manera uniforme durante mucho tiempo a costa de la fusión del hidrógeno que se produce en su núcleo. Con el tiempo, no obstante, cuando se ha fusionado hidrógeno suficiente, el núcleo se calienta tanto que la estrella se ve obligada a expandirse. Las capas externas se enfrían y se enrojecen a medida que se expanden. La estrella pasa a ser entonces una «gigante roja».
Algunas estrellas pasan por un estado intermedio. Antes de expandirse definitivamente a gigante roja, atraviesan un período de impulsos, una especie de duda en la que se expanden un tanto, después se encogen, vuelven a expandirse y a encogerse y así sucesivamente. En esta etapa son cefeidas.
Al final, mientras el hidrógeno del núcleo se sigue consumiendo, los impulsos pierden fuerza porque la estrella se vuelve más decidida, por decirlo así, en su expansión y avanza en su camino hacia gigante roja. Los astrónomos que analizaban la naturaleza de los impulsos pensaban que el período durante el cual una estrella permanece como cefeida era corto, lo cual significaba que si se observaban con cuidado suficientes cefeidas, antes o después, se captaría una al final de esta etapa de su existencia y se podría observar cómo se extinguían los impulsos. Si el esquema astronómico era correcto, éstos deberían extinguirse con bastante rapidez, en unos diez años.
A principios de los ochenta, los astrónomos empezaron a notar que las variaciones de brillo de la Estrella Polar se estaban haciendo menos acusadas. Los instrumentos para registrar las medidas necesarias se perfeccionaron y Nadine Dinshaw, después de un estudio a fondo de la estrella durante un período de más de ocho meses, durante el cual tomó 237 espectros en los que analizó la luz de la estrella, confirmó el hecho. A partir de los espectros se puede decir si la estrella está emitiendo impulsos, si su superficie primero se acerca y después se aleja de la Tierra. Resulta que la fuerza de los impulsos supone sólo una tercera parte de las variaciones que se descubrieron por primera vez y parece que se van debilitando de año en año. La estrella cesará pronto de emitir impulsos, después de haber estado haciéndolo de manera uniforme durante quizá 40.000 años (un tiempo muy corto para los astrónomos). ¿Y después? ¿Se expandirá la Estrella Polar hasta transformarse en una gigante? ¿Se volverá rojiza y su luz más brillante? Es posible, pero conservará su posición y seguirá siendo la Estrella Polar.

LA ESTRELLA DESAPERCIBIDA
Puede que, hace casi mil años, una tribu de americanos nativos observara, en lo que ahora es Nuevo México, una estrella en el cielo que los astrónomos europeos pasaron por alto inexplicablemente. Es lo que piensan Ralph Robbins y Russell Westmoreland de la Universidad de Texas, después de estudiar una vasija funeraria descubierta hace unos cincuenta años.
La estrella en cuestión era una supernova, una estrella que explotó en forma de llamarada brillante en 1054, probablemente el día 4 de julio, a modo de celebración prematura del Día de la Independencia en Estados Unidos. Estalló con un brillo sin igual, en el cielo, en la constelación de Tauro, el toro, así que era perfectamente visible en toda Europa. Formaba parte del zodíaco, esa zona del cielo que tanto interesa a los astrólogos, así que los observadores del espacio medievales debían de haber estado estudiando la zona.
Tampoco era difícil de observar. Brillaba más que cualquier otro objeto en el cielo, sin tener en cuenta el Sol y la Luna. Era dos o tres veces más brillante que Venus, la estrella gloriosa del atardecer. Era tan resplandeciente que se pudo ver a la luz diurna durante veintitrés días. Por la noche fue visible durante casi dos años antes de desvanecerse y desaparecer y en sus momentos de brillo máximo incluso proyectaba sombra.
Y, sin embargo, nadie en Europa la vio; o al menos no ha sobrevivido hasta nuestros días referencia alguna europea de su observación, aunque un manuscrito italiano registra una anotación que podría referirse a ella.
Pero si no existe una referencia exacta de su observación, ¿cómo sabemos que dicha estrella estuvo alguna vez en el cielo?
Por un lado, la explosión colosal de esta estrella dejó tras de sí una nube de restos a la que los astrónomos llaman la «nebulosa de Cáncer». Esta nube sigue expandiéndose y, de la velocidad de expansión, los astrónomos pueden hacer cálculos retrospectivos y afirmar que la explosión empezó en algún momento hacia 1054.
Por otro lado, una de las razones por la que no hay referencias europeas sobre la estrella puede referirse a las condiciones de esa época, en que Europa estaba empezando a salir de la oscura Edad Media y la astronomía del continente se hallaba en decadencia. No se desarrollaba el estudio del cielo y no quedó constancia alguna.
No obstante, Europa no era el único continente del mundo. En esa época, China se situaba a la cabeza de la tecnología mundial y, durante siglos, los astrónomos chinos habían registrado cuidadosamente la época de aparición de cualquier estrella nueva y la posición exacta del cielo en la que aparecía. Dejaron constancia de lo que llamaron una «estrella huésped» que había aparecido en un año que corresponde a nuestro 1054 en el lugar ocupado ahora por la nebulosa de Cáncer. (Y no fue la única supernova que registraron; los anales astronómicos de China recogen unas cincuenta estrellas huésped durante los tiempos antiguos y medievales). Los astrónomos japoneses también informaron de la aparición de una estrella brillante en 1054.
Sin embargo, la supernova de 1054 fue lo bastante espectacular como para haber sido registrada sólo por los astrónomos de naciones con tecnologías avanzadas. Personalidades aun primitivas para las pautas actuales tenían que darse cuenta de los fenómenos celestes que gobernaban los cambios de estaciones y habrían observado cualquier signo fuera de lo corriente.
El estudio de los conocimientos astronómicos de los pueblos primitivos ha cobrado importancia recientemente; recibe el nombre de «arqueoastronomía» («astronomía antigua»).
Esta ciencia registró muchos titulares en los periódicos en los años sesenta en relación con Stonehenge, los círculos impresionantes de piedras gigantes (algunas de ellas tendidas) del sudoeste de Inglaterra. Las reconstrucciones del aspecto que debió de tener cuando todas las piedras estaban en su sitio han llevado a creer a algunos que la observación entre determinadas piedras marcaba la salida del Sol del día del solsticio de verano. Algunos sostienen incluso que la disposición de las rocas podría haber servido como un observatorio de la Edad de Piedra capaz de pronosticar las épocas en que se podían esperar eclipses lunares.
De la misma forma, se han encontrado lugares en los continentes americanos en los que la luz solar podía penetrar a través de una hendidura de forma tal que en la mañana del solsticio de verano, y sólo ese día, se iluminaba el interior de una forma determinada.
Además, está la vasija funeraria que Robbins y Westmoreland han estado estudiando. En su centro aparece la figura de un conejo, que puede representar a la Luna, ya que muchas tribus nativas americanas piensan que las marcas oscuras de la Luna representan un conejo (igual que en la tradición occidental representan un hombre con un espino). Bajo el conejo hay un círculo oscuro con rayos emergiendo en todas direcciones, y parece que simboliza una estrella.
Cuando la supernova de 1054 apareció por primera vez, la Luna estaba en creciente cerca de ella en el cielo y, según Robbins y Westmoreland, eso es lo que representa la estrella próxima al conejo. Además, hay 23 rayos emergiendo de la estrella, lo que puede representar los veintitrés días que fue visible a la luz del día. Para terminar, los procedimientos de datación indican que la vasija fue realizada entre el año 1000 y el 1070 dC, lo que lo sitúa en la época correcta. Nada de esto es concluyente, pero es posible, ¿no es cierto?

EL COLOR DE SIRIO
La estrella más luminosa del cielo es Sirio, que brilla como un diamante candente. Una estrella como Sirio, por lo general, no cambia su color ni su brillo, así que es bastante sorprendente que en la antigüedad y en la Edad Media se la describiera con frecuencia como «roja».
¿Cómo es posible que Sirio se vuelva roja?
En realidad hay varias posibilidades. Después de todo, Sirio está formada por dos estrellas y una de ellas, Sirio B, es una enana blanca. Una enana blanca es una estrella corriente que se expande para formar una gigante roja. La gigante roja se colapsa después para formar una enana blanca. Por tanto, podemos suponer que Sirio B se expandió a gigante roja y que eso es lo que hizo que Sirio apareciera roja.
Pero esto no se considera razonable. Sirio B está lo bastante alejada de Sirio como para que, cuando se vuelve roja, no afecte a la blancura de Sirio. Además, cuando una estrella se convierte en una gigante roja y después se colapsa, por lo general produce una nube de materia visible durante miles de años. No se observa una nube así, así que si Sirio B se expandió a una gigante roja y después colapsó a enana blanca, debió de ocurrir hace muchos miles de años.
Una segunda posibilidad es que Sirio y Sirio B estén rodeadas por una nube de gas que oscurezca su aspecto y las haga aparecer rojas. Sin embargo, esta nube de gas también debería existir durante miles de años, y el hecho de que no exista en la actualidad cambia la situación.
Todavía queda otra posibilidad. En los tiempos del antiguo Egipto se consideraba a Sirio una estrella especial cuya aparición en el cielo era de gran importancia. Los sacerdotes se dedicaban a observarla en cuanto aparecía en el horizonte. Cuando lo hacía, debía de verse a través de la niebla del horizonte y parecería roja. Y, por tanto, se consideraba una estrella roja.
Por supuesto, el hecho de que los astrónomos medievales dijeran que Sirio era roja bien puede ser un error. Podrían estarse refiriendo a Arturo, una estrella casi tan brillante como Sirio, que es claramente rojiza.
Los grandes astrónomos medievales fueron los chinos. Relatan los cambios de color en las estrellas, incluida Sirio, pero en este caso la razón es puramente astrológica. Los chinos pensaban que el Universo era astrológico, que estaba gobernado por las estrellas y, por tanto, dieron la vuelta a las cosas.
En vez de anotar los acontecimientos del mundo y decidir que estaban dirigidos por las estrellas, los chinos registraron cambios en los cielos y así decidieron que los acontecimientos de la Tierra estaban de acuerdo con ellos. No obstante, hay textos chinos que describen con claridad a Sirio como blanca y sin cambio de color.
Esto no quiere decir que las estrellas nunca cambien de color. Hay estrellas que lo hacen. Hay estrellas que son gigantes rojas y que emiten impulsos, de manera que unas veces son mayores y más rojas que otras. La estrella más conocida de este tipo es Betelgeuse, en la constelación de Orión. Otra es Mira, en la constelación de Ceto.
No obstante, los cambios en estos casos son pequeños y nunca pasan del blanco al rojo.
También hay estrellas que no cambian el color pero sí el brillo. Hay una llamada Algol, en la constelación de Perseo, que se oscurece y vuelve a brillar según un patrón fijo. Parece que Algol es una estrella doble y una de las dos es mucho más oscura y más grande que la otra. Periódicamente, la estrella oscura se coloca delante de la otra y entonces el brillo de Algol disminuye. Después de un tiempo, la estrella oscura se desplaza y el brillo asoma. Es una «variable de eclipse» y hay varias estrellas de este tipo.
También hay estrellas que se oscurecen y vuelven a brillar sin que estén implicados eclipses. Son estrellas primero mayores y más oscuras y después menores y más brillantes que simplemente emiten impulsos. Se las conoce como «cefeidas variables». Son especialmente significativas porque se pueden utilizar para medir la distancia a las galaxias.
Para terminar, hay estrellas que son realmente rojas. De hecho, la mayoría de las estrellas que hay en el cielo son rojas. Son estrellas pequeñas y con poco brillo. Son tan pequeñas que sólo pueden producir energía para que el brillo de su superficie sea de 2.000 grados, comparado con el Sol que alcanza 5.700 grados. Son «enanas rojas», y alrededor de las tres cuartas partes de las estrellas son de este tipo.
No hay ninguna probabilidad de que las enanas rojas puedan mantener vida. Para eso, se necesita una estrella del tipo del Sol, pero sólo un 10% de las estrellas de las galaxias son de este tipo. Sirio es mucho mayor y más brillante que el Sol, pero tampoco es capaz de mantener vida.

UNA ESTRELLA JOVEN
Colin Aspin, del Joint Astronomy Center de Hawai, y sus colegas han descubierto una estrella que puede estar en proceso de formación y ser la estrella más joven que se haya detectado hasta ahora.
Parece extraño pensar en las estrellas como en cuerpos con diferentes edades. Durante siglos, los hombres han estudiado el cielo nocturno y han visto estrellas de todo tipo, brillando noche tras noche y generación tras generación sin cambios aparentes. Parecería que hubieran sido creadas todas a la vez con su brillo específico, pero no es así. Con el tiempo, los astrónomos han llegado a admitir el hecho de que unas estrellas son grandes y otras pequeñas; unas frías y otras calientes. Brillan porque tienen un suministro constante de hidrógeno, que poco a poco se transforma en helio por fusión. Se podría pensar que cuanto mayor sea la estrella y la reserva de hidrógeno más tiempo debería durar, pero ocurre justamente lo contrario. Nuestro Sol es una estrella de tamaño medio y su reserva de hidrógeno debería durar unos 10.000 millones de años. Más o menos la mitad ya ha transcurrido, puesto que el Sol tiene cerca de 5.000 millones de años, pero queda mucho tiempo.
Una estrella que sea mucho mayor que el Sol contiene mucho más hidrógeno, pero, puesto que la temperatura de una estrella grande es muy alta, debe consumir hidrógeno en grandes cantidades para mantener el calor. El resultado es que cuanto mayor es la estrella y más hidrógeno tiene con más rapidez se consume el hidrógeno y la estrella no dura mucho.
Una estrella grande y brillante podría durar sólo un par de miles de millones de años y la estrella más grande y más brillante que conocemos podría durar sólo mil millones de años aproximadamente. Esto significa que las estrellas grandes y brillantes que vemos en el cielo no siempre estuvieron allí, sino que empezaron a existir cuando el Sol y la Tierra ya tenían miles de millones de años.
Si hay estrellas que se han formado hace sólo un millón de años, ¿por qué no puede haber estrellas que se estén formando en este mismo momento? La respuesta es que las hay, pero no resulta fácil verlas.
Las estrellas se forman a partir de grandes volúmenes de polvo y gas. Ambos se condensan lentamente y se vuelven más pequeños y más densos. Con el tiempo, se vuelven tan densos en el núcleo que se inicia la fusión del hidrógeno. El centro «se enciende» y se convierte en una estrella. En el pasado nunca se ha observado porque la nube de polvo y gas lo oscurecía. Sin embargo, en la actualidad podemos estudiar el cielo con luz infrarroja y radioondas que pueden atravesar el polvo y el gas. El resultado es que en una nube de polvo y gas llamada NGC 13333, situada a 1.100 años luz de la Tierra, se han visto pequeños glóbulos de luz. Brillan sólo en el infrarrojo, así que todavía no constituyen verdaderas estrellas, sino «protoestrellas». Los astrónomos calculan que las protoestrellas sólo tienen unos pocos miles de años y que pueden pasar 100.000 años antes de que se condensen hasta el punto en que se inicia la fusión del hidrógeno. De los pequeños destellos de luz de la nebulosa, uno —IRAS-4— es el más frío y por tanto el más joven.
Una vez que empieza la fusión del hidrógeno, la estrella emite un viento estelar que elimina el polvo y el gas de los alrededores. Entonces brilla resplandeciente y la observamos como una estrella.
Siempre surgen problemas sobre lo grande que podría ser una estrella así. El tamaño de las estrellas depende de la nube de polvo y gas originaria. Una estrella así puede ser pequeña, oscura y fría, brillando con luz roja (lo que es una enana roja, y la mayoría de las estrellas del cielo son enanas rojas). Estas estrellas pierden su hidrógeno tan despacio que pueden durar hasta 100.000 millones de años.
Después, por supuesto, existen las estrellas de tamaño medio como nuestro Sol, cuyo número es mucho menor que el de enanas rojas. Y hay estrellas grandes y gigantes que duran poco tiempo y que son muy escasas en comparación con las estrellas pequeñas en formación.
Es posible, sin embargo, que haya nubes de polvo y gas tan pequeñas que nunca se condensen hasta el estado de estrella. El centro se vuelve lo bastante denso como para formar un cuerpo que se parezca a un planeta grande, pero no resulta lo bastante grande para iniciar la fusión nuclear y convertirse en una estrella. Tales «subestrellas» brillan en el infrarrojo y son muy difíciles de ver. Los astrónomos llaman a estos cuerpos «enanas marrones» porque no están lo bastante calientes como para brillar en el rojo del espectro y convertirse en enanas rojas.
Puesto que las estrellas menores son más numerosas, es posible que haya más enanas marrones que estrellas ordinarias, y pueden añadir a la galaxia masa que no detectamos porque no somos capaces de distinguir ninguna enana marrón.
Los astrónomos buscan con afán enanas marrones porque la masa añadida respondería a muchos problemas sobre nuestra Galaxia, pero todavía no han tenido suerte. De vez en cuando se anuncia la detección de una enana marrón, pero por desgracia resulta ser una falsa alarma. Sin embargo, la búsqueda continúa y cuando descubrimos una estrella muy joven, por lo que a nosotros respecta, puede tratarse de una enana marrón.

LAS SUPERNOVAS I Y II
Diana Foss y Richard Wade, de la Universidad de Arizona, y Richard Green, del Observatorio Nacional Kitt Peak, en Tucson, han logrado dar al traste con una posible teoría sobre la aparición de la supernova I.
Las supernovas son grandes explosiones de estrellas que las hacen brillar durante un tiempo con la apariencia de toda una galaxia de estrellas corrientes. Las hay de dos tipos: supernova I, más brillante, y supernova II.
La supernova II es en la que generalmente pensamos cuando nos imaginamos una. Es una estrella grande, cuya masa supone más de ocho veces la del Sol. Con el tiempo agota el hidrógeno necesario para seguir activa y se colapsa. Esto hace brillar con gran intensidad sus capas exteriores y aparece la supernova, por lo general, con un pequeño residuo que se forma en el centro: una estrella de neutrones o un agujero negro.
Esto no plantea ningún problema. El problema está en la supernova I, que consiste en una estrella que ya ha agotado su hidrógeno. Esto quiere decir que es una enana blanca. Estas estrellas explotan con el tiempo, brillando todavía más que una supernova II y sólo queda tras ellas una nube de polvo y gas. Pero ¿cómo hacen explosión las enanas blancas?
Nuestra Galaxia tiene muchas enanas blancas. Más de un 10% de las estrellas son enanas blancas. Pero para que estas estrellas hagan explosión, se necesita que su masa sea por lo menos 1,4 veces la del Sol y el problema está en que todas las enanas blancas que conocemos tienen una masa bastante menor que ésa y, por tanto, no pueden explotar.
Lo que hay que hacer es imaginar algún modo de que la enana blanca aumente su masa. Al aumentar la masa, se calienta cada vez más y se hace más inestable hasta que alcanza la cifra de 1,4 y entonces explota. El modo más sencillo es suponer que hay enanas blancas que existen por pares y que giran una en torno a otra con rapidez. Es posible que, mientras lo hacen, se aproximen la una a la otra lentamente hasta que terminen fusionándose en una única enana blanca cuya masa sea equivalente a la suma de las dos por separado. Cuando sucede esto, el resultado es una explosión de supernova tipo I, casi de inmediato.
Foss, Wade y Green decidieron buscar enanas blancas que estuvieran lo bastante cerca una de otra y que giraran con la suficiente rapidez como para acabar fusionándose y produciendo una explosión. No encontraron ni un solo caso de un fenómeno así y llegaron a la conclusión de que la supernova I no era el resultado de la colisión de dos enanas blancas.
¿Deja esto sin respuesta el terrible problema de cómo se forman estas supernovas? En mi opinión, no. No creo que haya habido ningún astrónomo que realmente haya pensado que una supernova I sea el resultado de la colisión de dos enanas blancas, así que el descubrimiento de que algo así no ocurre no constituye una sorpresa.
¿Qué puede suceder? Tengamos en cuenta que hay muchas enanas blancas que dan vueltas alrededor de estrellas rojas gigantes. Éstas son tan grandes que su fuerza gravitatoria no es muy intensa en sus inmediaciones. La enana blanca, con una atracción gravitatoria muchísimo mayor (al menos en su entorno más inmediato) puede atraer parte de la materia de la gigante roja.
En consecuencia, lo que tenemos cuando una enana blanca gira alrededor de una gigante roja es una situación en la que la materia de esta última se desplaza en espiral lentamente en torno a la enana blanca. La fuerza gravitatoria de ésta comprime la materia que adquiere y la incorpora a su propia estructura, de manera que, con el tiempo, la gigante roja pierde masa y la enana blanca la gana.
Finalmente, la enana blanca gana la masa suficiente para sobrepasar el límite de 1,4 y hace explosión, convirtiéndose junto con la gigante roja a la que rodeaba en una enorme nube de polvo y gas. La gigante roja contribuye a esa masa sobre todo con hidrógeno, pero la enana blanca que agotó el suyo hace tiempo contribuye a la nube con átomos más pesados.
Esto es interesante porque una nube tan «contaminada», en la que hay tantos metales pesados, puede colapsarse para formar un sol central, rodeado de planetas, lo que describe a un Sistema Solar semejante al nuestro.
El Sol y los planetas gigantes están formados en su mayor parte por hidrógeno, pero mundos tales como la Tierra, Marte, Venus y Mercurio y la Luna están compuestos sobre todo por átomos más pesados como silicio, hierro, magnesio, oxígeno y otros.
Una supernova I no es sólo un gran espectáculo al que mirar y del que maravillarnos. Es posible que una de ellas represente el nacimiento de nuestro Sistema Solar, de la Tierra y sus habitantes. Y que todos los elementos de nuestro entorno y de nuestro cuerpo, que no sean hidrógeno, formaran en otro tiempo parte de una enana blanca que acabó explotando porque giraba alrededor de una gigante roja. Si es así, la nuestra constituye una historia interesante y violenta, que marca nuestros propios comienzos.

MEDIR LAS DISTANCIAS
En 1987 se produjo una supernova gigante en la Gran Nube de Magallanes. En 1991 se informó de que esta supernova había proporcionado la medida de la distancia a la nube más exacta de todas las que se habían logrado hasta entonces, según Nino Panaglia, del Instituto de Ciencia Telescópica Espacial de Baltimore.
Hasta ahora, se calculaba que la Gran Nube de Magallanes se situaba a unos 150.000 años luz, pero ésta era una cifra bastante aproximativa y cabía la posibilidad de que estuviera a 140.000 años luz o incluso a 180.000.
Como consecuencia de la supernova, o estrella gigante en explosión, una gran cantidad de polvo y gas es arrojada fuera de la estrella. El polvo y el gas forman un anillo alrededor de ella y al aumentar su temperatura el anillo emite una luz ultravioleta, lo que permite su detección.
El anillo está inclinado 47° respecto del plano imaginario que une los restos de la supernova con la Tierra. Esto quiere decir que no lo vemos de lado como un círculo ni de perfil como una línea. Lo vemos en un plano intermedio, como una elipse.
Para determinar la distancia a la estrella (y, por tanto, a la Gran Nube de Magallanes), se necesitan dos cosas: primeramente debemos conocer el diámetro aparente de la nube y, en segundo lugar, su diámetro real.
El diámetro aparente es fácil. Puede medirlo el telescopio. Resultó ser 1,66 segundos de arco. Como tamaño aparente no significa mucho, puesto que la Luna llena mide de ancho alrededor de 1.800 segundos de arco. De hecho, un diámetro de 1,66 segundos de arco es más o menos la separación entre dos faros de un coche a una distancia de 160 kilómetros. No obstante, este diámetro minúsculo suele ser medido con bastante precisión por los astrónomos.
Pero ¿cómo determinar el diámetro real del anillo? Se determina comparando el tiempo que tarda la luz en llegar a la Tierra desde la parte más próxima del anillo con el tiempo que emplea desde la más lejana.
Estudiando los datos de la supernova, resultó que la luz del extremo cercano del anillo había tardado 80 días en llegar tras la explosión de la supernova. La luz del extremo lejano no llegó hasta 340 días después de la explosión.
Teniendo en cuenta la inclinación del anillo y la velocidad a la que el anillo se había estado expandiendo desde que la supernova había explotado, los astrónomos pudieron calcular el diámetro real del anillo en 1,37 años luz (cerca de 13 billones de kilómetros). Entonces los astrónomos tenían que preguntarse: ¿a qué distancia tiene que estar el anillo para que el diámetro real de 1,37 años luz represente para nosotros una amplitud de 1,66 segundos de arco?
La respuesta es 169.000 años luz, que se puede considerar como la distancia, por término medio, de los miles de millones de estrellas de la Gran Nube de Magallanes. El resultado es muy satisfactorio, ya que se aproxima bastante a las distancias calculadas en épocas anteriores.
La distancia a la Gran Nube de Magallanes no es importante sólo por sí misma. Durante los últimos sesenta años, más o menos, los astrónomos han intentado determinar el tamaño del Universo, la velocidad a la que se expande y, por lo tanto, el tiempo en que se produjo la gran explosión y la edad del Universo. El método consiste en calcular la distancia de los objetos que se sitúan relativamente cerca de la Tierra y posteriormente calcular a partir de estos resultados la distancia de los más lejanos, a partir de éstos la distancia a objetos todavía más remotos, y así sucesivamente.
El problema reside en que, al pasar de un conjunto de objetos a otro más distante, los astrónomos tienen que tener en cuenta ciertas suposiciones y no pueden estar seguros de su exactitud. En consecuencia, cuanto más nos alejamos de la Tierra con menos seguridad se aprecian las distancias, la velocidad de expansión y la edad del Universo.
Por lo general, se suele decir que el Universo tiene 15.000 millones de años, pero esto no es cierto. Puede tener apenas 10.000 millones o más de 20.000. De hecho, estudios recientes han demostrado que las galaxias forman agregados tan grandes que incluso 20.000 millones de años pueden no ser suficientes para que se hayan agrupado. Actualmente, no obstante, en posesión de una cifra razonablemente exacta para establecer la distancia de la Gran Nube de Magallanes, podemos abrirnos camino hacia el exterior al menos con un punto de partida más exacto.
Esto, unido a la complejidad creciente de los instrumentos astronómicos, puede permitir la consecución de cifras más exactas para establecer la distancia a galaxias remotas y, al proporcionarnos a su vez cifras más exactas de la edad del Universo, puede ayudarnos a determinar con más exactitud la formación de las galaxias y su agrupamiento.
Así, la supernova de 1987 ha ofrecido a los astrónomos información adicional notable, de forma bastante inesperada.

CÚMULOS DE ESTRELLAS
...Mira cómo está engastado el firmamento de claras pátinas de oro.
«El mercader de Venecia». Acto V. Escena I.
Para los antiguos —y esto incluye a Shakespeare— el cielo nocturno no estaba contaminado por la luz artificial. Podían ver las estrellas mejor que nosotros pero no contaban con los telescopios actuales y, por tanto, no conocían las maravillas que podemos observar con ayuda de la tecnología. Para los antiguos, el Sol era el objeto más grande y magnífico del cielo. No sabían que nuestro Sol no es más que una estrella más, moviéndose solo con sus planetas, o que mucho más allá de las estrellas visibles en el «firmamento» radican estrellas mucho mayores y magníficas unas junto a otras.
Los muchos millones de estrellas de las galaxias inspiran temor, pero hay otros grupos de estrellas con una belleza única: los cúmulos que existen dentro de una galaxia. Después de que las cefeidas variables formando cúmulos se utilizaran para determinar distancias (a principios de siglo), no parecía que hubiera mucho que aprender de los cúmulos hasta ahora.
En nuestra Galaxia, la Vía Láctea, y, probablemente en la mayoría de las demás, hay miles de cúmulos de estrellas que se mantienen en grupo gracias a la influencia gravitatoria de unas sobre otras. El tipo de cúmulo menor y más común se denomina «abierto». En nuestra Galaxia se conocen alrededor de un millar de ellos. Contienen desde unas pocas docenas hasta unos pocos miles de estrellas, más o menos ordenadas. Los cúmulos abiertos, por lo general, están situados cerca del plano de la Vía Láctea, dentro o cerca de los brazos en espiral de la Galaxia. Respecto de la enorme escala del tiempo de la Galaxia, los cúmulos abiertos observan períodos de vida relativamente cortos, y algunas estrellas se separan del grupo en movimiento entre la Galaxia y a través de las nubes de polvo. El cúmulo abierto más conocido es el de las Pléyades, llamado las «Siete Hermanas» por los griegos que, a pesar de su alcance, no podían observar otras 3.000 estrellas en el cúmulo. También es posible que nuestra visibilidad contaminada (sólo podemos observar seis a simple vista) haya empeorado por el hecho de que la más oscura de las siete estrellas grandes, Pleyone, podía haber sido mucho más brillante en tiempos de los griegos.
Los cúmulos «globulares» son grupos de estrellas mucho más grandes y más comprimidas, algunas observables a simple vista como manchas borrosas de luminosidad débil. En el hemisferio norte, el más brillante es M13, el gran cúmulo globular de la constelación de Hércules. Incluso en un telescopio pequeño aparece un estallido de joyas espectacular de hasta un millón de estrellas. En nuestra Galaxia hay más de 125 cúmulos globulares conocidos, que se mueven en un «halo» esférico alrededor del centro galáctico.
Los cúmulos globulares que podíamos examinar con facilidad parecían estar formados por estrellas semejantes de la primera generación, y no había ninguna estrella muy grande o muy brillante: gigantes azules jóvenes que debieron de morir mucho antes de que los seres humanos entráramos en escena. Los científicos decidieron que los cúmulos eran casi tan viejos como la Galaxia, 15.000 millones de años y, a diferencia de los cúmulos abiertos, relativamente estables.
Los científicos se están replanteando la palabra estable. El gran cúmulo globular 47 Tucanas parece estar produciendo dos tipos extraños de estrellas. Uno se refiere a la «rezagada azul», una estrella que parece tener un tiempo de vida extra. El otro es el «púlsar milisegundo», formado cuando las estrellas corrientes agotan sus recursos energéticos y se colapsan en forma de objetos densos pequeños cuyas señales de radio llegan a la Tierra como impulsos debido a la rotación de la estrella. La mayoría de los púlsares rotan alrededor de una vez por segundo, pero estos púlsares extraordinarios lo hacen tan deprisa que la señal de radio se envía al 13% de la velocidad de la luz. Los científicos mantienen la hipótesis de que tanto las rezagadas azules como los púlsares milisegundo pueden ser el resultado de colisiones en áreas con máxima densidad estelar, muy comunes en este cúmulo insólito.
Resulta que no todos los cúmulos globulares son viejos. El telescopio espacial Hubble ha descubierto cúmulos globulares jóvenes en la Galaxia elíptica NGC1275 (cerca de la constelación de Casiopea, a 20 millones de años luz de la Tierra). Las estrellas de estos cúmulos se formaron al mismo tiempo y son del mismo tono azul, así que no pueden tener más que unos pocos cientos de millones de años, y se pueden considerar jóvenes en la escala de tiempo galáctico. El astrónomo Jon R. Holtzman, del Observatorio Lowell de Arizona, afirma que NGC1275 puede ser el producto de una colisión entre dos galaxias. La violencia de este encuentro puede haber generado el nacimiento de nuevos cúmulos.
El telescopio Hubble ha examinado también una Galaxia llamada ARP220, que contenía seis cúmulos de estrellas diez veces mayores que cualquiera de los que se encuentran en la Vía Láctea. Los seis son incluso más brillantes que los cúmulos jóvenes de la NGC1275. Los astrónomos de la Universidad de Maryland, Edward Shaya y Dan Dowling, postulan que la ARP220 se formó por la colisión de dos galaxias en espiral hace unos 20 millones de años. Parece que ARP220 es intrínsecamente inestable, con un núcleo peligrosamente brillante y de gran masa y con cúmulos jóvenes de estrellas debido a las explosiones de supernova.
Bien, enfrentémonos a ello. El Universo no es un lugar tranquilo y pacífico. Lo que los propios humanos, productos del Universo, logremos en el camino de la tranquilidad y la paz, sólo depende de nosotros mismos.

NUESTRO NUEVO VECINO
Tenemos un nuevo vecino o, por lo menos, uno que acaba de ser descubierto. Es una galaxia enana en una constelación oscura, llamada Sextante, en el lejano sur. Se descubrió utilizando un telescopio en Australia, y Michael J. Irwin, de la Universidad de Cambridge, anunció su existencia en marzo de 1990.
Para comprender lo que entendemos por «vecino» debemos referirnos a nuestra Vía Láctea, una banda luminosa de brillo débil que rodea el cielo. Esta es la «Galaxia» (de «leche» en griego) y está formada por una enorme colección de alrededor de 200.000 millones de estrellas y nuestro Sol no es más que una de ellas. La mayoría de estas estrellas está ocultas detrás de nubes de polvo, pero los astrónomos saben que existe a tenor de sus efectos gravitatorios y las radioondas que emiten que, a diferencia de las luminosas, pueden atravesar el polvo.
Cuando se conoció la extensión total de la Galaxia en la década de los años diez, parecía sensato suponer que constituía todo el Universo. Después de todo, 200.000 millones de estrellas en un sistema en forma de sol pirotécnico, y 100.000 años luz (un trillón de kilómetros) de ancho es algo, desde luego, bastante grande para ser un Universo.
Sin embargo, había algo más que eso. A lo lejos, en el hemisferio sur, se pueden ver dos regiones brumosas que parecen porciones desgajadas de la Vía Láctea. Son la Gran Nube de Magallanes y la Pequeña Nube de Magallanes, y resultaron ser pequeñas galaxias situadas a unos 150.000 años luz, en las inmediaciones de nuestra Galaxia. Parecen dos satélites de ésta y contienen sólo unos 20.000 millones de estrellas cada una. No obstante, había determinadas manchas nubosas de pequeño tamaño que se podían observar en todas partes en el firmamento. Se les llamó «nebulosa» (palabra latina que significa «nube») y eran de naturaleza incierta. La mayoría de los astrónomos supuso que eran nubes de polvo situadas entre las estrellas de nuestra Galaxia, pero algunos herejes pensaron que podían ser galaxias independientes que se encontraban mucho más allá de la nuestra.
En este caso, los herejes resultaron tener razón. En 1924, el astrónomo estadounidense E. P. Hubble (en su honor se llamó así el telescopio espacial Hubble) demostró definitivamente que la nebulosa Andrómeda era una galaxia remota que se encontraba a una distancia de 2,3 millones de años luz. Estaba quince años más lejos que las Nubes de Magallanes.
Ahora sabemos que nuestra enorme Galaxia, la Vía Láctea, no es más que una entre los muchos millones, o quizá miles de millones, de galaxias esparcidas por un espacio inmensamente grande. Se han det