25 Grandes Ideas La Ciencia Que - Robert Matthews

25 GRANDES IDEAS LA CIENCIA QUE ESTA CAMBIANDO NUESTRO MUNDO ROBERT MATTHEWS 2 Traduccion de Maria Jose Hernandez 3

Views 30 Downloads 0 File size 2MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

25 GRANDES IDEAS

LA CIENCIA QUE ESTA CAMBIANDO NUESTRO MUNDO

ROBERT MATTHEWS 2

Traduccion de Maria Jose Hernandez

3

ESPASA (c) FORUM Edicion original: 25 Big Ideas, de Robert Matthews Traduccion del ingles: Maria Jose Hernandez Revision cientifica: Jordi Mur Petit Scan, edicion y conversion a EPUB: (c) 2013 NGP, Nacho Garcia. (c) Robert Matthews, 2005 (c) Espasa Calpe, S. A., 2007 Diseno de coleccion y cubierta: Tasmanias Ilustracion de cubierta: Getty Images/D. S. Robbins Realizacion de cubierta: Angel Sanz Martin Deposito legal: M. 10.207-2007 ISBN: 978-84-670-2414-2 Liberados todos los derechos. Se permite reproducir, almacenar en sistemas de recuperacion de la informacion y transmitir alguna parte de esta publicacion, cualquiera que sea el medio empleado — electronico, mecanico, fotocopia, grabacion, etc.—, aun sin el permiso previo de los titulares de los derechos de la propiedad intelectual. Espasa, en su deseo de mejorar sus publicaciones, agradecera cualquier sugerencia que los lectores hagan al departamento editorial por correo electronico: [email protected] Impreso en Espana / Printed in Spain Impresion: Huertas, S. A. Editorial Espasa Calpe, S. A. Complejo Atica - Edificio 4 Via de las Dos Castillas, 33 28224 Pozuelo de Alarcon (Madrid)

4

Para Auriol, Ben y Theo

5

Indice Introduccion NOSOTROS Y LOS OTROS 1 - Conciencia 2 - Teoria del pequeno mundo 3 - Teoria del juego HACER LO IMPOSIBLE 4 - Inteligencia artificial 5 - Teoria de la informacion 6 - Vegetales modificados geneticamente VIDA 7 - Out of Africa (Nuestro origen africano 8 - Naturaleza versus cultura 9 - El gen egoista 10 - Catastrofismo 11 - Tectonica de placas MATEMATICAS QUE CUENTAN 12 - El teorema de Bayes 6

13 - Caos 14 - Automatas celulares 15 - Teoria del valor extremo EN LA SALUD Y EN LA ENFERMEDAD 16 - Medicina basada en pruebas cientificas 17 - Epidemiologia LA FISICA DE LA REALIDAD 18 - Relatividad especial 19 - Entrelazamiento cuantico 20 - El modelo estandar 21 - La teoria del todo EL UNIVERSO Y NUESTRO LUGAR EN EL 22 - El Big Bang 23 - Energia oscura 24 - Universos paralelos 25 - El principio antropico Y despues, ?que? Glosario Referencias bibliograficas 7

Indice onomastico

8

Introduccion Mientras terminaba este libro, algunos cientificos habian iniciado una campana para advertir a la gente de una pelicula estadounidense de bajo presupuesto sobre la vida, el Universo y todo. La pelicula se llamaba What the Bleep Do We Know? (?!Y tu que sabes!?, en la version espanola), y mezclaba documental y ficcion para transmitir el mensaje de que desconocemos mucho de nuestro Universo. ?Algun cientifico podria discutir esto? A veces pueden ser algo arrogantes, pero ni siquiera el fisico mas exaltado afirmaria que posee todas las 9

claves del cosmos. Aun asi, algunos de ellos se sintieron impulsados a publicar advertencias publicas sobre la pelicula, calificandola de muy diversas maneras, desde pretenciosa () hasta oscuramente alarmante (). Evidentemente, era una pelicula que habia que ver. Sin embargo, en los veinte primeros minutos no pude hallar la razon de tanto alboroto. Varios cientificos hacian declaraciones bastante inocuas sobre la manera en que los nuevos descubrimientos estaban revelando que el Universo era mucho mas extrano de lo que se habia supuesto. Cuando la pelicula empezo a describir algunos de estos descubrimientos, comence a ver a que se debia tanto escandalo; por ejemplo, descubrimientos como la capacidad de las moleculas de agua de ser afectadas por el 10

pensamiento. Con anterioridad habia oido rumores al respecto: al parecer, un investigador japones habia demostrado que la propia forma de una molecula de agua podia ser alterada de manera radical simplemente con los pensamientos de las personas que estaban a su alrededor. Sin embargo, cuando la pelicula describia este descubrimiento asombroso, todo lo que daba como pruebas eran unas cuantas imagenes de cristales de hielo que tenian un aspecto hermoso despues de haber sido bendecidos por un monje budista y adoptaban una apariencia fea despues de haberlos expuesto a una persona con mal humor. A mucha gente este tipo de pruebas le parecian bastante convincentes. Son inmediatas, claras y capaces de suscitar amplias sonrisas y exclamaciones como: . Sin embargo, entre los cientificos la respuesta tipica era: . Se a que se refieren. Ciertamente, la idea de que el agua sea afectada por los pensamientos es una afirmacion asombrosa con enormes implicaciones. Sin una explicacion obvia, tambien suscita la posibilidad de que nuevas fuerzas radicales esten actuando en el cosmos. Pero antes de entusiasmarnos, estaria bien contar con algunas pruebas aceptables de que el efecto es real. Y unas bonitas imagenes de cristales, indudablemente bellos, distan mucho de ser una prueba. En la pelicula aparecian muchas otras afirmaciones igual de estramboticas, junto con pruebas debiles para respaldarlas. Pero aunque puedo entender por que tantos cientificos se indignaron con la pelicula, creo que en realidad no entendieron. El problema real es que sus afirmaciones no eran suficientemente singulares. ?Moleculas de agua afectadas por fuerzas 12

misteriosas? Olvide a los monjes budistas y piense en esto: las moleculas de agua deben sus propiedades a una forma de energia que aparece literalmente de la nada, que parece estar relacionada con una fuerza que ahora impulsa la expansion de todo el Universo. Y las pruebas son algo mas que unas cuantas imagenes bellas: son el fruto de decadas de investigaciones en los laboratorios y observatorios de todo el mundo. La verdad es que ahora se estan haciendo descubrimientos que prueban sin lugar a dudas que, como afirma la pelicula, el Universo es mucho mas extrano de lo que se haya podido pensar. Los astronomos han encontrado que el Universo esta constituido por un tipo de materia desconocida, y es impulsado por una fuerza misteriosa a la que se conoce solo como . Mientras tanto, los fisicos han descubierto un fenomeno singular denominado , en el que 13

los atomos se mantienen en contacto intimo e instantaneo con los demas, incluso aunque esten separados por miles de millones de anos luz. Muchos fisicos teoricos creen ahora que nuestro vasto Universo es solo una minuscula parte de un multiverso infinito. Algunos piensan incluso que la presencia de universos paralelos ya se ha detectado en el laboratorio. Los descubrimientos a una escala mas humana no son menos sorprendentes. Los neurocientificos han hallado pruebas de que nuestra percepcion consciente de los acontecimientos tiene un retraso de medio segundo aproximadamente respecto a la realidad; retraso que no percibimos porque es corregido a proposito por nuestro cerebro. Los antropologos creen ahora que han identificado los origenes de los seres humanos modernos, y como —y por que— dejaron su tierra natal para poblar el mundo. Completando el circulo cosmico, 14

algunos teoricos afirman haber encontrado relaciones entre la existencia de los seres humanos —y de toda la vida en la Tierra— y el diseno fundamental del Universo. Este libro describe todos estos descubrimientos y muchos mas. Cada uno de los veinticinco capitulos es independiente, y pueden leerse en cualquier orden. Mi proposito no era solo llevar a los lectores a los propios limites del conocimiento cientifico. Tambien pretendia dar ciertas pistas sobre la forma en que se esta desarrollando la ciencia, describiendo el camino, a veces tortuoso, que ha llevado a realizar descubrimientos clave. Con demasiada frecuencia, el proceso cientifico se interpreta como cierto tipo de maquina en la que se vuelcan las observaciones objetivas y de la que surgen verdades infalibles. Los siguientes capitulos dejan claro que la realidad es muy diferente. Pese a lo que algunos de sus miembros mas distinguidos nos hayan querido 15

hacer creer, la ciencia es un esfuerzo humano, salpicado —y esto es lo mas fascinante— de incertidumbre y subjetividad. De nuevo, pese a lo que nos quieren hacer creer, la ciencia no muestra signos de llegar a su fin. Por el contrario, parecemos estar mas lejos que nunca de la omnisciencia. Ahora esta claro que muchos fenomenos naturales, si no la mayoria, nunca podran ser conocidos con la profundidad que se considero posible. La aparicion de los conceptos de caos y de incertidumbre cuantica han establecido limites ineluctables a lo que se puede conocer. Muchos de los siguientes capitulos destacan tecnicas — como la inferencia bayesiana y la teoria de los valores extremos— que nos permiten sacar el maximo partido a lo que podemos conocer sobre el mundo. Sin embargo, tales tecnicas tienen aplicaciones 16

que van mas alla de la busqueda del conocimiento definitivo: la inferencia bayesiana, por ejemplo, permite obtener pruebas aparentemente impresionantes de alguna nueva amenaza de cancer que hay que contextualizar, mientras que la Teoria de los Valores Extremos constituye la base del diseno de las defensas maritimas que actualmente protegen a los dieciseis millones de personas que viven en los Paises Bajos. Uno de los capitulos de este libro describe los esfuerzos de algunos de los principales fisicos teoricos del mundo por crear la denominada Teoria del Todo, que reunira todas las fuerzas y particulas del Universo en una sola ecuacion. Mi objetivo con este libro es confirmar las sospechas de todos los que creen que el Universo se sintetiza mejor en una sola palabra: magico.

17

NOSOTROS Y LOS OTROS

18

1 Conciencia

En pocas palabras La conciencia es algo que todos creemos poseer. Sin embargo, definir exactamente lo que es ha supuesto durante mucho tiempo un reto para los filosofos. A partir de mediados del siglo XIX, los cientificos encontraron formas de probar la existencia de actividad cerebral y de relacionarla con caracteristicas que consideramos vitales para la conciencia, como el libre albedrio y la respuesta a los estimulos. Los estudios en este campo indican que la conciencia constituye una parte muy pequena de la actividad cerebral, pero una parte que se crea a partir de la informacion sensorial solo despues de realizar un esfuerzo colosal. Los experimentos indican que, aproximadamente, hace falta medio segundo para que el cerebro nos haga conscientes del estimulo externo, aunque parece ser que el cerebro este retraso para que no seamos conscientes de el. El resultado es una mente consciente con un modelo de realidad que nos permite hacer algo mas que simplemente reaccionar a

19

los estimulos o a los envites de nuestros instintos inconscientes, y nos convierte en seres sofisticados.

La sala esta llena de gente, aunque en un silencio total. Estan sentados en cojines, con los ojos cerrados y sin expresion alguna en la cara. Parecen estar totalmente absorbidos por algo — dentro de lo que cabe, porque estan intentando dominar uno de los mas profundos misterios de la ciencia: la naturaleza de la conciencia. Como practicantes de la meditacion budista, utilizan tecnicas de observacion de la mente desarrolladas hace 2500 anos por el filosofo indio Siddartha Gautama, mas conocido como Buda. La intencion de estas tecnicas es dirigir la mente consciente hacia si misma y observarla en accion. Segun los budistas, esta introspeccion puede ayudar a comprender la naturaleza de la mente, 20

la realidad y el misterio de la conciencia. Tradicionalmente, tales afirmaciones han tenido poca importancia para los cientificos, que insisten siempre en las pruebas objetivas. No obstante, em la actualidad monjes budistas muy adiestrados estan trabajando con cientificos para probar la naturaleza de la conciencia. Al alcanzar estados mentales mientras se someten a un escaner cerebral, estan abriendo una nueva via a lo que los investigadores de la conciencia denominan el : ?de que manera la actividad cerebral produce la experiencia de ser consciente? Para ser algo que la mayoria de nosotros cree poseer, la conciencia ha demostrado ser tremendamente dificil de definir. El filosofo del siglo XVII Rene Descartes pensaba que habia logrado un gran avance usando un argumento logico para llegar a la conclusion de que la mente consciente debe estar hecha de una sustancia 21

diferente al cerebro y al cuerpo; esta distincion se conoce como dualismo cartesiano. Incluso en esa epoca, criticos como Baruch de Spinoza senalaban que tal distincion suscita importantes problemas sobre la forma en que interactuan la mente y el cerebro. En 1690, el filosofo ingles John Locke propuso la primera definicion de conciencia: . Aunque esto implicaba que la conciencia no era mucho mas que el resultado de ciertos procesos, Locke no pudo decir en que consistian estos. Los cientificos no estuvieron en disposicion de enfrentarse al misterio de la conciencia hasta finales del siglo XIX. El descubrimiento de la anestesia habia revelado que existia una conexion intima entre cuerpo y mente, contradiciendo claramente las afirmaciones de 22

Descartes. Posteriormente los investigadores intentaron resolver el buscando vias para salvar la distancia entre las experiencias subjetivas de la mente y el estudio objetivo de la actividad cerebral. En la decada de 1860, Wilhelm Wundt, de la Universidad de Heidelberg, considerado el padre de la psicologia experimental, dio los primeros pasos vacilantes. Impresionado por el punto de vista de Spinoza de que la mente consciente es el fruto directo de efectos fisiologicos, Wundt intento averiguar mas sobre estos efectos. La tecnica que utilizo fue la introspeccion. Entreno a los estudiantes en esta tecnica para que observaran y describieran su respuesta consciente a estimulos externos. La investigacion de Wundt destacaba la importancia de comprender los qualia, las experiencias subjetivas del mundo que nos 23

rodea: la del rojo o la del azucar. Aunque Wundt trabajo mucho para que su trabajo fuera objetivo, era dificil evaluar si la experiencia de una persona era la misma en cada momento o si se asemejaba a la experiencia de cualquier otra persona. Tambien carecia de medios para hacer determinaciones objetivas fiables de la actividad cerebral que pudiera correlacionar con la experiencia subjetiva. A finales del siglo XIX, la investigacion de Wundt habia convencido a importantes figuras —como el influyente psicologo estadounidense William James— de que la conciencia era el resultado directo de la actividad cerebral y, por tanto, merecia un estudio cientifico. Sin embargo, muchos especialistas consideraban que las tecnicas existentes simplemente no eran apropiadas para dicha tarea. Frustrados por la ausencia de resultados solidos, la mayoria se 24

dedicaron a problemas mas concretos, y el estudio de la conciencia se convirtio en un paramo academico. No obstante, no llego a secarse por completo y durante los cinco decenios siguientes los cientificos desarrollaron diversos metodos para abordar el . En 1929, el psiquiatra austriaco Hans Berger logro el primer gran avance encontrando una forma de detectar la actividad electrica del cerebro. La tecnica, denominada electroencefalografia (EEG), permitio que Berger descubriera dos tipos de actividad electrica —las ondas alfa y las ondas beta— que parecian estar relacionadas con aspectos clave de la conciencia. Las ondas alfa, con una frecuencia de unos diez ciclos por segundo, parecian reflejar el estado de conciencia, haciendose mas debiles durante el sueno o la anestesia. Por otra parte, las ondas beta eran aproximadamente tres veces mas rapidas y 25

reflejaban el grado de concentracion y las respuestas inconscientes, como el reflejo de sobresalto. El descubrimiento de Berger inicio el estudio de lo que ahora conocemos como correlatos neurales de la conciencia: tipos de actividad cerebral asociados a la experiencia consciente. Ahora constituyen uno de los principales focos de la investigacion de los cientificos, muchos de los cuales creen que comprender la conciencia implica saber de que manera el cerebro reune una gran cantidad de correlatos neurales de la conciencia en un todo unico y unificado. Se trata de una creencia alentada por un descubrimiento sorprendente que se hizo en la decada de 1960: que nuestra conciencia supone una diminuta fraccion de toda la actividad del cerebro. Un equipo dirigido por el neurologo estadounidense Benjamin Libet aplico estimulos 26

muy pequenos a la piel de pacientes sometidos a neurocirugia cerebral. Los registros electroencefalograficos revelaron que los cerebros habian detectado los estimulos, aunque los pacientes dijeran que no podian sentir nada. Lo mismo ocurrio con estimulos mas intensos que duraron menos de 0,5 segundos: aunque los cerebros los detectaron, los pacientes no sintieron nada conscientemente. Desde entonces se han obtenido resultados similares en los estudios de los correlatos neurales de la conciencia, como la vision y los qualia resultantes (como la del rojo). Los ojos abarcan un torrente de informacion a una velocidad aproximada de un megabyte por segundo, aunque la conciencia parezca ignorar todo salvo un diminuto porcentaje de esta informacion. Esta enorme disparidad indica que el cerebro 27

realiza una gran cantidad de procesamiento inconsciente de la informacion sensorial, cribandola antes de que seamos conscientes de ella. Se necesita suficiente tiempo para realizar este procesamiento, lo que sugiere que debe de haber un retraso entre el momento en que el cerebro detecta un estimulo y el instante en que la persona lo registra conscientemente. Los esfuerzos por medir este retraso han conducido al que quiza sea uno de los mas sorprendentes descubrimientos sobre la naturaleza de la conciencia. En 1976, un equipo de investigadores dirigido por el neurologo aleman Hans Kornhuber diseno un experimento para medir el retraso entre la actividad cerebral necesaria para mover un dedo y la ejecucion real del movimiento. La velocidad de los impulsos nerviosos indicaba que el retraso seria de unos 200 milise-gundos, similar al retraso de los actos reflejos. Sin embargo, los 28

investigadores observaron que el retraso era mucho mayor. Esto al menos era coherente con la idea de que cualquier cosa en la que intervenga la mente consciente implica mucho procesamiento. No obstante, los investigadores encontraron algo mas: la actividad cerebral comenzaba unos 800 milisegundos antes de que la persona llegara realmente a mover el dedo. Se trataba de un descubrimiento sorprendente, con implicaciones alarmantes en lo que respecta a h nocion de libre albedrio que se habia tenido durante mucho tiempo. La mera magnitud del retraso sugeria que las acciones no son desencadenadas en absoluto por la mente consciente, sino por la actividad inconsciente del cerebro que se desarrolla al margen de la percepcion. Libet y sus colaboradores realizaron en 1979 un descubrimiento aun mas asombroso durante los estudios del efecto de la aplicacion de estimulos 29

directos en el cerebro1. De nuevo, el sentido comun indicaba un breve retraso entre la aplicacion del estimulo y la deteccion consciente, aunque nuevamente los investigadores encontraron un retraso sustancial de 500 milisegundos, aproximadamente. Tambien hallaron algo mas: que el cerebro parece la respuesta consciente, creando asi la impresion de que no hay apenas ningun retraso. Estos dos descubrimientos no solo arrojaron nueva luz sobre la relacion entre la actividad cerebral y la conciencia, sino que tambien aportaron algunos indicios sobre el proposito real de que exista la conciencia. En primer lugar, aunque la mente consciente no ponga en marcha en absoluto nuestros actos, nuestra conciencia puede al menos vetar cualquier acto generado por la mente inconsciente que se considere inaceptable. Por tanto, el libre albedrio 30

no consiste en elegir conscientemente actuar de cierta forma, sino elegir conscientemente no actuar. En segundo lugar, los experimentos de Libet senalan la razon por la que el cerebro hace tanto esfuerzo en crear la conciencia: reune la informacion sensorial del mundo exterior para producir un modelo coherente y fiable de lo que ocurre . Esta nocion de conciencia como modelo de la realidad se ajusta bien a la sensacion que tenemos de que nuestro cerebro crea un tipo de . En 1988, el psicologo holandes Bernard Baars tomo esta idea para crear la denominada Teoria del Espacio Global de Trabajo de la conciencia. Segun esta teoria, los procesos conscientes son los que en el momento presente estan de la atencion mental, mientras que otros se 31

mantienen alejados de los focos, almacenados en la memoria para acceder a ellos de inmediato. Mientras tanto, los procesos inconscientes actuan tras bastidores y tambien forman el publico mental, que responde a lo que esta actualmente bajo los focos. La Teoria del Espacio Global de Trabajo parece ser mas que una simple metafora: se basa en resultados que ahora surgen del mayor avance que se haya hecho en el estudio objetivo de los procesos conscientes: las tecnicas de diagnostico por imagenes cerebrales. Tecnicas como la resonancia magnetica nuclear funcional brindan a los investigadores mapas detallados, en tiempo real, de la actividad cerebral, que permiten relacionarlos con los procesos conscientes. Esto ha supuesto una explosion en los estudios de los correlatos neurales de la conciencia; se han identificado partes especificas del cerebro como elementos clave en los procesos conscientes. Por 32

ejemplo, una region central, el talamo, parece ser crucial para poner bajo el de la atencion consciente la informacion sensorial, mientras que la denominada corteza ventromedial, situada cerca de la parte frontal del cerebro, parece crear nuestra sensacion de que la vida tiene un proposito. Al mismo tiempo, los investigadores estan comenzando a prestar de nuevo atencion a los metodos de Wundt para abordar el aspecto subjetivo, notoriamente dificil, de la conciencia. Estan re-clutando gente que tiene decadas de experiencia en el examen de sus estados conscientes y en el relato de su experiencia: los monjes budistas. Los resultados iniciales de los estudios de los monjes sometidos a pruebas de diagnostico por imagenes indican que sus anos de meditacion intensiva les permiten crear estados mentales estables para ordenar, dando a los investigadores la coherencia necesaria para 33

tener una comprension fiable de la experiencia subjetiva de la conciencia. Esta conjuncion de tecnologia de vanguardia y practicas espirituales antiguas puede brindar una nueva comprension del papel de los correlatos neurales de la conciencia y nuestra capacidad para controlarlos. Sin embargo, aun falta abordar algunos misterios importantes sobre la 2 conciencia. ?Por que tenemos conciencia? . ?Que ventajas confiere? ?Son los seres humanos los unicos seres completamente conscientes?3. Una posible explicacion estriba en el punto de vista de la conciencia como medio para crear un modelo mental de realidad. Cualquier organismo que posea tal modelo puede hacer algo mas que reaccionar meramente a los estimulos y rezar por que la respuesta sea suficientemente rapida para escapar de los predadores. Puede usar el modelo para prever las amenazas y las 34

oportunidades que existen en el , liberandose asi de las limitaciones de velocidad de los reflejos inconscientes. Es decir, una criatura consciente no tiene que tropezar de manera ciega, esperando que sus reflejos le libren de los problemas. Uniendo las respuestas inconscientes para crear incluso un modelo simple de realidad, una criatura que posea cierto grado de conciencia puede evitar el encontrarse en aprietos en primer lugar, logrando una gran ventaja evolutiva. A su vez, esto sugiere que la cuestion de si un organismo es consciente o no puede ser erronea. Mas bien, la conciencia puede ser una cuestion de grado —por ejemplo, un insecto puede tener un modelo notablemente menos sofisticado de realidad que un ser humano. Como ocurre con muchos aspectos de la conciencia, todavia falta bastante para obtener 35

respuestas definitivas. Aun asi, existe un creciente interes por que los cientificos esten ahora aproximandose al misterio de como 1.400 gramos del blando tejido cerebral pueden dotar al ser humano de un inefable y unico sentido del yo.

IMPULSOS NERVIOSOS

El cerebro esta formado por unos cien mil millones de neuronas, cada una de las cuales recibe impulsos electricos de muchas otras a traves de conexiones llamadas dendritas, y transmite su respuesta a las celulas vecinas a traves de una sola terminacion denominada axon. Sin embargo, las conexiones no son perfectas; para salvar estas hendiduras, las 36

terminales nerviosas cuentan con las sinapsis. Estas transforman las senales electricas en moleculas, llamadas neurotransmisores, que fluyen por la hendidura desencadenando nuevos impulsos electricos en el otro lado.

ELECTROENCEFALOGRAMA

La invencion del electroencefalograma (EEG) por el psiquiatra austriaco Hans Berger, en 1929, fue un importante avance en la investigacion de la conciencia, ya que proporciono a los cientificos medios indoloros e incruentos para estudiar el cerebro en accion. La actividad cerebral consciente e inconsciente es el resultado de senales electricas que fluyen entre las celulas cerebrales o neuronas. Aunque las senales entre 37

una neurona y otra son muy debiles, Berger observo que la actividad en partes especificas del cerebro es relativamente facil de detectar usando pares de electrodos colocados en el cuero cabelludo. Un electroencefalograma detecta las senales como diferencias de voltaje entre los pares de electrodos, las amplifica y envia el resultado a un aparato registrador, que capta la actividad cerebral.

Cronologia

528 a. C. El filosofo Siddartha Gautama hace del estudio y el control de la conciencia la base de un movimiento que ahora se conoce como budismo. 401 a. C. El filosofo y santo catolico 38

Agustin de Hipona identifica la conciencia de si mismo como un aspecto fundamental de la conciencia, declarando: . 1637 El filosofo frances Rene Descartes propone su teoria dualista de la mente y el cuerpo, arguyendo que la mente no consiste meramente en las acciones del cerebro. 1690 En su Ensayo sobre el entendimiento humano, el filosofo ingles John Locke define la conciencia como . 1874 El psicologo aleman Wilhelm Wundt saca la conciencia del campo de la indagacion puramente filosofica y propone su estudio a traves de la introspeccion.

39

1890 El psicologo William James, de la Universidad de Harvard, pionero de su disciplina, rechaza el dualismo cartesiano y llega a la conclusion de que la conciencia no es mas que un producto de la actividad cerebral. 1913 El psicologo Watson critica los conciencia como convirtiendo este durante decadas.

estadounidense John B. intentos de estudiar la totalmente subjetivos, campo en un paramo

1929 El psiquiatra austriaco Hans Berger inventa la elec-troencefalografia (EEG), demostrando que la actividad cerebral puede medirse usando electrodos colocados sobre el cuero cabelludo. 1979 El cientifico estadounidense Benjamin Libet, especializado en el estudio del cerebro, descubre un retraso * de 0,5 40

segundos entre la actividad cerebral y la sensacion consciente de decidirse a actuar. 1988 El psicologo holandes Bernard Baars lanza la Teoria del Espacio Global de Trabajo, segun la cual la conciencia es el proceso por el que procesos normalmente inconscientes se reunen en un mental. 1990 hasta La aparicion de los metodos de obtencion de imagela fecha nes cerebrales, como la resonancia magnetica nuclear, despierta un enorme aumento del interes por la conciencia, revelando la actividad cerebral con detalles sin precedentes.

Citas

41

1 En experimentos realizados en pacientes sometidos a cirugia a cerebro abierto, Benjamin Libet y sus colaboradores observaron que, a no ser que se estimulara suficientemente al cerebro durante al menos 500 milisegundos, no conseguia percibir nada. En pruebas posteriores estimularon los cerebros de pacientes pero, esta vez, aplicaron en la piel un estimulo 250 milisegundos despues. Como en ambos casos se debia aplicar el retraso de 500 milisegundos, se esperaba que los pacientes dijeran que sintieron el estimulo cerebral antes, seguido por el estimulo cutaneo 250 milisegundos despues. Libet y sus colaboradores llegaron a la conclusion de que el cerebro el retraso de 500 milisegundos de la respuesta de la piel para 42

garantizar que el tiempo real del estimulo y la percepcion del estimulo siguen sincronizados. Eso, a su vez, garantiza que nuestro modelo mental de la realidad — construido a partir de la informacion de los sentidos— no este 500 milisegundos desfasado permanentemente. 2 Una de las teorias mas polemicas de la conciencia la planteo en 1989 el profesor Roger Penrose, academico de Oxford con experiencia en un campo que en apariencia no se relaciona con la mente; la mecanica cuantica, las leyes del mundo subatomico. En un exitoso libro, La nueva mente del emperador, Penrose sostenia que la capacidad de las mentes humanas de dar saltos intuitivos hacia verdades profundas sobre el universo es el resultado de un tipo 43

especial de computacion desencadenada por efectos cuanticos en el cerebro. Sugeria que estos efectos tambien podrian ser los responsables de unir la actividad en el cerebro para crear la sensacion de una conciencia unica y coherente. En colaboracion con el doctor Stuart Hamerhoff, un anestesista estadounidense, Penrose sostuvo mas adelante que estos efectos cuanticos tienen lugar en diminutos cilindros proteicos de las celulas nerviosas conocidos como microtubulos. Pese a suscitar gran interes publico, la teoria de Penrose tiene pocos partidarios entre los investigadores de la conciencia, que arguyen que cambia un misterio por muchos mas, y hace caso omiso a las pruebas experimentales. Parece que los 44

microtubulos son incapaces de soportar los efectos cuanticos necesarios y que, en caso de sufrir danos, estos no parecen afectar a la conciencia. 3 Segun una encuesta publicada en 2001, aproximadamente una de cada diez personas en Gran Bretana ha tenido lo que se denomina una experiencia extracorporea, en la que sienten como si su conciencia se hubiera separado del cuerpo. Muchos cientificos rechazan las experiencias extracorporeas, considerandolas un problema singular en la funcion cerebral que crea la ilusion de separacion. No obstante, de ser ciertas, las experiencias extracorporeas representarian un importante reto a las 45

ideas actuales sobre la conciencia, que se relacionan inextricablemente con el cerebro fisico. Para probar la realidad de estas experiencias, los cientificos han realizado ensayos para descubrir si la gente que tiene estas experiencias puede ver objetos o numeros que esten fuera del alcance visual de sus cuerpos fisicos. Algunos estudios han tenido resultados sugerentes, pero nada que haya convencido hasta la fecha a los cientificos.

46

2 Teoria del Pequeno Mundo

En pocas palabras En las fiestas, los asistentes descubren que tienen relaciones sorprendentes con otros: un amigo en comun, por ejemplo, o un colega con el que ambos han trabajado. Muchas de estas no son mas que eso, o el resultado de personas con experiencia similar que tienden a moverse en circulos similares. Sin embargo, tambien hay una cantidad sorprendente de vinculos asombrosos que hacen que la gente solo pueda asentir con la cabeza y reflexionar diciendo: . Hasta hace no mucho tiempo, poco se habia hecho para explicar por que en un mundo con 6.000 millones de habitantes se producen tales vinculos con tanta frecuencia. Estudios iniciales realizados en la decada de 1950 sugerian que los vinculos aleatorios desempenaban una funcion fundamental, estableciendo atajos en la que si no seria una enorme red de comunidades locales que constituyen la sociedad. En 1998 tuvo lugar un gran avance cuando los matematicos Duncan

47

Watts y Steve Strogatz, de la Universidad de Cornell, usaron simulaciones computarizadas para mostrar que basta una minuscula cantidad de vinculos aleatorios de amplio rango para hacer que incluso una red gigantesca de gente se convierta en un . Ahora los investigadores han encontrado pruebas de la existencia de una asombrosa variedad de pequenos mundos, que tienen implicaciones en todo, desde la diseminacion de las enfermedades hasta la globalizacion.

A todos nos ha ocurrido en algun momento: estamos hablando con un extrano en una fiesta y descubrimos que tenemos un amigo o un companero en comun. La mayoria de la gente responde con una sonrisa, exclama: , y no piensa mas sobre el asunto. Por supuesto, la cuestion estriba en que el mundo no es en absoluto pequeno: es inmenso, con 6.000 millones de habitantes. Y aunque la mayoria de nosotros ocupamos la mayor parte de nuestro tiempo en nuestros pequenos circulos 48

de relaciones, el surge con sorprendente frecuencia. Durante anos, los cientificos tendieron a pensar que se trataba de una coincidencia. Ya no: el efecto es en la actualidad una de las cuestiones mas candentes en el ambito de la ciencia, y hay muchos investigadores en campos tan diversos como la fisica y la economia que lo estan considerando muy seriamente. Entender su causa y sus consecuencias ha supuesto la creacion de un nuevo campo de la ciencia —la Teoria del Pequeno Mundo— cuyos origenes ocultan sus importantes implicaciones en cuestiones que van desde la diseminacion de las enfermedades hasta la globali-zacion. Su aparicion pone de relieve como es posible que una gran idea que trasciende disciplinas pase desapercibida durante anos. La Teoria del Pequeno Mundo puede tener sus aplicaciones 49

mas asombrosas en las ciencias sociales , pero sus origenes surgen del ambito sofisticado de las matematicas y la ciencia computacional. Esta teoria ha podido prosperar solo hoy en dia a medida que se han roto las barreras entre las disciplinas academicas. Aunque es probable que el se haya observado durante siglos en las reuniones, no fue sino en la decada de 1950 cuando los investigadores empezaron a analizar sus raices. En la Universidad de Chicago, Anatole Rapoport, un matematico convertido en cientifico social, comenzo con sus colaboradores a pensar en la sociedad como una de individuos, cada uno con vinculos aleatorios con otros. Algunos vinculos eran cortos, conectando a las personas en

estrechamente relacionadas, mientras que otros eran relativamente largos. Rapoport y sus 50

colegas encontraron que la naturaleza aleatoria de los lazos suponia una gran diferencia en la estructura de su sociedad artificial. Bastaba con hacer que los lazos fueran algo menos aleatorios para que la sociedad tendiera a fragmentarse en comunidades aisladas, sin vinculos con personas de otras partes. Fue una temprana pista de la importancia crucial de los vinculos aleatorios que hace que una poblacion enorme se convierta en un en el que cada individuo puede estar relacionado con otro a traves de unos pocos vinculos. Imaginese, por ejemplo, que una sociedad esta constituida por un millon de personas, cada una de las cuales tiene vinculos solo con diez personas que vivan cerca. Si surge un rumor, haran falta cientos de miles de pasos para que se extienda por toda la sociedad. El rumor se extiende mucho mas rapidamente surgiendo al azar en cualquier lugar. 51

Despues de cada ocasion en que se cuente de nuevo el rumor, el numero de personas que lo conocen crece, se multiplica por diez: primero cien, luego mil y asi sucesivamente. Al cabo de seis ocasiones en las que se haya contado de nuevo, todo el mundo habra oido el rumor, gracias a los vinculos aleatorios que saltan por la red. Todo esto es, en realidad, impresionante, salvo por el hecho de que el mundo real no es asi. Tenemos lazos que ni son totalmente aleatorios ni completamente limitados, sino una mezcla de ambos. Entonces, ?por que descubrimos con tanta frecuencia que tambien vivimos en un ? En 1959, dos matematicos hungaros, Paul Erdos y Alfred Renyi, dieron un gran paso hacia la respuesta de esta cuestion. Presentaron una formula que mostraba que una pequena cantidad de vinculos suponia una gran diferencia. Por ejemplo, en un 52

grupo de cien personas se pueden crear lazos practicamente con casi todo el mundo eligiendo de forma aleatoria solo a una docena de personas y presentandolas entre si. Por otra parte, hacer esto de manera sistematica exige concertar la asombrosa cantidad de 4.950 presentaciones: unos pocos vinculos aleatorios consiguen el objetivo de forma mas eficaz. Aunque la formula de Erdos y Renyi mostro el poder de los vinculos aleatorios en lo que se refiere a conectar a las personas, no podia predecir hasta que punto podria ser

el mundo real. Un experimento ingenioso revelo en 1967 que el mundo real es asombrosamente pequeno. Stanley Milgram4, un joven profesor de psicologia social de la Universidad de Harvard, habia leido el trabajo de dos investigadores en Estados Unidos, Ithiel de Sola Pool y Manfred Ko-chen, que 53

sugerian que dos extranos podian conectarse mediante cadenas cortas de conocidos. Milgram decidio intentar calibrar el tamano tipico de nuestras redes sociales: cuanta gente tenemos como amigos, o amigos de amigos, y asi sucesivamente. Para ello, envio paquetes a 296 personas de Nebraska y Boston, pidiendoles que se lo enviaran a otra persona de Massachusetts. Parece muy simple, si no fuera porque no se les dijo a los receptores donde vivia la persona destinataria: solo su nombre, su empleo y unos cuantos detalles personales mas. Milgram pidio a los receptores del paquete que lo enviaran a alguna persona que conocieran personalmente, de modo que fuera mas probable que dicha persona pudiera entregar el paquete. El resultado fue sorprendente: en general los paquetes llegaron al destinatario al cabo de solo cinco reenvios. Pocos anos despues, Milgram 54

repitio el experimento, obteniendo resultados similares: parecia que se podia llegar a cualquier persona de Estados Unidos mediante solo cinco reenvios. Las implicaciones eran aun mas asombrosas. Si bastaba con cinco reenvios para llegar a cualquier persona en un pais con mas de 200 millones de habitantes, parecia que por lo general las personas conocian a otras cincuenta suficientemente bien como para enviarles el paquete. Y esto implicaba que bastaria con un solo envio mas para llegar a cualquier persona del planeta. Parecia que el mundo real era en realidad un pequeno mundo. Recientemente se han cuestionado los descubrimientos de Milgram; algunos investigadores han arguido que no son tan convincentes como parecen. En 2002, la psicologa Judith Kleinfeld, profesora de la Universidad de Alaska, saco a la luz pruebas de que Milgram habia seleccionado con sumo 55

cuidado los datos para apoyar sus afirmaciones. Tanto en el estudio original como en los intentos de repetirlo, la mayoria de los paquetes nunca llegaron, lo que suscita dudas sobre la fiabilidad de las conclusiones basadas en el punado que si lo hicieron. Sin embargo, en 2003, investigadores de la Universidad de Columbia publicaron los resultados de una version enorme del experimento original de Milgram que se realizo por Internet, y encontraron que por termino medio se necesitaban seis pasos para llegar a un objetivo, lo que apoyaba la afirmacion original de Milgram. El hallazgo clave de Milgram dio nombre a una obra de teatro: Seis grados de separacion, del dramaturgo John Guare, en la que uno de los personajes declara: . Era un pensamiento profundo grabado en la mente de Duncan Watts, un estudiante de veinticinco anos, doctorado en la Cornell University (Nueva York). En 1995, mientras estudiaba la matematica de los grillos, se habia encontrado con un problema: ?como consiguen los grillos sincronizarse tan rapidamente? ?Cada uno escucha a todos los grillos o solo a los que tiene mas cerca? Entonces Watts recordo lo que su padre le habia dicho anos atras respecto a que cada persona en el mundo esta a seis apretones de mano del presidente de Estados Unidos. Watts se preguntaba si el mismo fenomeno podria relacionarse con la velocidad con la que los grillos comienzan a cantar al unisono. No es nada convencional usar una leyenda urbana para resolver un misterio biologico 57

importante, y a Watts le inquietaba sugerir la idea a su director de tesis, el matematico Steve Stro-gatz. Lejos de reirse de el a carcajadas, Strogatz creia que la idea era intrigante, y los dos comenzaron a colaborar. En junio de 1998, publicaron un articulo con sus descubrimientos en la prestigiosa revista Nature, y en ese proceso crearon una nueva ciencia: la Teoria del Pequeno Mundo. Por vez primera, Watts y Strogatz demostraron el largamente sospechado poder de unos pocos vinculos aleatorios para convertir un mundo en expansion incontrolada en un pequeno mundo. Su exito se debio en gran parte a la ubicuidad de los ordenadores. A diferencia de los primeros teoricos de la decada de 1950, Watts y Strogatz podian recurrir a la potencia de los ordenadores para crear simulaciones del mundo real, con su mezcla de comunidades estrechamente relacionadas y de vinculos aleatorios. 58

Crearon una artificial de 1.000 puntos, cada uno de los cuales estaba conectado con un grupo de diez . Watts y Strogatz encontraron que si cada grupo estaba formado unicamente por los vecinos mas proximos, se necesitaban por lo general cientos de pasos para ir de un punto a otro. Pero cuando rompian solo uno de cada cien vinculos estrechos y los hacian aleatorios, el numero de pasos necesarios se dividia por diez, dejando a la vez que la mayoria de los grupos se mantuvieran bien conectados. Watts y Strogatz revelaron al final como un planeta de 6.000 millones de personas parece con tanta frecuencia un pequeno mundo. Aunque la mayoria de nuestros amigos pueden pertenecer a nuestra pequena comunidad, las reuniones casuales nos han proporcionado aleatoriamente cierta propagacion mas amplia. Y este punado de vinculos aleatorios 59

en la inmensidad de la sociedad mundial y la transforman en un pequeno mundo. Watts y Strogatz revelaron que el mismo efecto opera en otras . Por ejemplo, usando una base de datos informatizada de actores y sus peliculas, mostraron que Hollywood es otro . Por lo general, cualquier actor puede estar conectado con cualquier otro a traves de peliculas que implican solo a cuatro intermediarios. De nuevo, la razon son los vinculos creados por actores versatiles, como Rod Steiger, que trabajo en una enorme aunque aleatoria variedad de peliculas. Sin darse cuenta, los aficionados a las peliculas han explotado esto durante anos cuando jugaban al llamado Juego de Kevin Bacon, en el que hay que relacionar a un actor con otro a traves del menor numero posible de peliculas. Basta con conectar a un 60

actor con Rod Steiger y el asunto se pone mucho mas facil. El articulo de Watts y Strogatz suscito gran interes por hallar otros ejemplos del efecto en la vida real. En la actualidad se han encontrado pequenos mundos en una asombrosa variedad de formas, desde el sistema nervioso de los gusanos a las redes de computadoras que constituyen Internet. Las implicaciones son a menudo sorprendentes. Por ejemplo, la naturaleza de pequeno mundo de Internet hace que siga funcionando a pesar de que aproximadamente el 3 % de sus ordenadores cruciales dejan de estar operativos en algun momento. Con bastante normalidad puede encontrarse alguna otra ruta rapida entre dos ordenadores cualesquiera, gracias al numero relativamente pequeno de vinculos aleatorios que hacen de 61

Internet un pequeno mundo. Pero todo esto tiene otra cara: si uno de estos vinculos aleatorios cruciales pasa a ser imperfecto, puede tener un efecto drastico sobre toda la web. Aunque las probabilidades de que esto ocurra por casualidad son pequenas, tales vinculos constituyen un objetivo obvio de piratas informaticos o terroristas. Tambien se ha observando un efecto similar en el mundo empresarial. Se ha demostrado que corporaciones importantes forman un : companias que aparentemente no estan relacionadas se conectan mediante un numero relativamente reducido de vinculos. Esto puede ayudar al mundo empresarial a afrontar las tormentas que siempre afectan a cierta proporcion de empresas, pero tambien puede augurar problemas si una corporacion clave con vinculos mas o menos aleatorios en otro lugar tropieza 62

con problemas5. Las implicaciones mas alarmantes de la Teoria del Pequeno Mundo atanen a la diseminacion de enfermedades. Los cientificos se han centrado generalmente en la capacidad infecciosa de L1na enfermedad para predecir la diseminacion epidemica. El electo del pequeno mundo demuestra que la sociedad en la que se produce el brote puede suponer una gran diferencia. Estudios realizados por el matematico argentino Damian Zanette indican que basta con que el 20% de la poblacion tenga vinculos aleatorios con personas que se encuentran fuera del lugar del brote inicial para que se convierta en una grave epidemia. No sorprende que algunos cientificos consideren esto como algo crucial en la aparicion del sida en Africa. Despues del colapso del regimen colonial, las guerras y la busqueda de trabajo desencadenaron enormes movimientos de poblacion, aumentando la formacion de 63

vinculos aleatorios de amplio rango que hizo que una enfermedad virica localizada se convirtiera hoy en dia en una pandemia. La importancia del efecto del pequeno mundo en cualquier ambito, desde el colapso de los mercados bursatiles hasta la diseminacion de las enfermedades, sigue siendo objeto de muchas investigaciones. Pero, quiza, la conclusion mas importante este ya clara: esa parte aparentemente trivial del folclore urbano puede tener implicaciones que no son en absoluto triviales.

PEQUENOS MUNDOS, GRANDES PROBLEMAS

El 13 de agosto de 2003, un cable electrico caido 64

toco un arbol en las afueras de Cleveland (Ohio) y demostro de manera espectacular lo que es el efecto del pequeno mundo. El resultado fue que cincuenta millones de personas se quedaron sin energia electrica en ocho estados de la Union, ademas de parte de la provincia canadiense oriental de Ontario. La perdida de la energia electrica senalo la existencia de otros relacionados con la red electrica, incluidas las redes aereas y de trafico de Canada, que se vieron sumidas en el caos. Luego llegaron las consecuencias economicas: el producto interior bruto canadiense cayo un 0,7% y se calcula que las empresas de Estados Unidos perdieron aproximadamente 6.000 millones de dolares.

DETENER LA SIGUIENTE PANDEMIA

65

Es probable que la Teoria del Pequeno Mundo desempene un papel clave en la forma en que el mundo se vaya a enfrentar a la proxima enfermedad pandemica. Segun esta teoria, la mayor parte de los esfuerzos deben orientarse a cambiar la de los vinculos entre las personas infectadas y las sanas. Esto implica centrar los recursos en un numero relativamente pequeno de personas muy que es probable que diseminen la infeccion mas ampliamente. La importancia de tales individuos en la diseminacion de la enfermedad se destaco durante las etapas iniciales de la epidemia de sida. Los investigadores observaron que al menos cuarenta de los doscientos cuarenta y ocho varones a los que primero se diagnostico la enfermedad estaban vinculados a traves de las relaciones sexuales de un auxiliar de vuelo homosexual canadiense que, debido a la cantidad 66

de parejas que tenia y a su profesion, era un eslabon extremadamente eficaz en la red de la enfermedad.

Cronologia

1951 El matematico Anatole Rapoport y sus colaboradores de la Universidad de Chicago publican los primeros estudios sobre las redes sociales y sus efectos. 1957 Ithiel de Sola Pool y Manfred Mochen, en Estados Unidos, comienzan a trabajar en las cadenas de relaciones. 1959 Los matematicos hungaros Paul Erdos y Alfred Renyi prueban la eficacia de unos pocos vinculos aleatorios en la conexion de enormes redes.

67

1967 Stanley Milgram lleva a cabo el primer experimento sobre el pequeno mundo, enviando cartas para descubrir cuantos reenvios son necesarios para llegar a sus destinatarios. 1990 Se estrena en Estados Unidos la obra de John Guare Seis grados de separacion, en la que uno de los personajes senala que cada persona esta separada de cualquier otra por seis relaciones. 1993 Se estrena la version cinematografica de Seis grados de separacion, protagonizada por Donald Sutherland. 1996 La investigacion sobre los grillos llevo un estudiante de Cornell University, Duncan Watts, y a su director de tesis, Steve Strogatz, a estudiar la Teoria del Pequeno 68

Mundo. Estudiantes de la Universidad de Virginia crean una version en linea del juego de Kevin Bacon. 1998 Watts y Strogatz publican un articulo en la revista Nature que despierta un enorme interes por la Teoria del Pequeno Mundo. 1999 Watts publica Small worlds, que reune por vez primera las claves de la Teoria del Pequeno Mundo. 2001 Watts y sus colaboradores realizan en Internet una version del experimento del Milgram de 1967. Damian Zanette utiliza la Teoria del Pequeno Mundo para estudiar la diseminacion de las enfermedades. 69

Citas 4 Stanley Milgram (1933-1984) fue uno de los cientificos mas brillantes y polemicos del .siglo XX. Incluso antes de su investigacion sobre el Pequeno Mundo ya habia logrado notoriedad por su trabajo sobre la obediencia a la autoridad. En 1961, cuando todavia era profesor auxiliar en la Universidad de Yale, puso un anuncio en el New Haven Register, de Connecticut, invitando a los lectores a participar en un estudio cientifico sobre la memoria. Se dijo a los participantes que se centraria en el efecto del castigo sobre el aprendizaje, y les dejaron en una sala para que observaran a un hombre que tenia colocados electrodos que —segun se aseguro a los participantes— le daban 70

descargas electricas dolorosas. Luego se dijo a las personas reclutadas que leyeran una lista de asociaciones de palabras y que dieran al alumno una descarga electrica cuando cometiera errores, usando una consola con interruptores que iban de 15 a 450 voltios, indicado como . Aunque estaban separados por una pared, los participantes podian oir al alumno y sus gritos de dolor cuando recibia las descargas electricas despues de cada error. A medida que aumentaba su agonia, muchos de los participantes protestaron, solo para que el cientifico encargado les dijera que debian continuar. Y el 65 % de ellos lo hicieron hasta llegar a , momento en el cual los gritos habian dado paso a un ominoso silencio. Solo cuando el experimento termino se dijo 71

a los participantes la verdad: que el alumno no era mas que un actor y que no le habian hecho dano en absoluto. Milgram habia demostrado que se podia persuadir a la gente corriente, desde amas de casa hasta ingenieros, para que abusaran de un perfecto extrano hasta llegar a matarlo, si creian que podian pasar esta responsabilidad a quienes tienen autoridad. En la decada de 1960 se considero que el experimento de Milgram aclaraba, de manera escalofriante, las acciones de los nazis. Como demuestra el reciente escandalo sobre el tratamiento dado a los prisioneros iraquies, el experimento de Milgram no ha perdido ni un apice de su relevancia. 5 La Teoria del Pequeno Mundo muestra de 72

forma intrigante la controvertida cuestion de la globalizacion. En 1999, Bruce Kogut (Wharton School of Business) y Gordon Walter (Southern Methodist University, Texas) usaron los metodos ideados por Watts y Strogatz para analizar las redes de propiedad de las quinientas mayores corporaciones de Alemania. Como era previsible, encontraron montones de en la propiedad de las firmas, resultado de diversos acuerdos y fusiones. Pero tambien encontraron que el efecto de cortocircuito de unas pocas corporaciones permitia que la propiedad de cualquier firma se relacionara con la de otra a traves de cuatro intermediarios solamente. Dicho de otro modo: a pesar de su aparente diversidad, las mayores corporaciones de Alemania forman, en 73

realidad, un pequeno mundo intimo. Segun Kogut y Walter, esto puede explicar por que empresas con vinculos aparentemente tenues con otra pueden seguir mostrando un comportamiento empresarial similar. Pero tambien puede tener implicaciones en el modo en que estas empresas afrontan la globalizacion. La teoria del pequeno mundo muestra que puede bastar con unos pocos vinculos aleatorios para en una vasta red. Por tanto, es muy probable que todo el mundo empresarial ya se haya convertido en un pequeno mundo. En tal caso, segun concluyen Kogut y Walter, tiene poco sentido preocuparse por la globalizacion: es posible que ya haya tenido una repercusion tan importante sobre el mundo empresarial como nunca tendra. 74

Pero tambien el pequeno mundo empresarial tiene su lado oscuro. Si cualquier parte de el se resfria, hay que tener cuidado: el efecto de puede conducir, a una velocidad sorprendente, a un colapso en sectores empresariales que en apariencia no estan relacionados en absoluto. El estudio de los pequenos mundos sigue dando sus primeros pasos, aunque ya esta claro que su presencia en el mundo real supone tanto beneficios como amenazas para todos nosotros. Es probable que los economistas y los expertos en estudios empresariales revelen muchos mas ejemplos de los pequenos mundos y sus implicaciones para nosotros en los proximos anos.

75

Y es probable tambien que parte de lo que descubran sea inquietante. Aunque puede ser divertido descubrir a amigos entre autenticos extranos, tales encuentros tambien constituyen una advertencia: que el mundo es un lugar mas interconectado de lo que quiza nos convenga.

76

3 Teoria del Juego

En pocas palabras La Teoria del Juego surgio como un intento de encontrar mejores formas de jugar a juegos como el poquer, en el que los jugadores no pueden estar seguros de las intenciones de sus oponentes. Durante la decada de 1920, los matematicos intentaron resolver el problema usando la regla de escoger la estrategia que proporcionara los mayores beneficios en las peores circunstancias. En 1928, el matematico hungaro John von Neumann probo que cada juego de dos jugadores tiene una estrategia con tal de que las ganancias de uno de los jugadores sean exactamente iguales a las perdidas del otro. Muchos juegos, como el ajedrez y el poquer, tienen esta propiedad de ; sin embargo, no ocurre lo mismo con muchas elecciones de la vida real. Por ejemplo, la guerra nuclear es un juego de suma no nula, y puede llevar a que ninguna parte gane. El matematico norteamericano John Nash amplio el resultado de Von Neumann para cubrir dichas situaciones; su trabajo

77

demostro que encontrar la mejor estrategia a menudo implica factores extra —como las emociones— que la Teoria del Juego convencional no abarca. Ahora se esta intentando ampliar la Teoria del Juego para incluir tales factores, con implicaciones en multitud de campos, desde la politica mundial hasta la prevencion de los delitos.

En octubre de 1962, el mundo estuvo al borde del Armagedon nuclear. La Union Sovietica habia colocado misiles nucleares en Cuba, a solo 145 kilometros de Estados Unidos, y los estadounidenses exigian su eliminacion inmediata. Los misiles planteaban una amenaza que el presidente Kennedy no podia ignorar, pero tambien sabia que una respuesta equivocada podria suponer la guerra nuclear y la muerte de millones de personas. Algunos de sus asesores exigian un ataque aereo masivo, para eliminar las docenas de misiles emplazados en Cuba que ya apuntaban a Estados Unidos. Sin embargo, con esto se corria el riesgo de provocar a la Union Sovietica para que lanzara un ataque en lugar de 78

arriesgarse a perder sus cabezas nucleares. Otros esperaban un bloqueo naval para impedir que llegaran mas misiles a la isla y exigian la retirada, si bien algunos temian que esto fuera ineficaz. Durante unos pocos y fatidicos dias, las dos superpotencias lucharon con este dilema, conscientes de las consecuencias que tendria tomar una decision erronea. El presidente Kennedy opto por un bloqueo naval, aunque tambien se preparo para un ataque masivo contra Cuba. Pocos dias mas tarde, tras febriles negociaciones entre bastidores, la Union Sovietica retiro los misiles y el mundo respiro de nuevo. La crisis de los misiles de Cuba es uno de los momentos decisivos de la Historia. Pero tambien es un ejemplo terrorifico de un problema con el que todos nosotros nos encontramos en la vida cotidiana: como tomar las decisiones optimas 79

cuando no tenemos certeza de lo que esta pensando la otra persona. Tales dilemas surgen una y otra vez, desde los empleados que intentan negociar un aumento de sueldo hasta los jugadores de cartas que se preguntan si deben tirarse un farol o pasar. ?Puede haber alguna forma de encontrar la mejor manera de jugar, la estrategia optima que conduzca al mejor desenlace posible? Esta es la cuestion que algunos matematicos clarividentes comenzaron a plantearse hace aproximadamente un siglo. Encontraron la solucion, creando en este proceso una nueva disciplina denominada , que desde entonces se ha aplicado en ambitos que van desde la planificacion militar hasta el poquer, de la economia a la evolucion. Pese a su impresionante alcance, los origenes de la Teoria del Juego radican en algo tan trivial 80

como la actividad que le da nombre: el juego. Ya en 1713, el aristocrata ingles James Walde-grave encontro un metodo de ganar en un juego de cartas que contiene muchos de los elementos de la moderna Teoria del Juego. Sin embargo, no consiguio descubrir otras posibles aplicaciones, y esta teoria tuvo que esperar otros doscientos anos antes de despegar finalmente. Otro jugador de cartas, el matematico frances Emile Borel, hizo la conexion entre los juegos y problemas mas graves. En 1921 publico el primero de una serie de articulos sobre los juegos en el que el ganador necesita encontrar la mejor estrategia cuando no conoce lo que esta pensando el oponente. Borel ideo una manera ingeniosa de afrontar esta carencia de informacion: jugar de tal modo que se minimizaran las perdidas, independientemente de como jugara el oponente. Usando esta estrategia, Borel pudo plantear reglas generales 81

para jugar juegos simples, como , mostrando que combinacion de los tres se debia utilizar para minimizar las perdidas. A diferencia de Waldegrave, tambien reconocio que la misma idea podia tener aplicaciones mas serias, por ejemplo en la estrategia militar. Sin embargo, tambien advirtio de los peligros de llevar estas ideas demasiado lejos, en buena medida porque creia que no habia una forma de encontrar la mejor estrategia para complejos en los que los jugadores se enfrentaran a muchas opciones. Pero Borel estaba equivocado. Siempre que haya dos oponentes en la batalla por la supremacia, y la ganancia de uno de los jugadores suponga la perdida del otro, existe una mejor estrategia que se debe utilizar. Es lo que se denomina estrategia , cuya existencia probo un brillante matematico hungaro de veinticinco anos, John von Neumann. 82

Usando metodos extremadamente sofisticados, Von Neumann demostro que la mejor estrategia a utilizar en tales juegos consiste en estudiar todas las opciones disponibles, calcular su peor resultado posible y entonces elegir el menos malo. Si algun oponente intenta hacerlo mejor, se arriesga a sufrir una perdida mayor, haciendo que esta estrategia sea la opcion mas racional. La estrategia tambien resuelve el problema de intentar adelantarse a los oponentes: suponiendo que siempre actuen racionalmente, tambien escogeran la estrategia . La prueba de Von Neumann del Teorema Minimax hizo que se convirtiera en el padre de la Teoria del Juego. Pero considero que solo era el principio. En 1944, junto con el economista austriaco Oscar Morgenstern, publico Theory of Games and Economic Behaviour; que pretendia hacer del Teorema Minimax la base de un nuevo 83

enfoque de la economia, que frecuentemente implica a dos o mas oponentes compitiendo para obtener el mejor resultado posible para si mismos. La obra de Von Neumann y Morgenstern demostraba el gran potencial de la aplicacion de la Teoria del Juego a algo mas que meros pasatiempos. A principios de la decada de 1950, estrategas militares estadounidenses la utilizaron para dar sentido a la estrategia de la Guerra Fria, aunque pronto descubrieron sus limitaciones. La mas grave era la presuposicion de que la ganancia de un jugador siempre corresponde exactamente a las perdidas del otro. Aunque muchos juegos simples, como las tres en raya, obedecen a esta regla de , muchas situaciones de la vida real no lo hacen. Por ejemplo, en dilemas como el de la crisis de los misiles de Cuba, un ataque de una de las partes podria desencadenar una guerra nuclear, 84

que conllevaria jugadores.

la

aniquilacion

de

ambos

El teorema de Von Neumann no se pronunciaba sobre estos juegos de . ? Existia una manera de encontrar la estrategia optima para jugarlos? Es mas, ?existe tal estrategia? Una vez mas, un brillante matematico encontro la respuesta, que de nuevo fue afirmativa. En 1950, John Nash, un estudiante de veintiun anos de Princeton, logro ampliar el Teorema Minimax original de Von Neumann para abarcar tambien los juegos de . Nash demostro que en cualquier juego en el que participaran cualquier numero de jugadores, siempre existe al menos una estrategia que garantiza que los jugadores solo pueden jugar peor si eligen cualquier otra cosa. Estas estrategias, conocidas hoy como Equilibrios 85

de Nash, son el centro de la Teoria del Juego. Tambien son motivo de una enorme polemica. Una razon es que estas estrategias no siempre coinciden con la mejor eleccion obvia para los jugadores. Un ejemplo totalmente pertinente fue la carrera armamentistica nuclear que se inicio cuando Nash realizo su descubrimiento. Tanto Estados Unidos como la Union Sovietica sabian que la mejor opcion era el desarme, pero ninguno creia al otro, de modo que am-bos terminaron gastando enormes sumas en armas que esperaban no tener que utilizar nunca. Tambien quedo claro que muchas situaciones cotidianas tenian dos o mas Equilibrios de Nash, y distaba mucho de estar claro cual de los jugadores debia elegir. Un ejemplo contemporaneo vivido se mostraba en la pelicula Rebelde sin causa, producida en Hollywood en 1955 y protagonizada por James Dean. Dean desempena el papel de Jim, que se enfrenta al 86

maton del instituto, Buzz, en un juego en el que conducen sus coches hacia el final de un acantilado, perdiendo el primero que se achique. Jim y Buzz se enfrentan, por tanto, a la eleccion entre dar un volantazo o seguir conduciendo, de modo que el juego del tenia cuatro posibles resultados, ninguno de los cuales era ideal6. Virar con brusquedad significaba perder, pero si ambos seguian conduciendo el resultado seria desastroso. Obviamente, era mejor que los dos decidieran dar un volantazo: perderian pero tambien ambos conseguirian vivir un dia mas. Aunque desconcertante, el trabajo de Nash demostro que esta eleccion no es un Equilibrio de Nash: cada jugador puede jugar mejor decidiendo conducir mientras el otro vira bruscamente. Peor aun, resulta que el juego tiene dos estrategias del Equilibrio de Nash: conducir mientras el otro jugador da un 87

volantazo y viceversa. ?Pero de que manera podria verse obligado el otro conductor a mantener la estrategia? Los teoricos del juego lucharon con esta cuestion, solo para encontrar mas problemas. Parecia que era necesario algo mas. Por ejemplo, Jim podia aparentar que estaba borracho antes de salir, dando por tanto la impresion de que la muerte no le asustaba y enganando a Buzz para que fuera el primero en dar el volantazo. En resumen, el trabajo de Nash revelo que la claridad que el resultado original de Von Neumann aporto a la Teoria del Juego era ilusoria. Desde entonces, los teoricos del juego se han dividido en dos amplios campos: unos se centran en el uso de los juegos clasicos, como el , para captar la esencia de un problema, mientras que otros pretenden ampliar la Teoria del Juego convencional y hacerla mas 88

realista. Ambos han logrado exitos impresionantes en campos que van desde la economia a la sociologia. Por ejemplo, Andrew Colman y sus colaboradores (Universidad de Leicester) han modelado el comportamiento de los criminales en la sociedad como un juego del . Tanto los criminales como la sociedad preferirian que el otro se echara atras primero; por otra parte, ninguno de ellos saldria beneficiado si todos se comportaran como criminales. Usando la Teoria del Juego, Colman y sus colegas demostraron que esto supone una proporcion esencialmente estable de criminales en la sociedad que tengan el suficiente exito sin provocar que la sociedad caiga en ofensivas draconianas. La Teoria del Juego tambien predice que la reduccion del crimen por debajo de este nivel exige medidas suficientemente duras para convencer a los criminales de que mas les vale reformarse, prediccion confirmada por los resultados de las politicas de tolerancia nula que 89

se han aplicado en Nueva York y otras grandes ciudades del mundo. Tras el trabajo innovador realizado por el britanico John Maynard Smith, especialista en Teoria de la Evolucion, los biologos usan similares ideas de la Teoria del Juego para saber por que los animales adoptan cierto tipo de comportamiento, como la agresion o la cooperacion. En lugar del Equilibrio de Nash, los biologos hablan de una , comportamiento que permite que la poblacion resista la invasion de otros que se comportan de modo diferente. El Teorema Minimax original de Von Neumann se utiliza incluso en los ordenadores que se emplean para jugar al ajedrez, en los que ayuda a seleccionar entre una enorme cantidad de posibilidades un punado de movimientos que son los mejores. Los desarrollos mas intrigantes en la Teoria del Juego se centran en hacer que sea mas realista. 90

Un grupo dirigido por el britanico Nigel Howard — especialista en la Teoria del Juego que asesoro al gobierno estadounidense en las famosas conversaciones de limitacion de armas de la decada de 1960— ha desarrollado lo que se conoce como Teoria del Drama, que incluye el papel de las emociones en la Teoria del Juego. Los jugadores que se encuentran atrapados en un tipo de juego a menudo lo transforman en otro juego en virtud de su respuesta emocional; la Teoria del Drama intenta predecir los resultados probables7. Uno de los mayores avances en la Teoria del Juego se debe a un cientifico politico, Steven Brams (Universidad de Nueva York). Ha desarrollado una extension de la Teoria del Juego denominada Teoria de las Jugadas, que muestra como evolucionan los juegos a medida que cada jugador responde a las estrategias usadas por otros. En comparacion con la Teoria del Juego 91

convencional, parece dar informacion mas plausible acerca de acontecimientos mundiales clave, desde la crisis de los misiles de Cuba hasta el Acuerdo del Viernes Santo de Irlanda del Norte. El poder de la Teoria del Juego cada vez es mas reconocido fuera de sus confines originales, como refleja la reciente concesion del Premio Nobel a algunos de sus pioneros, incluido John Nash, en 1994. El comportamiento de la gente que se enfrenta a elecciones duras puede no ser tan simple como esperaba originalmente Von Neumann, pero no hay duda de que la Teoria del Juego ha demostrado ser inestimable desvelando algunos de sus misterios.

?SON LOS CRIMINALES UN PROBLEMA PERMANENTE? 92

La Teoria del Juego sugiere que es posible que siempre tengamos que soportar a una pequena proporcion de criminales en la sociedad. Segun el psicologo Andrew Colman (Universidad de Leicester), los criminales profesionales pueden elegir una estrategia: pueden hacer lo que quieren o adaptarse. Al mismo tiempo, nosotros podemos aguantar a los criminales o podemos adoptar sus practicas. La combinacion resultante de estrategias y resultados es entonces como el clasico juego del . Los criminales y nosotros obtendriamos el mejor resultado si la otra parte se echara atras y cooperara; por otra parte, el peor resultado posible seria que todos se comportaran como criminales. Usando metodos de la Teoria del Juego, Colman demostro que esto conduce a un estado estable en el que los criminales a los que se saca de circulacion son reemplazados por ciudadanos que 93

en tiempos respetaban la ley y que se han visto atraidos por el nicho que han dejado vacio los criminales encarcelados. El resultado es la existencia de un grupo permanente, aunque pequeno, de criminales en la sociedad.

HACER LOS JUEGOS MAS DINAMICOS

El cientifico politico Steven Brams desarrollo la Teoria de las Jugadas como una ampliacion de la Teoria del Juego que refleja los aspectos dinamicos de los conflictos. En lugar de considerar cada conflicto como una situacion esencialmente estatica, la Teoria de las Jugadas permite incluir las respuestas de los oponentes, dando lugar a un marco mas dinamico y posiblemente mas realista en el que analizar los 94

conflictos. Brams y sus colaboradores han utilizado la Teoria de las Jugadas para reevaluar muchos conflictos reales, con resultados que contradicen a menudo las predicciones de la Teoria del Juego. Por ejemplo, cuando estaba claro que Israel no iba a ser vencido en la guerra del Yom Kippur de 1973, la Union Sovietica —que apoyaba a Egipto y Siria— ofrecio establecer un acuerdo. La administracion Nixon, que estaba a favor de los israelies, respondio poniendo a todas las fuerzas militares estadounidenses en alerta nuclear mundial. La Teoria del Juego predice que esto debia haber convertido la guerra en una confrontacion entre las superpotencias, pero la Teoria de las Jugadas demuestra que era mas probable que condujera a la paz, que fue lo que afortunadamente ocurrio.

95

Cronologia

1713 El aristocrata ingles James Waldegrave encuentra el metodo de jugar de forma optima el juego de cartas que contiene la estrategia , el concepto basico de la Teoria del Juego. 1921 El matematico frances Emile Borel publica articulos sobre el juego en los que ganar implica hallar la mejor estrategia cuando no se sabe lo que esta pensando el oponente. 1928 El hungaro John von Neumann prueba el , un resultado clave de la Teoria del Juego para juegos de dos personas con suma nula.

96

1944 Von Neumann y el economista austriaco Oscar Mor-genstern publican Theory of Games and Economic Behaviour, proponiendo un enfoque basado en la Teoria del Juego aplicada a la economia. 1950 John Nash, estudiante de Princeton, amplia el Teorema Minimax original de Von Neumann para abarcar los juegos de suma no nula y acuna el concepto de Equilibrio de Nash. 1955 La pelicula Rebelde sin causa, protagonizada por James Dean, incluye el problema clasico de la Teoria del Juego de jugar al . 1973 El ingles John Maynard Smith, teorico de la evolucion, utiliza la Teoria del Juego para estudiar de que manera especies competidoras pueden alcanzar un 97

equilibrio estable de sus poblaciones. 1991 Nigel Howard, experto veterano en la Teoria del Juego, y sus colaboradores comienzan a desarrollar la Teoria del Drama, que incluye el papel de las emociones en la Teoria del Juego. 1994 El profesor Steven Brams (Universidad de Nueva York), cientifico politico, introduce la Teoria de las Jugadas, que analiza de que manera evolucionan los juegos a medida que cada jugador responde a las estrategias utilizadas por los demas. John Nash y otros pioneros de la Teoria del Juego comparten el Premio Nobel de Economia.

98

Citas 6 Tanto en la Teoria del Juego como en la Teoria de las Jugadas, los conflictos se analizan a menudo a traves de lo que se denomina , que establece las diversas opciones a las que se enfrentan los diversos oponentes, y sus respectivos resultados. Por ejemplo, en el juego del descrito en la pelicula Rebelde sin causa, la matriz de resultados es la siguiente:

Opc io nes de Buz z Dar un volantazo Seguir adelante 99

Opc io nes de J im Dar un volantazo (3,3) (2,4) Seguir adelante (4,2) (1,1) Aqui los resultados se presentan de forma , esto es, como clasificaciones, siendo 4 la mejor clasificacion y 1 la peor. La matriz refleja, por tanto, el hecho de que dar un volantazo puede ser muy bueno para ambos (3,3), pero el que ambos sigan adelante sera desastroso (1, 1). El resultado de cualquier juego se evalua luego considerando como responderan los jugadores a las diversas combinaciones de resultados y, en la Teoria de las Jugadas, si querran pasar a otras opciones en su 100

busqueda de algo mejor. 7 Las criticas a la Teoria del Juego se centran a menudo en su presuposicion de que los siempre se comportan racionalmente. Nigel Howard ha ilustrado los peligros de la presuposicion de la racionalidad con la historia real de dos economistas que toman un taxi para ir a su hotel en Jerusalen. Preocupados porque el taxista pretendiera cobrarles de mas, decidieron no regatear el precio hasta llegar al hotel, momento en el que su posicion para la negociacion seria mucho mas firme. Pero su estrategia teorica de juego, enteramente racional, no funciono demasiado bien. Dandose cuenta de que habia sido acorralado por estos dos sabelotodos, el conductor cerro las puertas 101

del taxi, los llevo de vuelta al lugar de donde partieron y los dejo tirados en plena calle.

102

HACER LO IMPOSIBLE

103

4 Inteligencia Artificial

En pocas palabras Desde la decada de 1950, los cientificos han desarrollado metodos que permiten que los ordenadores hagan algo mas que simples tareas de procesamiento de datos numericos. Para dotar de (IA) a las computadoras, tienen que ser programadas de forma que puedan realizar tareas de tipo humano, como razonar a partir de pruebas y reconocer modelos. Actualmente ha surgido toda una serie de tecnicas de Inteligencia Artificial para abordar esos retos; utilizan lenguajes de programacion especiales que permiten que los ordenadores adquieran una experiencia de tipo humano para aplicarla a nuevos problemas. Estos grandes adelantos han logrado algunos exitos impresionantes, desde el diagnostico de enfermedades a partir de los sintomas hasta el descubrimiento de criminales buscados en las imagenes de las camaras de seguridad. Algunos ordenadores de Inteligencia Artificial especializados incluso han creado autenticas obras de arte, han realizado sus

104

propios descubrimientos cientificos y han vencido a campeones mundiales del ajedrez y de las damas. Incluso asi, las computadoras deben recorrer aun un largo camino antes de hacerse autenticamente y pasar la denominada Prueba de Turing, segun la cual los ordenadores pueden convencer a la gente de que son realmente humanos. Uno de los mayores problemas estriba en conseguir que los ordenadores comprendan el lenguaje convencional, con todas sus ambiguedades.

Como todos los artistas de renombre, Aaron tiene un estilo unico: el resultado de mas de veinte anos dedicados a llegar a dominar el color y la composicion. Con pinceladas energicas y colores intensos, Aaron trabaja con rapidez, creando imagenes que vendera por miles de libras en todo el mundo. No es que Aaron este pensando en el dinero. De hecho, es discutible si realmente piensa, porque Aaron es un ordenador. Hablando con propiedad, Aaron ni siquiera es eso: no es mas que miles de lineas de Lisp, un lenguaje de programacion que 105

puede dotar a un ordenador de la caracteristica mas controvertida: la Inteligencia Artificial. Desde principios de la decada de 1970, Harold Cohen, artista y cientifico computacional britanico (Universidad de San Diego, California), ha dotado a Aaron de capacidades que le permiten crear trabajos unicos sin ninguna ayuda humana. ? Piensa Aaron? ?Es creativo? Estas son cuestiones fundamentales del campo de la Inteligencia Artificial y su busqueda por dotar a las maquinas de la capacidad de la mente humana. Es una busqueda cuya fortuna ha sufrido diversos altibajos desde que comenzara hace aproximadamente medio siglo. Hoy en dia, a comienzos del siglo XXI, esta abriendose camino en la vida diaria. Pero lo esta haciendo de maneras muy diferentes a la imagineria de ciencia ficcion —de robots humanoides y ordenadores descontentos como HAL en 2001: una odisea del espacio— que en tiempos evoco. 106

Tambien se ha tardado medio siglo en deshacerse del fantasma del hombre al que muchos consideran el padre de la Inteligencia Artificial. En 1950, pocos anos antes de su suicidio a la edad de cuarenta y un anos, Alan Turing, brillante matematico, descifrador y pionero de la computacion de Cambridge, tuvo una vision del futuro. Profetizo que a finales de siglo XX los ordenadores serian capaces de mantener una conversacion de cinco minutos con los seres humanos y harian que el 30% de ellos creyeran que estaban conversando con otro ser humano. El plazo paso; sin embargo, pese a haber gastado miles de millones de libras en financiacion, ningun ordenador ha llegado a hacer creer a su creador de que realmente es un ente . ?Han fracasado los cientificos computacionales en su investigacion? En absoluto: de hecho, en algunos casos, como 107

Aaron, podria decirse que han logrado dotar a las maquinas de capacidades que pueden superar a las de un ser humano. Mas importante aun es que la mayoria de los investigadores del campo de la Inteligencia Artificial han empezado a considerar la vision de Turing como irrelevante en comparacion con un objetivo de mucho mayor calibre: la creacion de maquinas que puedan librar a los seres humanos de tareas pesadas como la deteccion de celulas cancerosas en preparaciones histologicas o el descubrimiento de fraudes en documentos financieros. Aun asi, en sus inicios, la investigacion de la Inteligencia Artificial estaba orientada por la creencia de que las maquinas pronto serian capaces de lograr rasgos similares a los humanos e incluso superarlos. Este optimismo provenia de un descubrimiento fundamental que habian 108

hecho los investigadores sesenta anos atras: que incluso

rudimentarios pueden lograr hazanas impresionantes. En 1943, dos neurologos estadounidenses, Warren McCu-Uoch y Walter Pitts, dejaron anonadados a sus colegas al demostrar que era posible comprender la accion de los nervios usando las leyes de la logica matematica, que sustentan los procesos basicos del razonamiento. Tambien probaron que se puede hacer una imitacion de los nervios usando circuitos electricos conectados de ciertas formas, lo que abria por tanto la posibilidad de crear cerebros artificiales que pudieran razonar y . Dado que los autenticos cerebros contienen miles de millones de celulas nerviosas, parecia probable que cualquier imitacion de su capacidad utilizando componentes electricos se encontraria a anos 109

luz. Sin embargo, los investigadores descubrieron pronto que incluso relativamente simples podian ser entrenadas para resolver tareas sorprendentemente dificiles. El truco consistia en conectarlas de modo que su respuesta a entradas de datos particulares pudiera afinarse para conseguir el resultado correcto. En 1951, Marvin Minsky, cientifico compu-tacional estadounidense, habia conectado cientos de tubos de vacio de modo que pudieran aprender a imitar la capacidad de las ratas de moverse por un laberinto. Parecia que estaba claro el camino a seguir: simplemente crear redes neuronales mayores y entrenarlas. Sin embargo, no todo el mundo estaba convencido. El problema de dichas redes era, y es, que nunca ha estado claro con exactitud como o por que actuan como lo hacen. Abrirlas para examinar sus conexiones no es en 110

absoluto algo util. Tales cuestiones llevaron a algunos investigadores a seguir una via diferente hacia la Inteligencia Artificial, basada directamente en las reglas de la logica. La idea era crear maquinas cuyos circuitos imitaran la capacidad de razonamiento de la mente humana. A mediados de la decada de 1950, Herbert Simon (Carnegie Institute of Technology, Pittsburg) y sus colaboradores lograron aprehender las leyes de la logica en un formato que pudieran comprender los ordenadores. El resultado fue (), cuyas habilidades no eran menos asombrosas que las de la electrica de Minsky. El programa, pese a utilizarse en una computadora relativamente primitiva, podia probar docenas de teoremas sobre los fundamentos de las matematicas, tarea que se creia reservada a logicos humanos brillantes. 111

Ahora se considera que The Logic Theorist fue el primer programa de Inteligencia Artificial; hizo su debut en 1956, en la primera conferencia de Inteligencia Artificial, celebrada en el Dartmouth College (New Hampshire). La conferencia estuvo rodeada de gran interes por las perspectivas que entonces surgieron, y asistio al nacimiento del termino . Al ano siguiente, Herbert Simon predijo que en diez anos surgirian ordenadores tan inteligentes que serian capaces de hacer sus propios descubrimientos matematicos y convertirse en campeones del mundo de ajedrez. A principios de la decada de 1960, las redes neuronales iban viento en popa. En el Cornell Aeronautical Laboratory (Nueva York), el psicologo Frank Rosenblatt habia creado el Perceptron, una red de sistemas electricos que tenia la asombrosa capacidad de patrones de luces. Al igual que 112

un ser humano al que se pusiera frente a una cara familiar, se podia entrenar al Perceptron para que reconociera ciertos patrones de luces. Se trataba de un logro impresionante que pronto llevo a Rosenblatt a promocionar el Perceptron como el prototipo de una autentica maquina . No obstante, inevitablemente estas afirmaciones grandilocuentes molestaron a sus rivales, en gran medida porque amenazaban sus posibilidades de obtener parte de los ingentes fondos que el Departamento de Defensa de Estados Unidos ofrecia para la investigacion en materia de Inteligencia Artificial. En 1969, dos rivales de Rosenblatt, Seymour Papert y Marvin Minsky (Massachusetts Institute of Technology), publicaron un libro en el que afirmaban que habian probado que el futuro de la Inteligencia Artificial no podia relacionarse con el 113

Percep-tron. Demostraron que carecia de la capacidad para resolver un tipo de problema logico importante en las aplicaciones de Inteligencia Artificial, al menos en su formato mas simple. Tambien insistieron en que no habia forma de modificar el Perceptron para conseguir esto. Pronto se demostro que estas afirmaciones eran falsas, pero para entonces Papert y Minsky habian conseguido interrumpir la concesion de fondos no solo para el Perceptron sino para toda la investigacion de redes neuronales. Hasta mediados de la decada de 1980, el camino hacia la Inteligencia Artificial estuvo dominado por programas basados en la logica que se utilizaban en ordenadores convencionales. La atencion se centro en los denominados metodos de sistemas expertos, en los que se dotaba a los ordenadores de las capacidades de expertos humanos en el campo del diagnostico medico o la deteccion de fraudes, por ejemplo. Esto 114

implicaba el establecimiento de una de reglas basada en entrevistas estructuradas con expertos humanos, y la programacion de los ordenadores para aprovechar estas reglas, aplicando la logica para llegar a tomar decisiones, por ejemplo, sobre la mejor manera de tratar a un paciente con cancer. Sin embargo, como ocurre con tanta frecuencia en la investigacion de la Inteligencia Artificial, la realidad distaba mucho de cumplir las expectativas. Aprehender la experiencia humana resulto ser mucho mas dificil de lo que muchos pensaban, mientras que los ordenadores de aquella epoca tenian problemas para afrontar las exigencias de razonamiento logico. Tampoco habia nadie dispuesto a dar la bienvenida a estos compu-tarizados en su area de trabajo. Los informes de su fracaso se acogieron con regocijo: mientras las empresas 115

que los consideraban utiles se mantuvieran en silencio, menos rivales descubririan el secreto de su exito. A mediados de la decada de 1980, estaba claro que los sistemas expertos nunca podrian llegar a ser la panacea, tal como algunos habian afirmado. Pero por aquella epoca comenzaba a resurgir el interes por las redes neuronales. John Hopfield, biologo teorico de Caltech, reavivo el interes por las relaciones entre las redes neuronales y las celulas vivas, mientras que otros investigadores apuntaban soluciones al argumento supuestamente demoledor de Papert y Minsky contra el Perceptron. Para entonces parecia que se habian superado mas o menos las luchas intestinas y se disponia de una potencia computacional barata y abundante, por lo que el campo de la Inteligencia Artificial se establecio para afrontar los problemas del mundo real. 116

Su variedad es asombrosa. Las capacidades de razonamiento logico de los sistemas expertos se han aplicado en campos que van desde el descubrimiento del fraude en la banca hasta la deteccion de secuencias genicas entre los mnes de millones de bases del ADN. Entretanto, las redes neuronales han tenido exito en aplicaciones que aprovechan sus puntos fuertes: la deteccion de patrones y el aprendizaje de la experiencia. Ahora se estan utilizando para vigilar los automoviles sospechosos que se aproximan a Londres, descubrir a delincuentes buscados en las calles principales e incluso detectar signos de posible violencia entre el gentio antes de que estallen*. * La mayoria de nosotros detesta el correo basura, pero seria incluso mas irritante si no fuera por los metodos de Inteligencia Artificial, que han garantizado que la mayor parte del correo basura vaya a donde debe ir. Esto ha sido 117

posible gracias al uso de la Inteligencia Artificial en lo que se denomina , proceso en el que se utilizan ordenadores para buscar patrones en la inmensa cantidad de datos que generamos simplemente en nuestra vida cotidiana. Utilizando fuentes como los datos de caja de los supermercados, las tecnicas de Inteligencia Artificial pueden deducir quienes somos, lo que buscamos y cuando, y pueden orientar el material publicitario en consecuencia. Pese a toda su utilidad, los actuales sistemas de Inteligencia Artificial aplicados a la vida real parecen estar lejos de las que en tiempos se auguraron. ? Que paso con la vision de Alan Turing de un ordenador que pudiera convencer a los seres humanos de ser uno de ellos, o con la prediccion que hizo Herbert Simons en 1957 de que llegaria el dia en que los ordenadores serian capaces de 118

hacer descubrimientos matematicos y convertirse en campeones del mundo ajedrez?

de de

De hecho, todas estas predicciones se hicieron realidad, al menos hasta cierto punto. En 1966, Joseph Weizenbaum, del Massachusetts Institute of Technology (MIT), dio a conocer a Eliza, un ordenador capaz de responder a los seres humanos usando lenguaje ordinario. Weizenbaum esperaba que Eliza echara abajo las barreras existentes entre los ordenadores y los seres humanos. Para horror suyo, encontro que eran demasiados los seres humanos que estaban mas que deseosos de romper por si mismos esas barreras. Eliza estaba programado para dar respuestas como las que se esperan de un psicoterapeuta. Afirmaciones como

llevaban a Eliza a responder: . 119

Weizenbaum descubrio que la gente abria rapidamente su corazon a esta maquina. Estaba muy preocupado por el hecho de que, pese a ser evidente que Eliza no , demasiados seres humanos le permitirian pasar el Test de Turing. La prediccion de Simon de que un ordenador haria un descubrimiento matematico se hizo realidad en 1976, cuando un programa basado en la logica denominado AM, desarrollado por Douglas Lenat (Stanford University), afirmo que cualquier numero par igual o mayor que cuatro es la suma de dos numeros primos. El matematico Christian Goldbach habia hecho la misma afirmacion unos doscientos anos antes; incluso asi, el hecho de que AM hubiera descubierto de nuevo la dejaba entrever el potencial de la Inteligencia Artificial8.

120

Una demostracion aun mas impresionante llego en 1997, cuando el ordenador Deep Blue de IBM batio a Gary Kasparov, el mejor jugador de ajedrez de la historia. Estos exitos, aunque espectaculares, son el resultado de proyectos excepcionales, que utilizan metodos alejados de la corriente dominante en la investigacion de la Inteligencia Artificial. Evidentemente, arrojan poca luz sobre como es posible que los 1.300 gramos de la blanda sustancia gris a la que denominamos cerebro humano pueda hacer todas estas cosas y muchas mas. Cincuenta anos despues de su inicio, resulta claro que la busqueda para aprehender esa asombrosa capacidad en un ordenador sigue siendo tan desafiante como siempre.

121

LA TRAMPA ANTROPOMORFA

Cada ano, los investigadores de la Inteligencia Artificial compiten por el Premio Loebner, instaurado en 1990 por un filantropo estadounidense y dotado con 100.000 dolares y una medalla para los disenadores del primer ordenador que convenza a los jueces de que es medianamente humano. Aunque ningun ordenador aun se haya acercado lo suficiente para reclamar el premio, cada ano se concede la suma de 2.000 dolares y una medalla de bronce al mejor programa informatico, algunos de los cuales se encuentran en linea (vease www.tinyurl.com/9men4). La interaccion con ellos a menudo pone de relieve un rasgo que se ha observado desde el inicio de la investigacion de la Inteligencia Artificial: nuestra tendencia al antropomorfismo. En 1966, Joseph Weizenbaum 122

(Massachusetts Institute of Technology) dio a conocer a Eliza, un programa informatico que hacia una exacta e inquietante imitacion de un psicoterapeuta. Su exito se debia a trucos como llevar las conversaciones hacia el paciente siempre que fuera posible, incitandole por tanto a realizar todo el proceso de pensamiento. Weizenbaum encontro que la tendencia de la gente a abrir su corazon al ordenador era r e a l m e n t e alarmante: , observo, causan .

EL EXPERTO EN SHAKESPEARE COMPUTARIZADO

123

Como el cerebro humano, las redes neuronales son especialmente buenas descubriendo patrones ocultos entre detalles confusos. Esto ha supuesto aplicaciones inusuales de este tipo de tecnologia de Inteligencia Artificial, incluida la estilometria, la identificacion de los autores a partir de su estilo de escritura. A principios de la decada de 1990, Tom Merriam, experto en Shakespeare, y yo, desarrollamos una red neuronal que puede reconocer el estilo de escritura de Shakespeare y sus contemporaneos. Funciona extrayendo de amplias muestras de texto caracteristicas estilometricas, como las frecuencias relativas de ciertas palabras, y asociandolas con cada autor. Una vez entrenada, la red neuronal se mostro muy habil identificando a autores de textos que no habia visto antes. Tambien brindo informacion interesante sobre el misterio de la transformacion de Shakespeare, actor eventual, en un genial dramaturgo. Algunas de sus primeras obras 124

mostraban signos de ser versiones enmendadas de libretos escritos por el gran Christopher Marlowe, contemporaneo suyo.

Cronologia

1943 Warren McCulloch y Walter Pitts crean

electricas. 1950 Alan Turing desarrolla la prueba que lleva su nombre para determinar si un ordenador es . 1951 Marvin Minsky crea una electronica que aprende a escapar de un laberinto.

125

1956 Conferencia en el Dartmouth College en la que John McCarthy acuna el termino de . Herbert Simon y sus colaboradores presentan el primer programa de Inteligencia Artificial. 1960 Frank Rosenblatt (Cornell University) muestra el Perceptron. 1969 Las criticas de Minsky y Seymour Papert acaban con la investigacion sobre redes neuronales. 1972 Harold Cohen comienza a trabajar en Aaron, el artista computarizado. … 1976 Douglas Lenat (Stanford University) crea AM, un programa que hace descubrimientos matematicos. 1982 John Hopfield (Caltech) reactiva la investigacion de redes neuronales. 1997 El ordenador Deep Blue, de IBM, 126

vence al campeon mundial de ajedrez Gary Kasparov. 1990 hasta la fecha Los metodos de Inteligencia Artificial comienzan a generalizarse.

Citas 8 Los origenes de la aparente creatividad de AM han sido motivo de una considerable polemica. En 1984, Keith Hanna y Graeme Ritchie, expertos britanicos en Inteligencia Artificial, publicaron un estudio de AM que demostraba que puede haberse beneficiado de las ideas creadas inconscientemente en su codigo por Lenat para ayudar a descubrir nuevas ideas, y 127

tambien de que Lenat identificara las ideas prometedoras a medida que surgian de AM. Ademas, el propio Lenat apunto que Lisp, el lenguaje computational utilizado para crear AM, tenia su origen en el denominado calculo lambda, que fue inventado especificamente para probar las bases de las matematicas. Lenat empezo a sospechar que los exitos matematicos de AM eran principalmente el resultado de las importantes correlaciones entre Lisp y las matematicas.

128

5 Teoria de la Informacion

En pocas palabras Desde los DVD y los discos duros hasta las comunicaciones via satelite y los mensajes de texto, la informacion desempena un papel fundamental practicamente en todos los aspectos de nuestras vidas. En 1948, un ingeniero estadounidense llamado Claude Shannon establecio las bases de lo que ahora se conoce como Teoria de la Informacion, que mostro los limites para conseguir comunicaciones rapidas a la par que fiables. Llevo al desarrollo de tecnicas, como la compresion de datos y la correccion de errores, que permiten almacenar y transmitir datos de la forma mas eficiente posible. Pero se ha probado que la Teoria de la Informacion tiene tambien importantes aplicaciones en problemas mucho mas profundos. El codigo genetico del ADN ha resultado ser un ejemplo elegante de almacenamiento de informacion, y los investigadores estan utilizando la Teoria de la Informacion para descodificar los genomas de los organismos vivos. Entretanto, los fisicos han encontrado pruebas de que la

129

informacion constituye el centro de la clarividente Teoria del Todo. En resumen, la Teoria de la Informacion abarca la vida, el Universo y todo.

Nunca antes se habia intentado nada por el estilo; ni siquiera los expertos de la NASA sabian si realmente iba a funcionar. Pero despues de monitorizar los datos, cabian pocas dudas: habia que hacer algo o perderian el contacto con su sonda espacial para siempre. El Voyager I, lanzado en 1977, habia enviado imagenes espectaculares de Jupiter y Saturno, y luego habia abandonado el sistema solar en una mision sin retorno hacia las estrellas. Pero al cabo de veinticinco anos de exposicion a las gelidas temperaturas del espacio infinito, la sonda espacial habia comenzado a dar signos de su edad. Sensores y circuitos estaban a punto de fallar, y al encontrarse la sonda a 12,5 billones de kilometros de la Tierra, parecia que nadie podia hacer nada. A no ser, claro esta, que los 130

ingenieros de la NASA pudieran enviar de alguna manera un mensaje al Voyager I con instrucciones para que desempolvara algunos repuestos y los utilizara en lugar de los viejos. En abril de 2002, una de las enormes antenas parabolicas de radio perteneciente a la red Deep Space de la NASA envio un mensaje a los confines del espacio. Incluso viajando a la velocidad de la luz, tardo once horas en llegar a su objetivo, mucho mas alla de la orbita de Pluton. Sin embargo, por increible que parezca, la pequena sonda espacial consiguio escuchar la debil llamada de su planeta y logro realizar con exito el cambio. Se trataba del trabajo de reparacion a distancia mas importante que se habia realizado en la historia, todo un triunfo para los ingenieros de la NASA. Pero tambien senalaba la asombroso potencial de las tecnicas desarrolladas por un ingeniero de telecomunicaciones estadounidense, 131

Claude Shannon, que habia muerto justamente el ano anterior. En la decada de 1940, habia creado en solitario toda una ciencia de la comunicacion que habia encontrado desde entonces gran cantidad de aplicaciones, desde los DVD hasta las comunicaciones via satelite y los codigos de barras —en resumen, en cualquier lugar donde los datos tuvieran que transmitirse de forma rapida y exacta. La conocida como Teoria de la Informacion constituye la base de muchas de las tecnologias mas importantes en la actualidad. Pero ahora ha comenzado a surgir un nuevo campo de aplicaciones, con profundas implicaciones respecto a la propia naturaleza del espacio y el tiempo. Algunos de los principales fisicos del mundo creen que la Teoria de la Informacion proporciona la clave para comprender algunos de los misterios mas profundos del cosmos, desde la naturaleza de los agujeros negros hasta el 132

propio significado de realidad. Todo esto parece estar a anos luz de los usos practicos que Shannon dio originalmente a su trabajo, que comenzo cuando tenia veintidos anos, en 1939, y como licenciado en ingenieria en el prestigioso Massachusetts Institute of Technology. Empezo con un proposito aparentemente simple: definir el significado preciso del concepto de . Shannon sugeria que la forma mas basica de informacion es si algo es verdadero o falso, algo que puede registrarse mediante una unidad binaria unica o , con la forma 1 o 0. Habiendo identificado esta unidad fundamental, Shannon empezo a definir ideas, por lo demas vagas, sobre la informacion y la transmision de esta de un lugar a otro. Durante este proceso descubrio algo sorprendente: siempre es posible garantizar que los mensajes superan interferencias aleatorias () 133

manteniendose intactos. Shannon demostro que el truco consiste en encontrar la manera de codificar () la informacion para afrontar los estragos del ruido, pero manteniendose dentro del ancho de banda (la capacidad de transporte de informacion) del sistema de comunicacion. A lo largo de los anos, los cientificos han concebido muchos de esos metodos de codificacion que han demostrado ser cruciales en muchas hazanas tecnologicas. La sonda espacial Voyager trasmitia datos usando codigos que anadian un bit extra por cada bit de informacion; el resultado fue una tasa de error del solamente un bit por cada diez mil e imagenes asombrosamente claras de los planetas. Otros codigos han pasado a formar parte de la vida diaria, como el codigo de producto universal o , que utiliza un simple sistema de deteccion de errores que garantiza 134

que los laseres de chequeo de los supermercados puedan leer el precio incluso, por ejemplo, en una bolsa arrugada de patatas fritas. En 1993, ingenieros de France Telecom realizaron un gran avance descubriendo los denominados codigos turbo, que se acercan mucho al limite final de Shannon y ahora desempenan un papel fundamental en la revolucion de los videotelefonos moviles. Shannon tambien establecio la base para conseguir formas eficientes de almacenar la informacion, deshaciendose de los bits innecesarios () de datos que poco contribuyen a la informacion real. Como demuestran mensajes de texto por telefono movil como a menudo es posible eliminar un monton de datos sin perder mucho significado. Sin embargo, como ocurre con la correccion de errores, existe un limite mas alla del cual los mensajes se hacen demasiado 135

ambiguos. Shannon demostro como calcular este limite, abriendo el camino al diseno de metodos de compresion que incluyen la mayor cantidad de informacion en el minimo espacio. No resulta sorprendente que la publicacion de Shannon, en 1948, de Mathematical Theory of Communication se reconociera rapidamente como un momento crucial en la historia tecnologica. Sin embargo, el propio Shannon rehuso tomar parte en lo que consideraba un despliegue publicitario. Ironicamente, ya habian surgido insinuaciones de que la Teoria de la Informacion era incluso mas importante de lo que nunca hubieran podido pensar sus partidarios mas entusiastas. En esa epoca, muchos cientificos luchaban por resolver el misterio de la informacion biologica, en concreto la naturaleza precisa de las instrucciones usadas por los organismos vivos para 136

reproducirse. Los investigadores hablaban vagamente de , aunque nadie sabia lo que eran realmente. Muchos creian que tenian que ser proteinas, que parecian tener la complejidad necesaria para actuar como instrucciones para los organismos vivos. Pero en 1944, el bioquimico estadounidense Oswald Avery y sus colaboradores sorprendieron a muchos demostrando que la informacion genetica era transportada en las celulas por una molecula mucho mas simple, conocida como ADN. Hubieron de pasar otros veinte anos para descubrir de que manera la informacion es transportada por las cuatro quimicas del ADN, pero resultaba que los genes habian evolucionado de acuerdo a los principios de la Teoria de la Informacion. Sin embargo, en el caso de organismos complejos como los seres humanos, los genes constituyen solo un pequeno porcentaje del ADN, correspondiendo el resto a 137

secuencias de bases aparentemente inutiles denominadas ADN . En 1992, Eugene Stanley (Universidad de Boston) utilizo una tecnica basada en la Teoria de la Informacion para descubrir pistas de en el ADN basura, que indicaran que existe informacion escondida en estas regiones no geneticas. En la actualidad es cada vez mayor el numero de investigadores que sospechan que el exito de la medicina genomica dependera del conocimiento de la repercusion de la informacion existente en el ADN . La Teoria de la Informacion tambien esta surgiendo como parte fundamental de la busqueda del santo grial de la fisica teorica: la Teoria del Todo. Abordaremos con detalle este asunto en el capitulo 21, pero baste decir por ahora que la Teoria del Todo pretende reunir en un conjunto unico de ecuaciones el origen y la 138

naturaleza del cosmos y de lo que en el existe. El mayor obstaculo ha sido la combinacion de las dos teorias de mayor exito en la ciencia: la Teoria Cuantica, que gobierna el mundo subatomico, y la Teoria General de la Relatividad de Einstein, que describe la naturaleza de la gravedad. Estas dos teorias no podian ser mas diferentes. Segun la Teoria Cuantica, la gravedad se transmite de un lugar a otro mediante , mientras que la Teoria de la Relatividad considera que la gravedad es el resultado de la curvatura del espacio y el tiempo. Algo como una Teoria del Todo debe unificar estos dos conceptos radicalmente diferentes, ?pero como? A principios de la decada de 1970 surgieron indicios de que la Teoria de la Informacion podria constituir la clave, tras la investigacion de los que probablemente sean los objetos mas extranos del Universo: los agujeros negros. Formados 139

siempre que objetos como las estrellas supermasivas se colapsan bajo la accion de su propia gravedad, los agujeros negros incluyen tal cantidad de masa en un espacio tan pequeno que sus campos gravitacionales son increiblemente intensos; tanto que ni siquiera la luz puede escapar de sus garras. En 1973, un joven estudiante de la Universidad de Princeton, Jacob Bekenstein, comenzo a estudiar las implicaciones del prodigioso apetito de los agujeros negros. Cada vez que un objeto desaparece dentro de ellos, hay informacion que va junto con el objeto, pero Bekenstein probo que existe un limite para la cantidad informacion que puede contener un determinado agujero negro. La cantidad es inimaginablemente vasta: incluso un agujero negro del tamano de un proton puede contener tanta informacion como billones de discos compactos. Pero lo que intrigaba a los cientificos era la formula con la que 140

se obtuvo este limite maximo, conocida como limite de Bekenstein. Contra lo que indica el sentido comun, la formula demostraba que el limite no depende del volumen del agujero negro, sino solo de su area superficial. En segundo lugar, la respuesta que da se expresa en terminos de lo que se denominan areas de Planck. Se trata de las mas pequenas superficies de espacio concebibles, y se espera que desempenen un papel fundamental en cualquier Teoria del Todo. Dicho de otro modo, la formula de Bekenstein parecia apuntar a conexiones entre la clarividente Teoria del Todo y la informacion. En los ultimos anos, otros teoricos han hallado muchas mas de estas indicaciones. Se ha encontrado que diferentes enfoques al problema de la unificacion de la teoria cuantica con el concepto de gravedad de Einstein llevan a la formula de Bekenstein, fomentando la confianza en que la 141

informacion probara ser importante en la Teoria del Todo definitiva. En 1999, el fisico Roy Fireden (Universidad de Arizona) descubrio pruebas de que las propias leyes de la fisica se refieren finalmente a la obtencion de informacion del Universo. Durante mucho tiempo los fisicos teoricos han estado intrigados con el hecho de que todo, desde las leyes del movimiento de Newton hasta las reglas de la mecanica cuantica, pueda derivar de la misma formula. Dicho de modo mas sencillo, insertando la correcta en una maquina matematica conocida como el Principio de Minima Accion es posible derivar todas las leyes de la fisica. Pero aunque los teoricos estaban felices de usarla, no pudieron explicar por que o de que manera esta maquina ejecuta su magia. Frieden demostro que la respuesta puede estar 142

en la informacion. Siempre que intentamos comprender de que manera funciona el cosmos, estamos respondiendo a la siguiente pregunta: ? adonde ira esta particula, por ejemplo, o cuan rapido se movera? Frieden utilizo la Teoria de la Informacion para encontrar un modo de obtener las respuestas a tales cuestiones —y resulta que aquellas respuestas son lo que denominamos leyes de la fisica. Aunque la Teoria de la Informacion arroja luz sobre muchas cuestiones profundas, siguen existiendo muchos misterios, como lo que ocurre con la informacion que cae en un agujero negro. Parece obvio que toda esa informacion debe desaparecer definitivamente, pero esto viola principios fundamentales de la Teoria Cuantica. En 1997, la denominada paradoja de la informacion perdida en los agujeros negros llevo a Stephen Hawking (Universidad de Cambridge) a 143

hacer una apuesta con dos colegas respecto a que la Teoria Cuantica era erronea, y que la informacion realmente se desvanece dentro de los agujeros negros. Finalmente Hawking decidio pagar la apuesta, al encontrar lo que creyo que eran argumentos solidos de que la informacion sobrevive dentro de un agujero negro10. Nadie lo sabe con seguridad; de hecho, es posible que jamas podamos resolverlo. La importancia real de estas discusiones radica en las pistas que dan sobre el papel de la informacion en la creacion de la Teoria del Todo. Y hasta la fecha las pruebas indican una posibilidad asombrosa: que las claves del cosmos pueden estar intimamente relacionas con los mismos principios utilizados para disenar los codigos de barras de los supermercados.

144

CODIGOS TURBO

En 1993, dos profesores franceses asombraron a los expertos en comunicaciones desvelando una forma de transmitir senales con velocidades y tasas de error que se consideraban imposibles. Los ingenieros habian tardado decenios en buscar formas de (codificar) senales para llegar lo mas cerca posible del limite definitivo para una comunicacion rapida y exacta, establecido por el teorema de la capacidad de informacion de Shannon, pero incluso los mejores codigos precisaban en general una potencia de senal aproximadamente doble a la predicha por el teorema. Claude Berrou y Alain Glavieux (Ecole Natio-nale Superieure des Telecommunications de Bretagne, Brest) asombraron a los expertos encontrando codigos que solo necesitaban un porcentaje de potencia algo mayor que el limite 145

de Shannon. Los conocidos como codigos turbo funcionan usando dos codificadores y descodificadores separados en la misma senal, permitiendo que cada uno compruebe el trabajo del otro.

EL PRINCIPIO DE MINIMA ACCION

Formulado por vez primera en 1744 en el campo de la filosofia por el matematico frances Pierre Maupertuis, el Principio de Minima Accion afirma que la naturaleza siempre actua para minimizar la cantidad de implicada, cantidad que depende de las propiedades de las particulas. Posteriormente, los fisicos descubrieron que la eleccion correcta de la accion permite obtener todas las leyes de la fisica de este principio, aunque la causa de que funcione 146

sigue siendo objeto de gran polemica. Investigaciones recientes sugieren que es posible que se relacione con la Teoria de la Informacion.

Cronologia

1941 Claude Shannon entra en Bell Laboratories, en Nueva Jersey, y comienza a establecer las bases de la Teoria de la Informacion en un articulo que se publico en 1948. 1947 John Tukey, un estadistico estadounidense, crea el termino , que define el elemento mas pequeno de informacion necesario para describir el estado de un sistema de dos estados (como o ).

147

1966 La identificacion de combinaciones de bases de ADN como genes para formar proteinas demuestra el uso de la Teoria de la Informacion en organismos vivos. 1969 El acuerdo de Naciones Unidas supone la introduccion del numero internacional normalizado del libro (ISBN, International Standard Book Number), una descripcion de los libros de diez digitos basada en los principios de la Teoria de la Informacion. 1973 El fisico Jacob Bekenstein descubre un vinculo fundamental entre la informacion y los agujeros negros, demostrando que existe un limite en su capacidad de almacenamiento. 1974 El chicle de Wrigley es el primer producto en tener un codigo de producto universal (), que 148

fue inventado el ano anterior por el estadounidense George Laurer. 1992 Eugene Stanley (Universidad de Boston) utiliza la Teoria de la Informacion para demostrar que el ADN puede portar informacion no genetica vital para organismos como los seres humanos. 1997 Los teoricos Stephen Hawking y Kip Thorne apostaron con John Preskill (Caltech) a que la informacion se destruye dentro de los agujeros negros. 1999 El fisico todas las leyes ultima instancia de informacion Universo. 2002

Roy Frieden propone que de la fisica pueden ser en el resultado del intercambio entre el observador y el

Los

cientificos 149

reparan

satisfactoriamente la sonda espacial Voyager I a una distancia de 12,5 billones de kilometros usando senales correctoras de errores. 2004 Un equipo dirigido por Samir Mathur (Ohio State University) utiliza la denominada Teoria de las Super-cuerdas para predecir que la informacion sobrevive dentro de los agujeros negros.

Citas 9 Se suele entender por ruido los sonidos indeseados que interfieren con la informacion genuina. La Teoria de la Informacion generaliza esta idea, a traves de teoremas que captan los efectos del 150

ruido con precision matematica. En particular, Shannon demostro que el ruido establece un limite en la velocidad maxima a la que se puede transmitir informacion a traves de canales de comunicacion sin presentar errores. Esta velocidad depende de la potencia relativa de la senal y del ruido (razon de la senal respecto al ruido) que pasa por un canal de comunicacion, asi como de su capacidad de transportar informacion (su ). El limite resultante, expresado en bits por segundo, es la velocidad maxima absoluta de comunicacion sin error que es posible alcanzar para una potencia de senal y un nivel de ruido dados. Los ingenieros de telecomunicaciones se enfrentan al reto de encontrar la manera de las senales de modo que puedan acercarse lo mas posible al limite de Shannon. 151

10 En 2004, el teorico Samir Mathur y sus colaboradores (Ohio State University) sorprendieron a los fisicos al sugerir que la informacion sobrevive en el caos de un agujero negro. Las pruebas procedian de la denominada Teoria de las Supercuerdas, segun la cual todas las particulas son vibraciones de

multidimensionales. Mathur y sus colaboradores afirman que estas cuerdas, aunque tremendamente enmaranadas al estar cerca de un agujero negro, conservan las caracteristicas de las particulas de las que formaban parte.

152

6 Vegetales modificados geneticamente

En pocas palabras La creacion de vegetales modificados geneticamente es una de las cuestiones cientificas mas polemicas del presente. Durante milenios, los rasgos de plantas y animales se han alterado a traves del cruce. Solo a partir de la decada de 1940 quedo claro que esto cambia de forma aleatoria el ADN de las celulas. La ingenieria genetica tambien cambia el ADN, pero, en principio al menos, de forma orientada y controlada. Quienes estan en contra de la ingenieria genetica afirman que la tecnologia puede conllevar un monton de problemas, como la aparicion de o de alergias y resistencia a los antibioticos en los seres humanos. Por el contrario, los cientificos que estan a favor de la ingenieria genetica afirman que no hay nada de nuevo en la ingenieria genetica, dado que los agricultores

153

han creado nuevas variedades —como el maiz a partir de cierto tipo de pasto— durante cientos de anos. En realidad, la ingenieria genetica es un punto de partida radical, ya que se centra solo en unos cuantos genes asociados a rasgos especificos, mientras que el cruce convencional implica a un gran numero de genes, con consecuencias desconocidas. Los cientificos afirman que es mucho menos probable que los vegetales modificados geneticamente den sorpresas desagradables. Hasta la fecha, los vegetales modificados geneticamente han beneficiado en gran medida solo a las empresas agroquimicas y a los agricultores. Los vegetales modificados geneticamente de segunda generacion pueden ofrecer beneficios —como el aumento del valor nutritivo— a los consumidores directos.

Mientras hace la compra semanal, usted coge una lata de maiz, y le llama la atencion algo que aparece en la lista de ingredientes: . ?Que hace usted? Si los resultados de una encuesta publicada recientemente por el grupo de 154

supermercados Co-op pueden servir de guia, volvera a dejar la lata en el estante: cuatro de cada cinco personas decian que no comprarian a sabiendas alimentos modificados geneticamente. Pronto se aclarara si esto es cierto, dado que los nuevos reglamentos de la Union Europea de abril de 2004 obligan a los fabricantes de comida procesada a revelar si sus productos alimenticios contienen ingredientes modificados geneticamente. El grupo Co-op se adelanto a la resistencia del consumidor anunciando que los productos alimenticios de su propia marca no contendrian alimentos modificados geneticamente. La compania, que es la mayor empresa agricola de Gran Bretana, tambien declaro que no usa alimentos para animales modificados geneticamente ni cultiva vegetales modificados geneticamente en sus tierras.

155

La empresa insistio en que esta decision estaba dictada por los actuales conocimientos cientificos y por la opinion de los consumidores. Sin embargo, los cinicos podrian considerar esto como un intento de no quedarse atras en una batalla de relaciones publicas con rivales mas importantes, como Sainsbury y Wai-trose, que habian tomado decisiones similares anos antes. Para muchos cientificos, la decision hace caso omiso a todas las pruebas sobre los riesgos y beneficios de la tecnologia de ingenieria genetica. Era, en resumen, otro estallido de argumentos contradictorios como los que habian perseguido a la cuestion de la ingenieria genetica desde que fuera noticia en todo el mundo en 1998. Una campana de concienciacion publica llevada a cabo por la ,, empresa agroquimica estadounidense Monsanto suscito el escandalo entre los activistas afirmando que la modificacion genetica de los vegetales no era nada nuevo. En cierto sentido, 156

la empresa estaba en lo cierto: su campana de concienciacion simplemente llamo la atencion sobre una tecnica para crear vegetales en la que ya se trabajaba desde hacia quince anos. Pero cuando el publico supo como se habian creado los vegetales modificados geneticamente, no le gusto lo que escuchaba. Parecia que los cientificos se estaban inmiscuyendo en la naturaleza y pretendian colocar los resultados en los platos de todo el mundo. Los partidarios de la ingenieria genetica habian argumentado durante mucho tiempo que el ser humano habia modificado geneticamente los vegetales durante milenios. Las pruebas arqueologicas y del ADN indican que los agricultores de Centroamerica consiguieron crear una nueva forma de calabaza similar a la calabaza actual hace aproximadamente 9.500 anos, y mas tarde cultivaron una mezcla de maiz y maicillo. Los efectos de este cruce fueron a 157

veces espectaculares: en 1879, William James Beal (Michigan State University) desarrollo cruces de maiz con una produccion un 50% superior. Sin embargo, los metodos de cultivo convencionales son muy diferentes de los utilizados en la ingenieria genetica. Incluso hoy en dia, los metodos tradicionales son increiblemente ineficientes, requiriendo un gran numero de plantas para lograr una elevada probabilidad de transferencia de rasgos. Peor aun es que un gran numero de rasgos desconocidos tambien pueden transferirse al mismo tiempo, a veces con consecuencias graves. Los posibles riesgos para la salud de cultivar y comer vegetales modificados geneticamente han sido un tema fundamental en el debate sobre la ingenieria genetica. No obstante, los defensores de esta tecnologia apuntan que, debido a que solo suelen estar implicados unos pocos genes, el riesgo de efectos secundarios inesperados es 158

mucho menor con los vegetales modificados geneticamente que con las variedades cultivadas de manera convencional, en las que se combinan inmensas cantidades de genes desconocidos. De manera ironica, algunos vegetales cultivados con tecnicas tradicionales se han vinculado de hecho al tipo de alarma que se asocia con tanta frecuencia a la ingenieria genetica. En 1964 se lanzo una variedad de patata cultivada tradicio-nalmente, denominada Lenape, y sus creadores afirmaban que las patatas fritas hechas con esta variedad eran mejores. No obstante, las pruebas revelaron que la nueva variedad tambien contenia concentraciones peligrosamente altas de solanina —la toxina de la belladona— y se tuvo que abandonar su cultivo. Los mismos problemas surgieron en 1995 con Magnum Bonum, una variedad sueca de patata cultivada de manera convencional. A finales de la decada de 1980, se lanzo en Estados Unidos una 159

variedad de apio resistente a los insectos que contenia concentraciones elevadas de carcinogenos activados por la luz, denominados pso-ralenos, que tambien causaban reacciones cutaneas graves a los trabajadores que manipulaban la cosecha una vez que habia sido recogida. Los cientificos lucharon contra estos antecedentes para mejorar tanto la velocidad como la calidad del cultivo de vegetales. Para potenciar la gama de variedades mutantes disponibles, los investigadores experimentaron con rayos X y despues con sustancias quimicas mutagenas e incluso con radiaciones nucleares para producir nuevos vegetales que todavia se utilizan hoy en dia. Incluso asi, el grado de exito seguia siendo lamentablemente bajo. La primera idea de una nueva estrategia surgio 160

en la decada de 1940, cuando los cientificos desvelaron la autentica naturaleza de los genes, los sagaces transportadores de informacion biologica que permitian que los rasgos pasaran de generacion en generacion. Se identifico el ADN como la molecula clave, con genes que resultaron ser secuencias de sustancias quimicas, denominadas , dispuestas en una molecula con forma helicoidal como perlas en un collar. Estos descubrimientos plantearon una posibilidad nueva de cultivo. En lugar de combinar a ciegas todos los genes de dos plantas con esperanza de que, por ejemplo, se transfieran los genes que controlan el rendimiento, los cientificos consideraron la posibilidad de identificar los pocos genes implicados en ese rasgo y transferir solo esos genes a otra planta. Ademas de ser menos aleatoria e ineficaz, 161

parecia menos probable que esta modificacion genica tan orientada produjera efectos secundarios indeseados, como toxicidad o respuestas alergicas. El reto consistia en encontrar una forma de introducir los genes precisos en el genoma de la planta. A principios de la decada de 1980, la atencion se centro en una bacteria denominada Agrobacterium tumefaciens, que habia desarrollado una manera de pasar a escondidas algunos de sus propios genes a plantas en lo que se conoce como plasmido11. En 1983, cientificos de la Rijksuniversiteit (Gante, Belgica) anunciaron que habian logrado usar A. tumefaciens para insertar un gen de la resistencia a antibioticos en las plantas de tabaco. Al crear la primera planta modificada geneticamente del mundo, el equipo belga tambien habia desarrollado una tecnica clave 162

necesaria en el caso de que en algun momento la ingenieria genetica rivalizara con el cultivo convencional. Anadiendo un de la resistencia los antibioticos a los genes de rasgos como el mayor rendimiento, los cientificos podian descubrir que plantas habian sido modificadas de manera satisfactoria simplemente tratandolas con antibioticos que afectaran al crecimiento y viendo cuales seguian creciendo. La creacion del tabaco modificado geneticamente desencadeno una explosion de investigaciones que en principio se centraron en propiedades genicas unicas y simples, como la resistencia a los herbicidas —que permitiria que las plantas crecieran cuando eran rociadas con sustancias quimicas mortales para los cultivos circundantes — y a los pesticidas —introduciendo en los vegetales un gen que los hacia toxicos para los insectos que intentaban comerselos, eliminando 163

por tanto la necesidad de pulverizar todo el campo con sustancias quimicas. Pero al mismo tiempo, los activistas ecologistas comenzaron a preocuparse por lo que consideraban un juego con la naturaleza simplemente para aumentar los beneficios de las industrias agropecuarias y agroquimicas12. Gran parte de su preocupacion se centraba en los intentos realizados por los cientificos para aportar a los vegetales rasgos radicalmente nuevos usando genes obtenidos de especies no relacionadas en absoluto, como los peces. Este producto, apodado por los ecologistas, parecia llevar al cultivo mas alla de los limites del conocimiento. Otros invocaron al fantasma de las creadas por genes que se diseminaban a partir de vegetales modificados geneticamente resistentes a los herbicidas hacia otras plantas, y de una onda de alergias y resistencias a los antibioticos 164

entre los seres humanos desencadenadas al comer vegetales modificados geneticamente. Como primera preocupacion publica habia cambiado. En 1994, la empresa estadounidense Calgene lanzo al mercado el primer alimento fresco modificado geneticamente, el tomate Flavr-Savr, del que se decia que se mantenia fresco mas tiempo. Circularon informes de que el tomate se habia creado usando un gen obtenido de un pez; de hecho, la prolongacion de su periodo de caducidad se debia a una version modificada de un gen de tomate convencional. Este primer intento de utilizar la tecnologia de ingenieria genetica para beneficiar a los consumidores en lugar de a los agricultores pronto se vio agriado, dado que el tomate en realidad ofrecia pocas mejoras reales pese a que su coste fuera el doble. Ironicamente, el intento realizado por una de las 165

principales empresas agroquimicas para tranquilizar a los consumidores fue lo que hizo del debate sobre la manipulacion genetica una polemica airada. En junio de 1998, Monsanto lanzo en el Reino Unido una campana publicitaria de un millon de libras esterlinas con el fin de . Los anuncios implicaban que los tomates y las patatas modificados geneticamente habian sido aprobados y que Monsanto habia realizado pruebas de seguridad en plantas modificadas geneticamente durante veinte anos. Tras ello se produjo un torrente de quejas y la empresa fue censurada por la Autoridad Reguladora de Normas Publicitarias (ASA) por hacer afirmaciones enganosas. Monsanto reconocio que habia cometido un error de relaciones publicas e intento cambiar su imagen. Sin embargo, por entonces el asunto de la ingenieria genetica se habia convertido en uno de los 166

debates cientificos mas polemicos de los ultimos tiempos, alimentado por una avalancha de incidentes que aparentemente confirmaban los temores de los ecologistas. En 1999, cientificos de la Cornell University (Nueva York) publicaron que en pruebas de laboratorio el polen del maiz Bt —modificado geneticamente para producir la toxina de Bacillus thurigiensis, con el proposito de matar al barrenador del maiz— era mortal para las larvas de la famosa mariposa monarca. El ano siguiente, un agricultor de Alberta (Canada) notifico que las plantas de canola convencionales habian adquirido resistencia a tres herbicidas de una canola cercana modificada geneticamente y resistente a los herbicidas, aumentando los temores sobre las . Mas tarde, en septiembre de 2000, una forma de maiz Bt que nunca se penso dedicar al consumo humano se encontro en las tortitas de los tacos 167

fabricados por una importante cadena de comida rapida estadounidense. El maiz, conocido como StarLink, habia sido aprobado solo para su uso en los alimentos para animales, dada la inquietud sobre la posibilidad de que provocara reacciones alergicas en los seres humanos13. Comenzaron a surgir informes de reacciones alergicas en docenas de personas, y Aventis CropScience, que comercializaba StarLink, ceso de inmediato su produccion y comenzo un programa de retirada del mercado de 60 millones de libras. Los agricultores demandaron a la empresa por no haberles advertido supuestamente de las restricciones. Sin embargo, las pruebas realizadas por cientificos del gobierno de Estados Unidos no encontraron mas tarde indicios de que StarLink hubiera causado las reacciones alergicas. Algo similar ocurrio con la historia alarmista de las 168

mariposas monarca: estudios sobre el terreno realizados posteriormente sobre el efecto del maiz Bt no demostraron que tuviera efectos adversos. Y el incidente de las de Alberta fue el resultado del crecimiento de canola convencional demasiado cerca de la variedad modificada geneticamente, y en cualquier caso los genes se habrian introducido solo en otras plantas de canola, y no en autentica maleza. No obstante, todo esto apenas supuso diferencias: ya se habia danado la imagen de los vegetales modificados geneticamente. Cuando el gobierno del Reino Unido abrio el debate nacional sobre la ingenieria genetica en 2003, la encuesta que realizo, que incluyo a 40.000 personas, demostro que la mayoria nunca quiso que se cultivaran en Gran Bretana vegetales modificados geneticamente.

169

Es posible que aun vean cumplido su deseo. En octubre de 2003, cientificos ingleses publicaron los resultados del mayor ensayo sobre el terreno que se habia realizado hasta la fecha en el mundo sobre varios vegetales modificados geneticamente, y llegaron a la conclusion de que el maiz modificado geneticamente resistente a los herbicidas era mejor para el entorno que su equivalente convencional. Como resultado, en marzo de 2004, el gobierno aprobo la plantacion de dicho maiz. Dias despues, sus creadores, Bayer CropScience, se echaron atras aduciendo que las estrictas normas impuestas habian hecho que no fuera rentable. Ahora parece que al menos en los proximos anos no se plantara ningun vegetal modificado geneticamente en el Reino Unido. Pese a esto, el negocio de la ingenieria genetica esta prosperando en todo el mundo, dado que surgen pruebas de que los vegetales modificados 170

geneticamente brindan los beneficios proclamados por sus creadores, como la reduccion drastica del uso de insecticidas y el mayor rendimiento. Hoy en dia se cultivan vegetales modificados geneticamente aproximadamente en veinte paises, y suponen cerca del 13 % del mercado mundial de semillas. No obstante, lo que aun falta es un unico producto modificado geneticamente que beneficie de forma directa a los consumidores. En principio, la ingenieria genetica puede producir alimentos que sepan mejor, tengan mejor contenido nutricional o incluso combatan problemas de salud como la diabetes. Sin embargo, en muchos casos los cientificos aun no han encontrado los genes responsables de las plantas, por no hablar de la manera de modificarlos. Golden Rice, un arroz modificado geneticamente para aumentar su contenido en vitamina A, esta sometiendose a pruebas en el Lejano Oriente, aunque aun tienen 171

que pasar varios anos antes de que llegue al mercado14. Muchos cientificos siguen estando convencidos de que los metodos de ingenieria genetica son el futuro. Alegan que las tecnicas de cultivo tradicionales no solo son menos eficientes, sino que tambien plantean mas riesgos, dado que genes con efectos desconocidos pueden transferirse con los genes del rasgo deseado. Tales vegetales tambien se plantan y se comercializan sin que se haya hecho ningun intento real de estudiar su repercusion en el ambiente o en los seres humanos. En resumen, dicen que la ingenieria genetica es la forma por la que siempre deberiamos haber cultivado nuevos vegetales. Sin embargo, los escepticos insisten en que todavia no sabemos lo suficiente sobre los efectos a largo plazo del cultivo o el consumo de 172

vegetales modificados geneticamente. La cuestion fundamental es si el publico puede aprender a creer en la ciencia en la que se basa la ingenieria genetica —o en las companias que hasta ahora han prometido tanto a los consumidores, aunque les hayan dado tan poco.

LA EXTRANA HISTORIA DE LA CEBADA ATOMICA

Para acelerar el desarrollo de nuevos vegetales, en la decada de 1950 los cientificos comenzaron a usar un metodo de ingenieria genetica que hoy en dia haria correr rios de tinta: la radiacion nuclear. Exponiendo las semillas a los rayos gamma de reactores, los cientificos crearon 173

cientos de variedades mutantes de vegetales convencionales. El mas famoso es Golden Promise, una forma muiante de la cebada Maythorpe, creada en el Atomic Energy Research Establishment (Harwell, Oxfordshire). Vendida por vez primera en 1966, es mas corta que la cebada convencional pero tiene buenas cualidades para la fabricacion de malta y mayor rendimiento. Esto hizo que fuera muy atractiva para la fabricacion de cerveza, y sigue siendo un ingrediente fundamental de algunos de los mejores whiskies de malta escoceses.

SUPERHIERBAS

174

Muchos vegetales modificados geneticamente han sido creados usando genes que los hacen resistentes a los herbicidas. Esto ha hecho que surja el temor de que estos genes encuentren su camino hacia otras plantas, creando especies de imparables frente a las que no pueden actuar los herbicidas. Los partidarios de la tecnologia de ingenieria genetica arguyen que las diferencias entre los vegetales cultivables y la maleza reduce el riesgo de transferencia genica, y anaden que la resistencia a los herbicidas ha surgido en vegetales cultivados de modo tradicional durante muchos anos, sin que causara problemas importantes. Incluso asi, los cientificos reconocen que el riesgo no es nulo, aunque insisten en que siempre se dispondra de algun herbicida para acabar con las consecuencias.

175

Cronologia

7000 a. C. Agricultores centroamericanos cultivan una variedad (aprox.) de calabaza que se convierte en la calabaza actual; despues desarrollaron mejores plantas de algodon, judias y maiz. 1879 El botanico estadounidense William James Beal (Michigan State University) desarrolla los primeros cruces cientificos de maiz, y aumenta su rendimiento hasta un 50%. Decada de 1920 Los cientificos encuentran que la exposicion de las semillas a los rayos X supone la creacion de mutantes y abre el para mejorar los de vegetales como la avena y las judias. 176

1944 Oswald Avery y sus colaboradores del Rockefeller Institute (Nueva York) aportan las primeras pruebas solidas de que el ADN contiene los de la vida. 1966 Sale a la venta Golden Promise, una cebada de creada usando radiacion de un reactor en el Atomic Energy Research Establishment del Reino Unido. 1983 Jeff Schell y sus colaboradores de la Rijksuniversiteit (Gante, Belgica) publican un articulo sobre la creacion de la primera planta modificada geneticamente, una forma de tabaco resistente a los antibioticos. 1994 Se pone a la venta en Estados Unidos el primer alimento fresco modificado geneticamente: el tomate FlavrSavr de Calgene, que, segun afirman sus creadores, se mantiene fresco durante mas tiempo. Su precio es excesivo y 177

supone un fracaso comercial. 1998 Monsanto lanza una importante campana de concien-ciacion publica en Europa que desata las protestas de las personas opuestas a los alimentos transgenicos y lleva el debate al ambito publico. 1999 Cientificos de la Cornell University demuestran que el polen del maiz modificado geneticamente es mortal para las mariposas monarca en pruebas de laboratorio (los ensayos realizados sobre el terreno con posterioridad refutaron estos resultados). 2003 Se publican los resultados de los ensayos sobre el terreno realizados en el Reino Unido: demuestran que el cultivo de un vegetal modificado geneticamente (una forma de maiz) era mas benigno que el de la variedad normal 178

2004 En marzo, el gobierno britanico da la aprobacion provisional para plantar maiz modificado geneticamente, pero sus creadores, Bayer CropScience, deciden no seguir adelante.

Citas 11 En la mayoria de los microorganismos, la molecula completa de ADN esta dividida en

denominados cromosomas. Las bacterias tienen otras porciones de ADN fuera de los cromosomas: son los plasmidos. Estos se utilizan para transferir genes bacterianos a otras bacterias y organismos, es decir, para infectarlos. Los plasmidos son naturales de ADN que 179

pueden utilizarse para transportar genes especificos a un organismo dado. Las primeras cosechas de tabaco y de algodon modificados geneticamente se crearon utilizando plasmidos de una bacteria que habita en el suelo, Agrobacterium tumefaciens, que fueron modificados para desactivar los genes responsables de las enfermedades de las plantas y, en su lugar, transportar a las plantas los genes correspondientes a los rasgos deseados. Aunque los plasmidos funcionan en algunas plantas, no ocurre lo mismo con otras muchas, incluidos los cereales. 12 Durante la decada de 1960, especialistas en medio ambiente dirigidos por la biologa estadounidense Rachel Carson, autora de Primavera silenciosa, plantearon el 180

problema de los insecticidas que entonces se utilizaban, como el DDT. Arguyendo que estos compuestos industriales eran daninos para el ecosistema, Carson pedia alternativas mas naturales, incluida la toxina Bt, que ahora se ha incorporado a variedades de vegetales modificados geneticamente. Los partidarios de la ingenieria genetica insisten en que su estrategia reduce la necesidad de fumigar con insecticida amplias areas, minimizando la repercusion sobre el entorno y sobre los encargados de aplicar el insecticida. 13 A mediados de la decada de 1990, Plant Genetic Systems (Belgica) creo una nueva forma de maiz usando una variedad especial del denominado gen Bt utilizado en otras plantas modificadas geneticamente 181

para hacerlas resistentes a los insectos. Este maiz, conocido como StarLink, incluia un gen de una toxina mortal para las plagas que intentaban excavar en el cultivo o comerselo. En la solicitud de una licencia de plantacion presentada a la Agencia de Proteccion Ambiental de Estados Unidos, sus creadores advertian que la toxina tenia similitudes con proteinas que causaban alergias en los seres humanos. La Agencia de Proteccion Ambiental respondio aprobando el cultivo, pero solo para su uso en la alimentacion de animales. Se trataba de una restriccion que, como se demostro, era imposible de mantener: StarLink se mezclo con variedades no sometidas a ingenieria genetica en los ascensores y los vehiculos agricolas, y termino en la comida humana, suscitando un gran escandalo. 14 182

Resultado de una colaboracion por el bien publico entre los cientificos y la industria de la ingenieria genetica, Golden Rice es una version geneticamente modificada de este alimento basico asiatico que tiene mayor contenido de vitamina A, cuya carencia amenaza la salud de 400 millones de personas en todo el mundo. Ahora se esta sometiendo a pruebas en el International Rice Research Institute (IRRI), en Filipinas, pero aun faltan varios anos para su aprobacion y su distribucion general.

183

VIDA

184

7 Out of Africa (Nuestro origen africano)

En pocas palabras En 1871, Charles Darwin afirmo que las similitudes entre los simios y los seres humanos apuntaban a Africa como cuna de los primeros seres humanos, Homo sapiens. Durante muchos anos, esto no parecia plausible, dado que los fosiles de criaturas semejantes a los seres humanos solo se encontraban en Europa y Asia. Los estudios iniciales de los grupos sanguineos tambien revelaron similitudes entre los seres humanos y los simios africanos, aunque la atencion no se centro en Africa hasta la decada de 1920 y el descubrimiento del Australopithecus, un tipo de hombre prehistorico similar a los simios. Algunos afirmaban que el H. sapiens evoluciono en muchos lugares diferentes del mundo a partir del H. erec-tus, que habia dejado Africa mucho tiempo atras. Otros insistian en que el H. sapiens habia surgido por vez primera en Africa y habia salido del continente en fechas relativamente recientes.

185

Esta idea de nuestro origen africano15 se ha confirmado hoy en dia mediante la comparacion del ADN en seres humanos vivos, que indica que el H. sapiens ya existia hace 120.000-220.000 anos en Africa. Un grupo de quiza solo 10.000 de ellos abandonaron luego el continente, unos 50.000-100.000 anos atras, posiblemente debido al cambio climatico. Encontraron a los descendientes del H. erectus, incluidos los neandertales en Asia y Europa. Tras un breve periodo de coexistencia, el H. sapiens domino luego el mundo.

Con sus ojos penetrantes y su potente fisico, el hombre etiope que aparecio ante los medios de comunicacion de todo el mundo en junio de 2004 evidentemente no era alguien con quien se pudiera jugar. Su celebridad lo llevo a la portada de Nature, la principal revista cientifica del mundo. Este es un honor que se le niega incluso a la mayoria de los ganadores del Premio Nobel. Aun es mas raro en el caso de alguien que ha muerto hace mas de 150.000 anos. Se trata del hombre de Herto, cuyos restos se descubrieron en Etiopia, en el valle de Afar, a 230 kilometros al 186

noreste de Addis Abeba. La segunda parte de su nombre hace referencia a la ciudad de Herto, cercana al lugar de su descubrimiento; la primera parte de su nombre explica su celebridad. Los cientificos creen que el hombre de Herto es el miembro mas antiguo que se conoce de la especie que ahora domina el planeta: los seres humanos modernos u Homo sapiens (). Se ha considerado que la gran antiguedad del hombre de Herto, junto con el emplazamiento de su ultima morada, constituyen las piezas clave de un rompecabezas que empezo hace unos ciento cincuenta anos en una cantera alemana. Sin embargo, solo en los ultimos anos ha comenzado a tomar forma el cuadro completo, mostrando que la aparente gran diversidad de los seres humanos de hoy en dia —desde los escandinavos a los naturales de Sumatra, de los esquimales a los indios— es mera ilusion. En 187

ultima instancia, todos descendemos de un unico grupo de gente de una parte del mundo: Africa. Esto no habria sorprendido a Charles Darwin, el padre de la evolucion. Ya en 1871, afirmaba en El origen del hombre que todas las razas de seres humanos eran solo variedades de una especie unica, siendo Africa —el hogar de los grandes simios del mundo— la cuna mas plausible de los seres humanos modernos. En la actualidad, con frecuencia estan surgiendo en Africa fosiles humanos espectaculares, como el hombre de Herto, y la afirmacion de Darwin parece ser poco interesante. Incluso en la epoca en la que la escribio, todas las pruebas apuntaba a una cuna mucho mas cercana: Europa. Hacia 1700 se encontro en el sur de Alemania parte de un craneo humanoide fosilizado, aunque durante un siglo no se reconocio su importancia. En 1856, unos canteros que trabajaban en una cueva del 188

valle del Neander, cercano a Dusseldorf, encontraron huesos que pertenecian a algun tipo de ser humano antiguo, pero se deshicieron de el pensando que no valia nada. Un maestro de la zona encontro los huesos unas semanas mas tarde; algunos academicos los aclamaron como los restos de una especie extinguida de ser humano: el Homo n ean derth alen sis (). Los huesos del H. neanderthalensis suscitaron una enorme polemica, algo que se convertiria casi en un ritual tras el descubrimiento de algun fosil supuestamente humano. Algunos anatomistas admitian que provenian de miembros de una especie previamente desconocida de seres humanos, aunque otros apuntaban a la similitud del tamano del craneo con los modernos seres humanos, insistiendo en que los huesos simplemente provenian de un antiguo ejemplar de H. sapiens. Al surgir mas 189

huesos en otras zonas, algunos anatomistas intentaron afianzar el argumento destacando las supuestas diferencias entre los neandertales y los modernos seres humanos, como andar apoyandose en los nudillos (en la decada de 1950 se demostro que esto era un mito, basado en los estudios de un neandertal con artritis grave)16. Cuando surgio la siguiente pieza importante del rompecabezas de los origenes de ser humano, tampoco logro ajustarse a la teoria del origen africano de Darwin. En 1891, el medico holandes y buscador de fosiles Eugene Dubois encontro fragmentos fosilizados de una criatura humanoide en Java. El , que tenia un craneo mucho menor, no se parecia ni a los modernos seres humanos ni a los neandertales. El descubrimiento de Dubois, al que mas tarde se denomino Homo erectus (), fue considerado como otra 190

especie genui-namente nueva de ser humano. Ironicamente, su ultima morada, situada a miles de kilometros de la supuesta cuna de la humanidad darwiniana, resultaria ser una parte fundamental de la historia africana del H. sapiens. No fue sino mas de veinte anos despues de la muerte de Darwin, en 1904, cuando surgieron nuevas pruebas cientificas que apoyaban su idea de los origenes humanos. George Nuttall, un bacteriologo de la Universidad de Cambridge, estaba intrigado por los grupos sanguineos de los seres humanos, recientemente identificados, y realizo pruebas para comparar la sangre humana y la de otras criaturas. Para su asombro, Nuttall encontro similitudes asombrosas entre la sangre de los seres humanos y la de simios de Africa. Las implicaciones de este descubrimiento no fueron menos sorprendentes. Pese a las apariencias —y las pruebas fosiles obtenidas hasta entonces—, los modernos seres humanos 191

compartian ancestros comunes con criaturas de Africa. Aunque Nuttall no lo supiera, su descubrimiento fue la primera indicacion de la capacidad del ADN para probar cuestiones sobre los origenes de ser humano. Anos despues, los cientificos refi-narian sus metodos para dar informacion impresionantemente detallada sobre los acontecimientos que precedieron a los origenes del H. sapiens. Sin embargo, varios decenios despues de su trabajo pionero, la atencion volveria a centrarse en las pruebas fosiles. La posibilidad de encontrar restos humanos en Africa habia llevado a los buscadores de fosiles a ese continente ya en 1912; sin embargo, contaban con pocas claves sobre donde buscar o que buscar, y se volvieron con las manos vacias. Extranamente, el gran avance habia tomado la forma de un craneo fosilizado situado en la repisa 192

de la chimenea del encargado de una cantera de Taung (Sudafrica). Lo encontro un dia de 1924 un alumno de Raymond Dart, un profesor universitario de anatomia de la Universidad de Witwatersrand (Johannesburgo). Identifico rapidamente el craneo como el de un babuino extinguido, y comenzo a preguntarse que mas se habia encontrado en la cantera. Poco despues, Dart recibio dos cajas de material que habian desenterrado los trabajadores de la cantera. La primera no contenia nada de valor, pero en la segunda encontro fragmentos de un fosil con forma de craneo. Su pequeno tamano indicaba que se trataba de una criatura simiesca, pero las mandibulas, los dientes y otros detalles anatomicos no eran similares ni siquiera a los de los chimpances, nuestros parientes vivos mas cercanos. Dart recordo la antigua teoria darwiniana del origen africano y se pregunto si se encontraba ante los restos de la criatura a partir 193

de la cual habian evolucionado tanto los seres humanos como los chimpances: el legendario . En unos pocos meses, el descubrimiento de Dart fue noticia en todo el mundo. Denomino a esta criatura Australopithecus africanus (), y de inmediato se encontro con un aluvion de criticas. Cientificos prominentes insistian en que habia ido demasiado lejos con las pruebas y que el craneo era simplemente una cabeza de simio fosilizada. Otros rechazaban la implicacion del origen africano de los seres humanos por motivos esencialmente racistas: para ellos, era inconcebible que los modernos seres humanos hubieran podido surgir de la tierra natal de los esclavos. La importancia del descubrimiento de Dart se rechazo hasta la decada de 1940, epoca en la 194

que surgieron muchos mas especimenes de Australopithecus para apoyar su idea de que eran un ancestro distante de los seres humanos. Africa se convirtio en el centro de la busqueda de los origenes del ser humano. Comenzaron a surgir aun mas especimenes de criaturas humanoides, como el Australopithecus afarensis, el Australopithecus hoisei y el Homo ha-bilis. Sin embargo, la imagen incipiente de los origenes del ser humano se estaba haciendo en todo caso menos clara. Estallaron polemicas entre equipos rivales de cientificos sobre la relacion entre todas estas diferentes criaturas. ?De cuales eran descendientes directos los seres humanos modernos y cuales eran simplemente callejones sin salida de la evolucion? ?Y como podrian llegar a probarse los origenes africanos de los seres humanos modernos? Una parte clave del rompecabezas se aclaro en 1960. Mientras trabajaban en la garganta de 195

Olduvai (Tanzania), los buscadores de fosiles keniatas Louis y Mary Leakey encontraron parte de un craneo que pertenecia a un H. erectus, la misma especie humana que Dubois habia encontrado a miles de kilometros de distancia, en Java. El descubrimiento establecia un vinculo crucial entre los humanos prehistoricos de Africa y el resto del mundo. A mediados de la decada de 1980, los buscadores de fosiles habian encontrado muchas mas muestras de H. erectus en Africa, incluido el esqueleto asombrosamente completo de un nino, el , descubierto por Richard Leakey (el hijo de Louis) en 1984. Mas importante aun fue que comenzo a surgir un patron. La datacion radioactiva mostro que los fosiles africanos de H. erectus tenian hasta 1,8 millones de anos de antiguedad, mucho mas que la mayoria de los especimenes que se encontraron en otras partes. Esto apuntaba a que el H. erectus habia dejado Africa hacia mas de un millon de anos, 196

dirigiendose a Asia, Oriente Medio y Europa, y evolucionando luego presumiblemente hacia los neandertales e incluso hacia el H. sapiens en muchas zonas diferentes. La denominada hipotesis de la evolucion humana era dificilmente convincente, aunque resultara atrayente por su simplicidad. Es posible que los modernos seres humanos realmente hubieran evolucionado a partir del H. erectus que seguia viviendo en Africa, dejando el continente en un segundo exodo mucho despues del primero. Durante el siglo posterior a la propuesta original de Darwin, esta se convirtio en la afirmacion central de la teoria del origen africano: que los seres humanos modernos habian surgido primero en Africa y dejaron el continente mucho despues del H. erectus, sustituyendolo finalmente en todo el planeta.

197

Sin embargo, demostrarlo era otra cuestion; siempre existia la posibilidad de que los buscadores de fosiles hubieran pasado por alto algunas claves vitales. Se necesitaba alguna otra fuente de pruebas, y durante la decada de 1960 comenzo a gestarse en el laboratorio del bioquimico Allan Wilson y de sus colaboradores de la Universidad de California. Resucitaron la idea basica de los analisis de sangre que realizo George Nuttall: que los seres humanos de hoy en dia portan en sus celulas claves sobre sus origenes. Como siempre, sus primeros hallazgos provocaron una enorme polemica. Estudiando las proteinas sanguineas de los seres humanos y los simios, afirmaban que ambos se habian separado hace aproximadamente cinco millones de anos, mucho mas recientemente de lo que las pruebas fosiles indicaban. Pese a la avalancha de protestas, las ultimas pruebas fosiles respaldaron la cronologia 198

de Wilson. Animado por este exito, el equipo ideo otra tecnica, basada en el denominado ADN mitocondrial (ADNmt) que se encuentra en las celulas humanas vivas. Comparando el ADNmt de los modernos seres humanos de diferentes partes del mundo, Wilson esperaba evaluar desde cuando todos nosotros compartimos un ancestro comun. El equipo encontro una diferencia relativamente pequena entre el ADNmt de los modernos seres humanos, lo cual concordaba con que el H. sapiens hubiera surgido menos de 290.000 anos atras. Tambien observaron que las mayores diferencias se encontraban entre los africanos, como era previsible en caso de ser los miembros mas antiguos de H. sapiens. Los descubrimientos de Wilson fueron noticia en todo el mundo, y alentaron a muchos otros a 199

realizar investigaciones basadas en el ADN. Los resultados proporcionan un cuadro sorprendentemente detallado del origen de los modernos seres humanos. En primer lugar, apuntan a Africa como cuna del H. sapiens, hace unos 120.000-220.000 anos. En segundo lugar, sugieren que entre 50.000 y 100.000 anos atras, >>, se preguntaba un periodico del Reino Unido. El hombre en cuestion era Stephen Wolfram — fisico britanico y millonario gracias a los programas informaticos—, cuya brillantez le habia dado un estatus legendario cuando todavia era adolescente. Publico su primer articulo de investigacion cuando todavia iba a la universidad y abandono Oxford un ano despues, a finales de la decada de 1970, menospreciando la carrera de fisica por considerarla inutil. Fue al California Institute of Technology, hizo un doctorado y gano una beca de investigacion especial para nuevos genios. Al comienzo de su tercera decada de vida, se pronosticaba que Wolfram haria grandes avances desentranando los misterios del cosmos. Pero 371

cuando revelo su gran idea, no era exactamente lo que mucha gente esperaba. Segun Wolfram, la clave del cosmos estaba en los patrones reticulares en una pantalla de ordenador. Tales creencias suelen ser sintoma de que se ha perdido el contacto con la realidad. Sin embargo, viniendo de Wolfram no era una afirmacion que se pudiera despreciar a la ligera, y algunos cientificos de renombre pensaban que podria tener razon, aunque exigieron muchas mas pruebas. En 2002 llegaron en forma de una enorme obra con un gran titulo: A New Kind of Science. La obra era la apuesta de Wolfram para ser acogido como el descubridor del poder de esos patrones simples para descubrir los misterios de la Naturaleza. Sin embargo, dista mucho de haber sido el primero en descubrir vestigios de algo inmenso en esos extranos patrones reticulares que plagaban su inmensa obra. 372

Conocidos como automatas celulares, atrajeron la atencion de algunas de las mas brillantes mentes del siglo XX mucho antes de que Wolfram naciera. Sin embargo, pese a los grandes esfuerzos que se hicieron por desvelar el potencial de los automatas celulares, persiste una controversia encarnizada sobre su trascendencia real. ?Los automatas celulares son en realidad la clave del cosmos, o son solo patrones cuya belleza ha extraviado a mentes brillantes? Sus origenes radican en conversaciones de cafe que tuvieron lugar en la ciudad polaca de Lvov (ahora en Ucrania) en 1929. Stanislaw Ulam y Stanislaw Mazur eran estudiantes de matematicas en la escuela politecnica, y con regularidad quedaban para conversar sobre sus ideas. En una de estas ocasiones, Mazur se planteo que haria falta para tener una maquina 373

que pudiera realizar automaticamente copias de si misma. Ambos reflexionaron sobre esta idea del durante un tiempo, antes de pasar a otras cosas. Cuando volvieron a tratar el asunto, mas de veinte anos despues, sus especulaciones de estudiantes llevarian al nacimiento de la investigacion de los automatas celulares. En esa epoca, uno de los mas grandes matematicos de todos los tiempos habia comenzado a reflexionar sobre la misma cuestion. John von Neumann, nacido en Hungria en 1903, ya era famoso por su trabajo en campos que iban desde la economia a la ciencia computacional. En la decada de 1940 probo que los ordenadores necesitan un procesador central, una memoria, y un dispositivo de entrada y salida; esta domina el diseno de los ordenadores hasta nuestros dias. 374

A finales de la decada de 1940 esperaba hacer lo mismo en lo que atane a la propia vida, identificando los componentes y las instrucciones fundamentales que se necesitan para que tengan lugar todos los procesos vitales, incluida la reproduccion. El resultado seria el con el que Mazur y Ulam habian sonado anos antes. Al igual que con los ordenadores, Von Neumann identifico los diversos componentes que se necesitan para crear un automata: un controlador central, un dispositivo de copia, un dispositivo de fabricacion y un conjunto de instrucciones. Hoy en dia los biologos reconocen esto como la lista de comprobacion de componentes que se encuentra practicamente en todas las formas de vida; sorprendentemente, Von Neumann habia probado su importancia anos antes de que se hubieran identificado los genes. Sin embargo, le 375

inquietaba la ausencia de detalles practicos sobre estos componentes. ?Como construir uno de estos automatas? Von Neumann menciono esto a un viejo amigo, el matematico Stanislaw Ulam. Recordando sus conversaciones de hacia mas de veinte anos, Ulam sugirio que comenzaran con algo mas simple que construir un autentico automata replicante. >>, preguntaba Einstein. Sin embargo, sigue siendo cierto que argumentos metafisicos sorprendentemente simples pueden conducir a ideas sobre el espacio y el tiempo a las que llegaron los fisicos solo al 655

cabo de decadas de esfuerzo (veanse algunos ejemplos en la maravillosa obra del profesor Robin Le Poidevin citada en las referencias bibliograficas). Un descubrimiento realizado por logicos medievales puede haber tenido relacion con los universos paralelos. Se centra en un resultado que en logica se conoce como ex falso quodlibet (Ex falso quodlibet sequitur: ) (N.del E.), segun el cual la existencia de solo una contradiccion implica de manera logica que nada y todo es verdadero. Esto se ha interpretado durante mucho tiempo como una demostracion del efecto mortal de las contradicciones sobre todo argumento racional; su potencia ha aterrado a los filosofos desde la epoca de Aristoteles. Sin embargo, si de hecho existimos en un multiverso, no solo hay unas cuantas 656

contradicciones ahi fuera, sino un numero infinito de ellas. Afortunadamente, no nos encontramos con ellas debido al mero tamano del multiverso, que hace que las probabilidades de que aparezca una sola contradiccion en nuestra diminuta esquina del mismo sean practicamente inexistentes. Desde este punto de vista, el resultado supuestamente absurdo de que las contradicciones implican que todo es cierto es una proposicion casi trivial sobre el multiverso, en el que todas las cosas, incluidas todas las contradicciones, son verdaderas. 77 Los fisicos son en general tipos muy pragmaticos que no ven la necesidad de enredarse con detalles turbios y sutiles salvo que sea absolutamente necesario. 657

Hasta hace poco, la interpretacion de la Teoria Cuantica se vio como el sum-mum del detalle turbio y sutil. Pero la aparicion de aplicaciones especificas, como la computacion cuantica, ha llevado a un creciente numero de fisicos a intentar controlar estos detalles. El resultado ha sido una renovacion del interes por la interpretacion de la Teoria Cuantica, y la aparicion de un consenso sobre la necesidad de revisar los enfoques de los libros de texto convencionales manejados durante decadas. En 1999 se pregunto a los asistentes a una conferencia sobre computacion cuantica celebrada en el Isaac Newton Institute (Cambridge) su opinion respecto a la mejor forma de abordar la Teoria Cuantica. De los noventa que expresaron su punto de vista, solo el 4% seguian adoptando la interpretacion convencional (), 658

mientras que el 33% habia adoptado la interpretacion de los multiples mundos. Sin embargo, mas del 50% describieron que su punto de vista no era o no se decantaron por ninguna opcion. Se puede consultar en linea una revision del estado actual de las interpretaciones de la Teoria Cuantica en http://tinyurl.com/8ycq9 78 Bit cuantico. (N. del E.)

659

25 El Principio Antropico

En pocas palabras La inmensidad del Universo hace que la idea de una conexion con la vida en la Tierra parezca completamente ingenua. Sin embargo, los descubrimientos sobre las propiedades del cosmos sugieren que existe tal vinculo, y han conducido al Principio Antropico: que nuestro Universo tiene propiedades que hacen viable la vida, ya que de otro modo no existiriamos. Desde el descubrimiento en las estrellas de propiedades especiales de los atomos de carbono necesarias para producir compuestos quimicos imprescindibles para la vida, hasta el extraordinario de las propiedades del Universo, hoy en dia hay un importante apoyo cientifico al Principio Antropico. Cada vez hay mas sospechas de que nuestro Universo no es mas que una pequena parte —aunque una parte propicia para la vida— de un multiverso mucho mayor. Algunos cientificos estan estudiando la posibilidad de un vinculo entre la existencia de los seres humanos y el origen del propio Universo.

660

Albert Einstein dijo que era la cuestion que mas la gustaria responder, el definitivo: ?por que el Universo es como es? Algunos estan seguros de que conocen la respuesta. Insisten en que el Universo es como es porque Dios asi lo quiso. Para muchos otros, esto plantea mas preguntas de las que resuelve, mientras que algunos afirman que la pregunta carece de sentido: el Universo simplemente es. Sin embargo, descubrimientos recientes sobre el cosmos sugieren que la verdad es mucho mas interesante, y que sus propiedades —quiza su propia existencia— estan intimamente relacionadas con nuestra presencia en el. Las evidencias se presentan en extranas coincidencias entre las basicas de nuestro Universo y las necesarias para que se sustente 661

forma de propiedades condiciones en el vida

inteligente. El significado de estas coincidencias a veces ha suscitado agrios debates entre los cientificos. Algunos desestiman los intentos de darles sentido, considerando que no son cientificas. Otros van tan lejos como para insistir en que los vinculos apuntan a un significado y un proposito divinos del Universo. En el meollo del debate se encuentra el Principio Antropico, segun el cual el mero hecho de que existamos arroja luz sobre como puede ser el Universo. Como tal, se ha convertido en una de las propuestas mas polemicas de la historia de la ciencia. Dice al menos tanto sobre los cientificos como sobre la propia idea, puesto que la nocion de que el Universo ha sido hecho a la medida del genero humano fue tomada como natural por muchos de los fundadores de la ciencia occidental, incluido Isaac Newton. Pero a comienzos del siglo XX, tales creencias habian tomado un aire de dogma religioso que la 662

mayoria de los cientificos querian evitar. En 1903, incluso el distinguido naturalista britanico Alfred Russel Wallace 79 se arriesgo a ser ridiculizado declarando que el Universo puede tener las propiedades que tiene 80. En unos pocos anos, Albert Einstein habia desarrollado su Teoria de la Relatividad, que marca el comienzo de la ciencia moderna, y que aparentemente no requeria de tales opiniones. En 1930, los astronomos habian observado que el Universo era totalmente diferente al vacio simple, estatico e infinito que habian concebido los primeros cientificos. El Universo era dinamico y estaba repleto de galaxias que se alejaron de las demas en el periodo posterior a un suceso 663

explosivo que parecia haber tenido lugar miles de millones de anos antes. Su comportamiento solo podia entenderse recurriendo a las ecuaciones tremendamente complejas de la Relatividad General, la teoria de la gravedad de Einstein. Ciertamente, en esta nueva idea del Universo no parecia que hubiera lugar para una conexion con la existencia de simples seres humanos. Aun asi, algunos cientificos afirmaban que habia algo extrano respecto a las propiedades del Universo, que apuntaba a un vinculo improbable con la fisica de las particulas subatomicas. Senalaban que, segun los datos astronomicos, el Universo visible era aproximadamente 10.000 trillones de trillones (1040) veces mayor que un electron —es una cifra enorme, pero que resultaba ser el mismo factor por el que la intensidad de la fuerza electrostatica entre los electrones y los protones supera la fuerza gravitacional entre ellos—. ?La similitud de estos 664

dos numeros grandes era solo una coincidencia o era la prueba de una relacion entre la fisica de lo muy grande y la fisica de lo muy pequeno? Aunque muchos cientificos desestimaron de plano esta idea, atrajo la atencion de uno de los fundadores de la Teoria Cuantica, el fisico britanico Paul Dirac, galardonado con el Premio Nobel. En 1937 publico un articulo en la influyente revista Nature en el que presento lo que se conoceria como Hipotesis de los Numeros Grandes. Segun esta hipotesis, la similitud de los numeros grandes no es una coincidencia, sino que refleja una ley fundamental de la fisica81. Por consiguiente, la similitud tiene que ser siempre valida, lo que llevo a Dirac a hacer una prediccion asombrosa. Debido a la expansion del cosmos, el gran numero basado en el tamano del Universo cambia con el tiempo. En consecuencia, su actual similitud con el segundo gran numero no puede seguir siendo valida por siempre, a no ser, claro, 665

que el segundo gran numero tambien cambie con el tiempo. Sin embargo, ?que particula subatomica puede variar? Dirac penso que solo habia un camino para evitar la demoledora Teoria Cuantica: la gravedad debe debilitarse con el paso del tiempo, a la misma velocidad que el Universo se expande. La proposicion temeraria de Dirac provoco pocas respuestas inmediatas, en gran medida porque la reduccion prevista de la fuerza de la gravedad era increiblemente lenta: menos del 1 % en diez millones de anos. En ausencia de cualquier prueba obvia de esta prediccion, los cientificos dejaron a un lado la Hipotesis de los Numeros Grandes. La posibilidad de una relacion entre la fisica de lo muy grande y la fisica de lo muy pequeno estallo de nuevo en el panorama cientifico en 1953, cuando Fred Hoyle, colega de Dirac de la Universidad de Cambridge, descubrio una

mucho mas 666

impresionante que proporcionaba una relacion directa entre las propiedades del cosmos y la existencia de vida en la Tierra. Desde mediados de la decada de 1940, Hoyle habia lidiado con uno de los primeros retos a los que se enfrento la ciencia: explicar el origen de los elementos quimicos. Los mas simples y mas comunes de ellos, el hidrogeno y el helio, parecian haber sido creados en el calor inimaginable del Big Bang. El problema era explicar el origen de los demas. Hoyle descubrio que la respuesta radicaba en las reacciones nucleares que tenian lugar en las profundidades de las estrellas, pero solo si se daba una condicion muy especial en los atomos de carbono. En particular, uno de sus isotopos, 12 C, tenia que poseer una propiedad denominada resonancia a una energia muy precisa. De lo contrario, las estrellas practicamente no crearian 667

carbono y, como Hoyle comprendio, sin carbono no hay vida. Sin embargo, por mas esfuerzos que hizo, Hoyle no pudo encontrar pruebas experimentales de que existiera tal resonancia. En su lugar, no le quedo mas remedio que recurrir a un argumento ingenioso: los expertos debian de haber pasado algo por alto, porque de no haberlo hecho simplemente no existirian. El uso innovador del Principio Antropico por parte de Hoyle provoco inevitablemente el escepticismo: ?era seguro que la mera existencia de vida no puede utilizarse para predecir una propiedad fundamental de los atomos? Sin embargo, Hoyle persistio y apenas una semana despues un equipo llego con la noticia de que habian encontrado la resonancia, justo donde Hoyle habia dicho que estaria. El Principio Antropico recibio otro espaldarazo poco despues, cuando el fisico estadounidense 668

Robert Dicke lo utilizo como base de una manera radicalmente diferente de considerar la Hipotesis de los Numeros Grandes de Dirac. Dicke revelo una laguna en los argumentos de Dirac: que la similitud en tales numeros grandes dificilmente puede ser una coincidencia. Apuntaba a que el hecho de que pudieramos observar las significa que el Universo debe de haber existido desde hace suficiente tiempo para que las estrellas crearan los elementos necesarios para la vida humana. Por otra parte, el Universo no puede ser mucho mas antiguo que esto, pues de otro modo las materias primas necesarias para crear las estrellas se habrian agotado. Utilizando un simple modelo de reacciones nucleares estelares, Dicke demostro que nuestra existencia garantiza que los dos numeros grandes de Dirac deben ser similares en este momento de la vida del Universo. Dicho de otro modo, Dirac estaba en lo cierto al decir que su similitud no es mera 669

coincidencia, aunque se equivocaba pensando que, por tanto, debia persistir por siempre. El argumento antropico de Dicke tambien socavo la afirmacion de Dirac de que la gravedad tenia que haberse debilitado para mantener intacta la . Ya en la decada de 1940 habian surgido dudas respecto a la prediccion de Dirac; el teorico hungaro-estadounidense Edward Teller habia demostrado que el debilitamiento de la gravedad implicaba un Sol mas brillante y una orbita terrestre menor en el pasado, haciendo que la Tierra primitiva fuera imposiblemente caliente82. El golpe de gracia lo asestaron los astronautas del proyecto Apollo, que en 1969 dejaron en la Luna espejos especiales para reflejar rayos laser. Estos permitian a los astronomos medir la distancia a la Luna con una precision sin precedentes —de unos pocos centimetros— y, por tanto, detectar cualquier signo de que se estuviera alejando a medida que 670

la gravedad reducia su capacidad de atraccion En la decada de 1990, la conclusion era clara: si la gravedad finalmente se debilitaba, lo hacia mucho mas despacio de lo que habia predicho la teoria de Dirac83. Pese al creciente interes en el Principio Antropico, no se le dio nombre hasta 1973, cuando Brandon Carter, astrofisico de la Universidad de Cambridge, acuno el termino a partir de la palabra griega , ‘humanidad’. Carter tambien disdn^uio dos variedades de la idea basica. El Principio Antropico -/debil>>> —la variedad que utilizaron Hoyle y Dicke— es hasta cierto punto poco polemico y establece que el hecho de que existamos pone limites a ciertas propiedades del Universo y su contenido. Por el contrario, el Principio Antropico afirma que el Universo se ve realmente forzado a tener propiedades compatibles con la vida inteligente. Para muchos cientificos, esto huele al 671

conocido desarrollado pollos teologos Victorianos, segun el cual los milagros de la Naturaleza prueban la existencia de un disenador supremo, esto es. Dios84. Pocos cientificos aceptan la version fuerte del Principio Antropico, e incluso la version debil ha sido objeto de criticas. Los escepticos arguyen que simplemente refleja lo que conocemos como verdadero —que existimos— y, por tanto, carece de contenido. Para algunos cientificos — incluido sir Martin Rees, el actual astronomo real —, en cambio, la version debil se queda corta. En su lugar, promovieron un camino intermedio, que lleva a una de las conclusiones mas espectaculares del Principio Antropico: que nuestro Universo no es mas que una parte, diminuta pero habitable, de un enorme.

672

Segun esta idea, preguntarse por que nuestro Universo parece a la vida es como preguntarse por que los jugadores de poquer a veces consiguen una escalera de color: tiene que pasar en algun momento, en algun lugar del multiverso85. La posibilidad de que nuestro Universo sea solo una parte diminuta de algo mucho mayor esta sustentada por teorias desarrolladas para explicar el Big Bang. En 1981, el fisico estadounidense Alan Guth demostro que la expansion cosmica podia haber sido desencadenada por una fuerza subatomica que surge literalmente del espacio vacio y actua como una forma de antigravedad. Dos anos despues, el cosmologo ruso Andrei Linde demostro que este efecto de puede haber producido una gran variedad de universos, siendo solo algunos de ellos —como el que habitamos— adecuados para el desarrollo de la vida. 673

En 1992, el fisico teorico estadounidense Lee Smolin llevo esta idea mas lejos, proponiendo que todos los universos participan en una suerte de darwiniana, lo que produce condiciones apropiadas para la vida como subproducto. Smolin sostenia que nuevos universos podian formarse por inflacion dentro de los agujeros negros, los remanentes super-densos de estrellas gigantes cuya gravedad es tan intensa que ni siquiera la luz puede escapar de ellos. Las condiciones en cada uno de estos universos recien nacidos son levemente diferentes, pero los que son capaces de producir mas agujeros negros seran tambien los que tendran mas descendencia y de este modo se convertiran en la forma mas frecuente de universo. Y esto lleva a una posible relacion con la existencia de vida; como apunta Smolin, los universos que producen mas agujeros negros tambien produciran mas estrellas gigantes, que son precisamente las mas aptas para crear los 674

elementos quimicos necesarios para la vida. Aunque muy especulativa, la proposicion de Smolin se ajusta en general a las conocidas leyes de la fisica, y algun dia incluso sera posible ponerla a prueba. De confirmarse, daria una perspectiva totalmente nueva del Principio Antropico, vinculando nuestra existencia en el cosmos con la existencia del propio cosmos. Esto, a su vez, conduce a la implicacion mas asombrosa del Principio Antropico, que mantendra a los cientificos argumentando al respecto en los anos venideros: que necesitamos al Universo para existir —y que el nos necesita.

LA FUERZA ELECTROSTATICA

675

Una de las fuerzas fundamentales del Universo, la fuerza electrostatica, une objetos con cargas opuestas —como los protones y los electrones— y, por tanto, es responsable de la existencia de los atomos. Tambien garantiza que cargas del mismo signo se repelan, y desempena un papel fundamental en las reacciones nucleares que se producen en el interior de las estrellas, que solo pueden comenzar cuando se ha superado esta repulsion natural entre dos nucleos atomicos. El mas leve cambio en la intensidad de la fuerza electrostatica tendria un efecto profundo en la naturaleza de nuestro Universo, impidiendo que existan ciertos tipos de estrellas. A su vez, esto supondria una ausencia de elementos quimicos clave que normalmente se crean en el nucleo de las estrellas gigantes, e impediria la existencia de ingredientes para la formacion de vida inteligente, como los seres humanos.

676

FRED HOY LE

Fred Hoyle, sin duda el astrofisico mas brillante del siglo XX, revoluciono el conocimiento del Universo y de su contenido. En 1948 planteo la Teoria del Estado Estacionario, que afirmaba que el cosmos siempre ha existido y que se mantiene inalterado en las grandes escalas. Aunque fue refutada por el descubrimiento del calor remanente del Big Bang, la Teoria del Estado Estacionario suscito muchos avances teoricos y de observacion cosmica. Hoyle tambien resolvio el problema del origen de los elementos quimicos en las estrellas, pero le privaron escandalosamente del Premio Nobel a raiz de sus anteriores criticas al comite que otorga los premios. Mas tarde, Hoyle defendio muchas teorias impopulares, incluida la idea de que la vida llego a la Tierra en forma de microbios 677

transportados por cometas.

Cronologia

1691 El cientifico ingles Robert Boyle plantea que el mundo natural parece estar especificamente disenado para sustentar y beneficiar a los organismos vivos. 1903 El britanico Alfred Wallace, naturalista y pionero de la Teoria de la Evolucion, sostiene que la existencia de vida exige que el Universo sea vasto y complejo. 1929 El astronomo estadounidense Edwin Hubble hace las primeras mediciones de las propiedades de todo el Universo, incluida 678

su velocidad de expansion. 1937 El fisico ingles Paul Dirac, galardonado con el Premio Nobel, revela las misteriosas coincidencias de los numeros grandes, afirmando que implican que la fuerza de gravedad esta disminuyendo. 1953 El astrofisico Fred Hoyle (Universidad de Cambridge) utiliza la existencia de vida para predecir la existencia de un nivel de energia previamente no detectado en un isotopo de carbono. 1957 El fisico Robert Dicke (Universidad de Princeton) demuestra que las coincidencias de los numeros grandes pueden reflejar simplemente las condiciones necesarias para que la vida exista hoy en dia.

679

1969 Los astronautas del proyecto Apollo despliegan en la Luna espejos reflectores de rayos laser para determinar la distancia a esta. En contra de la teoria de Dirac, las mediciones desvelan que la gravedad no esta debilitandose. 1973 El astrofisico Brandon Carter (Universidad de Cambridge) es el primero en acunar el termino de Principio Antropico para la idea de que las propiedades del Universo se relacionan con la existencia de vida. 1981 Alan Guth (Massachusetts Institute of Technology) plantea la Teoria de la Inflacion para explicar la energia impulsora del Big Bang. 1983 El cosmologo ruso Andrei Linde (Universidad de Stanford) presenta la Teoria de la Inflacion caotica, que produce 680

gran numero de universos, algunos de los cuales inevitablemente sustentan la vida. 1992 El fisico estadounidense Lee Smolin publica una teoria que sugiere que los universos sufren una evolucion de tipo darwiniano que los hace adecuados para la existencia de vida.

Citas 79 Wallace, uno de los mas brillantes naturalistas Victorianos, suele ser considerado codescubridor de los principios de la evolucion: su carta a Charles Darwin sobre sus hallazgos en 1858 estimulo la publicacion de El origen de las especies. Mas tarde, Wallace se intereso en 681

aspectos mas espirituales de la biologia, lo que puede haberle conducido a sus escritos profeticos sobre las relaciones entre la existencia de la vida y la naturaleza del Universo. 80 Segun el Principio Antropico, el Universo que vemos tiene propiedades coherentes con la existencia de los seres humanos porque, de lo contrario, no estariamos aqui para contarlo. En 1980, el fisico estadounidense William Press planteo un ingenioso giro sobre este argumento que predice cual es la maxima altura posible para criaturas semejantes a los seres humanos en nuestro Universo. El argumento se centra en el hecho de que las criaturas de dos piernas como los seres humanos estan perpetuamente bajo la 682

amenaza de dano debido a una caida. Es evidente que, si fueramos mucho mas altos, caeriamos al suelo con tanta energia que nos sobrevendria siempre la muerte. Press apuntaba que la razon de que esto no ocurra estriba en la potencia relativa de dos fuerzas fundamentales que existen en el Universo: la gravedad —que dicta la fuerza con la que nos golpeamos contra el suelo— y la fuerza electromagnetica —que rige la fuerza de los enlaces atomicos que constituyen nuestros huesos—. Este argumento lleva a una formula para calcular la maxima altura segura de los seres humanos en la que se relacionan las intensidades de estas dos fuerzas de nuestro Universo, y da una cifra de aproximadamente tres metros. De hecho, el ser humano mas alto que ha existido — Robert Wadlow (1918-1940)—, media 2,72 metros de altura, y no llegaba a superar 683

este limite. 81 El Premio Nobel Paul Dirac creia que la similitud de ciertos numeros especiales apuntaba a una relacion entre la fisica subatomica y el Universo. Aunque ahora se sabe que su teoria original era erronea, la idea de tal conexion cosmica se ha convertido hoy en dia en algo aceptado. Se cree que la expansion de todo el Universo esta impulsada por una fuerza generada por procesos cuanticos —las leyes que gobiernan el mundo subatomico—. Hasta ahora, los teoricos han sido incapaces de calcular la magnitud de esta fuerza cosmica utilizando metodos convencionales. Curiosamente, es posible utilizar los especiales de Dirac para presentar una 684

estimacion, y el resultado no dista mucho del determinado por los astronomos. Asi que es posible que, despues de todo, la alocada idea de Dirac no estuviera desencaminada. 82 En la teoria original de Dirac, el vinculo entre la fisica subatomica y el cosmos llevaba a una prediccion asombrosa: que la fuerza de la gravedad debe estar debilitandose. A los fisicos les llevo algun tiempo entender las consecuencias de esta prediccion, y se vio que eran desastrosas para la teoria. Si la gravedad estaba debilitandose, entonces la atraccion del Sol sobre la Tierra habria sido mayor en el pasado, acercandola y, por tanto, haciendola mas caliente. Ademas, el cambio en la intensidad de la gravedad 685

alteraria el equilibrio de las fuerzas en el interior del Sol que rige sus reacciones de fusion nuclear. Los calculos demuestran que solo un aumento del 5% en la intensidad de la gravedad incrementaria la luminosidad del Sol un 40%. Esto, en combinacion con la menor orbita, haria que las temperaturas resultantes en la Tierra superaran la de la ebullicion del agua solo hace 600 millones de anos, lo cual se contradice de plano con los registros fosiles. 83 Entre los experimentos desarrollados durante la primera mision lunar, en julio de 1969, habia un panel de 77 kilos con cien espejos muy pulidos. Disenados por el doctor Carroll Alley (Universidad de Maryland), estos reflejan rayos laser 686

enviados desde la Tierra, y el tiempo que tardan en hacer todo este recorrido, combinado con la velocidad de la luz, revela la distancia entre la Tierra y la Luna con una precision de una parte por 10.000 millones, esto es, aproximadamente tres centimetros. 84 El argumento del diseno inteligente, muy utilizado por los creaeionistas en los debates contra la Teoria de la Evolucion de Darwin, suele atribuirse a William Paley, teologo ingles del siglo XVII que afirmaba que la existencia de organismos vivos exquisitamente complejos se explica mejor como resultado de acciones deliberadas de un Creador. Los cientificos darwinianos insisten en que la evolucion puede explicar las maravillas de la vida sin necesidad de 687

un Creador. 85 Un ejemplo sorprendente de cosmico aparente se centra en un numero denominado Omega, que da la razon de la actual densidad de la materia del Universo respecto a la necesaria para que la gravedad sea suficientemente intensa para detener la expansion cosmica. Las observaciones actuales demuestran que Omega vale cerca de 0,3. Sin embargo, los calculos revelan que esto significa que el valor original de Omega en el momento del Big Bang no pudo haber diferido de uno en mas de una mil billonesima. Si no, la expansion cosmica habria sido demasiado rapida para que se formaran las galaxias, o tan lenta que el Universo se habria 688

colapsado hace miles de millones de anos. En resumen, debemos nuestra presencia a algun increible.

689

Y despues, ?que?

El contenido de esta obra estaba actualizado en el momento de redactarla, pero la ciencia no se detiene. Quienes quieran estar al dia de los ultimos descubrimientos a medida que tienen lugar nunca han estado mejor servidos. Hay muchas revistas de primer orden, como BBC Focus (en la que aparecieron originalmente versiones mas breves de algunos de estos capitulos), Scientific American y New Scientist. Para quienes no puedan esperar a los ultimos avances, tambien hay muchos sitios web donde se publican los descubrimientos mas recientes, 690

c o m o www.focusmag.co.uk, www.sciam.com y www.newscientist.com. Sea cual fuere el camino que escoja para estar al tanto de los ultimos avances cientificos, espero que encuentre en esta obra una guia practica para entender sus implicaciones86.

Citas 86 Existe edicion en castellano de Scientific American: Investigacion y Ciencia (http://www.investigacionyciencia.es), y la Universidad de Valencia edita Meto-de (http://www.revistametode.com). (N. delE.)

691

Glosario

ADN mitocondrial (ADNmt): ADN extraido de las mitocondrias, elementos celulares que producen energia. Dado que en cada celula existe una gran cantidad de mitocondrias, es facil extraer su ADN de fragmentos antiguos. El ADN tambien varia mucho de un individuo a otro, y se hereda solo por via materna, haciendo que los cambios sean mas faciles de interpretar. Agricultura biologica: Este tipo de agricultura, que dio sus primeros pasos en la decada de 1940, se centra en la salud del suelo en el que 692

crecen las plantas. Evitando el uso intensivo del campo y los fertilizantes artificiales, los agricultores biologicos afirman producir cosechas mejores y productos mas sabrosos, aunque con mayor costo. Muchos expertos creen que el metodo es demasiado caro para la agricultura en masa, y que los vegetales modificados geneticamente tienen mas posibilidades. Agrobacterium tumefaciens: Bacteria que se encuentra en el suelo e infecta a las plantas con su material genetico, causando enfermedades. Eliminando los genes responsables de la enfermedad, los cientificos utilizaron A. tumefaciens para transportar genes de rasgos deseados, produciendo variedades de vegetales geneticamente modificados, como patatas, tomates y semillas de soja. Astenosfera: de 300 kilometros de profundidad de roca del manto parcialmente 693

fundida en el que flota la litosfera. Comienza a unos 100 kilometros por debajo de la superficie. Atractor extrano: En lineas generales, obtencion de los posibles estados en los que puede existir un fenomeno caotico. En el caso del estado del tiempo, se puede pensar en un atractor extrano como el clima, el cual garantiza que los inviernos son caracteristicamente mas frios que los veranos, aunque cada dia puede ser radicalmente diferente. Pero basta un minusculo cambio, como —al menos en teoria— el aleteo de una mariposa, para que cambie el tiempo en otra parte del atractor extrano, haciendo que la prediccion a largo plazo sea imposible. Automata celular: Patron reticular de celulas cuyos detalles son controlados por conjuntos simples de reglas. Cada celula del patron adopta diversos estados (que oscilan entre y , a variedades 694

mucho mas complejas), segun el estado de sus vecinas mas proximas. Bayesanismo: Concepto de las probabilidades como grados de creencia basados en todas las pruebas disponibles. Segun esto, las afirmaciones respecto a las probabilidades de que salga cara al tirar una moneda al aire deben tener en cuenta cualquier prueba de efectos que pudiera afectarlas, como la manipulacion. Bit: Termino acunado por primera vez por el estadistico estadounidense John Tukey. Es la menor unidad posible de informacion que simplemente describe el estado de algo que puede tener solo uno de dos estados (por ejemplo, encendido y apagado). Campo escalar: Tipo de campo de fuerza cuantico que probablemente existio en el Universo primitivo. Se ha predicho que tendria efectos antigravitacionales, y permite la 695

expansion rapida del Universo conocida como inflacion; su colapso desencadena la liberacion de radiacion y de materia caracteristica del Big Bang. Catastrofismo: Idea de que los acontecimientos catastroficos de proporciones biblicas, como el diluvio universal, desempenaron una funcion clave en la historia pasada de la Tierra. Aunque las raices del catastrofismo se remontan a miles de anos, esta idea perdio popularidad a principios del siglo XIX. El reconocimiento reciente del papel de los impactos cosmicos en la historia de la Tierra han conllevado su reavivamiento, aunque en una forma mucho mas cientifica. Comportamiento altruista: Actos que no benefician a los individuos, o incluso pueden perjudicarles, aunque beneficien a otros. Tal comportamiento, que se observa mucho tanto en los animales como en los seres humanos, 696

plantea un problema importante a los biologos especializados en la evolucion. Compresion de datos: Tecnica utilizada para eliminar los bits super-fluos () de los datos con el fin de que puedan transmitirse con mayor rapidez y compactarse mas para su almacenamiento. Esta tecnica, investigada por Shannon en su primer articulo, de 1949, se utiliza ahora ampliamente, desde las comunicaciones via satelite hasta los reproductores de DVD, Computacion cuantica: Forma de computacion que aprovecha el hecho de que las particulas subatomicas pueden existir en combinaciones — — de diferentes estados en el mismo momento. Expresando los datos en terminos de estos multiples estados, la computacion cuantica permite resolver problemas muy complejos en paralelo, y por tanto a 697

enorme velocidad. Computacion neuronal: Tecnica de programacion de ordenadores ordinarios para que se comporten como redes de muy primitivas, que pueden ser entrenadas para que reconozcan patrones. Se utilizan mucho en la ejecucion de tareas como la identificacion de caras en las imagenes de las camaras de seguridad y en el reconocimiento del habla. Conductismo: Creencia de que el comportamiento se debe practicamente en su totalidad al aprendizaje de experiencias realizadas en entornos particulares. Fue propuesto por vez primera por el psicologo estadounidense John Watson en 1913, y llevo a la idea de que cualquier comportamiento puede alterarse utilizando recompensas y castigos. Constante de Hubble: Con frecuencia conocida 698

tambien como parametro de Hubble (H0) por no ser realmente algo fijo, la constante de Hubble mide la velocidad a la que se esta expandiendo el Universo hoy en dia. Las determinaciones actuales implican que el Universo comenzo a expandirse hace aproximadamente 13.700 millones de anos. Contraccion de FitzGerald-Lorentz: Reduccion de las dimensiones de objetos en la direccion de viaje que se hace aparente a velocidades muy altas. Toma su hombre de los dos fisicos que sugirieron el fenomeno para explicar el resultado del experimento de Michelson y Morley, antes de que Einstein desarrollara la Relatividad. Correlatos neurales: Partes reales del cerebro y del sistema nervioso cuya funcion pueden relacionarse directamente con aspectos de la conciencia. Usando escaneres cerebrales y 699

experimentos de laboratorio, algunos cientificos afirman que estas caracteristicas fundamentales de la conciencia radican en partes primitivas del encefalo, como el talamo y el tronco del encefalo. Dilatacion del tiempo: del tiempo que se observa en los relojes en movimiento, haciendo que parezcan ir mas lentamente de lo que van cuando estan en reposo. Esto se ha observado de forma experimental en particulas subatomicas, que se desintegran mas lentamente cuando viajan a gran velocidad. Distribucion de Gauss: Curva en forma de campana que muestra la frecuencia relativa de, por ejemplo, la altura de un grupo numeroso de personas. Su forma refleja el hecho de que la mayoria de la gente tiene una altura proxima a la media, mientras que las personas muy altas o 700

muy bajas son relativamente raras. Distribucion de valores extremos: Curva que hace con los valores extremos lo que la distribucion normal () hace con los valores corrientes. La distribucion del valor extremo, basada en datos pasados —por ejemplo, los valores maximos de las precipitaciones mensuales—, da lugar a una curva que puede proporcionar estimaciones de la probabilidad de que haya valores incluso mayores de precipitaciones en cualquier ano dado. Division de frecuencia espontanea parametrica (SPDC): Metodo convencional de desencadenar el entrelazamiento, en la que algunos de los fotones de luz brillan en ciertos cristales divididos en dos, creando pares de fotones entrelazados. Doble enmascaramiento: Procedimiento disenado para proteger los ensayos medicos de 701

sesgos ocultos garantizando que ni los pacientes ni los medicos que los tratan saben quien esta recibiendo el nuevo tratamiento y quien el placebo o el tratamiento antiguo. Dorsal meso-oceanica: Region en la que dos placas continentales se separan, lo que permite que rocas basalticas nuevas suban a la superficie desde las profundidades de la Tierra. El resultado es la mayor cadena montanosa de la Tierra, con una extension de 40.000 kilometros y los picos mas elevados. Dualismo: Consideracion de la mente consciente como algo basicamente diferente del cerebro vivo, que funciona. Originalmente la planteo el filosofo frances del siglo XVII Rene Descartes — de hecho se sigue denominado dualismo cartesiano—. La idea de que la mente es mas que la mera actividad cerebral no esta plenamente aceptada en la actualidad. 702

Efecto de desplazamiento hacia el rojo: Consecuencia de la expansion del Universo, en el que la radiacion de fuentes distantes se hacia longitudes de onda mayores. En el caso de la luz de las galaxias, esto aparece como un desplazamiento hacia el extremo rojo del espectro, de ahi el termino . Efecto mariposa: Termino metaforico para lo que los matematicos denominan : la forma en que los fenomenos no lineales, como el estado del tiempo, pueden ser modificados incluso por los efectos mas minimos, como el aleteo de una mariposa. El Gran Problema: Segun muchos, es problema fundamental que cualquier teoria de conciencia debe resolver: como relacionar estructura objetiva, fisica, del cerebro con 703

el la la el

sentimiento subjetivo de ser consciente. El termino fue acunado en 1994 por el filosofo australiano David Chalmers en la Universidad de Arizona. Ensayo controlado aleatorio: Este tipo de ensayo, que se considera el patron de referencia de la medicina basada en pruebas cientificas, es un estudio de algun tratamiento nuevo en el que los pacientes son distribuidos al azar en dos grupos: los que son elegidos para que reciban el tratamiento en el y los que reciben el tratamiento habitual o un placebo en el . Epidemiologia analitica: Investigacion de la causa de efectos relacionados con la salud usando analisis estadisticos de los resultados de estudios de cohortes o de casos y controles. Epidemiologia descriptiva: Estudio de las causas de los efectos relacionados con la salud 704

usando analisis de datos simples basados en el momento, el lugar y detalles personales. Equilibrio de Nash: Conjunto de estrategias que garantizan que cada jugador solo podria jugar mal eligiendo alguna otra estrategia. Toma su nombre de John Nash, quien probo que cada juego tiene al menos tal conjunto de estrategias. Escala del tiempo de Lyapunov: Determinacion de la intensidad del caos y, por tanto, del periodo maximo en el que siguen siendo utiles las predicciones del tiempo. Cuanto mayor sea, mas durara la fiabi-lidad de las predicciones. Por ejemplo, el caos debido a la atraccion gravitacional de los demas planetas implica que la posicion de la Tierra no se puede predecir mas alla de 100 millones de anos en el futuro. Eslabon perdido: Originalmente se considero que era la criatura que salvo la brecha evolutiva 705

entre los chimpances y los seres humanos. Ahora se sabe que los seres humanos no proceden de los chimpances, sino que ambos descendieron, hace al menos cinco millones de anos, de un ancestro comun desconocido que se ha convertido en el autentico . Espin: Propiedad de las particulas subatomicas con cierta semejanza con el giro de una pelota, aunque como todas las ideas teoricas cuanticas la analogia dista de ser perfecta. Todas las particulas portadoras de energia, como los fotones, son con un numero entero de unidades de espin (0, 1, 2, etc.), mientras que las particulas de materia, como los electrones, son , con valores semienteros (1/2, 3/2, etc.). Estados de espin: Muchas particulas atomicas, incluidos los electrones, los protones y los 706

neutrones, poseen una propiedad cuantica conocida como , que esta lejanamente relacionada con la rotacion. La principal diferencia es que solo puede adoptar valores particulares, y si las particulas han sido creadas de forma correcta, los denominados estados de espin pueden entrelazarse. Estrategia: Manera de jugar un determinado juego, por ejemplo, marcarse un farol o pasar en el poquer. Estrategia estable evolutiva: En biologia, tipo de comportamiento que no se puede vencer si lo adopta la poblacion. Una vez adoptado, la darwiniana lo promovera. Estudio de casos y controles: Otro metodo para identificar las causas de la enfermedad en el que las personas que ya tienen la afeccion —los — se comparan con sujetos 707

sanos emparejados —los —, indagando en sus antecedentes para identificar causas probables. Estudio de cohortes: Tecnica para revelar las posibles causas de enfermedades en la que se identifican dos grupos o de personas, uno de los cuales ha estado expuesto a un factor de riesgo sospechoso. Luego se hace un seguimiento de la salud de cada grupo y se comparan las tasas relativas de mortalidad o morbilidad. Estudios de mellizos: Utilizacion de mellizos — generalmente identicos— para demostrar la importancia relativa de la influencia genetica y ambiental en un rasgo particular, como la altura, el coeficiente intelectual y el tipo de personalidad. Eter: Fluido que se suponia que llenaba todo el espacio para que las ondas electromagneticas, como la luz, viajaran a traves del vacio. Los 708

intentos fallidos de detectar el eter llevaron a Einstein a desarrollar la Teoria Especial de la Relatividad. Eugenesia: Termino acunado por vez primera por sir Francis Galton a partir del griego eu (‘bien’) -genesis (‘engendramiento’) que significa ‘buen engendramiento’. La eugenesia implica el uso deliberado de la cria selectiva de los seres humanos para mejorar la composicion genetica de la poblacion, alentando a las personas que desarrollan su maximo potencial a que tengan mas hijos. Experimento EPR: Experimento imaginario que toma su nombre de las iniciales de sus inventores —Einstein, Boris Podolsky y Nathan Rosen—, en el que una particula unica se divide en dos, creando pares entrelazados. El experimento EPR, que se planteo en 1935 se realizo finalmente en 1982. 709

Factor de confusion: Factor que puede enganar a los investigadores llevandoles a relacionar una enfermedad con alguna causa aparente cuando de hecho no existe dicha relacion. Por ejemplo, hay estudios que han demostrado que los vegetarianos son mas sanos que los omnivoros. Aunque esto puede deberse a la dieta, un posible es el hecho de que los vegetarianos que han participado en tales estudios tienden a proceder de estratos socioeconomicos mas altos y tienen en cualquier caso un estilo de vida mas saludable. Fluctuaciones cuanticas del vacio: Se supone que un vacio esta completamente desprovisto de contenido, pero en realidad el Principio de Incertidumbre implica que esta lleno de energia, particulas y antiparticulas que constantemente aparecen y desaparecen de la nada. Los efectos de estas fluctuaciones 710

cuanticas del vacio han sido medidos en el laboratorio, y pueden relacionarse con la . Fondo cosmico de microondas: Casi 14.000 millones de anos despues del Big Bang, el Universo sigue conteniendo un debil remanente del calor y de la radiacion de proporciones colosales que se crearon durante su nacimiento. Hoy en dia puede detectarse como un constante de microondas por todo el cielo nocturno —siendo esto el remanente de la radiacion infrarroja (calor) cuya longitud de onda se ha desplazado hacia las microondas en la expansion cosmica. Frecuentismo: Concepto de las probabilidades como la frecuencia de acontecimientos a largo plazo. Por ejemplo, se dice que si la probabilidad de que salga al tirar al aire una moneda es del 50%, tendera a salir 711

en el 50% de las veces despues de tirar muchas veces la moneda. Fuerza de Casimir: Fuerza que aparece entre dos placas de metal que se acercan mucho, creada por energia cuantica del vacio que se hace mayor fuera de las placas que entre ellas y en las placas, empujando una contra otra. Predicha por vez primera en 1948, es demasiado debil para determinarla, excepto cuando los objetos estan separados entre si por una distancia que sea una fraccion del grosor de un pelo. Funcion de onda: Cantidad matematica que capta las propiedades fundamentales de una particula o de un conjunto de particulas. Cada particula tiene sus propias funciones de onda, pero si se preparan de forma correcta, dos o mas particulas pueden tener funciones de onda que se entrelacen entre si, de forma que 712

compartan la misma funcion de onda. Gas reticular: Forma de simulacion de la complejidad del flujo de un fluido —por ejemplo, la filtracion de un gas a traves de una roca— utilizando automatas celulares para imitar el comportamiento de las moleculas de gas. Las reglas simples que gobiernan los automatas celulares permiten resolver tales problemas, cuyas ecuaciones son notablemente complejas. Gen marcador: Gen utilizado exclusivamente para revelar que plantas modificadas geneticamente han adquirido satisfactoriamente un nuevo rasgo. Los genes marcadores que mas se utilizan son los correspondientes a la resistencia a los antibioticos, que permitieron que las plantas sobrevivieran al tratamiento con antibioticos si ya habian sido correctamente modificadas. La preocupacion por que la resistencia los antibioticos se transfiriera a los 713

seres humanos hizo que tales marcadores se retiraran. Gen Terminator: Se trata de un proyecto conjunto del Departamento de Agricultura de Estados Unidos y Delta and Pine Land. El gen Terminator se diseno para imitar una propiedad de muchas plantas hibridas convencionales que impide que las semillas de los vegetales modificados geneticamente se usen mas de una vez, manteniendo una calidad y un rendimiento elevados. Pese a estas ventajas, la polemica que suscito acabo con el proyecto en 1999. Heredabilidad: Determinacion del grado en que las diferencias en un rasgo particular se deben a factores geneticos. Por ejemplo, la heredabilidad del coeficiente intelectual es aproximadamente de 0,5, lo que implica que los efectos geneticos suponen cerca del 50% de la variabilidad del coeficiente intelectual entre las personas. Se 714

aplican cifras similares a las caracteristicas de la personalidad y al exito en la vida. Hipotesis de los Numeros Grandes: Idea de que la similitud de los numeros grandes —cerca de 1040— que surgen de ciertas combinaciones de propiedades basicas del Universo no es mera coincidencia, sino que refleja una conexion profunda entre la fisica cosmica y la fisica subatomica. Fue en su momento defendida por lumbreras como el fisico britanico Paul Dirac, galardonado con el Premio Nobel, pero hoy en dia esta hipotesis practicamente se ha abandonado. Hipotesis del origen multirregional: Principal rival de la teoria del origen africano (Out of Africa) como explicacion de los origenes del primer ser humano. Afirma que los miembros de H. erectus evolucionaron hacia H. sapiens cuando se asentaron despues de dejar Africa, hace 715

aproximadamente 1,8 millones de anos, en algunos casos despues de pasar por una fase neandertal. Homo erectus: Especie de seres humanos que abandonaron Africa y se diseminaron por Asia hace aproximadamente 1,8 millones de anos. Segun la hipotesis del origen africano, los que se quedaron en Africa se convirtieron al final en H. sapiens, y reemplazaron a H. erectus y sus descendientes en Europa y Asia. Segun la hipotesis multirregional, H. erectus evoluciono hacia H. sapiens en diversas zonas del mundo. Inflacion: Expansion explosiva del Universo momentos despues de su creacion, impulsada por la enorme cantidad de energia oscura que, al parecer, existia entonces. Aunque la inflacion resuelve algunos misterios cosmicos de otro modo desconcertantes, la explicacion de por que fue como fue constituye en si misma un 716

importante misterio. Inflacion caotica: Version de la Teoria de la Inflacion desarrollada por el cosmologo ruso Andrei Linde, que lleva a la creacion de una gran cantidad de regiones del Universo separadas, siendo posible la vida solo en algunas de ellas. Interferencia de particulas unicas: Extrano efecto observado por primera vez casi hace un siglo, en la que incluso fotones de luz o particulas subatomicas unicas muestran efectos de interferencia. Algunos fisicos creen que el efecto revela la existencia de innumerables universos paralelos, cuyas particulas interfieren con las de nuestro propio Universo. Invariancia de Lorentz: Propiedad de cualquier teoria, si debe ser coherente con la Relatividad, que permite que sus predicciones sean las mismas () para todos los observadores, independientemente de su 717

velocidad. Las leyes simples del movimiento no son invariantes de Lorentz. Inversion geomagnetica: Inversion subita del campo magnetico terrestre, intercambiandose los lugares de los polos magneticos norte y sur. Sus efectos se manifiestan en la roca fundida, desempenando un papel fundamental en la confirmacion de la deriva continental. La inversion mas reciente se produjo hace 250.000 anos; pero, pese a haber sido reconocida hace casi un siglo, siguen sin conocerse sus causas precisas. Juego de Kevin Bacon: Juego en el que se ponen a prueba los conocimientos de los aficionados a las peliculas, en el que uno de los participantes intenta relacionar un actor conocido con la estrella de Hollywood Kevin Bacon a traves del menor numero posible de intermediarios. Por ejemplo, Arnold Schwarzenegger puede relacionarse en un solo paso a traves de Colleen 718

Camp, que aparecio en El ultimo heroe americano y, con Bacon, en Atrapada. Juego de suma nula: Juego en el que cualquier resultado positivo del jugador se produce a expensas del resto de los jugadores, de modo que la suma total de todos los resultados, positivos y negativos, es siempre cero. Limite de Bekenstein: Cantidad maxima absoluta de informacion —expresada como — que puede almacenarse o transmitirse en cualquier region del espacio. Calculos aproximados sugieren que el limite es aproximadamente de 1070 bits por metro cuadrado —como referencia, los CD solo almacenan 1013 bits por metro cuadrado. Litosfera: Capa mas superficial de la Tierra, que incluye la corteza y la parte superior rigida del manto. Esta dividida en nueve 719

principales mas pequenas.

unas

catorce

placas

mas

Logica de predicados: Extension de las reglas ordinarias de la logica, que se centra en afirmaciones de tipo , para captar las relaciones entre conceptos y objetos. Se utiliza mucho para dar a los ordenadores la capacidad de razonar sobre situaciones complejas, por ejemplo, por que se debe dar un credito a alguien. Longitud de Planck: Escala en la que las nociones habituales de espacio y tiempo se rompen bajo los efectos cuanticos. Nos puede parecer que el espacio es liso y continuo, pero la teoria demuestra que si pudieramos observar en escalas de 10”35 metros (una escala tan pequena que los atomos parecerian tener el tamano de cumulos de galaxias), observariamos el espacio como algo mas semejante a un 720

oceano sacudido por una tormenta. Longitud de recorrido caracteristica: Numero medio de saltos que se necesitan para ir de una parte de una red a otra. Por ejemplo, el de las peliculas tiene una longitud de recorrido caracteristica de cuatro, lo que significa que, por termino medio, cualquier actor puede estar relacionado normalmente con cualquier otro a traves de otros tres actores solamente. Maquina de Von Neumann: Maquina programada con reglas que le permiten auto replicarse usando los componentes que hay a su alrededor. Estas maquinas, que toman su nombre del matematico hungaro-estadounidense Von Neumann, muestran que todos los procesos claves de la vida son posibles en una maquina cuya complejidad supere cierto nivel. Matriz de resultados: Tabla de valores que 721

muestran los resultados asociados a cada estrategia de juego de la que dispone el jugador. Memes: Equivalente cultural de los genes, que transmiten ideas o tecnicas entre las mentes. Se puede considerar que las modas, las religiones y los movimientos politicos se basan en memes que los ninos pueden de sus padres. : Tecnica matematica promovida por sir George Airy, astronomo real Victoriano, en la que los resultados de los datos de ensayos distintos pero similares se combinan para imitar el efecto de un unico ensayo de grandes proporciones. Metodos de lenguaje natural: Tecnicas que permiten que los seres humanos interactuen con ordenadores como si fueran humanos, usando el lenguaje ordinario en lugar de lenguajes de programacion especializados. Requiere que el 722

ordenador haga frente a las ambiguedades y la dependencia del contexto de las conversaciones ordinarias. Multiverso: El autentico , del que nuestro Universo constituye solo una region diminuta. El multiverso, de extension infinita, contiene todas las formas de universo concebibles, incluido un numero infinito de universos .como el nuestro. Sin embargo, la mayoria son totalmente distintos y contienen diferentes leyes de la fisica —practicamente todos ellos son incompatibles con la existencia de vida. NEO: Objetos cercanos a la Tierra (del ingles Near-Earth Objects), en forma de cometas y asteroides cuyas orbitas alrededor del Sol hacen que esten mas cerca de la Tierra de lo habitual (en un radio de unos 50 millones de kilometros). Empujados por la gravedad de los planetas, los 723

NEO pueden acabar en recorridos de colision con la Tierra, haciendo que sean el posible origen de catastrofes mundiales. Neutrinos: Particulas fantasmales cuya existencia fue predicha teoricamente en 1931, siendo descubiertos en 1959. Los neutrinos, que apenas interactuan con la materia, no tienen carga y, segun el Modelo Estandar, carecen de masa. En 1998, los cientificos anunciaron que habian encontrado pruebas de una masa que era aproximadamente una millonesima de la masa del electron: era la primera prueba de efectos mas alla del Modelo Estandar. No linealidad: Propiedad de algunos fenomenos —como el estado del tiempo o ir al trabajo— en los que pequenos cambios no siempre tienen consecuencias pequenas. Por ejemplo, un error de solo un minimo porcentaje en los datos del tiempo puede echar totalmente 724

por tierra una prediccion a largo plazo, mientras que remolonear en la cama 10 minutos puede hacer que se pierda el autobus y se llegue una hora tarde al trabajo. Ordenador universal: Dispositivo que puede realizar cualquier computacion concebible, desde la aritmetica al razonamiento logico. Se cree que es un requisito clave para cualquier sistema capaz de imitar la vida. Incluso el automata celular mas simple ha demostrado poseer la capacidad de realizar la computacion universal. Pangea: Vasto supercontinente formado hace unos 320 millones de anos por la colision de dos grandes areas de rocas continentales. Hace aproximadamente 200 millones de anos, Pangea se dividio de nuevo en dos: Laurasia en el norte, que finalmente formaria America y Europa, y Gondwana en el sur, que daria lugar a Africa, Sura-merica, India y la Antartida. 725

Pequeno mundo: Tipo de red cuyas conexiones son en parte regulares y en parte aleatorias. Normalmente, el resultado son montones de grupos estrechamente relacionados (debido a los vinculos regulares), a las que se puede llegar mediante una cantidad relativamente reducida de pasos gracias a los vinculos aleatorios. Principio Antropico: Idea de que la naturaleza de nuestro Universo se relaciona intimamente con la existencia de observadores — concretamente los seres humanos— en el. Principio Antropico debil: Version relativamente modesta del Principio Antropico, que fue identificada por primera vez por el fisico Brandon Carter (Universidad de Cambridge) y que es la que la mayoria de los cientificos estan dispuestos a aceptar. Segun el Principio Antropico debil, el hecho de que al menos parte del Universo contenga observadores plantea 726

limitaciones a como puede ser el Universo como un todo. Principio Antropico fuerte: Version todavia mas polemica del Principio Antropico, que establece que el Universo debe tener propiedades que permitan la aparicion de vida en algun momento de su historia. Para muchos cientificos, esto esta peligrosamente cerca de constituir una afirmacion de tipo religioso. Principio de Incertidumbre: Relacion entre ciertas propiedades de las particulas subatomicas —como su posicion y su velocidad— que implica que cuanto mayor es la certeza con la que se conoce una propiedad, menor es la certeza respecto a las demas. Se cree que la incertidumbre sobre el contenido de energia del espacio vacio es responsable de la . Probabilidad

posterior: 727

Probabilidades

actualizadas de que una teoria o una creencia sea verdadera, despues de tener en cuenta nuevas pruebas. Por ejemplo, las pruebas de deteccion del cancer de mama. Probabilidad previa: Probabilidades de que una teoria o creencia sea verdadera, antes de tener en cuenta nuevas pruebas. Por ejemplo, la estadistica demuestra que una mujer promedio tiene una probabilidad de uno entre cien de sufrir cancer de mama a lo largo de su vida. Por tanto, su probabilidad previa de padecer la enfermedad antes de realizar cualquier prueba es de uno entre cien. Prueba de Turing: Polemica prueba de la inteligencia de un ordenador que se basa en las ideas planteadas en 1950 por Alan Turing, pionero britanico de la ciencia computacional. Segun esta prueba, si se utiliza un ordenador y no se puede diferenciar entre sus respuestas y 728

las que se esperarian de un ser humano, entonces se puede considerar al ordenador como un ente . Quale: La experiencia subjetiva de, por ejemplo, la rojez o la suavidad de la lana o el sabor de los limones. Imposible de describir, aunque se considera esencial para el concepto de ser consciente, algunos filosofos niegan que exista algo como un quale (en plural, qualia). Quarks: Atrapados dentro de todas las particulas que sienten la fuerza nuclear fuerte — como protones y neutrones—, los quarks tienen seis , y las diferentes combinaciones de estos dan a sus particulas huespedes las propiedades que se observan. Hay particulas, conocidas como gluones, que impiden que los quarks se escapen; su sujecion aumenta cuanto mas se intentan alejar los quarks. 729

Razon de verosimilitud: Determinacion de la solidez de las pruebas que apoyan una teoria o creencia. Cuanto mas solida sea la prueba, mayor sera la razon de verosimilitud: por ejemplo, las pruebas de ADN pueden dar razones de verosimilitud de 100.000 o mas. Red aleatoria: Conjunto de objetos o de individuos que estan relacionados entre si de una forma completamente aleatoria (por ejemplo, los signos zodiacales de las personas que aparecen por orden alfabetico en el listin telefonico). Las conexiones aleatorias suelen suponer que sea necesario un pequeno numero de pasos para relacionar a cualquier persona con cualquier otra. Red regular: Conjunto de objetos o de individuos que estan relacionados entre si de una forma completamente regular (por ejemplo, conociendo solo al vecino de al lado). Normalmente hacen falta muchos pasos para 730

relacionar a una persona de con cualquier otra.

un

Redundancia: Bits extra en la comunicacion que aportan poca informacion adicional. Aunque aparentemente carece de utilidad, tal redundancia es importante para combatir los efectos del ruido. Por ejemplo, aunque las vocales son a menudo en ingles, incluirlas ayuda a impedir que los mensajes sean indescifrables. Resultado: Ganancia o perdida resultante de elegir una determinada estrategia para jugar un juego. A veces es sustituido por el orden de preferencia, por ejemplo siendo uno el mas favorecido, hasta cuatro en un juego de dos jugadores y doble estrategia. Seleccion de grupos: Concepto de que los rasgos que son perjudiciales para los individuos pueden seguir transmitiendose por la poblacion si 731

son beneficiosos para los demas individuos de un grupo. Este termino se invento para explicar como pueden desarrollarse determinados comportamientos, como el altruismo. La ausencia de un vinculo genetico claro implica que no se considere que la seleccion de grupos es muy eficaz en la transmision de tales rasgos. Seleccion por parentesco: Idea de que un rasgo que es perjudicial para los individuos puede seguir transmitiendose por una poblacion si beneficia a otros individuos con cierto grado de parentesco genetico. Por ejemplo, si una persona altruista muere mientras rescata a tres parientes cercanos, un grupo de genes del altruismo se ha perdido, pero otros tres grupos se han salvado, lo que supone una ganancia neta. Series temporales: Obtencion de datos que se remontan en el tiempo, a partir de los cuales puede extraerse una distribucion de valores 732

extremos. Por ejemplo, estudiando los registros historicos de los mayores niveles fluviales alcanzados en varios siglos, los encargados de la planificacion pueden estimar la altura de las defensas necesarias para proteger las casas de los peores excesos previsibles en los siguientes siglos. Sesgo y confusion: Dos efectos clave que pueden hacer que los investigadores medicos extraigan conclusiones erroneas de los ensayos medicos. El sesgo es una desviacion sistematica de los resultados de la verdad que esta causada, por ejemplo, por revistas que se niegan a publicar resultados negativos . La confusion es el efecto sobre el resultado de un ensayo de algun factor —por ejemplo el tabaquismo o el estatus social— que los investigadores no logran tener en cuenta cuando disenan los ensayos.

733

Sistemas expertos: Ordenadores programados para aprehender la capacidad de un experto humano y usar esa experiencia para realizar razonamientos usando la logica matematica. Las capacidades del experto humano se almacenan en la denominada , que el ordenador explota para llegar a sus conclusiones. Se utiliza en tareas como el diagnostico de enfermedades a partir de los sintomas. Supersimetria: Vinculo matematico entre los dos tipos basicos de particulas subatomicas: los fermiones (como el electron), a partir de los cuales se forma toda la materia, y los bosones (como el foton), que transmiten las fuerzas fundamentales. El descubrimiento, a principios de la decada de 1970, de esta relacion inesperada ha desempenado un papel clave en el desarrollo de una Teoria del Todo unificada.

734

Tabla rasa: Idea de que los seres humanos nacen sin rasgos innatos, de modo que su comportamiento, sus habilidades y su personalidad son por completo el resultado de la interaccion con su entorno. Teorema de Bell: Resultado matematico que encontro el fisico irlandes John Bell en 1964, que demuestra que el entrelazamiento produce mayor grado de correlacion entre particulas separadas que el que puede explicarse por el sentido comun. Teorema de la capacidad de informacion: Resultado clave de la Teoria de la Informacion probado por Shannon, que demuestra que la comunicacion supone siempre el compromiso entre enviar los mensajes rapidamente y garantizar que carezcan de errores. Teorema Minimax: Metodo para encontrar la mejor estrategia en juegos de suma nula con 735

dos jugadores. Suponiendo que ambos jugadores quieran jugar lo mejor posible, la estrategia mas racional a elegir es la que de el mejor resultado incluso en las peores circunstancias. Teoria de Cuerdas: Descripcion de las particulas y de las fuerzas que operan entre ellas basada en la idea de que las particulas no son meros puntos, sino que se parecen mas a diminutas de diez dimensiones cuyo tamano se acerca a la longitud de Planck. Cuando se combina con la idea de la supersimetria, las entidades resultantes se conocen como . Teoria Electrodebil: Primera unificacion satisfactoria de dos fuerzas fundamentales de la naturaleza: el electromagnetismo y la interaccion nuclear debil. Desarrollada durante la decada de 1960, es uno de los exitos mas espectaculares del Modelo Estandar. 736

Teoria del Espacio Global de Trabajo: Hipotesis sobre como funciona el cerebro, segun la cual existe un tipo de mental —el area de trabajo— en el que se reune la informacion recibida de otras partes independientes del cerebro que trabajan inconscientemente, La Teoria del Espacio Global de Trabajo fue propuesta en 1988 por el psicologo holandes Bernard Baars, del Instituto de Neurociencias en San Diego. Teoria de los genes y la cultura: Teoria de que los seres humanos se benefician de dos tipos de herencia: la herencia genetica y la cultural. Por ejemplo, nuestros ancestros, asi como adquirieron genes que les llevaron a hacer herramientas de piedra, tambien el conocimiento sobre como usar tales herramientas. Teoria de la Inflacion: Principal rival para 737

explicar la fuerza explosiva del Big Bang hace 14.000 millones de anos, que atribuye la expansion rapida a la denominada energia cuantica del vacio. Esta energia, que surge literalmente de la nada, actua como una forma de antigravedad, el Universo a partir de su tamano subatomico original. Teoria M: Principal candidata para recibir el titulo de Teoria del Todo. La Teoria M, que comenzo a adquirir importancia en 1995, parece ser la teoria principal, siendo las supercuerdas solo una parte de ella. La M suele hacer referencia a la , de la que las supercuerdas decadimensionales pueden considerarse como un simple . Teoria de los Multiples Mundos: Interpretacion de la Teoria Cuantica por la que las particulas subatomicas mantienen todos sus posibles estados cuando son observadas, en 738

lugar de deshacerse de todos salvo el que realmente se ve. Estos otros estados existen en universos paralelos al nuestro; su existencia se revela a traves de la famosa que se asocia a los intentos de determinar las propiedades precisas de los sistemas subatomicos. Teorias de Kaluza-Klein: Teorias que unifican las fuerzas y las particulas de la Naturaleza usando mas dimensiones espaciales aparte de las tres habituales. Los teoricos creen actualmente que la autentica Teoria del Todo sera una teoria de Kaluza-Klein con once dimensiones, de las que solo cuatro tienen el tamano suficiente para poder observarlas. Toxina Bt: Abreviatura de la toxina de Bacillus thurigiensis. Es una proteina mortal para ciertos insectos que destruyen las plantas, como las de algodon y maiz. Insertando el gen responsable 739

de crear la toxina en las plantas, estas adquieren su propio insecticida, disminuyendo drasticamente la necesidad de rociar las plantas con sustancias quimicas. Uniformitarismo: Idea sobre la historia de la Tierra —que planteo en el siglo XV III el geologo escoces James Hutton— de que los procesos que conforman hoy nuestro planeta, como la erosion y el vulcanis-mo, tambien tuvieron una importancia crucial en tiempos remotos. El uniformitarismo, retomado mas tarde por los geologos, afianzo la idea de que las catastrofes mundiales eran poco mas que supersticiones alarmantes. Valor en riesgo: Mayor perdida que es probable que afecte a una institucion financiera a lo largo de un periodo dado con cierta probabilidad. El valor en riesgo (VaR), una cuestion de gran importancia para las companias 740

aseguradoras, es ahora una aplicacion importante de la Teoria del Valor Extremo. Velocidad relativista: Velocidad de un objeto a la que los efectos de la Relatividad Especial se hacen significativos. Incluso para una nave espacial que viajara a 1.000.000 kilometros por hora, son despreciables, pero son cruciales para particulas que viajan a velocidades del 90-99% de la velocidad de la luz (casi 300.000 kilometros por segundo). Zona de subduccion: Region en la que una placa se desliza bajo otra creando una fisura oceanica.

741

Referencias bibliograficas

CAPITULO 1 - Blackmore, Susan, Conciousness: An Introduction, Odre & Stoughton, 2003. - Carter, Rita, Mapping the Mind, Weidenfeld & Nicolson, 1998. - Crick, Francis, La busqueda cientifica del alma: una revolucionaria hipotesis, Debate, 1994. - Norretranders, Torr, The User Illusion, Penguin, 1998. - Pinker, Steven, Como funciona la mente, Destino, 2004. - Velmans, Max, Understanding Conciousness, Roudedge, 2000.

742

CAPITULO 2 - Blass, Thomas, The Man who Shocked the World: The Life and Legacy of Stanley Milgram, Basic Books, 2004. - Strogatz, Steven, y Watts, Duncan, , Nature, vol. 393 (1998), pags. 440-442. - Watts, Duncan, Seis grados de separacion: la ciencia de las redes en la era del acceso, Paidos Iberica, 2006. - Small Worlds, Princeton University Press, 1999.

CAPITULO 3 - Brams, Steven J., Theory of Moves, Cambridge University Press, 1994. - Poundstone, William, El dilema del prisionero: John von Neumann, la teoria de juegos y la bomba, Alianza Editorial, 2005. - Taylor, Alan D., Mathematics and Politics: Strategy, Voting, Power and Proof, Springer, 1995.

CAPITULO 4 - Johnson, R. Colin, y Brown, Chappell, Cognizers: Neural Networks and Machines that Think, Wiley, 1988. - Newquist, H. P., The Brain Makers, Sams Publishing, 1994.

743

- Whitby, Blay, Artificial Intelligence: A Beginner’s Guide, Oneworld, 2003.

CAPITULO 5 - Frieden, Roy, Physics from Fisher Information, Cambridge University Press, 1999. - Smolin, Lee, Three Roads to Quantum Gravity, Weidenfeld and Nicol-son, 2001. - http://cm.bell-labs.com/cm/ms/what/shannonday/ - http://researchnews.osu.edu/archive/fuzzball.htm - www.lucent.com/minds/infotheo CAPITULO 6 - McHughen, Alan, A Consumer s Guide to Genetically Modified Food, Oxford University Press, 2000. - Nestle, Marion, Safe Food, University of California Press, 2003. - Nottingham, Stephen, Come tus genes: como los alimentos transgenicos estan en nuestra dieta, Paidos Iberica, 2004. - www.bbc.co.uk/science/genes/gm_genie/ - www.colostate.edu/programs/lifesciences/TransgenicCrops CAPITULO 7 - Leakey, Richard, El origen de la humanidad, Debate, 2000.

744

- Reader, John, Missing Links: The Hunt for Earliest Man, Penguin, 1988. - Stringer, Cris, y McKie, Robin, African Exodus, Owl Books, 1998. CAPITULO 8 - Plnker, Steven, La tabla rasa: la negacion moderna de la naturaleza humana, Paidos Iberica, 2003. - Ridley, Matt, Nature via Nurture, HarperCollins, 2003. - Wright Gillham, Nicholas, A Life of Sir Francis Galton, Oxford University Press, 2001. - http://www.psy.fsu.edu/history/wnk/ape.html CAPITULO 9 - Brown, Andrew, The Darwin Wars, Simon & Schuster, 1999. - Dawkins, Richard, El gen egoista, Salvat Editores, 2003. - Evans, Dylan, y Selina, Howard, Introducing Evolution, Icon, 2001. CAPITULO 10 - Clube, Victor, y Napier, Bill, El invierno cosmico, Alianza Editorial, 1995. - Fortey, Richard, La vida: una biografia no autorizada, Taurus, 1999.

745

- Huggett, Richard, Catastrophism: Killer Asteroids in the Making of the Natural World, Verso, 1997. CAPITULO 11 - Fortey, Richard, The Earth: An Intimate History, Perennial, 2005. - Lewis, Cherry, The Dating Game: One Man’s Search for the Age of the Earth, Cambridge University Press, 2000. - Stanley, Steven M., Earth System History, W. H. Freeman, 1999. CAPITULO 12 - Howson, Colin, y Urbach, Peter, Scientific Reasoning: The Bayesian Approach, Open Court, 1993. - Matthews, Robert, , en Rethinking Risk and the Precautionary Principle, editado por Julian Morris, Oxford, 2000. Disponible en linea en www.tinynrl.com/4atbd - , en Journal of Statistical Planning & Inference, vol. 94, pags. 43-58 (2001). Disponible en linea en www.tinyurl.com/aympu CAPITULO 13 - Gleick, James, Caos, la creacion de una ciencia, Seix Barral,

746

1998. - Lorenz, Edward, La esencia del caos: un modelo cientifico para la disparidad de la naturaleza, Debate, 1995. - Peterson, Ivars, El reloj de Newton: caos en el Sistema Solar, Alianza Editorial, 1995. CAPITULO 14 - Levy, Steven, Artificial Life: The Quest for a New Creation, Penguin, 1993. - Wolfram, Stephen, A New Kind of Science, Wolfram Publishing, 2002. Disponible en linea en www.wolframscience.com/nksonline/toc.html Se pueden consultar varias simulaciones en linea en www.collidoscope.com/modernca/ CAPITULO 15 - Flnkenstadt, Barbel, y Rootzen, Holger, Extreme Values in finance, Telecommunications and the Environment , Chapman & Hall, 2003. - Kotz, Samuel, y Nadarajah, Saralees, Extreme Value Distributions, World Scientific, 2000. - http://www.nottingham.ac.uk/~lizkd/ewar.doc http://www.mathworld.wolfram.com/ExtremeValueDistribution.html - http://www.library.adelaide.edu.au/digitised/fisher/63.pdf

747

CAPITULO 16 - www.people.virginia.edu/~rjh9u/scurvy.html - www.cochrane.org - www.nice.org.uk - www.cebm.net/background.asp CAPITULO 17 - www.epidemiology.ch/history/ - www.framingham.com/heart/ - www.ph.ucla.edu/epi/snow.html CAPITULO 18 - Glulini, Domenico, Special Relativity: A First Encounter, Oxford University Press, 2005. - Pais, Abraham, El senor es sutil: la ciencia y la vida de Albert Einstein, Ariel, 1984. - Stachel, John (ed.), Einstein 1905: un ano milagroso. Cinco articulos que cambiaron la fisica, Critica, 2001. - . Demostraciones en linea de extranos efectos opticos de la Relatividad Especial, Dr. Antony Searle y colaboradores de la Australian National University: http://www.anu.edu.au/Physics/Searle/ CAPITULO 19

748

- Aczel, Amir, Entrelazamiento: el mayor misterio de la fisica, Critica, 2004. - Al-Khalili, Tim, Quantum: A Guide for the Perplexed, Weidenfeld & Nicolson, 2003. - Bell, John, Speakable and Unspeakable in Quantum Mechanics, Cambridge University Press, 1989. - Davies, Paul, Dios y la nueva fisica, Salvat Editores, 1988. - http://www.auqntum.univie.ac.at/ - http://www.plato.stanford.edu/entries/qt-entangle/ CAPITULO 20 - Close, Frank, et al., The Particle Explosion, Oxford University Press, 1994. - Davies, Paul, Dios y la nueva fisica, Salvat Editores, 1988. - Lawrie, Ian, A Unified Grand Tour of Theoretical Physics, Adam Hil-ger, 1990. - http://www.particleadventure.org/particleadventure/ - http://www.cern.ch/ - http://www2.slac.stanford.edu/wc/theory/model.html CAPITULO 21 - Crease, Robert, y Mann, Charles, The Second Creation, Quartet, 1997. - Greene, Brian, El tejido del cosmos: espacio, tiempo y la textura de la realidad, Critica, 2006. - Smolin, Lee, Three Roads to Quantum Gravity, Weidenfeld &

749

Nicol-son, 2000. CAPITULO 22 - Coles, Peter, Cosmology: A Very Short Introduction, Oxford University Press, 2001. - Greene, Brian, El tejido del cosmos: espacio, tiempo y la textura de la realidad, Critica, 2006. - Hawking, Stephen, El Universo en una cascara de nuez, Critica, 2002. - Peacock, John A., Cosmological Physics, Cambridge University Press, 1999. CAPITULO 23 - Barrow, John D., Conciousness: An Introduction, Odre & Stoughton, 2003. - Da Vies, Paul, Los ultimos tres minutos: conjeturas acerca del destino final del Universo, Debate, 2001. - Rees, Martin, Seis numeros nada mas: las fuerzas profundas que ordenan el Universo, Debate, 2001. CAPITULO 24 - Al-Khalili, Tim, Quantum: A Guide for the Perplexed, Weidenfeld & Nicolson, 2003. - Deutsch, David, La estructura de la realidad, Anagrama, 1999.

750

- Le Poidevin, Robin, Travels in Four Dimensions, Oxford University Press, 2004. CAPITULO 25 - Barrow, John, y Tipler, Frank, The Anthropic Cosmological Principle, Oxford University Press, 1988. - Da Vies, Paul, El Universo accidental, Salvat Editores, 1986. - Rees, Martin, Seis numeros nada mas: las fuerzas profundas que ordenan el Universo, Debate, 2001. - Smolin, Lee, The Life of the Cosmos, Oxford University Press, 1999.

751

Indice onomastico (Numeros de pagina del libro impreso) Aarsen, Karin: 178. Agustin de Hipona, San: 26. Airy, George: 301. Alcubierre, Miguel: 209, 212. Alpher, Ralph: 255. Alvarez, Luis: 122, 126. Ambrose, Stanley: 94. Amelino-Camelia, Giovanni: 242, 243. Aravind, Padmanabhan: 221. Aristoteles: 248, 269. Aspect, Alain: 213, 214, 216, 217, 220, 221. Avery, Oswald: 64, 81. Baars, Bernard: 22, 26, 305. Bacon, Francis: 129, 135. Barringer, Daniel: 121, 125. Bayes, Thomas: 139-141, 143-148. Beal, William James: 73, 81.

752

Bekenstein, Jacob: 66, 69, 300. Bell, John: 216, 217, 220, 221, 305. Bennet, Charles: 222. Berger, Hans: 19,20, 25, 26. Bernoulli, Nicolas: 171, 177. Berrou, Claude: 68. Bethe, Hans: 208, 212. Biot, Jean: 120. Blackmore, Susan: 113. Bohr, Niels: 220, 271. Bondi, Hermann: 250, 255. Borel, Emile: 41, 47. Boyle, Robert: 102, 286. Brams, Steven: 45, 46, 48. Burbidge, Geoffrey: 254. Burks, Arthur: 162. Burt, Cyril: 100, 103. Carroll, Sean: 254. Carson, Rachel: 76. Carter, Brandon: 283, 287, 302. Casimir, Hendrick: 260, 265, 266, 297. Cavalli-Sforza, Luigi: 110, 113. Chadwick, Edwin: 194, 199. Chalmers, David: 295. Chalmers, Ian: 186. Chen, Jennifer: 254. Chuang, Isaac: 273, 276. Cochrane. Archie: 189, 190. Cohen, Harold: 52, 60.

753

Colman, Andrew: 44, 46. Conway, John Horton: 162-164, 167. Crick, Francis: 113. Cuvier, Georges: 119, 120,125. Dart, Raymond: 89, 94. Darwin, Charles: 85, 86, 88, 90, 92, 94, 97, 98, 105-109, 111, 113, 160, 278, 283. Darwin, Leonard: 98. Dawkins, Richard: 105, 106, 109-113. Descartes, Rene: 18, 26, 294. Deutsch, David: 217, 221, 272, 273, 275,276. Dicke, Robert: 261, 281-283, 286. Dingle, Herbert: 209, 210. Dirac, Paul: 208, 212, 225, 232, 280283,286,287,298. Ditto, William: 156,158. Doll, Richard: 196, 199, 200. Dubois, Eugene: 88, 90, 94. Einstein, Albert: 65, 66, 203-217 , 220, 221, 224, 225, 235, 237241, 243, 247-250, 253-255, 258-261, 263-265, 269, 270, 275, 277, 279, 293, 296. Ekert, Artur: 218, 219. Embrechts, Paul: 173. Erdos, Paul: 29, 36. Essen, Louis: 209. Everett, Hugh III: 271, 275. Faraday, Michael: 236, 237,243. Fastovsky, David: 123. Feldman, Marc: 110, 113.

754

Fermi, Enrico: 209. Fisher, Ronald. A.: 147, 148, 171, 177, 184,189. FitzGerald, George Francis: 205, 211, 293. Fredkin, Ed: 163. Frieden, Roy: 66, 67, 69. Friedmann, Alexander: 249, 250, 254. Frisch, Uriel: 164, 167. Gabor, Denis: 166. Galilei, Galileo: 203, 211. Galton, Fjfancis: 97, 98, 102, 103, 109, 296. Gamow, George: 251, 255. Gauss, Carl: 171, 175, 176, 293. Gautama, Siddartha: 18, 25. Gell-Mann, Murray: 226, 227, 231, 232. Georgi, Howard: 232, 239. Gilbert, Grove: 121. Gini, Carrodo: 148. Glashow, Sheldon: 232, 238. Glass, Gene: 189. Glavieux, Alain: 68. Gleik, James: 158. Gnedenko, Boris: 172. Gold, Thomas: 250, 255. Goldbach, Christian: 57. Good, Jack: 142. Gordon, Richard: 182. Green, Michael: 240,243. Guare, John: 31, 36. Gumbel, Emil: 172, 177.

755

Guth, Alan: 155, 260, 261, 265, 284, 287. Gyllensten, Ulf: 94. Haan, Laurens de: 173, 175, 178. Haldane, J. B. S.: 108. Hall, James: 120. Halley, Edmond: 119, 125. Hamerhoff, Stuart: 23. Hamilton, William: 108, 109, 113. Hanna, Keith: 57. Harlow, Harry: 99, 100, 103. Harris, Judith Rich: 101, 104. Hawking, Stephen: 67 , 69, 262 , 263, 265. Heffernan, Janet: 176. Heisenberg, Werner: 215, 260, 264, 265. Henneberg, Maciej: 92. Herman, Robert: 255. Hess, Harry: 132,133, 135. Higgs, Peter: 227, 228, 230, 232. Hill, Austin Bradford: 185, 189, 196, 199, 200. Holmes, Arthur: 131, 132, 135. Hooft, Gerardus: 232. Hopfield, John: 56, 60. Howard, Nigel: 45, 48. Hoyle, Fred: 250, 251, 253-255, 281, 283,286. Hubble, Edwin: 249-251, 255, 265, 286, 293. Hume, David: 205. Hutton, James: 117, 120, 125,306. James, William: 19, 26.

756

Jeffreys, Harold: 148. Johannsen, Wilhelm: 113. Kaluza, Theodor: 237, 238, 243, 306. Karman, Mor: 166. Kaufmann, Walter: 211. Keller, Gerta: 123. Kellogg, Winthrop: 99, 103. Kirshner, Robert: 257, 258, 262. Klein, Oskar: 237, 238, 306. Kleinfeld, Judith: 31. Kochen, Manfred: 30. Kogut, Bruce: 34. Kornhuber, Hans: 21. Kusky, Timothy: 132. Lamoreaux, Steve: 266. Lampa, Anton: 210. Lane-Claypon, Janet Elizabeth: 195, 196, 199. Langton, Christopher: 164, 167. Laplace, Pierre-Simon: 141, 147. Laskar, Jaques: 158. Laubenfels, M. W.: 126. Laurer, George: 69. Leakey, Louis: 90. Leakey, Mary: 90. Leakey, Richard: 90, Leibovici, Leonard: 143. Lemaitre, Georges: 249, 250, 255. Lenat, Douglas: 57, 58, 60. Libet, Benjamin: 20-22, 26.

757

Lind, James: 183, 184, 188, 189. Linde, Andrei: 255, 274, 284, 287, 299. Locke, John: 18, 26, 97, 102, 103. Lorentz, Hendrik: 205, 211, 299. Lorenz, Ed: 150-152, 156, 157. Lucrecio: 268, 270, 275. Lyell, Charles: 117, 120, 125. Mach, Ernst: 205. Marie, Mileva: 206. Mathur, Samir: 67, 69. Matthews, Drummond: 132, 135. Maupertuis, Pierre: 68. Maxwell, James Clerk: 205-207, 211, 235-239,243. May, Robert: 157. Mazur, Stanislaw: 159, 161, 166. McCarthy, John: 59. McCulloch, Warren: 53, 59. Mendel, Gregor: 107,113. Merriam, Tom: 59. Michelson, Albert: 205 , 207 , 211, 293. Milgram, Stanley: 30,31, 36, 37. Minsky, Marvin: 53-56,59, 60. Mochen, Manfred: 36. Moivre, Abraham de: 176. Morgenstern, Oscar: 42, 47. Morley, Edward: 205, 207, 211, 293. Narlikar, Jayant: 254. Nash, John: 39, 42-44, 46-48, 295. Newton, Isaac: 66, 118, 119, 160, 204, 216, 230, 248,257-259,

758

278. Neyman, Jerzy: 148. Nimmo, Andy: 275. Nininger, Harvey: 121, 126. Nuttall, George: 88, 91, 94. Ormerod, Paul: 155. Orrel, David: 153, 154. Ortelius, Abraham: 128,135. Packard, Norman: 164, 167. Panum, Peter: 194, 199. Papert, Seymour: 55,56, 60. Pasteur, Louis: 194. Pearson, Egon: 148. Penrose, Roger: 23, 210, 211. Penzias, Arno: 255. Perlmutter, Saul: 263. Pitts, Walter: 53, 59. Planck, Max: 66, 243, 300, 305. Pocock, Stuart: 144. Podolsky, Boris: 215, 296. Polzik, Eugene: 219, 222. Pott, Percivall: 193,199. Preskill, John: 69. Press, William: 279. Price, George: 109. Ramsey, Frank: 147, 148. Rapoport, Anatole: 28, 36. Rees, Martin: 275, 284. Renyi, Alfred: 29, 36.

759

Riess, Adam: 262. Ritchie, Graeme: 57. Robinson, Michael: 177. Rosen, Nathan: 215, 296. Rosenblatt, Frank: 54,55, 59. Rubbia, Carlo: 223, 224, 232. Rutherford, Ernest: 209. Sackett, David: 189. Salam, Abdus: 228, 232, 238. Schell, Jeff, 81. Scherk, Joel: 243. Schrodinger, Erwin: 215, 221, 271, 275. Schwarz, John: 240, 243. Scotese, Christopher: 133. Shannon, Claude: 61-64, 68, 292, 305. Simon, Herbert: 54,57,59. Sitter, Willem de: 249. Skinner, B. F.: 99. Slipher, Vesto: 249. Smith, John Maynard: 44, 47. Smolin, Lee: 284, 285, 287. Snider-Pellegrini, Antonio: 129, 135. Snow, John: 194, 195, 198, 199. Soddy, Frederick: 209. Sol, Daniel: 92. Sola Pool, Ithiel de: 30,36. Spector, Tim: 96. Spencer, Herbert: 97, 103. Spiegelhalter, David: 144.

760

Spinoza, Baruch: 18, 19. Stanley, Eugene: 65, 69. Stoneking, Mark: 94. Strogatz, Steve: 27, 32-34, 37. Szilard, Leo: 165. Taylor, Frank: 129, 135, 271, 272. Taylor, Geoffrey Ingram: 267, 268, 275. Tawn, Jonathan: 176, 177. Teller, Edward: 166, 282. Terrell, James: 210, 211. Thomson, Joseph: 268. Thome, Kip: 69. Tippett, L. H. C.: 171, 177. Toffoli, Tommaso: 163, 167. Tonry, John: 266. Tukey, John: 68, 292. Turing, Alan: 51-53, 57, 59, 142, 148, 303. Ulam, Stanislaw: 159,161,162,166. Van der Meer, Simon: 224. Van Nieuwenhuizen, Peter: 243. Vine, Fred: 132. Von Karman, Theodore: 166. Von Neumann, John: 39, 41, 42, 44-47, 159,161-163,165167,300. Waldegrave, James: 40, 41, 47. Walker, Evan: 206. Walter, Gordon: 34. Wallace, Alfred Russel: 278, 286. Watson, James: 113,293.

761

Watson, John B.: 26, 99, 103. Watts, Duncan: 27, 32-34, 37. Wegener, Alfred: 127-132, 134, 135. Weinberg, Steven: 228, 232, 238, 243, 262, 265. Weizenbaum, Joseph: 57, 58. Whipple, Arthur: 154. Whiston, William: 119. Wigner, Eugene: 166. Williams, George C.: 109, 113. Wilson, Allan: 91, 94. Wilson, Edward O.: 101, 103,104. Wilson, Robert: 255. Wisdom, Jack: 156, 157. Witten, Edward: 240, 241, 243. Wolfram, Stephen: 159, 160, 164-167. Wundt, Wilhelm: 19, 23, 26. Wynne-Edwards, Vero: 107, 108, 113. Yorke, James: 152, 157. Yukawa, Hideki: 226, 227, 232. Zanette, Damian: 35, 37. Zeilinger, Anton: 218,219, 222. Zel’dovich, Yakov: 263. Zweig, George: 227,232

762

Índice Introducción NOSOTROS Y LOS OTROS 1 2 3 HACER LO IMPOSIBLE 4 5 6 VIDA 7 8 9 763

9 18 19 47 77 103 104 129 153 184 185 214 240

10 11 MATEMÁTICAS QUE CUENTAN 12 13 14 15 EN LA SALUD Y EN LA ENFERMEDAD 16 17 LA FÍSICA DE LA REALIDAD 18 19 20 764

265 291 315 316 343 369 394 420 421 448 475 476 503 529

21 EL UNIVERSO Y NUESTRO LUGAR EN ÉL 22 23 24 25 Y después, ¿qué? Glosario Referencias bibliográficas Indice onomástico

765

559 584 585 609 634 660 690 692 742 752