DogmaCero 4 Julio Agosto 2013

DOGMACERO Número 4 | Julio-Agosto 2013 HORIZONTE ALTERNATIVO Xavier Bartlett / David Álvarez ENTREVISTA A LLUÍS BOTI

Views 124 Downloads 4 File size 4MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

DOGMACERO

Número 4 | Julio-Agosto 2013

HORIZONTE ALTERNATIVO

Xavier Bartlett / David Álvarez

ENTREVISTA A LLUÍS BOTINAS:

“El SIDA fue el primer dogma mundial de terror” Rupert Sheldrake

La variabilidad de las constantes fundamentales: el espejismo de lo inmutable David Pratt

Conciencia, causalidad y física cuántica Henry H. Bauer

Anomalías y sorpresas: las grietas del paradigma científico

También en este número: Wilhem historia de una ocultación (II) DogmaCReich: ero 1 El disco de Festos: ¿Tan sólo un juego? - Sobre el origen del hombre (II) No Identificado: intentando comprender lo absurdo

Contenido

DogmaCero Publicación bimensual NÚMERO 4 JULIO-AGOSTO 2013 EDITOR David Álvarez EDITOR ADJUNTO Xavier Bartlett REDACCIÓN Daniel Cros Eduard Pi Artur Sala COLABORADORES Nacho Ares, Henry Bauer, Robert Bauval, Andrew Collins, Philip Coppens, Scott Corrales, Scott Creighton, Steven Greer, Graham Hancock, Jan Peter de Jong, Nick Pope, Máximo Sandín, Laird Scranton, Rupert Sheldrake, David Pratt CORRESPONSALES Scott Corrales (U.S.A.) Raul Nuñez II.EE. (Chile) CEFORA (Argentina) Contacto [email protected] DOGMACERO es una publicación independiente, editada sin ánimo de lucro y que se distribuye bajo licencia Creative Commons 3.0 que autoriza la copia, reproducción y distribución del texto bajo estas cláusulas: no se permite un uso comercial del texto, se ha de citar el autor y la fuente original y no se pueden hacer obras derivadas del texto. Rogamos que nos comuniquen por correo electrónico la reproducción de cualquiera de los contenidos de esta publicación.

http://www.dogmacero.org

Portada

www.photoexpress.com

3

Editorial

4

Rupert Sheldrake

La variabilidad de las constantes fundamentales: el espejismo de lo inmutable

David Pratt

Conciencia, causalidad y física cuántica

32

Artur Sala

20

Wilhelm Reich: historia de una ocultación (II)

Xavier Bartlett y David Alvarez

56

ENTREVISTA A LLUIS BOTINAS: “El SIDA fue el primer dogma mundial de terror”

68

Máximo Sandin

Henry H. Bauer

Anomalías y sorpresas: las grietas del paradigma científico

74

Sobre el origen del hombre (II)

90

Phillip Coppens

El disco de Festos: ¿Tan sólo un juego?

Marcelino Requejo

“No Identificados”: intentando comprender lo absurdo

DogmaCero 2

96

Editorial

Hay ocasiones en las que la realidad supera la ficción. Sé que es una frase recurrente pero no se me ocurre otra mejor para ilustrar lo que puede estar sucediendo con una enfermedad terrible como es el SIDA… una enfermedad que, tal vez, no es más que un montaje. O, al menos, es lo que se desprende de la entrevista a Lluís Botinas, presidente de la asociación Plural-21 que publicamos en este número y que alumbra una realidad siniestra: la existencia de un engaño a escala mundial. Porque, hasta ahora, nadie ha demostrado que el supuesto VIH - que según la medicina oficial es el causante de esa “enfermedad”- exista, ya que nunca ha sido aislado. Además, según Botinas, los realmente inmunodeficientes jamás podrán dar positivo en un test de SIDA... ¿Increíble? Reconozco que a mí me lo pareció hasta que entrevistamos al Sr. Botinas. Posteriormente, leí su libro “Desmontar el SIDA” y me lancé a la búsqueda de información por internet y eso acabó para mí con un dogma largamente elaborado y cuya consecuencia inmediata es que algunos laboratorios farmacéuticos obtengan beneficios millonarios a costa del sufrimiento y del miedo de miles de seres humanos. La polémica está servida. Como polémicos están llamados a ser los planteamientos que nos presenta el bioquímico Rupert Sheldrake (que, por cierto, hace poco ha publicado en español su obra “El espejismo de la ciencia”, Editorial Kairós); el investigador David Pratt, que en su magnífico artículo nos introduce en la relación entre mente, conciencia y física cuántica; el profesor y antiguo editor jefe del “Journal of Scientific Exploration” Henry H. Bauer que revisa con maestría aquellas anomalías que la tozuda realidad nos descubre y que devienen en auténticas grietas del paradigma científico. Todos ellos, en sus artículos cuestionan los dogmas científicos “desde dentro” con argumentos que pueden ser compartidos o criticados pero a los que no se les puede negar su total coherencia. Maximo Sandín y Artur Sala confirman en la segunda parte de sus sendos artículos lo que ya descubrimos en el anterior número de DogmaCero: que, cada cual en su campo, son dos trabajos de auténtica referencia, de obligada lectura para todas aquellas mentes inquietas pero rigurosas. Finalmente, pero no por ello el último, el investigador gallego Marcelino Requejo nos presenta una arriesgada pero interesante hipótesis que intenta aportar un poco de luz sobre el origen e intenciones (si es que las tienen) de los “No identificados”. Requejo es de esa rara especie de investigadores de campo que tienen contacto directo y de primera mano con este sinuoso pero real fenómeno. Ese es uno de sus principales méritos.

Seguimos con nuestro esfuerzo de aportar elementos para un debate sereno, riguroso y documentado que ayude a ampliar un conocimiento que algunos estamentos quieren secuestrar. Esperamos seguir contando, como hasta ahora, con el apoyo de nuestros lectores. Gracias a todos por estar. David Alvarez Planas [email protected]

Dedicado a la memoria de Montserrat Planas, esté donde esté, cuyo recuerdo y ejemplo permanecerán siempre conmigo. In Memoriam.

Desde Dogmacero intentamos ofrecer una visión alternativa de la historia y la sociedad, tanto antigua como contemporánea. La dirección de Dogmacero no se identifica necesariamente ni con el contenido de los artículos publicados ni con la opinión vertida en ellos por sus autores. Si desea suscribirse a DOGMACERO envíe un correo con SUBSCRIBE en el asunto a [email protected] Si no desea recbir DOGMACERO, envíe un correo con UNSUBSCRIBE en el asunto a [email protected]

DogmaCero

3

La variabilidad de las constantes fundamentales: el espejismo de lo inmutable Rupert Sheldrake

Rupert Sheldrake (Newark-onTrent, 1942) es un científico británico, licenciado en Bioquímica por la Universidad de Cambridge. Fue investigador en la Royal Society, luego trabajó en investigación biológica en la India y actualmente es miembro del Institute of Noetic Sciences. Sheldrake es sin duda una de las figuras más destacadas de la ciencia de finales del siglo XX y principios del XXI, aunque sus posiciones, muchas veces enfrentadas al estamento académico y al paradigma actual, le han apartado de un mayor reconocimiento.

DogmaCero 4

L

as “constantes físicas” son números utilizados por los científicos en sus cálculos. A diferencia de las constantes de las matemáticas, como ¼, los valores de las constantes de la naturaleza no se pueden calcular a partir de primeros principios, sino que dependen de las mediciones de laboratorio. Como su nombre indica, se supone que las llamadas constantes físicas son inmutables; esto es, se cree que reflejan una constancia fundamental de la naturaleza. En este artículo analizo cómo han cambiado de hecho los valores de las constantes físicas fundamentales en los últimos decenios, y sugiero cómo se puede investigar más a fondo la naturaleza de estos cambios. Hay muchas constantes que figuran en los manuales de física y química, como los puntos de fusión y puntos de ebullición de miles de productos químicos, y ocupan cientos de páginas: por ejemplo, el punto de ebullición del alcohol etílico es 78,5° C a temperatura y presión normales, y su punto de congelación es -117,3 ° C. Sin embargo, algunas constantes son más fundamentales que otras. La siguiente lista ofrece las siete que generalmente se considera como las verdaderamente fundamentales. Las constantes fundamentales Cantidad fundamental Símbolo c Velocidad de la luz e Carga elemental me Masa del electrón mp Masa del protón Na Constante de Avogadro h Constante de Planck G Constante universal gravitacional k Constante de Boltzmann

Todas estas constantes se expresan en términos de unidades; por ejemplo, la velocidad de la luz se expresa en términos de

metros por segundo. Si las unidades cambian, también lo harán las constantes. Y las unidades dependen (arbitrariamente) de las definiciones que pueden cambiar de vez en cuando: el metro, por ejemplo, se definió originalmente en 1790 por un decreto de la Asamblea Nacional francesa como la diezmillonésima parte del cuadrante del meridiano terrestre que pasa por París. El sistema métrico entero se basó en el metro y se impuso por la ley. Pero las medidas originales de la circunferencia de la tierra resultaron ser erróneas. El metro se definió luego, en 1799, en términos de una barra estándar guardada en Francia bajo supervisión oficial. Ya en 1960, el metro fue redefinido en función de la longitud de onda de la luz emitida por los átomos de criptón, y en 1983 se redefinió nuevamente en términos de la velocidad de la luz misma, como la longitud de la trayectoria recorrida por la luz en 1/299792458 de segundo.

Así como se producen alteraciones debido al cambio de unidades, los valores oficiales de las constantes fundamentales varían de vez en cuando a medida que se realizan nuevas mediciones, ajustadas continuamente por expertos y comisiones internacionales. Los valores antiguos son sustituidos por otros nuevos, basados en los últimos “mejores valores” obtenidos en los laboratorios de todo el mundo. A continuación, considero cuatro ejemplos: la constante gravitacional (G), la velocidad de la luz, la constante de Planck, y también la constante de estructura fina α, que se deriva de la carga del electrón, la velocidad de la luz y la constante de Planck. Los “mejores valores” son de por sí el resultado de una considerable selección. En primer lugar, los experimentadores tienden a rechazar los datos inesperados sobre la base de que deben ser errores. En segundo lugar, después de haber eliminado las mediciones más desviadas, las variaciones dentro de un determinado laboratorio se suavizan por el promedio de los valores ob-

DogmaCero

5

tenidos en diferentes momentos, y el valor final se somete a continuación a una serie de correcciones algo arbitrarias. Por último, los resultados de los diferentes laboratorios de todo el mundo son seleccionados, ajustados, y promediados para obtener el último valor oficial.

La fe en las verdades eternas

poder discutir este tema, es preciso referirnos a uno de los supuestos más fundamentales de la ciencia tal como la conocemos: la fe en la uniformidad de la naturaleza. Para el creyente comprometido, estas preguntas no tienen sentido. Las constantes deben ser constantes.

La mayoría de las constantes se han medido sólo en esta pequeña región del univerEn la práctica, como vemos, los valores de so desde hace algunas décadas, y las medilas constantes cambian. Pero, en teoría, se das reales han variado de forma errática. supone que deben ser inmutables. El con- La idea de que todas las constantes son las flicto entre la teoría y la realidad empírica mismas siempre y en todas partes no consse dejó de lado por lo general sin discusión, tituye una extrapolación de los datos. Si se porque se supone que todas las variaciones tratara de una extrapolación sería escanse deben a errores experimentales, y se su- daloso. Los valores de las constantes que pone también que los valores más recientes se han medido de forma efectiva en el planeta han cambiado considerablemente en son los mejores. los últimos cincuenta años. Asumir que no Pero ¿qué ocurre si las constantes cambian han cambiado en quince mil millones años realmente? ¿Y si la naturaleza subyacente en cualquier parte del universo va mucho de la naturaleza cambia? Antes incluso de más allá de una escasa evidencia. El hecho de que esta suposición sea tan poco cuestionada, que se da fácilmente por sentada, muestra la fuerza de la fe científica en las verdades eternas. Según la creencia tradicional de la ciencia, todo está regido por leyes fijas y constantes eternas. Las leyes de la naturaleza son las mismas en todo momento y en todo lugar. De hecho trascienden el espacio y el tiempo. Se parecen más a las ideas eternas –en el sentido de la filosofía platónica– que a las cosas en evolución. No están hechas de materia, energía, campos, espacio o tiempo; no están hechas de nada. En pocas palabras, son inmateriales y no físicas. Como las ideas platónicas, subyacen en todos los fenómenos como su razón oculta o logos, que trasciende el espacio y el tiempo.

Albert Einstein

Por supuesto, todo el mundo está de acuerdo en que las leyes de la naturaleza, formuladas por los científicos cambian de vez en cuando, dado que las viejas teorías son parcial o completamente sustituidas por otras

DogmaCero 6

nuevas. Por ejemplo, la teoría de Newton de la gravitación, que depende de las fuerzas que actúan a distancia en el tiempo y espacio absolutos, fue reemplazada por la teoría de Einstein del campo gravitatorio compuesto por curvaturas del espacio-tiempo. Sin embargo, tanto Newton como Einstein comparten la fe platónica de que, bajo las cambiantes teorías de las ciencias naturales, existen verdaderas leyes eternas, universales e inmutables. Y tampoco cuestionaron la constancia de las constantes: de hecho ambos concedieron un gran prestigio a esta hipótesis: Newton, a través de su introducción de la constante de gravitación universal, y Einstein, a través de tratamiento de la velocidad de la luz como algo absoluto. En la teoría de la relatividad moderna, c es una constante matemática, un parámetro que relaciona las unidades utilizadas para el tiempo con las unidades utilizadas para el espacio; su valor está fijado por definición. La cuestión de si la velocidad de la luz difiere en realidad de c, aunque teóricamente sea posible, parece de interés periférico. Para los padres fundadores de la ciencia moderna, como Copérnico, Kepler, Galileo,

Descartes y Newton, las leyes de la naturaleza son ideas inmutables en la mente divina. Dios era un matemático. El descubrimiento de las leyes matemáticas de la naturaleza era una visión directa de la eterna Mente de Dios. Desde entonces se han repetido sentimientos similares entre los físicos. Hasta la década de 1960, el universo de la física ortodoxa todavía era eterna. Pero la evidencia de la expansión del universo se ha ido acumulando durante varias décadas, y el descubrimiento de la radiación cósmica de fondo en 1965, desencadenó finalmente una gran revolución cosmológica. Entonces la teoría del Big Bang entró en escena. En lugar de un eterno universo mecánico, que se precipitaba gradualmente hacia la muerte termodinámica, la imagen era ahora de un cosmos en crecimiento, desarrollo, y evolución. Y si había un nacimiento del cosmos, una “singularidad” inicial, como los físicos la definieron, entonces volvían a resurgir las viejas preguntas: ¿De dónde y de qué vino todo? ¿Por qué el universo es tal como es? Además, surge una nueva pregunta: si toda la naturaleza evoluciona, ¿por qué las leyes de la naturaleza no evolucionan tam-

DogmaCero

7

bién? Si las leyes son inmanentes en una naturaleza en evolución, entonces las leyes deben evolucionar también.

Hoy en día estas preguntas suelen tratarse en términos del principio cosmológico antrópico, de la siguiente manera: de los muchos universos posibles, sólo uno con las constantes establecidas en los valores que se encuentran hoy en día podría haber dado lugar a un mundo con vida como la conocemos, y permitiría la aparición de cosmólogos inteligentes capaces de discutirla. Si los valores de las constantes hubieran sido diferentes, no habría habido ni estrellas, ni átomos, ni planetas, ni personas. Incluso si las constantes fuesen sólo ligeramente diferentes, nosotros no estaríamos aquí. Por ejemplo, con sólo un pequeño cambio en la fuerza relativa de las fuerzas nucleares y electromagnéticas no podría haber átomos de carbono, y por lo tanto no habría formas de vida basadas en el carbono, como nosotros mismos. El Santo Grial de la física moderna es explicar por qué estas constantes numéricas... tienen los valores numéricos concretos que tienen.

El físico teórico Lee Smolin

puesto una especie de darwinismo cósmico. A través de los agujeros negros, los universos bebé pueden brotar de los ya existentes y asumir una vida propia. Algunos de estos podrían experimentar leves mutaciones en Algunos físicos se inclinan por una especie los valores de sus constantes y por lo tanto de neo-deísmo, con un dios-creador mate- evolucionarían de manera diferente. Sólo mático, que en primer lugar ajustó las cons- aquellos que forman las estrellas pueden tantes, seleccionando entre los muchos uni- formar agujeros negros y por lo tanto tener versos posibles el único en que podemos hijos. De este modo, por un principio de feevolucionar. Otros prefieren dejar a Dios cundidad cósmica, sólo los universos como fuera del universo. Una forma de evitar la el nuestro se reproducirían, y así pueden necesidad de una mente matemática para existir muchos más universos habitables fijar las constantes de la naturaleza es su- más o menos similares. Pero esta teoría poner que nuestro universo surgió de una muy especulativa aún no explica por qué espuma de posibles universos. La burbuja deberían existir universos en primer lugar, primordial que dio origen a nuestro univerni lo que determina las leyes que los gobierso es una entre muchas. Pero nuestro uninan, ni lo que mantiene, lleva o recuerda las verso ha de tener las constantes que tiene constantes mutantes en cualquier universo por el mismo hecho de que estamos aquí. particular. De alguna manera, nuestra presencia impone una selección. Puede haber innumeObsérvese que todas estas especulaciorables e inhabitables universos alienígenas nes metafísicas, por extravagantes que padel todo desconocidos para nosotros, pero rezcan, son totalmente convencionales en este es el único que podemos conocer. tanto que dan por sentado tanto las leyes Este tipo de especulación ha sido llevado eternas como las constantes estables, por aún más lejos por Lee Smolin, que ha pro- lo menos dentro de un universo dado. EsDogmaCero 8

tos supuestos bien establecidos hacen que la constancia de las constantes parezca una verdad segura. Su inmutabilidad es un acto de fe... y si las mediciones muestran variaciones en las constantes, como sucede con frecuencia, entonces las variaciones son descartadas como errores experimentales. La última cifra es la mejor aproximación disponible para el “verdadero” valor de la constante.

La propuesta de que las leyes mismas evolucionan es más radical. El filósofo Alfred North Whitehead señaló que si abandonamos la vieja idea de las leyes platónicas impuestas a la naturaleza, y consideramos en su lugar que las leyes son inmanentes a la naturaleza, entonces éstas deben evolucionar conjuntamente con la naturaleza.

Dado que las leyes de la naturaleza dependen de las cualidades individuales de las Algunas variaciones también pueden de- cosas que constituyen la naturaleza, al camberse a errores, y tales errores disminuyen biar las cosas también cambiarán las leyes. a medida que mejoran los instrumentos y Así pues, la visión moderna de la evolución métodos de medición. Todos los tipos de del universo físico debería concebir las lemedición sufren de limitaciones inherentes yes de la naturaleza evolucionando al misen su exactitud. Sin embargo, no todas las mo tiempo que las cosas que constituyen variaciones en los valores de la medición de el medio ambiente. Así, la concepción del las constantes han de atribuirse necesaria- Universo que evoluciona bajo leyes eternas mente a un error, o a inalterables debe ser las limitaciones de los abandonada. aparatos empleados. Prefiero desechar Algunas variaciones la metáfora de “ley” pueden ser reales. En en conjunto, con su un universo en evoanticuada imagen lución, es concebible de Dios como una que las constantes especie de emperaevolucionen junto dor “hacedor de lecon la naturaleza. Inyes”, así como a un cluso podrían variar agente omnipotente cíclicamente, si no y aplicador de leyes caóticamente. universales. En vez Teorías acerca de las constantes de esto, he sugerido que las regularidades de la naturaleza pueden ser más bien como cambiantes hábitos. De acuerdo con la hipótesis de la Varios físicos, entre ellos Arthur Eddington resonancia mórfica, existe una especie de y Paul Dirac, han especulado que al menos memoria acumulativa inherente a la natualgunas de los “constantes fundamentales” raleza. Así, en lugar de ser gobernados por pueden cambiar con el tiempo. En particu- una mente matemática eterna, la naturalelar, Dirac propuso que la constante de gra- za está determinada por hábitos, sujetos a vitación universal (G ) puede disminuir con la selección natural. Y algunos hábitos son el tiempo: la fuerza gravitatoria se debilita a más importantes que otros; por ejemplo, medida que el universo se expande. Sin em- los hábitos de los átomos de hidrógeno, que bargo, los que formulan tales especulacio- se encuentran en todo el universo, son muy nes suelen confesar rápidamente que no es- antiguos y están muy extendidos, mientras tán desafiando la idea de leyes eternas, sino que los hábitos de las hienas no lo son. Los que simplemente proponen que las leyes campos gravitacionales y electromagnétieternas rigen la variación de las constantes. cos, los átomos, las galaxias y las estrellas

La concepción del Universo que evoluciona bajo leyes eternas inalterables debe ser abandonada

DogmaCero

9

Ni siquiera la luz puede escapar de la fuerza de gravedad de un “agujero negro” se rigen por costumbres arcaicas, que se remontan a los primeros períodos de la historia del universo.

Desde este punto de vista las “constantes fundamentales” son los aspectos cuantitativos de los hábitos profundamente arraigados. Es posible que hubieran cambiado al principio, pero a medida que se hicieron cada vez más permanentes a través de la repetición, las constantes se pueden haber asentado en valores más o menos estables. En este sentido, la hipótesis del hábito está de acuerdo con la suposición convencional de la constancia, si bien por razones muy diferentes.

Incluso si dejamos a un lado las especulaciones sobre la evolución de las constantes, hay al menos dos razones más por las que las constantes pueden variar. En primer lugar, pueden depender del entorno astronómico, y así cambiarían mientras el sistema solar se mueve en la galaxia, o mientras la galaxia se aleja de otras galaxias. Y en segundo lugar, las constantes pueden oscilar o fluctuar; incluso pueden fluctuar de forma aparentemente caótica. La moderna teoría

del caos nos ha permitido reconocer que el comportamiento caótico, en oposición al determinismo de estilo antiguo, es normal en la mayoría de los reinos de la naturaleza. Hasta ahora las “constantes” han sobrevivido sin discusión en una época anterior de la física: los vestigios de un platonismo persistente. Pero ¿y si éstos también varían caóticamente?

La variabilidad de la constante de gravitación universal

A pesar de la importancia capital de la constante de gravitación universal, resulta ser la menos definida de todas las constantes fundamentales. Los intentos de fijarla con muchas cifras decimales han fracasado, y las mediciones son demasiado variables. El editor de la revista científica “Nature” ha reconocido que el hecho de que G siga siendo incierta en una parte entre 5.000 es “una mancha en el rostro de la Física”. De hecho, en los últimos años, la incertidumbre ha sido tan grande que se ha llegado a postular la existencia de fuerzas totalmente nuevas para explicar las anomalías gravitacionales.

DogmaCero 10

A principios de la década de 1980, Frank Stacey y sus colegas midieron G en varias minas profundas y pozos de sondeo en Australia. Su valor se situaba en un 1 por ciento por encima del que se acepta actualmente. Por ejemplo, en un conjunto de mediciones realizadas en la mina Hilton (en Queensland) se obtuvo un valor de G de 6,734 ± 0,002, en comparación con el valor actualmente aceptado de 6,672 ± 0,003. Los resultados australianos fueron repetibles y consistentes, pero nadie les hizo mucho caso hasta 1986. En ese año, Ephrain Fischbach, de la Universidad de Washington (Seattle), sacudió el mundo de la ciencia al afirmar que las pruebas de laboratorio también mostraban una ligera desviación de la ley de Newton de la gravedad, en paralelo con los resultados de Australia. Fischbach propuso la existencia de una fuerza de repulsión hasta ahora desconocida, la llamada quinta fuerza (las cuatro fuerzas conocidas son las fuerzas nucleares –fuerte y débil–, la fuerza electromagnética y la fuerza gravitacional). La posible existencia de esta quinta fuerza no es particularmente relevante para los potenciales cambios en G con el paso del tiempo. Sin embargo, el hecho mismo de que a finales del siglo XX pudiera surgir y considerarse seriamente la existencia de una fuerza adicional que afecta a la gravitación sirve para enfatizar hasta qué punto es imprecisa la determinación de la gravedad más de tres siglos después de la publicación de los Principia de Newton.

El físico teórico Paul Adrien Maurice Dirac, 1902-1984 bras, el cambio que sugería Dirac era unos diez millones de veces más pequeño que las diferencias entre los “mejores” valores recientes.

A fin de probar la hipótesis de Dirac se han experimentado diversos métodos indirectos. Algunos dependen de las pruebas geológicas, como las realizadas en laderas de fósiles y dunas, donde se pueden calcular las fuerzas gravitatorias en el momento en que se formaron; otros dependen de los La sugerencia de Paul Dirac y otros físicos registros de eclipses en los últimos 3.000 teóricos de que G puede ser decreciente a años, y finalmente otros se basan en métomedida que el universo se expande ha sido dos astronómicos modernos. tomada muy en serio por algunos metrólogos. Sin embargo, el cambio propuesto El problema con todas estas líneas indipor Dirac era muy pequeño, alrededor de rectas de evidencia es que dependen de un 5 partes en 1011 por año. Esto está muy tejido complejo de suposiciones teóricas, por debajo de los límites de detección con incluyendo la constancia de las otras conslos métodos convencionales de medición tantes de la naturaleza. Son convincentes de G en la Tierra. Los “mejores” resultados sólo en el marco del presente paradigma. en los últimos veinte años diferían entre sí Es decir, que si uno asume la corrección de por más de 5 partes en 104. En otras pala- las modernas teorías cosmológicas, las cuaDogmaCero

11

les presuponen la constancia de G, los datos son coherentes internamente, siempre que se suponga que todas las variaciones reales de un experimento a otro experimento, o de un método a otro, son resultado de un error.

de este período. Los “mejores” valores, hallados por los principales investigadores mediante el uso de diversas técnicas, estaban todos extraordinariamente próximos entre sí, y así los datos disponibles fueron combinados y ajustados por Birge en 1941 La caída de la velocidad de la luz y por Dorsey en 1945.

desde 1928 hasta 1945

Según la teoría de la relatividad de Einstein, la velocidad de la luz en el vacío es invariable: es una constante absoluta. Gran parte de la física moderna está basada en ese supuesto. Por tanto, existe un fuerte prejuicio teórico contrario a plantear la cuestión de posibles cambios en la velocidad de la luz. En cualquier caso, el tema ahora está oficialmente cerrado. Desde 1972, la velocidad de la luz se ha fijado por definición. El valor se define como 299.792,458 ± 0,001 kilómetros por segundo. Al igual que en el caso de la constante gravitacional, las primeras mediciones universales de c diferían considerablemente del actual valor oficial. Por ejemplo, la determinación de Römer, realizada en 1676, era aproximadamente un 30 por ciento más baja, y la de Fizeau en 1849 era un 5 por ciento más alta.

A finales de la década de 1940 la velocidad de la luz creció de nuevo. Como era de esperar, hubo algunas turbulencias en un principio cuando el anterior valor fue depuesto. El nuevo valor era unos 20 km/s superior, similar al existente en 1927. Se instauró un nuevo consenso. El tiempo que habría durado este consenso, de haberse basado en continuas mediciones, es tema de especulación. En la práctica, se impidieron mayores desacuerdos mediante la fijación de la velocidad de la luz en el año 1972 por definición. ¿Cómo se puede explicar una velocidad más baja desde 1928 hasta 1945? Si se trató de

En 1929, Birge publicó su revisión de todas las pruebas disponibles hasta 1927 y llegó a la conclusión de que el mejor valor de la velocidad de la luz era de 299.796 ± 4 km/s. Birge destacó que el error probable era mucho menor que en cualquiera de las otras constantes, y llegó a la conclusión de que “el valor actual de c es del todo satisfactorio, y puede ser considerado como más o menos establecido de forma permanente.” Sin embargo, incluso cuando estaba escribiendo, se estaban encontrando valores considerablemente más bajos de c, y en 1934 Gheury de Bray ya sugirió que los datos apuntaban a una variación cíclica de la velocidad de la luz.

En el lapso entre 1928 a 1945 aproximadamente, la velocidad de la luz parecía ser de unos 20 km/s menor que antes y después

Portada del libro de Gheury de Bray publicado inicialmente en 1921

DogmaCero 12

una simple cuestión de error experimental, ¿por qué los resultados de los diferentes investigadores y diferentes métodos fueron tan coincidentes? ¿Y por qué los errores estimados fueron tan bajos?

Una explicación es que la velocidad de la luz realmente fluctúa de vez en cuando. Tal vez descendió realmente durante casi veinte años. Pero tal posibilidad no ha sido considerada seriamente por los investigadores en este campo, excepto por de Bray. Tan sólida es la suposición que se ha establecido que los datos empíricos tengan que justificarse. Este notable episodio de la historia de la velocidad de la luz ahora se atribuye generalmente a la psicología de la metrología.

La tendencia a equiparar los experimentos de una época determinada con los de otra ha sido descrita con la amable expresión “bloqueo de la fase intelectual”. La mayoría de los metrólogos son muy conscientes de la posible existencia de tales efectos, ¡de hecho los colegas siempre atentos se deleitan en señalarlos! Aparte del reconocimiento de errores, la próxima finalización del experimento comporta frecuentes y estimulantes discusiones con los colegas interesados, mientras que los prolegómenos a la redacción de la obra añaden una nueva perspectiva. Todas estas circunstancias se combinan para impedir que lo que estaba destinado a ser “el resultado final” sea así en la práctica. Por consiguiente, la acusación de que uno muy probablemente deja de preocuparse por las correcciones cuando el valor es muy similar a otros resultados es fácil de hacer y difícil de refutar. Pero si los cambios en los valores de las constantes en el pasado se atribuyen a la psicología de los experimentadores, entonces, como otros metrólogos eminentes han observado, “esto plantea una pregunta inquietante: ¿Cómo sabemos que este factor psicológico no es igual de importante hoy en día?” En el caso de la velocidad de la luz, sin embargo, esta cuestión ahora es académica. No sólo se ha fijado la velocidad por

definición, sino que además las propias unidades en que se mide la velocidad, que son la distancia y el tiempo, se definen en función de la luz misma.

El segundo solía definirse como 1/86.400 de un día solar medio, pero ahora se define en términos de la frecuencia de la luz emitida por un tipo particular de excitación de los átomos de cesio-133. Un segundo es 9.192.631.770 veces el período de vibración de la luz. Mientras tanto, desde 1983 el metro ha sido definido en términos de la velocidad de la luz, a su vez fijada por definición. Como Brian Petley ha señalado, es concebible que:

(I) la velocidad de la luz pudiera cambiar con el tiempo, o (II) tenga una dependencia direccional en el espacio, o (III) se vea afectada por el movimiento de la Tierra alrededor del Sol, o por el movimiento dentro de nuestra galaxia o por algún otro marco de referencia.

Sin embargo, si esos cambios ocurrieron realmente, estaríamos ciegos ante ellos. Ahora estamos encerrados dentro de un sistema artificial en el que tales cambios no sólo son imposibles por definición, sino que serían indetectables en la práctica debido a la forma en que se definen las unidades. Cualquier cambio en la velocidad de la luz supondría cambiar las unidades en sí mismas, de tal manera que la velocidad en kilómetros por segundo seguiría siendo exactamente la misma.

El aumento de la constante de Planck

La constante de Planck (h) es una característica fundamental de la física cuántica y relaciona la frecuencia de una radiación, v, con su quantum de energía, E, de acuerdo con la fórmula E = hv. Tiene las dimensiones de la acción (energía x tiempo).

DogmaCero

13

A menudo se dice que la teoría cuántica es admirablemente exitosa e increíblemente precisa. Por ejemplo: “Las leyes que describen el mundo cuántico... son las herramientas más exactas y precisas que hemos encontrado para la correcta descripción y predicción del funcionamiento de la naturaleza. En algunos casos, el acuerdo entre las predicciones de la teoría y lo que medimos es tan bueno como una parte entre un billón.”

Si las describimos en función del tiempo, vemos que una es un poco mayor que la de Millikan, la siguiente es un poco superior a la anterior, y la siguiente lo mismo, hasta que finalmente se asientan en un número que es mayor. ¿Por qué no descubrieron a la primera que el nuevo número era superior? Esta historia es motivo de vergüenza para los científicos, porque es evidente que la gente hacía cosas como esta: cuando obtenían un número demasiado alto, por encima del de Millikan, buscaban y encontraban Tanto había oído y leído estas declaraciones, un número más cercano al valor de Millikan que yo pensaba que la constante de Planck que no habían contemplado hasta ese modebía ser conocida con gran exactitud, has- mento. Y de este modo eliminaban los vata muchas cifras decimales. Este parece ser lores más alejados. Sin duda, hicieron otras el caso si uno revisa un manual científico... cosas por el estilo.” siempre y cuando uno no consulte también las ediciones anteriores. De hecho, su A finales de la década de 1930, las diferenvalor oficial ha cambiado a lo largo de los cias ya no podían ser ignoradas, pero el alto años, mostrando una marcada tendencia a aumentar. El cambio más importante se produjo entre 1929 y 1941, período en que aumentó en más de un 1 por ciento. Este aumento se debió principalmente a un cambio sustancial en el valor de la carga del electrón, e. Las mediciones experimentales de la constante de Planck no dan respuestas directas, sino que también implican la carga del electrón y/o la masa del electrón. Si una de ellas –o ambas– cambian, entonces también lo hace la constante de Planck. El trabajo de Millikan sobre la carga del electrón resultó ser una de las raíces de los problemas. Aunque otros investigadores hallaron valores sustancialmente más altos, tendían a no ser considerados. El gran renombre y autoridad de Millikan provocó la opinión de que la cuestión de la magnitud de e había llegado prácticamente a su respuesta definitiva. Durante unos veinte años el cálculo de Millikan prevaleció, pero se fueron acumulando pruebas de que el valor de e era mayor. Como Richard Feynman ha afirmado: “Es interesante ver la historia de las mediciones de la carga del electrón después de Millikan.

Richard Feynman 1918-1988, Premio Nobel de Física 1965 prestigio del valor de Millikan no se podía abandonar tan fácilmente. En su lugar, se optó por corregirlo mediante el uso de un nuevo valor para la viscosidad del aire, una variable importante en la técnica de la gota de aceite, lo que hacía que el valor estuviese en la línea de los nuevos resultados. A principios de los años 40, los valores todavía más altos de e comportaron una revisión al alza

DogmaCero 14

de la cifra oficial. Efectivamente, ya había razones para corregir el valor de Millikan una vez más, y así pues fue incrementado para hacerlo coincidir con el nuevo valor. Cada vez que aumentaba el valor de e, también se debía incrementar la constante de Planck .

Las fluctuaciones en la constante de estructura fina

Uno de los problemas de la búsqueda de cambios en una constante fundamental es que si se aprecian cambios en la constante, entonces es difícil saber si se trata o bien Curiosamente, la constante de Planck con- de la propia constante que está cambiantinuó creciendo desde los años 50 hasta los do, o bien de las unidades en que se mide. años 70. Cada uno de estos aumentos supera- Sin embargo, algunas de las constantes son ban el error estimado en el valor previamen- adimensionales (expresadas como númete aceptado. El último valor, empero, mues- ros puros) y, por tanto, la cuestión de los tra un ligero descenso (véase tabla central). cambios en las unidades no procede. Un ejemplo es la ratio de la masa del protón a Se han llevado a cabo varios intentos de in- la masa del electrón; otro es la constante vestigación de los cambios en la constante de estructura fina. Por esta razón, algunos de Planck, mediante el estudio de la luz de metrólogos han hecho hincapié en que “los los quásares y estrellas que supuestamente cambios seculares en las constantes físicas La constante de Planck de 1951 a 1988 (valores revisados) Autor Fecha h (x 10-34 julio segundos) Bearden y Watts 1951 6,62363 ± 0,00016 Cohen y otros 1955 6,62517 ± 0,00023 Condon 1963 6,62560 ± 0,00017 Cohen y Taylor 1973 6,626176 ± 0,000036 Cohen y Taylor 1988 6,626075 5 ± 0,0000040

están muy distantes, sobre la base del desplazamiento hacia el rojo de su espectro. La idea era que, si la constante de Planck había variado, entonces las propiedades de la luz emitida hace miles de millones de años debían ser diferentes de las de la luz más reciente. Se encontró poca diferencia, lo que llevó a la aparentemente impactante conclusión de que h varía en menos de 5 partes entre 1013 por año. Pero los críticos de estos experimentos han señalado que estas constancias son inevitables, dado que los cálculos dependen de la suposición implícita de que h es constante; el razonamiento es pues circular. (Estrictamente hablando, el supuesto de partida es que el producto h•c es constante, pero como c es constante por definición, esto equivale a suponer la constancia de h.)

deberían ser formuladas en términos de tales números.”

Por consiguiente, en este apartado me centro en las pruebas de los cambios en la constante de estructura fina, α, formada a partir de la carga del electrón, la velocidad de la luz, y la constante de Planck, de acuerdo con la fórmula de la constante de estructura fina = [carga en el electrón, al cuadrado] / 2 [la constante de Planck] [la velocidad de la luz] [la permitividad del espacio libre]. Esta constante, que mide la fuerza de las interacciones electromagnéticas y a veces se expresa como su recíproco (aproximadamente 1/137), es considerada por algunos físicos teóricos como uno de los números cósmicos clave que una Teoría del Todo debería ser capaz de explicar.

DogmaCero

15

Entre 1929 y 1941, la constante de estructura fina aumentó en un 0,2 por ciento, de 7,283 x x 10-3 a 7,2976 a 10-3. Este cambio se debió principalmente al aumento del valor de la carga del electrón, parcialmente compensado por la disminución de la velocidad de la luz, temas de los que ya he hablado. Al igual que en el caso de las otras constantes, se dio una dispersión de resultados entre los diferentes investigadores, y los “mejores” valores fueron combinados y ajustados en ocasiones por los revisores.

¿Realmente cambian las constantes?

Como hemos visto en los cuatro ejemplos anteriores, los datos empíricos de los experimentos de laboratorio revelan todo tipo de variaciones con el tiempo; de hecho, encotramos variaciones similares en los valores de las otras constantes fundamentales. Estas variaciones no perturban a los verdaderos creyentes en la constancia, porque siempre se pueden explicar en términos de errores experimentales de uno u otro tipo. Como sucedía en el caso de las otras cons- La mayor fe se deposita siempre en las últimas mediciones –debido a las continuas tantes, los cambios eran generalmente más mejoras en las técnicas– y en caso de diferir grandes de que lo que se podía esperar sode las anteriores, automáticamente se desbre la base de los errores estimados. Por acreditan los resultados más altos (excepto ejemplo, el aumento entre 1951 y 1963 fue cuando los valores más antiguos están dodoce veces mayor que el error estimado en tados de un alto prestigio, como en el caso 1951 (expresado como la desviación están- de la medición de Millikan de e). Además, dar), mienen cualquier La constante de estructura fina de 1951 a 1973 tras que el situación, Autor Fecha α x 10-3 aumento de los metrólo1963 a 1973 Bearden y Watts gos tienen 7,296 953 ± 0,000028 1951 fue de casi la tendencia Condon 1963 7,297 200 ± 0,000033 cinco veces a sobreestiCohen y Taylor 1973 7,297 350 6 ± 0,0000060 el error esmar la pretimado en cisión de las mediciones actuales, como se aprecia en la 1963 (véase tabla central). forma en que las mediciones posteriores Algunos cosmólogos han especulado que la a menudo difieren de las anteriores por constante de estructura fina podría variar cantidades mayores que el error estimado. con la edad del universo, y se han hecho in- Alternativamente, si los metrólogos están tentos para comprobar esta posibilidad me- estimando los errores correctamente, los diante el análisis de la luz de las estrellas cambios en los valores de las constantes y quásares, suponiendo que la distancia es indican que las constantes son realmente proporcional al desplazamiento al rojo de fluctuantes. El ejemplo más claro es la dissu luz. Los resultados sugieren que ha ha- minución de la velocidad de la luz desde bido poco o ningún cambio en la constan- 1928 hasta 1945. ¿Se dio un cambio real te. Sin embargo, como en todos los intentos en el curso de la naturaleza, o bien todo se debió a un engaño colectivo de los metróde inferir la constancia de las constantes a logos? partir de las observaciones astronómicas, se han de plantear muchas suposiciones, Hasta ahora sólo ha habido dos teorías prinlo que incluye la constancia de otras cons- cipales sobre las constantes fundamentales. tantes, la corrección de las teorías cosmo- La primera afirma que son realmente conslógicas actuales, así como la validez de los tantes y que todas las variaciones en los dadesplazamientos al rojo como indicadores tos empíricos se deben a errores de un tipo de distancia. Todas estas suposiciones han u otro. A medida que la ciencia avanza, se sido y están siendo aún cuestionadas por reducen los errores; así, con una precisión los cosmólogos disidentes. cada vez mayor, nos acercamos más y más DogmaCero 16

a los verdaderos valores de las constantes. Este es el punto de vista convencional. En cuanto a la segunda, varios físicos teóricos han especulado que una o más de las constantes puede variar de alguna manera suave y regular con la edad del universo, o en distancias astronómicas. A este respecto, algunas pruebas de estas ideas implementadas mediante observaciones astronómicas parecen descartar tales cambios. Pero estas pruebas plantean la cuestión de que están basadas en los supuestos que se propone demostrar: que las constantes son constantes y que la cosmología actual es correcta en todo lo esencial. Se ha considerado muy poco una tercera posibilidad, que es la que yo estoy explorando aquí; a saber, la posibilidad de que las constantes pueden fluctuar, dentro de unos límites, en torno a los valores medios que a su vez se mantienen relativamente constantes. El concepto de unas leyes y constantes inmutables es el último superviviente de la era de la física clásica en la cual se suponía que un orden matemático regular y (en principio) totalmente predecible prevalecía en todo momento y en todo lugar. En realidad, no encontramos nada de esto en

el curso de los asuntos humanos, en la esfera biológica, en el tiempo atmosférico, o incluso en los cielos. La revolución del caos ha puesto de manifiesto que este perfecto orden era una ilusión seductora. La mayor parte del mundo natural es inherentemente caótico.

Los valores fluctuantes de las constantes fundamentales en las mediciones experimentales parecen ser tan compatibles con cambios pequeños (pero reales), en sus valores como lo son con una constancia perfecta oscurecida por los errores experimentales. Ahora propongo una sencilla forma de distinguir entre estas posibilidades. Me concentraré en la constante gravitacional, ya que ésta es la más variable, si bien podrían aplicarse los mismos principios igualmente a cualquiera de las otras constantes.

Un experimento para detectar posibles fluctuaciones en la constante de gravitación universal

El principio es simple. En la actualidad, cuando se realizan las mediciones en un laboratorio particular, el valor final se basa en un promedio de una serie de mediciones

DogmaCero

17

individuales, y las variaciones no explicadas entre estas mediciones se atribuyen a los errores aleatorios. Es evidente que si hubieran fluctuaciones reales subyacentes –ya debidas a cambios en el ambiente de la Tierra, ya debidas a las fluctuaciones inherentemente caóticas en la propia constante– éstas serían allanadas por procedimientos estadísticos, mostrándose simplemente como errores aleatorios. Mientras se limiten estas mediciones a un solo laboratorio, no hay manera de distinguir entre estas posibilidades. Lo que propongo es una serie de mediciones de la constante de gravitación universal, realizadas a intervalos regulares –digamos mensualmente– en varios laboratorios diferentes de todo el mundo, utilizando los mejores métodos disponibles. Luego se compararían estas mediciones a lo largo de cierto período de años. Si hubiera fluctuaciones subyacentes en el valor de G, por cualquier motivo, éstas se presentarían en los distintos lugares. En otras palabras, los “errores” podrían mostrar una correlación (los valores podrían tender a ser altos en algunos meses y bajos en otros). De esta manera, los patrones subyacentes de la variación que se detectasen, no podrían descartarse como errores aleatorios.

Portada del libro “El espejismo de la ciencia” publicado por Editorial Kairos, cuyo autor es Rupert Sheldrake

éste implicaría un esfuerzo internacional a gran escala. Aun así, el presupuesto no tendría que ser enorme si se llevase a cabo en laboratorios establecidos, ya equipados para hacer estas mediciones. Y hasta es posible que los estudiantes pudiesen realizarSería preciso, pues, buscar otras explicacio- lo. Se han descrito varios métodos de bajo nes que no impliquen un cambio de G, in- costo para la determinación de G, basados cluyendo posibles cambios en las unidades en el método clásico de Cavendish que usa de medida. Cómo resultarían estas inves- una balanza de torsión, así como un método tigaciones es algo imposible de prever. Lo mejorado desarrollado por un estudiante importante es empezar a buscar las fluctua- recientemente, que tiene una precisión del ciones correlacionadas. Y precisamente por 0,1 por ciento. el hecho de buscar fluctuaciones, hay más posibilidades de encontrarlas. Por el con- Una de las ventajas de la mejora continua trario, el paradigma teórico actual conduce en la precisión de las técnicas metrológicas a un esfuerzo sostenido de todos los inte- es que debería ser cada vez más factible resados en suprimir las diferencias, ya que la detección de pequeños cambios en las se asume que las constantes son realmente constantes. Por ejemplo, se debería alcanzar una precisión mucho en las mediciones constantes. de G cuando los experimentos se puedan A diferencia de los otros experimentos que llevar a cabo en naves espaciales y satélites, se proponen en el libro “Siete experimen- y para ello ya se están proponiendo y distos que podrían cambiar el mundo” (1994), cutiendo las técnicas apropiadas. Este es un DogmaCero 18

terreno en el cual una gran pregunta preci- Consciousness (2001) y su muy reciente The saría realmente de una gran ciencia. Science Delusion (en edición española, “El espejismo de la ciencia”). No obstante, existe de hecho una manera de emprender esta investigación con un pre- Entre sus numerosas aportaciones a la supuesto muy bajo: mediante el examen de ciencia cabe destacar la teoría de los camlos datos en bruto existentes de la medición pos morfogenéticos, desarrollada a partir de G en varios laboratorios en los últimos de su interés por el fenómeno de la telepadecenios. Esto requeriría la cooperación de tía. Según esta teoría, la naturaleza almalos científicos en cuestión, ya que los datos cena información en diversos campos inen bruto se guardan en los cuadernos cien- terconectados que pueden ser utilizados a tíficos y archivos de laboratorio, y muchos través del espacio y el tiempo. En los últicientíficos son reacios a permitir a otros el mos años, ha criticado con firmeza cierta acceso a estos registros privados. Pero dada visión unívoca, materialista y mecanicista esta cooperación, puede haber ya suficien- de la ciencia actual, llegando a afirmar que tes datos para examinar en todo el mundo ésta funciona como un dogma de fe en mulas fluctuaciones del valor de G. chos aspectos. Precisamente, esta postura le supuso recientemente una velada cenLas implicaciones de unas constantes fun- sura en Internet, al ser retirado el vídeo damentales fluctuantes serían enormes. Ya de la presentación que realizó en un evenno se podría considerar el curso de la natuto TED sobre este tema. Su sitio web es: raleza como algo apaciblemente uniforme; www.sheldrake.org tendríamos que reconocer que hay fluctuaciones en el corazón mismo de la realidad física. Y si las diferentes constantes fundamentales variaron a diferentes ritmos, estos cambios podrían crear distintas calidades de tiempo, no muy diferentes a las propuestas por la astrología, pero con una base más radical. © Rupert Sheldrake Fuente: www.sheldrake.org/Onlineexp/ offline

Sobre el autor Rupert Sheldrake es autor de más de 80 artículos científicos y de obras tan notables como The Presence of the Past: Morphic Resonance and the Habits of Nature (1988), The Rebirth of Nature: The Greening of Science and God (1992), Seven Experiments that Could Change the World (1994), Dogs that Know When Their Owners are Coming Home, and Other Unexplained Powers of Animals (1999), Chaos, Creativity and Cosmic

DogmaCero

19

Conciencia, causalidad y física cuántica David Pratt

La teoría cuántica está considerada generalmente como una de las teorías científicas más exitosas jamás formuladas. Sin embargo, mientras que la descripción matemática del mundo cuántico permite el cálculo de las probabilidades de los resultados experimentales con un alto grado de precisión, no existe un consenso sobre lo que ello significa en términos conceptuales. Seguidamente, exploraremos de la mano de David Pratt algunos de los temas relacionados con esta cuestión.

DogmaCero 20

D

e acuerdo con el principio de incertidumbre, la posición y la velocidad de una partícula subatómica no se puede medir al mismo tiempo con una precisión superior a la fijada por la constante de Planck. Esto es debido a que en cualquier medición una partícula debe interactuar con al menos un fotón, o quantum de energía, el cual actúa tanto como partícula y como onda, lo que perturba la medición de una manera impredecible e incontrolable. Una medición precisa de la posición de un electrón en su órbita por medio de un microscopio, por ejemplo, requiere el uso de una luz de onda corta, con el resultado de que se transfiere a los electrones una velocidad grande pero impredecible. Por otro lado, una medición precisa de la velocidad del electrón requiere de cuantos de luz de muy baja velocidad (y por lo tanto de onda larga), lo que conduce a un gran ángulo de difracción en la lente y a una mala definición de la posición.

Sin embargo, según la interpretación convencional de la física cuántica, no sólo nos es imposible medir la posición de una partícula y la velocidad simultáneamente con igual precisión: una partícula no posee propiedades bien definidas cuando no está interactuando con un instrumento de medición. Por otra parte, el principio de incertidumbre implica que una partícula nunca puede estar en reposo, sino que está sujeta a constantes fluctuaciones, incluso cuando no se está llevando a cabo la medición, y se supone que tales fluctuaciones no tienen ninguna causa en absoluto. En otras palabras, se cree que el mundo cuántico está caracterizado por una indeterminación absoluta, una ambigüedad intrínseca y un desorden irreductible. Como el difunto físico David Bohm (1984, p. 87) expuso: “se supone que en cualquier experimento particular, el resultado preciso que se obtiene es completamente arbitrario, en el sentido de que no tiene relación alguna con cualquier otra cosa que existe en el mundo, o que haya existido alguna vez.”

Bohm (1984, p. 95) consideró que el abandono de la causalidad había sido demasiado apresurado: “Es muy posible que, si bien la teoría cuántica, y con ella el principio de indeterminación, son válidos hasta un muy alto grado de aproximación en un cierto dominio, ambos dejan de tener relevancia en nuevos dominios por debajo de aquel en que se aplica la teoría actual. Así pues, la conclusión de que no existe un nivel más profundo de movimiento causalmente determinado es un razonamiento circular, ya que seguirá sólo si suponemos de antemano que no existe ese nivel.” La mayoría de los físicos, sin embargo, se contentan con

El físico estadounidense David Joseph Bohm (1917-1992) aceptar la asunción del azar absoluto. Volveremos sobre esta cuestión más adelante en relación con el tema del libre albedrío.

El colapso de la función de onda

Un sistema cuántico está representado matemáticamente por una función de onda, que se deriva de la ecuación de Schrödinger. La función de onda se puede utilizar

DogmaCero

21

para calcular la probabilidad de encontrar una partícula en cualquier punto particular en el espacio. Cuando se realiza una medición, la partícula, por supuesto, se encuentra en un solo lugar, pero si se supone que la función de onda provee una descripción completa y literal del estado de un sistema cuántico –como lo es en la interpretación convencional– ello implicaría que entre las mediciones la partícula se disuelve en una “superposición de ondas de probabilidad” y está potencialmente presente en diversos lugares a la vez. Entonces, cuando se realiza la siguiente medición, se supone que este paquete de onda “colapsa” instantáneamente, de forma manera arbitraria y misteriosa, en una partícula localizada de nuevo. Este repentino y discontinuo “colapso” viola la ecuación de Schrödinger, y no tiene otras explicaciones en la interpretación convencional. Dado que el dispositivo de medición que supuestamente colapsa la función de onda de una partícula está en si mismo compuesto de partículas subatómicas, parece que su propia función de onda tendría que ser colapsada por otro dispositivo de medición (que podría ser el ojo y el cerebro de un observador humano), que a su vez debería ser

colapsado por otro dispositivo de medición, y así sucesivamente, lo que nos lleva a una regresión infinita. De hecho, la interpretación estándar de la teoría cuántica implica que todos los objetos macroscópicos que vemos a nuestro alrededor existen de forma objetiva y concreta sólo cuando están siendo medidos u observados. Schrödinger ideó un famoso experimento mental para exponer las consecuencias absurdas de esta interpretación. Se coloca un gato en una caja que contiene una sustancia radiactiva, de tal modo que existe una posibilidad del 50% de que un átomo se descomponga (o no) en una hora. Si el átomo se desintegra, se desencadena la liberación de un gas venenoso que mata al gato. Después de una hora el gato está supuestamente vivo y muerto a la vez (y todo lo que hay entre medio) hasta que alguien abre la caja y al instante se colapsa la función de onda en un gato vivo o muerto.

Se han propuesto varias soluciones al “problema de la medición” asociado con el colapso de la función de onda. Algunos físicos sostienen que el clásico mundo, o macro-mundo, no sufre de ambigüedad cuántica, ya que puede almacenar información y está sujeto a una “flecha de tiempo”, mien-

DogmaCero 22

tras que se alega que el mundo cuántico, o micro-mundo, es incapaz de almacenar información y es reversible en el tiempo (Pagels, 1983). Un enfoque más extravagante es la hipótesis de los muchos mundos, que afirma que el universo se divide cada vez que se lleva a cabo una medición (o una interacción parecida a una medición), de manera que todas las posibilidades representadas por la función de onda (por ejemplo, un gato muerto y un gato vivo) existen objetivamente, pero en diferentes universos. Se supone que nuestra propia conciencia, asimismo, está dividiéndose constantemente en diferentes seres que habitan estos mundos que proliferan sin cesar y no están comunicados.

la realidad sólo mientras están siendo observados por los seres humanos (Goswami, 1993). Otros teóricos, sin embargo, creen que las entidades no auto-conscientes, incluyendo gatos y posiblemente incluso electrones, pueden ser capaces de colapsar sus propias funciones de onda (Herbert, 1993).

La teoría del colapso de función de onda (o colapso del estado-vector, como a veces se denomina) plantea la cuestión de cómo las ondas de probabilidad, que se piensa que representa la función de onda, pueden colapsar en una partícula si no son más que construcciones matemáticas abstractas. Dado que la idea misma de paquetes de onda extendiéndose y colapsando no se basa en sólidas pruebas experimentales, sino sólo en una interpretación particular de la ecuación de onda, vale la pena abordar una de las principales interpretaciones alternativas, la de David Bohm y sus seguidores, que proporciona una explicación inteligible de lo que puede estar ocurriendo a nivel cuántico.

Otros teóricos especulan con que es la conciencia la que colapsa la función de onda y por lo tanto crea la realidad

Otros teóricos especulan con que es la conciencia la que colapsa la función de onda y por lo tanto crea la realidad. Según este punto de vista, una partícula subatómica no asume propiedades definidas cuando interactúa con un dispositivo de medición, sino sólo cuando la lectura del dispositivo de medición se registra en la mente de un observador (que puede ser, por supuesto mucho tiempo después de que la medición haya tenido lugar). De acuerdo con la versión más extrema y antropocéntrica de esta teoría, sólo los seres autoconscientes como nosotros pueden colapsar las funciones de onda. Esto significa que todo el universo debe haber existido originalmente como “potencial” en un reino trascendental de probabilidades cuánticas hasta que los seres autoconscientes evolucionaron y colapsaron ellos mismos y el resto de su división de la realidad en el mundo material, y que los objetos permanecen en un estado de

El orden implicado

La interpretación ontológica de Bohm de la física cuántica rechaza la hipótesis de que la función de onda ofrece la descripción más completa de la realidad posible, y por lo tanto evita la necesidad de introducir la mal definida e insatisfactoria noción de colapso de función de onda (y todas las paradojas que conlleva). En su lugar, se asume la existencia real de partículas y campos: las partículas tienen una compleja estructura interna y siempre van acompañadas de un campo de onda cuántico, y actúan no sólo

DogmaCero

23

en función de las clásicas fuerzas electromagnéticas sino también por una fuerza más sutil, el potencial cuántico, determinado por su campo cuántico, que obedece a la ecuación de Schrödinger. (Bohm y Hiley, 1993; Bohm y Peat 1989; Hiley y Peat, 1991) El potencial cuántico transporta la información de todo el entorno y proporciona conexiones directas y no locales entre los sistemas cuánticos. Guía a partículas de la misma manera que las ondas de radio guían una nave en piloto automático, no por su intensidad sino por su forma. Es extremadamente delicado y complejo, de tal modo que las trayectorias de las partículas parecen caóticas. Ello corresponde a lo que Bohm llama el orden implicado, que puede ser concebido como un vasto océano de energía en el que el mundo físico, o explícito, es sólo una onda. Bohm señala que se ha reconocido la existencia de un pool de energía

estimado en un astronómico 10108 J/cm3 (Forward, 1996, pp 328-37). En su tratamiento de la teoría cuántica de campos, Bohm propone que el campo cuántico (el orden implicado) está sujeto a la influencia formativa y organizativa de un potencial súper-cuántico, que expresa la actividad de un orden super-implicado.

El potencial súper-cuántico provoca que las ondas converjan y diverjan una y otra vez, lo que produce un comportamiento promedio similar a una partícula. Las formas aparentemente separadas que vemos a nuestro alrededor son por tanto patrones sólo relativamente estables e independientes, generados y sostenidos por un incesante movimiento subyacente de pliegue y despliegue, con partículas que constantemente están disolviéndose en el orden implicado y luego vuelven a cristalizarse. Este proceso tiene lugar incesantemente, con una rapidez increíble, y no depende de que se realice una medición.

En el modelo de Bohm, pues, el mundo cuántico existe incluso cuando no está siendo observado y medido. Él rechaza la visión positivista de que si algo no puede ser medido o conocido con precisión, no puede decirse que exista. En otras palabras, no confunde la epistemología con la ontología, el mapa con el territorio. Para Bohm, las probabilidades calculadas para la función de onda indican las probabilidades de que una partícula esté en diferentes posiciones, con independencia de que se realice una medición, mientras que en la interpretación convencional indican las probabilidades de que una partícula llegue a existir en diferentes de este tipo, pero ha recibido poca atención posiciones cuando se realiza una medición. por parte de la teoría cuántica estándar, que El universo se define a sí mismo constantepostula un campo cuántico universal –el va- mente a través de sus incesantes interaccío cuántico o el campo de punto cero– que ciones (de las cuales, la medición sólo es un subyace bajo el mundo material. Muy poco caso particular) y, por tanto, las situaciones se sabe hasta el momento sobre el vacío absurdas –como los gatos que están vivos y cuántico, pero su densidad de energía se ha muertos– no pueden surgir. DogmaCero 24

La mente y el libre albedrío El indeterminismo cuántico está claramente abierto a interpretación: o significa causas ocultas (para nosotros), o una ausencia total de causas. La posición de que algunos eventos “simplemente ocurren” sin ninguna razón en absoluto es imposible de probar, dado que nuestra incapacidad para identificar una causa no significa necesariamente que no exista una causa. La noción del azar absoluto implica que los sistemas cuánticos pueden actuar absolutamente de manera espontánea, totalmente aislado de –y sin la influencia de– cualquier otra cosa en el universo. El punto de vista opuesto es que todos los sistemas están participando continuamente en una intrincada red de interacciones causales y e interconexiones Así pues, aunque Bohm rechaza la idea de en muchos niveles diferentes. Los sistemas que la conciencia humana lleve a la existen- cuánticos individuales ciertamente se comcia a los sistemas cuánticos, y no cree que portan erráticamente pero, si no estuvieran nuestras mentes tengan normalmente un sujetos a ningún factor causal, sería difícil efecto significativo sobre el resultado de entender por qué su comportamiento couna medición (excepto en el sentido de que lectivo muestra regularidades estadísticas. elegimos los parámetros experimentales), su interpretación abre el camino para el La postura de que todo tiene una causa, o funcionamiento de niveles de realidad más más bien muchas causas, no implica neceprofundos, más sutiles, más mentales. Sos- sariamente que todos los eventos, inclutiene que la conciencia está profundamente yendo nuestros propios actos y decisiones, enraizada en el orden implicado, y por lo estén rígidamente predeterminados por tanto está presente en cierto grado en todas procesos puramente físicos, un punto de las formas materiales. Él sugiere que pue- vista a veces llamado “determinismo duro” de haber una infinita serie de órdenes im- (Thornton, 1989). El indeterminismo en el plicados, y cada uno de ellos tiene tanto su nivel cuántico proporciona una oportuniaspecto de materia como su aspecto de con- dad para la creatividad y el libre albedrío. ciencia: “todo lo material es también men- Pero si este indeterminismo se interpreta tal y todo lo mental es también material, en el sentido de azar absoluto, ello implipero hay muchos niveles infinitamente más caría que nuestras elecciones y las acciosutiles de la materia de los que conocemos” nes sólo aparecen inesperadamente de una (Weber, 1990, p. 151). El concepto de do- forma totalmente aleatoria y arbitraria, en minio implicado podría considerarse como cuyo caso difícilmente podría decirse que una forma extendida de materialismo, pero son nuestras elecciones y la expresión de “igualmente se podría llamar idealismo, es- nuestro libre albedrío. Alternativamente, el píritu, conciencia. La separación de los dos indeterminismo cuántico podría ser inter–materia y espíritu– es una abstracción. pretado como causalidad desde los niveles El suelo es siempre uno.” (Weber, 1990, p. más sutiles, no físicos, de tal manera que nuestros actos de voluntad son causados, 101) DogmaCero

25

pero por nuestras propias mentes autoconscientes. Desde este punto de vista –a veces llamado “determinismo blando”– el libre albedrío implica la activa autodeterminación autoconsciente. Según el materialismo científico ortodoxo, los estados mentales son idénticos a los estados del cerebro: nuestros pensamientos y sentimientos, así como nuestro sentido del yo, se generan por la actividad electroquímica del cerebro. Esto representaría que, o bien una parte del cerebro activa otra parte (que a su vez activa otra parte, etc.), o bien que una región particular del cerebro se activa espontáneamente, sin causa alguna, siendo difícil apreciar de qué modo una u otra alternativa serían la base para un yo consciente y el libre albedrío. Francis Crick (1994), que cree que la conciencia es básicamente un paquete de neuronas, dice que la sede principal del libre albedrío está probablemente dentro o cerca de una parte de la corteza cerebral conocida como el surco anterior cingulado, pero da a entender que nuestra sensación de ser libre es en gran parte, si no del todo, una ilusión. Aquellos que reducen la conciencia a un subproducto del cerebro no están de acuerdo sobre la relevancia de los aspectos mecánico-cuánticos de las redes neuronales: por ejemplo, Francis Crick, el fallecido Roger Sperry (1994), y Daniel Dennett (1991) tienden a hacer caso omiso de la física cuántica, mientras que Stuart Hameroff (1994) considera que conciencia surge de la coherencia cuántica en los microtúbulos que están dentro de las neuronas del cerebro. Algunos investigadores ven una conexión entre la conciencia y el vacío cuántico; por ejemplo, Charles Laughlin (1996) sostiene

que las estructuras neurales que median la conciencia pueden interactuar no localmente con el vacío (o el mar cuántico), mientras que Edgar Mitchell (1996) considera que tanto materia como conciencia surgen del potencial energético del vacío. El neurocientífico Sir John Eccles desestima el punto de vista materialista como “superstición”, y aboga por el interaccionismo dualista: sostiene que hay un mundo mental, además del mundo material, y que nuestra mente o nuestro yo actúa en el cerebro (en particular, en el área motriz suplementaria del neocórtex) al nivel cuántico, incrementando la probabilidad de activación de las neuronas seleccionadas (Eccles, 1994; Giroldini, 1991). Eccles sostiene que la mente no sólo no es física, sino que es absolutamente no material y no sustancial. Sin embargo, si no estuviera asociada a alguna forma de energía-sustancia, sería una pura abstracción y por tanto sería incapaz de ejercer influencia alguna en el mundo físico. Esta objeción se aplica también a los anti-reduccionistas que rehúsan la palabra “dualista” y describen la materia y la conciencia como aspectos complementarios o diádicos de la realidad, si bien niegan a la conciencia cualquier naturaleza energética o sustancial, lo que implica que es algo básicamente diferente de la materia y, de hecho, una mera abstracción.

Eccles sostiene que la mente no sólo no es física, sino que es absolutamente no material y no sustancial

Hay una postura alternativa que se repite en muchas tradiciones místicas y espirituales: que la materia física es sólo una “octava” en un espectro infinito de materia-energía, o conciencia-sustancia, y que así como el mundo físico está en gran medida organizado y coordinado por los mundos interiores (astral, mental y espiritual), del mismo

DogmaCero 26

modo el cuerpo físico está en gran medida energizado y controlado por cuerpos más sutiles o campos de energía, incluyendo un cuerpo-modelo astral y una mente o alma (ver Purucker, 1973). De acuerdo con este punto de vista, la naturaleza en general, y todas las entidades que la componen, están formadas y organizadas principalmente desde el interior hacia el exterior, desde los niveles más profundos de su constitución. Esta guía interior a veces es automática y pasiva, dando lugar a nuestras funciones corporales automáticas y a nuestro comportamiento habitual e instintivo, así como a las operaciones regulares de la naturaleza en general, y algunas veces es activa y autoconsciente, como en nuestros actos de intención y voluntad. Un sistema físico sometido a influencias tan sutiles no es pues particularmente operado desde el exterior sino más bien guiado desde el interior. Además de influir en nuestros propios cerebros y cuerpos, la mente también parece ser capaz de afectar a otras mentes y cuerpos y otros objetos físicos a distancia, como se aprecia en los fenómenos paranormales.

mayor parte de las bases teóricas de los experimentos EPR realizados por Alain Aspect en 1982 (el experimento mental original fue propuesto por Einstein, Podolsky y Rosen en 1935 ). Estos experimentos demostraron que si dos sistemas cuánticos interactúan y luego se separan, su comportamiento se correlaciona de un modo tal que no puede explicarse en términos de señales que viajan entre los sistemas a la velocidad de la luz (o más lentamente). Este fenómeno se conoce como no-localidad, y da pie a dos interpretaciones principales: o bien implica una acción no mediada e instantánea a distancia, o bien implica la señalización más rápida que la luz.

Si las correlaciones no locales son literalmente instantáneas, efectivamente serían no causales; así, si dos eventos se producen absolutamente simultáneamente, “causa” y “efecto” serían indistinguibles, y no se podría decir que uno de los eventos provoca el otro a través de la transferencia de fuerza o energía, dado que no podría darse ninguna transferencia de manera infinitamente rápida. Por tanto, no habría que explicar ningún mecanismo de transmisión causal, EPR y ESP y cualquier investigación se limitaría a las Fue David Bohm y uno de sus seguidores, condiciones que permiten que se produzJohn Bell (del CERN), quienes pusieron la can eventos correlacionados en diferenDogmaCero

27

experimentos están más allá de las capacidades de la tecnología actual, pero podrían ser posibles en el futuro. Si existen interacciones superlumínicas, éstas serían “no locales” sólo en el sentido de no físico.

Portada del libro “The undivided universe” escrito por David Bohm y Basil Hiley tes lugares. Es interesante observar que en otro tiempo se consideraba que la luz y otros efectos electromagnéticos se transmitían instantáneamente, hasta que las pruebas observacionales demostraron lo contrario. La hipótesis de que las conexiones no locales son absolutamente instantáneas es imposible de verificar, ya que requeriría de dos mediciones perfectamente simultáneas, lo que exigiría un grado infinito de exactitud. Sin embargo, como David Bohm y Basil Hiley (1993, pp 293-4,347) han destacado, se podría falsificar experimentalmente. En efecto, si se propagan conexiones no locales no a velocidades infinitas, sino a velocidades superiores a la de la luz a través de un “éter cuántico” (un dominio subcuántico donde la teoría cuántica y la actual teoría de la relatividad se descomponen), entonces las correlaciones predichas por la teoría cuántica desaparecerían si se hicieran mediciones en periodos más cortos que los requeridos para la transmisión de las conexiones entre las partículas cuánticas. Tales

La no-localidad se ha invocado como explicación de la telepatía y la clarividencia, aunque algunos investigadores creen que podría implicar un nivel más profundo de no-localidad, o lo que Bohm llama la “super-no localidad”, similar tal vez a la “resonancia mórfica” de Sheldrake (1989). Como ya se ha apuntado, si se equipara la no-localidad a conexión instantánea, ello implicaría que la información podría ser recibida a distancia exactamente en el mismo momento en que es generada, sin someterse a cualquier forma de transmisión. A lo sumo, se podría intentar comprender las condiciones que permiten la inmediata aparición de la información. La posición alternativa es que la información –que es básicamente un patrón de energía– siempre consume tiempo para viajar desde su fuente hasta otro lugar, que la información se almacena en algún nivel parafísico, y que nosotros podemos tener acceso a esta información, o intercambiar información con otras mentes, si existen las condiciones necesarias de “resonancia simpática”. Al igual que ocurre con el EPR, la hipótesis de que la telepatía es absolutamente instantánea es indemostrable, pero se podrían diseñar experimentos que puedan falsearla. Dado que los fenómenos ESP (percepción extrasensorial) implican formas más sutiles de energía que viajan a velocidades finitas, pero quizá superlumínicas, a través de reinos súper-físicos, tal vez sería posible detectar un retraso entre la transmisión y la recepción, y también cierto debilitamiento del efecto a muy largas distancias, aunque es evidente que cualquier atenuación debe ser mucho menor que la experimentada por la energía electromagnética, la cual está sujeta a la ley del cuadrado inverso.

DogmaCero 28

En cuanto a la precognición, la tercera categoría principal de ESP, una de las explicaciones posibles es que implica un acceso directo “no local” al futuro real. Alternativamente, puede implicar la percepción clarividente de un escenario futuro probable que está empezando a tomar forma sobre la base de las tendencias e intenciones actuales, de acuerdo a la idea tradicional de que los eventos próximos proyectan sus sombras frente a ellos. Bohm afirma que tal presagio tiene lugar “en lo profundo del orden implicado” (Talbot, 1992, p. 212), lo que algunas tradiciones místicas llamarían los reinos astrales o akásicos.

La psicokinética y el Mundo Invisible

la función de onda, tal vez por alguna clase de proceso informativo (Broughton, 1991, pp 177-81). Eccles sigue un enfoque similar al explicar cómo actúan nuestras mentes en nuestros propios cerebros. Sin embargo, el concepto de colapso de la función de onda no es esencial para explicar la interacción mente-materia. De igual modo, bien podríamos adoptar el punto de vista de que las partículas subatómicas están parpadeando sin cesar dentro y fuera de la existencia física, y que el resultado del proceso es modificable a nuestra voluntad, que es una fuerza psíquica.

La macro-PK implica el movimiento de objetos estables, normalmente inmóviles, mediante el esfuerzo mental; como fenómenos relacionados tendríamos la actividad poltergeist, las materializaciones y desmaterializaciones, el teletransporte y la levitación. Aunque se ha recogido una impresionante cantidad de pruebas de estos fenómenos por parte de los investigadores a lo largo de los últimos ciento cincuenta años (Inglis, 1984, 1992; Milton, 1994), la macro-PK es un área tabú, y atrae poco interés, a pesar de –o quizás debido a– su potencial para derribar el actual paradigma materialista y revolucionar la ciencia. Tales fenómenos implican claramente mucho más que la alteración del comportamiento probabilístico de las partículas atómicas, y se podrían considerar pruebas de fuerzas, estados de la materia, y entidades vivientes no físicas actualmente desconocidas para la ciencia. La confirmación de que tales cosas existen proporcionaría una indicación más de que

La posible existencia de planos más sutiles que interpenetran el plano físico está en cualquier caso abierta a la investigación

La micro-psicokinética (micro-PK) implica la influencia de la conciencia sobre las partículas atómicas. En ciertos experimentos de micro-PK llevadas a cabo por Helmut Schmidt, unos grupos de individuos eran capaces, por lo general, de alterar las probabilidades de los sucesos cuánticos desde el 50% hasta entre el 51 y el 52%, y unos pocos individuos lo conseguían por encima del 54% (Broughton, 1991, p. 177). Los experimentos en el laboratorio PEAR de la Universidad de Princeton han arrojado como resultado un cambio menor de 1 parte entre 10.000 (Jahn y Dunne, 1987). Algunos investigadores han invocado la teoría del colapso de las funciones de onda mediante la conciencia a fin de explicar estos efectos. Se argumenta que en la micro-PK, en contraste con la percepción ordinaria, el sujeto observador ayuda a especificar lo que será el resultado del colapso de

DogmaCero

29

dentro de la unidad holística de la naturaleza existe una infinita diversidad.

La posible existencia de planos más sutiles que interpenetran el plano físico está en cualquier caso abierta a la investigación (ver Tiller, 1993), y esto es más de lo que puede decirse acerca de las hipotéticas extra-dimensiones postuladas por la teoría de las cuerdas, de las cuales se dice que están enroscadas en un área de una milmillonésima de billonésima de billonésima de centímetro de ancho y que por tanto son completamente inaccesibles, o los hipotéticos “universos bebé” y “universos burbuja” postulados por algunos cosmólogos, que se dice que existen en alguna “dimensión” igualmente inaccesible. La hipótesis de los reinos súper físicos no parece gozar del favor de muchos investigadores. Edgar Mitchell (1996), por ejemplo, cree que todos los fenómenos psíquicos implican una resonancia no local entre el cerebro y el vacío cuántico, y el consiguiente acceso a la información no local holográfica. A su juicio, esta hipótesis podría explicar no sólo la PK y las ESP, sino también las experiencias fuera del cuerpo y las experiencias cercanas a la muerte, las visiones y apariciones, así como las pruebas que generalmente se citan en favor de la reencarnación del alma. Él admite que esta teoría es especulativa, no validada, y que puede requerir una nueva física.

Con suerte, los nuevos estudios experimentales de los fenómenos relacionados con la conciencia, tanto normal como paranormal, nos aportarán los méritos de las distintas teorías contendientes que están a prueba. Estas investigaciones podrían profundizar en el conocimiento del funcionamiento tanto del reino cuántico como de nuestras mentes, y la relación entre ellos, e indicarnos si el vacío cuántico es realmente el nivel básico de toda existencia, o si hay reinos más profundos de la naturaleza a la espera de ser explorados. © David Pratt 1997

Fuente: “Consciousness, Causality, and Quantum Physics.” Journal of Scientific Exploration, Vol. 11 , No. 1, pp. 69-78, 1997. (http://davidpratt.info/jse.htm)

Bibliografía Bohm, D. (1984). Causality and Chance in Modern Physics. London: Routledge & Kegan Paul. First published in 1957.

Bohm, D. & Hiley, B. J. (1993). The Undivided Universe: An Ontological Interpretation of Quantum Theory. London and New York: Routledge. Bohm, D. & Peat, F. D. (1989). Science, Order & Creativity. London: Routledge. Broughton, R. S. (1991). Parapsychology: The Controversial Science. New York: Ballantine Books.

Crick, F. (1994). The Astonishing Hypothesis: The Scientific Search for the Soul. London: Simon & Schuster.

Dennett, D. C. (1991). Consciousness Explained. London: Allen Lane/Penguin. Eccles, J. C. (1994). How the Self Controls Its Brain. Berlin: Springer-Verlag. Forward, R. L. (1996). Mass modification experiment definition study. Journal of Scientific Exploration, 10:3, 325.

Giroldini, W. (1991). Eccles's model of mind-brain interaction and psychokinesis: A preliminary study. Journal of Scientific Exploration, 5:2, 145.

Goswami, A. with Reed, R. E. & Goswami, M. (1993). The Self-Aware Universe: How Consciousness Creates the Material World. New York: Tarcher/Putnam.

DogmaCero 30

Hameroff, S. R. (1994). Quantum coherence in microtubules: A neural basis for emergent consciousness? Journal of Consciousness Studies, 1:1, 91.

Herbert, N. (1993). Elemental Mind: Human Consciousness and the New Physics. New York: Dutton. Hiley, B. J. & Peat, F. D. (eds.) (1991). Quantum Implications: Essays in Honour of David Bohm. London and New York: Routledge. Inglis, B. (1984). Science and Parascience: A History of the Paranormal, 1914-1939. London: Hodder and Stoughton.

Inglis, B. (1992). Natural and Supernatural: A History of the Paranormal from the Earliest Times to 1914. Bridport/Lindfield: Prism/Unity. First published in 1977. Jahn, R. G. & Dunne, B. J. (1987). Margins of Reality: The Role of Consciousness in the Physical World. New York: Harcourt Brace. Laughlin, C. D. (1996). Archetypes, neurognosis and the quantum sea. Journal of Scientific Exploration, 10:3, 375.

Milton, R. (1994). Forbidden Science: Suppressed Research that Could Change our Lives. London: Fourth Estate.

Mitchell, E. with Williams, D. (1996). The Way of the Explorer: An Apollo Astronaut's Journey Through the Material and Mystical Worlds. New York: Putnam. Pagels, H. R. (1983). The Cosmic Code: Quantum Physics as the Language of Nature. New York: Bantam.

Sperry, R. W. (1994). Holding course amid shifting paradigms. In New Metaphysical Foundations of Modern Science, edited by W. Harman with J. Clark. Sausalito, California: Institute of Noetic Sciences.

Talbot, M. (1992). The Holographic Universe. New York: Harper Perennial. Thornton, M. (1989). Do We Have Free Will? Bristol: Bristol Classical Press.

Tiller, W. A. (1993). What are subtle energies? Journal of Scientific Exploration, 7:3, 293.

Weber, R. (1990). Dialogues with Scientists and Sages: The Search for Unity. London: Arkana.

Sobre el autor David Pratt es un investigador independiente británico, experto en lenguas modernas y traductor profesional, interesado en diversos ámbitos del conocimiento –desde la teosofía hasta las ciencias naturales– y muy particularmente en las anomalías científicas. Algunos de sus artículos han aparecido en publicaciones como el Journal of Scientific Exploration y el New Concepts in Global Tectonics Journal/Newsletter. Su página web es “Exploring Teosophy” (http:// davidpratt.info)

Purucker, G. de (1973). The Esoteric Tradition. Pasadena, California: Theosophical University Press. 2nd ed. first published in 1940. Sheldrake, R. (1989). The Presence of the Past: Morphic Resonance and the Habits of Nature. New York: Vintage.

DogmaCero

31

Wilhem Reich: historia de una ocultación (II) Artur Sala

Esta es la segunda parte del artículo de Artur Sala acerca de Wilhem Reich (1897-1957) su vida, su obra y las circunstancias que forjaron la historia de una auténtica ocultación. Con esta segunda parte concluye este trabajo de nuestro redactor y deviene en una aportación de obligada lectura, por su documentación y rigurosidad, para todos aquellos que quieran conocer el trabajo de este psiquiatra de origen austríaco, discípulo de Freud, más allá de muchas informaciones inexactas (cuando no abiertamente tendenciosas) que se han publicado. DogmaCero 32

N

os situamos a finales de los años 40. El reciente descubrimiento de la radioactividad hizo especular a Reich con una posible relación entre ésta y el orgón. Así, de la misma manera que los biones digerían las células T, ¿podía el orgón neutralizar la radioactividad?

El experimento ORANUR y el descubrimiento del D.O.R.

repartidas por todo el mundo trazas de Cesio-137 de la explosión de Hiroshima. Este hecho es catastrófico para la Tierra y ante esto Reich se sintió profundamente impresionado y vinculado cada vez más en su particular cruzada, sobretodo al ver la gran cantidad de agua que se necesitaría para reconvertir primero el ORANUR en D.O.R (deadly orgon), y en orgón después.

El DOR había sido postulado en anterioPara investigar esta cuestión, Reich colocó res experimentos como un halo negruzuna pequeña muestra de 2 mg de radio en co y no pulsante que aparecía alrededor el interior de su acumulador. El resultado del orgón. Se empezó a hablar de él en el fue completamente contrario al esperado. Análisis del Carácter, y en los experimenLa zona tuvo que ser limpiada radioactiva- tos con biones Reich observó que en altas mente durante cierto tiempo. Reich había concentraciones precipitaba en una extradescubierto el O.R.A.N.U.R (Orgonomy anti- ña forma de materia negra que llamó Menuclear radiation). Y fue entonces, ante una lanor. El DOR se presentaba en múltiples situación extraordinaria, cuando se le ocu- formas que impedían la pulsación propia del orgón, y que se encontraba en altas rrió una solución extraordinaria. concentraciones en sangre en ataques de Para deshacer la nube –y vistos los enormes rabia, ansiedad u orgasmos reprimidos. costes de desintoxicación, la premura y la alarma creada– Reich ideó un aparato consistente en una serie de tubos de cobre que podían ser alargados mediante un sistema telescópico. El extremo inferior de uno de ellos se conectaba, mediante un tubo de goma, a una acequia con agua circulante. El cobre debería de absorber el ORANUR para rápidamente expulsarlo tubo abajo, mientras que el agua circulante tendría que retenerlo y llevárselo lejos. El resultado fue espectacular, y a los pocos días los alrededores del laboratorio de Reich volvían a estar limpios de radioactividad. Lo curioso es que Reich, llevado por la urgencia, empleó tubos de cobre en vez de hierro, y ello a pesar de haber resultado siempre negativas las pruebas hechas con este metal en los acumuladores. Varias fotos del Cloudbuster Original de Reich Así, desde 1945, se planteaba el enorme problema que suponía la creación de una No todos los investigadores de la obra reisegunda energía mortal, el ORANUR (Or- chiana coinciden en las diferencias entre gonomy Antinuclear Radiation). Algunos fí- el DOR y el ORANUR. Según parece, Reich sicos nucleares creen que hoy todavía hay dejó escrito que el segundo emitía una raDogmaCero

33

El investigador James De Meo y su cloudbuster diación rojiza-púrpura que migró a negruzca (DOR), y fue entonces cuando se encontró con grandes cantidades de una energía DOR que hasta ese momento sólo era objeto de especulación. También se cree que el DOR estaría relacionado con el fenómeno del electrosmog o contaminación electromagnética producida por los aparatos electrodomésticos. Hay varios experimentos sobretodo en el campo de la geobiología y el fengshui que hablan de las energías negativas o Chi negativo. Los parecidos entre ambas descripciones nos hacen pensar que estamos hablando de una misma cosa, pero teniendo en cuenta que el ORANUR es claramente algo diferente del DOR, y muchísimo más dañino. De ser cierto el ORANUR, el ser humano vive bajo un polvorín terrible; no hay más que ver lo que Fukushima ha supuesto en costes económicos, estructurales y morales.

Una de las primeras cosas que comprobó Reich es que solo se formaban nubes cuando el cloudbuster se colocaba exclusivamente con los tubos enfocados de este a oeste; al revés se deshacían, mientras que en todas las otras direcciones no ocurría nada. También comprobó que la velocidad de los flujos de orgón atmosférico era dos veces superior a la rotación de la Tierra, y que esta aumentaba con la altura. Al mismo tiempo, la gran sensibilidad del orgón con el agua hacía que este subiera y bajara en función del grado de humedad. Varios experimentadores con el cloudbuster han verificado también que una orientación inadecuada del mismo podía crear enormes concentraciones de DOR en el cielo, hecho que permite esclarecer las diferencias entre éste y el ORANUR. En mi propia investigación personal he sido testigo reciente de un caso de éxito de un cloudbuster realizado con tubos de aluminio. En este experimento se provocaron lluvias, si bien una incorrecta orientación del mismo provocó al mismo tiempo una gran nube de DOR, que desapareció completamente al día siguiente. Asimismo, en el pasado fui testigo directo de otro caso de éxito, un novedoso experimento ecológico con un acumulador de orgón.

Éter, Dios y demonio... y la falsa premisa del experimento de Michelson Morley

Con todas las características propias que había descubierto en el orgón, Reich escribió un ensayo en el que empezó a postular Modificación del clima si el orgón no sería en realidad el preciado Esta experiencia llevó a pensar a Reich que éter, que el experimento de Michelson Morun sistema como este podía servir para ley supuestamente había tratado de negar1. afectar el clima y provocar lluvia. Si se po- Se trata, junto a Cosmic Superimposition, de día acumular orgón en un determinado dos libros que en realidad vienen a ser uno punto del cielo, se debería provocar tam- solo (de hecho se publicaron conjuntamenbién la acumulación de vapor de agua y, por te), que constituyen la parte más compleja consiguiente, la formación de nubes. Había de la obra de Reich, de la cual solo vamos a dar las pinceladas más importantes. nacido el cloudbuster. DogmaCero 34

Dibujos realizados por el propio Reich sobre como se podían hacer/deshacer nubes en función de la orientación este/oeste y viceversa. CORE (Cosmic Orgone Engineering). Publications of the Orgone Institute. Vol VI Números I-IV. Julio de 1954. Pag 37-39. Este experimento tenía dos errores de partida importantes. El primero era que, de acuerdo a los ensayos con el cloudbuster, Reich había comprobado que el orgón es un flujo dinámico y no estático, en dirección oeste a este, que era una de las hipótesis de las que el experimento partía. La segunda y más compleja sería que la propagación constante de la luz no era una constante de propagación sino de medida, y este hecho estaba relacionado con el local del campo orgónico. A este respecto, cabe decir que de ser cierto este descubrimiento absolutamente fundamental, ello comportaría simple y llanamente que la actual ciencia tiene que ser completamente reescrita. Expliquemos este concepto con la electricidad. Se dice que al aplicar una corriente sobre una resistencia los electrones empiezan a moverse impulsados por el campo eléctrico de la misma y chocan con ésta, dando como resultado la producción de luz y calor de acuerdo a la ley de Ohm (ley que, por otra parte, solo se cumple en el caso de corriente continua). La pérdida de potencia sería proporcional al producto de la co-

rriente, que sería la cantidad de electrones, por el voltaje o energía de los mismos. Sin embargo este efecto –conocido como efecto Joule– no explica por qué la corriente medida es exactamente igual si se mide antes y después de la resistencia. Si hay pérdida de energía, ¿no debería variar la velocidad y por tanto el amperaje?

Al no ocurrir esto, se puede deducir que la luz sería una manifestación del campo etérico que precipitaría sobre el cable, de la misma manera que la luz sería una forma de orgón que precipitaría sobre cada punto de una línea, que nosotros confundimos con la trayectoria de propagación de un haz luminoso. De hecho, a pesar de que la medida de amperaje está definida en los libros como cargas moviéndose de un polo a otro, la medida de la misma se especula a partir de la medida del campo magnético que se crea alrededor del conductor, ya que nunca nadie ha visto a un electrón moverse. Por tanto, no se puede asegurar que sean cargas. Y al depender solamente del medio, esto significaría que sería constante en tanto que el medio no cambiara, de manera

DogmaCero

35

des científicos proscritos por la historia llegaron exactamente a la misma conclusión sobre el éter, al considerarlo como la pieza fundamental del puzzle que significa comprender el universo. La pregunta que se deriva es obvia: ¿Estamos hablando de lo mismo?

Demasiadas casualidades

El físico Dayton Miller, fiel opositor a la idea anti-etérica de Einstein que refutó el experimento de Michelson Morley. Sus ideas cayeron en el olvido. que siempre mediríamos la misma velocidad “de propagación”, cuando en realidad sería una velocidad “de interacción etérica”.

A modo de símil, la primera conclusión sobre los experimentos con el cloudbuster es que estos demostraron que el orgón no es una bola de caucho interaccionado contra un río de energía, sino una bola rodando sobre un mar progresivo de ondas de agua. Esto llevaría a Reich a estudiar las corrientes orgónicas y sus densidades, encontrando que en los paralelos entre 30 y 60 grados de la Tierra, estos flujos eran bastante laminares y constantes en dirección oeste a este, mientras que eran más caóticos y dispares en los polos y en el Ecuador. La segunda conclusión es que había que separar la luz (que nunca se mueve) de la excitación que sí lo hace. Así pues, la “velocidad de la luz” no sería tal velocidad; en todo caso sería una constante de medida, que no de propagación.

George Lakhovsky fue un oncólogo francés de origen ruso que dirigía la planta de oncología en la Universidad de la Sorbona en París durante los años 30. Descubrió un complejo sistema que a través de una antena de alto voltaje irradiada sobre los tumores, quedando estos completamente reducidos hasta su desaparición. Este sistema llamado Oscilador de Ondas Múltiples fue probado con un éxito rotundo en varios hospitales de París, como el Hôpital Saint-Louis, el Val de Grâce, el Calvaire, el Hôpital Necker, y en otros más. En uno de sus 24 libros titulado El Universión, que era su forma de entender este mar de energía, llegó exactamente a las mismas conclusiones que Reich, en el sentido que el orgón (al que llamó universión) precipita sobre la materia, y que este posee un aspecto azulado y frío, que era el que observaba en las antenas de su oscilador. A este resultado llegó después de analizar la radiación emitida por los suelos de los diferentes barrios de París, los ciclos solares, y encontrar al mismo tiempo, que la materia física tenía un origen idéntico a la superimposición que 10 años después describiría Reich. ¿Por qué este hombre que estaba acostumbrado a lidiar con la muerte cada día se tomó tantas molestias y escribió tantos libros que –al igual que Reich– ponían patas arriba toda la concepción de la materia, la energía y el origen de la vida? ¿Acaso no tenía cosas más importantes que hacer si no había un sustrato de realidad en todo lo que decía? Al igual que Reich, murió en extrañas circunstancias.

Pues bien, a todo esto hay que aportar un En la misma línea, el genial ingeniero aledato fundamental, y es que todos los gran- mán Viktor Schauberger descubrió que en DogmaCero 36

un vórtice de agua se producen dos flujos de energía, una energía centrípeta, rojiza, caliente y destructiva, y una fría, azulada, centrífuga, y constructiva cuyas características eran idénticas al orgón. Enseguida se dio cuenta que la verdadera y sensiblemente superior forma de energía era la centrípeta o implosiva en lugar de la centrífuga o explosiva, que era precisamente la que desde la ciencia oficial se desestimaba, se ninguneaba, o se ignoraba, y diseñó varios platillos volantes basados en motores de implosión que llegó a presentar en la Exposición Internacional de París de 1930. En referencia a esta cuestión, se han vertido varias teorías sobre las supuestas tecnologías de antigravedad que desarrollaron los ingenieros nazis tras la caída del nazismo que los llevó a ocultarse en bases en la Antártida. Si bien tales teorías incluyen elementos fantasiosos, sostengo que existe un gran sustrato de verdad, y lo cierto es que hoy en día nadie pone en duda la avanzadísima tecnología que poseían los nazis hacia el final de la guerra, que incomprensiblemente no les permitió ganarla, tema que ha sido analizado por varios estudiosos de las teorías de la conspiración.

El investigador de la obra reichiana Trevor James Constable en su libro The Cosmic Pulse of Life, especulaba abiertamente con que el orgón pudiera ser la energía primordial de los OVNIS. Constable realizó varios vídeos en los que mostraba cómo un cloudbuster montado en las alas de una avioneta que volaba de este a oeste de Hawai provocaba la aparición de tormentas de lluvia etérica.

Varios físicos disidentes han alertado de que la interpretación que hay en los libros de electromagnetismo de las ecuaciones que lo rigen conocidas como ecuaciones de Maxwell son incompletas. Al resolverlas adecuadamente, además del conocido término caliente y electromagnético, aparece otro término ignorado, conocido como electricidad longitudinal y escalar, que es fría y negentrópica, hecho que científicos seguidores de la obra de Nikola Tesla como Eric Dollard o John Bedini han medido y demostrado en varios ensayos de laboratorio. Además, la corriente eléctrica caliente se propaga de manera superficial pero en un dieléctrico como pueda ser la fibra óptica ocurre lo contrario. Y lo mismo ocurre en una neurona y en la vaina de mielina que la recubre, una transmisión El mejor ejemplo lo tenemos en las centrique es opuesta a la electricidad común. fugadoras de plutonio inventadas por Manfred Von Ardenne, que permitieron a los Johann Wolfgang Von Goethe, que entre rusos disponer de la bomba atómica casi al otras cosas creó una concepción de la ciencia mismo tiempo que los americanos, aparte que se oponía a la visión mecanicista newde que es bastante probable la teoría que toniana, escribió en 1790 tras una estancia apunta que las bombas que cayeron en Ja- de dos años en Italia observando la flora pón fueran fabricadas por los nazis. Y si no... mediterránea una de sus obras fundamen¿cómo se explicaría que los rusos le dieran tales, La Metamorfosis de las Plantas, en la a un alemán el Premio Nacional de Cien- cual describía que las mismas seguían unas cias en 1946, un año después de que estos leyes de metamorfosis infinita, en forma de mataran a 20 millones de rusos durante la un proceso vivo de contracciones y expansiones en espiral a la imagen del Universo. guerra?

El orgón podría ser una forma de comunicación entre seres vivos, además de una fuente de energía

DogmaCero

37

Se ha especulado que los OVNIS basados en motores de implosión de Viktor Schauberger podían ser propulsados por energía orgónica. La forma orgánica de los mismos, nos hace pensar en ello. Profundamente influenciado por la concepción goethiana de la ciencia, el propio Rudolf Steiner creador de la agricultura biodinámica y de la ciencia antroposófica, dejó bien claro en su espeso ensayo La Ciencia Oculta los diferentes tipos de éteres y los experimentos para detectarlos y medirlos. Los más conocidos son las cristalizaciones sensibles en sales como el cloruro de cobre, que cristalizan en mayor o menor medida a partir del campo orgónico circundante y que son sensibles a la conciencia del operador, algo que también reportó Reich durante el experimento XX. Este autor ha verificado que las aseveraciones de Steiner son ciertas, y que los resultados recuerdan mucho a los obtenidos en los experimentos del conocido Masaru Emoto en meditaciones grupales sobre agua. Quizás aquello que permite que la conciencia afecte a la materia sea el campo orgónico circundante, que actuaría de puente.

observación de la naturaleza, y por advertir del peligro que la ciencia moderna estaba tomando al darle la espalda y centrarse solamente en dogmas materialistas o puramente matemáticos. Y, al igual que Reich, desaparecieron en la ignominia, muertos en extrañas circunstancias, mientras sus aparatos eran desmantelados y su legado caía en el olvido. Podríamos seguir con las coincidencias entre el orgón de Reich y los descubrimientos e ideas de Walter Russell, Thomas Henry Moray, Pier Luigi Ighina... Si tuviéramos que escoger una palabra para explicar que ha sido la historia de la ciencia del éter, esta debería de ser ocultación.

Características del orgón

Llegados a este punto, es un buen momento para resumir las características del orgón, de cara a que el lector extraiga sus conclusiones sobre la gran similitud que tiene éste con respecto a estos otros descubrimienTodos estos científicos se caracterizaron tos. Asimismo, hay que hacer notar que la por basar sus investigaciones en la mera literatura New Age y la charlatanería tiene DogmaCero 38

en este tema particular un campo propicio para alimentar sus teorías, algunas de las cuales son bastante absurdas. Así pues, conviene no sacar precipitadamente conclusiones que al final podrían resultar meras especulaciones sin fundamento. • Omnipresente en todo el universo: ¿Sería por ejemplo el orgón en su forma ondulatoria, la forma de conciencia que gobierna las capacidades superiores de la mente como pueda ser la telepatía? Una vez se ha descartado que las ondas electromagnéticas sean una forma de transmisión de pensamiento, dado que estas son frenadas fácilmente, el orgón podría ser una forma de comunicación entre seres vivos, además de una fuente de energía. El siguiente hecho apunta a esta hipótesis.

• Velocidad variable: Teniendo en cuenta que las ondas electromagnéticas tienen una velocidad medible siempre constante, pero que aun así pueden almacenar un enorme espectro de información que incluye ondas de radio, televisión, luz... ¿qué cantidad de información puede llegar a almacenar una onda cuya velocidad puede variar en el espacio y el tiempo, en frecuencia y longitud de onda? Muchos opinan que los llamados campos “akhásicos” o campos morfogenéticos, que serían campos de información compartida donde estarían desde la síntesis de todas las moléculas orgánicas hasta una memoria colectiva compartida por todo el universo, podían ser campos basados en ondas orgónicas, ondas que se propagan en una cuarta dimensión (y por este hecho ha sido tan esquiva su detección). Recientes descubrimientos han permitido detectar que el ADN emite una tenue radiación electromagnética desde el interior de su espiral (desde el vacío, por tanto), en un rango de frecuencias que va de los 150 Mhz hasta 4,8 Ghz. Al mismo tiempo, esta radiación de “punto cero” sería la responsable de que los genes pueden activarse o desactivarse, de manera instantánea y en cualquier lugar de la Tierra. Bruce Lipton en su libro La

Rudolf Steiner, autor de La Ciencia Oculta, donde se especula en la existencia de diferentes éteres, siguiendo estudios basados en la obra romántica de Goethe. Biología de la Creencia, al igual que otros divulgadores como Greg Bradden, ha dado buena cuenta de ello, abriendo con ello la posibilidad de demostrar científicamente cómo nuestra conciencia puede modificar y afectar nuestro ADN. • Tendente a enfríar en verano y a calentar en invierno: Este principio vendría a ser la demostración de que necesariamente debe existir una fuerza sutil responsable del orden inherente a toda forma de vida. Se trataría por tanto de un proceso que va en contra de las leyes de la termodinámica.

• Cuanto más sano es un organismo, más PA (potencial orgónico), y mejor percibe y atrae el campo orgónico: El campo orgónico tiende a ordenar en lugar de desordenar, y cumpliría un principio negentrópico contrario a las leyes de la termodinámica.

DogmaCero

39

vida– puede convertir este enorme mar de energía virtual y “cuatridimensional” en física, real y tridimensional.

Tubo de vacío cargado de energía orgónica azulada en una cámara oscura. 20 minutos de exposición en película ASA 3200 color Kodak 35 mm. Experimento realizado en el Orgone Biophysical Research Lab (OBRL) en una región montañosa al sur de Oregón por un grupo capitaneado por De Meo en 1995.

Cosmic superimposition “Es siempre un gran signo de ignorancia absoluta o de desorientación mística poner al hombre y sus emociones fuera del contexto de vivir de acuerdo a la naturaleza. ¿En este sentido, cuáles son las raíces del hombre en la naturaleza?” La frase pertenece al segundo capítulo del último ensayo en el que Reich formuló su última y más compleja hipótesis: la superimposición cósmica.

A partir de la impresión subjetiva realizada en sus experimentos en la cámaras oscuras sobre la forma del orgón y su aspecto ondulante, que el lector puede ver en el gráfico adjunto, Reich postuló qué podía estar ocurriendo verdaderamente cuando estas líneas se superimponían. Primero se producía una pérdida de energía cinética que permitía que estas se juntaran; al juntarse empezaban a pulsar, generando con ello materia a partir de un mar de energía virtual. La materia física y real tendría su origen en el decaimiento del campo orgónico virtual. Esto no supone una violación del primer principio de la termodinámica, sino que nos habla de un Universo lleno de energía que bajo ciertas condiciones excepcionales –como puedan ser los plasmas o la

Este principio no era nuevo en absoluto, y sería tema para escribir todo un artículo. De hecho, cada cuestión que abordó Reich daría para mucho, pero entiendo que éste en particular es especialmente importante, dado que supone una clara unión entre las ciencias tradicionales y las ciencias modernas.

En lo sucesivo, vamos a llamar la energía orgónica no masiva EONM y a la materia M. Si este principio fuera cierto, deberíamos de observar cómo este movimiento se acelera a medida que se acerca al centro, lo cual observamos en la superior velocidad de rotación de los planetas y de las estrellas interiores con respecto a la estrella/galaxia sobre la que giran. En cambio, lo que se observaba en las medidas del campo orgónico era una mayor densidad de orgón con la altura, tal y como Reich había comprobado en los experimentos con el cloudbuster, midiendo el doble de la velocidad de rotación del campo orgónico atmosférico terrestre con respecto a la Tierra física. Por tanto, había que diferenciar el potencial orgónico PA con aceleración gravitatoria, que tenía direcciones opuestas. En su método científico, Goethe ya postulaba que, aparte de las fuerzas de cohesión, necesariamente tienen que existir las fuerzas de “elevación”, concepto fundamental que Steiner desarrolla y aplica en la elaboración de su calendario biodinámico, en función de si la planta es de tipo hoja, raíz o fruto, y que coincide plenamente en la forma en que Reich especula sobre el modo en que las plantas captan esta energía orgónica a partir de este principio de superimposición. Además, el color azulado del cielo vendría a ser una manifestación del campo orgónico. El aumento de PA llegaría al máximo en la corona estelar o en la ionosfera planetaria, hecho que explicaría las elevadísimas temperaturas que en ella se producen con respecto a la superfi-

DogmaCero 40

menos lo estaban coincidía con el hecho de que los organismos con más EONM podían atraer más materia, y por otra parte, explicaba también el hecho de que el PA aumentaba con la altura. En conclusión, no había El movimiento en espiral de los planetas se- diferencia entre la forma en que aparecía la ría una combinación del movimiento circu- vida y la forma en que aparecía un planeta, lar de rotación y del lineal de translación. Y una estrella o una Galaxia; el principio, era no solo esto. Explicaría también cómo nues- el mismo. La cópula, como acto de unión, tro Sol y los planetas que giran en torno a con la superimposición de dos energías, él se mueven sobre un mismo plano espa- suponía la descarga orgásmica con la concial y cómo –al mismo tiempo– los objetos siguiente liberación de orgón. Era entonces, más masivos orbitan sobre si mismos. Por una vez que la materia se había formado por tanto, el orgón sería el motor, la energía este principio de superimposición, cuando primordial, para los cuerpos masivos y no las leyes al uso de la física y la química teexistiría ninguna fuerza de “atracción”, sino nían validez. que el orgón sería el “hermano mayor” del sistema que acompañaría al grupo entero. El nacimiento de la bioenergética Se trataba de una hipótesis que explicaría y la bio-medicina de Reich de qué manera se podían formar todos los cuerpos del universo a partir de una ener- Las medidas del campo bio-energético del gía primordial etérica. Sólo la concepción cuerpo humano parecen dar la razón al sende la ciencia occidental moderna ha llegado tido circular de dicha energía alrededor de a la absurda conclusión de que el espacio ciertos puntos, algo que conocen muy bien vacío está libre de energía y que ésta sólo los acupunturistas, y en general, todos los puede producirse de la materia mediante la conocedores de ciencias médicas tradiciodesintegración nuclear del hidrógeno. nales, a través del estudio llevado hace años cie, lo cual es un problema irresoluble con el actual modelo de formación estelar. En otras palabras: ¿quién subió la manzana de Newton al árbol?

de los nadis, los meridianos y los chakras, El hecho de que Reich observara cómo los que serían nodos de acumulación de enerbiones más dotados de PA atraían a los que gía orgónica.

Los cinco pasos de la superimposición. Dos flujos se cortan, pierden velocidad, se juntan, se superimponen y se convierten en materia. Wilhelm Reich, Cosmic Superimposition. Capítulo 1. Pag 183.

En el experimento XX, la energía orgónica era convertida en materia biónica. Los fenómenos de contracción que se observan son por tanto anteriores al movimiento, y son propios de la naturaleza, lo cual hace que aumente la concentración y la condensación, y a partir de allí existe una relación entre formas de movimiento y formas de la materia viva. Por tanto, siempre debía haber un equilibrio armónico entre la energía orgónica en el reino de lo inorgánico y la materia viva. Reich especuló después sobre las distintas formas mórficas que los diversos géneros de vida utilizan para captar dicha energía orgónica, a partir de una forma primordial

DogmaCero

41

como la que podemos ver en el gráfico adjunto y que se aplicaría al grano de todo tipo, a la fruta, al esperma, a los huevos, a los embriones, a los órganos del cuerpo, a los organismos unicelulares y en general, a la forma corporal de todos los animales, así como del resto de seres vivos.

pandiendo. Para demostrar esta segunda y polémica hipótesis, por la que ha recibido un auténtico aluvión de críticas, insultos y descalificaciones, Meyl pone varias pruebas encima de la mesa. Por un lado, los tamaños gigantescos de los dinosaurios que solo podrían darse en un planeta con menor gravedad; por otro, el hecho de que el continente Este tema, como se pueden imaginar, es Pangea emergiera sobre las aguas, lo que tan sumamente extenso que supone el na- se explicaría fácilmente en el supuesto de cimiento de una ciencia en si mismo. En el una Tierra mucho más pequeña que la acgráfico adjunto podemos ver algunas de las tual. Además, esta idea casaría con el relato formas bio-energéticas que se pueden dar, del Génesis, ya que en dicho libro se afirma aunque es en el plano galáctico donde el que en el principio de los tiempos las aguas principio de superimposición es más fácil cubrían el Planeta. Las medidas realizadas de observar. con relojes atómicos han dado la razón a Cosmología Meyl, y la tasa de incremento se ha mealternativa y dido en aproximadaReich mente unos 20 cm. anuales. Lo cierto es El físico disidente que la teoría de la Konstantin Meyl es expansión de la Tieel autor de varias rra no es nueva y fue teorías que rompen defendida por varios completamente togeólogos de renomdos los cimientos bre en su momento, de la física ortoentre los que destadoxa. Una de ellas caría Samuel Warren es la idea de que Carey. El mérito de los neutrinos, unas Meyl radica en hapartículas esquivas ber sido el primero que pueden cruzar nuestro planeta Formas mórficas de acumulación de energía en poner unas bases casi sin interaccio- orgónica. Embriones, caracoles, etc... Ref: Cos- teóricas y matemámic Superimposition. Pag 209. ticas firmes, y de hanar y que al mismo tiempo constituyen berlo contrastado con supuestamente el 99’9% de las partículas evidencias experimentales. de todo el universo interaccionarían con el plasma de las estrellas, superimponíendo- Para explicar la formación de las estrellas, se y creando con ello la materia que cons- la astrofísica oficial se basa en las hipótesis tituye los planetas y las estrellas, liberando del físico indio Subrahmanyan Chandrasecon ello gran cantidad de energía, algo que khar, que postula que las estrellas serían coincide plenamente con lo postulado por hornos nucleares de fusión de hidrógeno Reich. Esto explicaría (1) por qué el centro a helio en equilibrio con la gravedad de las de la Tierra se mantiene caliente después mismas. Esta teoría es una de las mentiras de 4.000 millones de años de haberse for- más supinas de la ciencia, ya que ni uno solo mado, y (2) por qué la Tierra se está ex- de sus postulados se cumple experimentalDogmaCero 42

La expansión de la Tierra había pasado de los 3.400 Km de radio hace 200 millones de años hasta los 6.500 actuales según Konstantin Meyl en su Libro Ondas Escalares mente, empezando por el hecho ya de por si invalidante de que la masa del Sol está aumentado –en vez de disminuir– a razón de 10 toneladas de materia por segundo, y además lo está haciendo a un ritmo que no cuadra con ningún modelo ni teórico ni experimental, cosa que obviamente reforzaría la idea de la superimposición y por tanto de la materialización. Otro físico disidente, Wallace Thornhill, autor de la teoría del Universo Eléctrico, es de la misma opinión que Meyl, y conjuntamente con el mitólogo David Talbott, ha destacado las muchas similitudes que había entre el plasma y los principios de superimposición en las culturas antiguas. Si bien es discutible su defensa de las ideas catastrofistas de Immanuel Velikovsky, lo cierto es que la teoría del Universo Eléctrico es la única que concuerda con los resultados experimentales, y –al igual que Reich– Thornhill y Talbott consideran que la gravedad es una consecuencia del plasma que enlaza a las estrellas entre si, pero no en relación directa y proporcional con la masa de los

planetas, como postula la teoría oficialista. Así, serían los enormes campos magnéticos generados por las enormes corrientes plasmáticas los responsables de la cohesión de las galaxias, y no la gravedad. La observación del universo es clara; las formas de las

DogmaCero

Wallace Thornhill, autor de la teoría del Universo Eléctrico

43

galaxias y los cúmulos globulares tienen esperan que, al deducir ecuación tras ecuatodo que ver con el plasma y nada con la ción, puedan construir algún día eventualgravedad, una fuerza billones de billones de mente algo que tenga un mínimo que ver billones de veces más pequeña que el elec- con la realidad.” Nikola Tesla. tromagnetismo y, por tanto, meramente residual. Conclusiones Por otra parte, el enigma irresoluble –para la cosmología oficial– de la materia oscura y de la energía oscura, que constituyen el 98% de toda la materia/energía del universo, hace que todas las teorías oficialistas queden invalidadas. Las teorías de la quintaesencia, las supercuerdas, la supersimetría, los 100.000 millones de euros gastados en encontrar la inútil partícula de Higgs (dicho por el propio Higgs, una vez descubierta supuestamente esta partícula en el CERN a mediados de 2012), o una supuesta quinta fuerza, que sería nuclear pero de infinito alcance, no hacen que más que añadir complejidad y absurdidad a un modelo completamente equivocado. La física es hoy en día una ciencia muerta, en la que hace años y años que no se realizan descubrimientos importantes o, en todo caso, de dudosa aplicación práctica.

Hay varios aspectos imprescindibles en la investigación de Reich en los que no he podido profundizar como la polémica con Einstein (que curiosamente hizo todo lo posible por negar el éter o apuntalar la teoría estelar de Chandrasekhar), que se negó a contestar las cartas que le mandaba Reich, o la diferencia entre electricidad estática y orgón, para respetar la filosofía de la que partía este artículo, que no es otra que introducir al lector en la obra del genio de Reich.

El error de partida es pensar que un universo que emite energía continuamente debe estar vacío de energía

Como ha quedado claro, Reich hizo de la intuición y la observación del comportamiento de la naturaleza el punto de partida fundamental de sus investigaciones, al que siempre se dedicó con un profundo amor por su trabajo y por el bien común de la Humanidad. Desgraciadamente y con el tiempo, el punto de partida de la ciencia occidental moderna ha dejado de ser la observación de la naturaleza para pasar a ser un mejunje de complicados axiomas parciales que, en lo que se refiere particularmente a la vida, poco o nada tienen que ver con la realidad.

Como el lector puede ver, el error de partida es pensar que un universo que emite energía continuamente debe estar vacío de energía. Este hecho tenía que haber sido el principio fundamental sobre el que se debería haber erigido la ciencia moderna. Sin embargo, algo crucial en el destino del El investigador independiente de la obra hombre moderno falló. Y este hecho cambió reichiana Pierre F. Walter, así como otros inel ritmo de la historia. vestigadores (cuya identidad no estoy autorizado a revelar), coinciden en el hecho de “Los científicos de hoy en día han substitui- que Reich al igual que Schauberger, Moray o do las matemáticas por los experimentos, y Lakhovsky, llegaron a la misma conclusión DogmaCero 44

que las ciencias tradicionales sobre el origen del mundo material y de cómo esto, no está separado en modo alguno de la enfermedad, la vida y por ende, de nuestra propia existencia. Y en este sentido, la ciencia moderna ha conseguido algunos hitos, que en mi opinión, nunca alcanzarán la grandeza de las ciencias tradicionales y sagradas cuya enseñanza esta reservada a unos pocos. El primer neurólogo en ganar un premio Nobel, Sir John Eccles, después de años de investigación, llegó a la conclusión de que la conciencia no reside en el cerebro sino en un campo exterior al mismo, y que el cerebro solamente vendría a ser una especie de ordenador que descodifica los mensajes que continuamente llegan de fuera, de un campo extendido u holográfico, como lo

canicista que cree erróneamente que toda la memoria reside necesariamente en un área del cerebro, como si de un disco duro se tratara.

Hasta aquí no hay nada nuevo. El problema, y en el caso de la obra de Reich es algo especialmente significativo, es de qué modo estas ideas han sido –y continuan siendo– malinterpretadas por las corrientes New Age, que quieren ver algo donde no lo hay. Finalmente, deseo insistir en que nunca aseveraría que algo es cierto si no lo he contrastado antes con mis propios ojos; este es el motivo por el cual me he posicionado firmemente con respecto a Reich. La razón de no citar determinadas fuentes no es la cobardía, sino el hecho de que ciertas obras aparecen fuera de lugar y su labor es solamente la de convertirse en faros para unos pocos. Mi experiencia me ha permitido comprobar que la mayoría de la obra de Reich ha derivado en conclusiones completamente sacadas de contexto. Entiendo que el lector ahora pueda colegir soberbia en mis palabras, pero, como he dicho, si bien hay cosas que no estoy autorizado a revelar sobre la obra de Reich, en ningún caso son producto de mi imaginación.

Espero que tras esta exposición de los resultados experimentales que descubrió Reich, el lector aprecie claramente que el orgón no es un halo extraño sino que está sujeto al método científico, esto es, a la capacidad de reproductibilidad de un experimento dado. Pero eso se producirá si uno recorre primero el camino que Reich descubrió.

Pierre F. Walter, investigador de Reich, a quien le debo muchos secretos sobre el funcionamiento del universo.

Giordano Bruno

calificaría Michael Talbott. Sin embargo, la inmensa mayoría de los neurólogos actualmente viven ajenos a estos estudios publicados en el ensayo póstumo titulado “Cómo la conciencia controla el cerebro”, y se limitan a aplicar los dogmas de la ciencia me-

Se dice que, después de siete años de duro cautiverio en prisión, el cardenal Bellarmino visitó a Giordano Bruno para implorarle que se retractara de sus ideas heréticas. Bruno rechazó tal oferta, repitiéndole la misma frase que había pronunciado a los

Y ahora, permítanme una licencia final.

DogmaCero

45

miembros del tribunal que le “juzgó” y le Escuela Española de Terapia Reichiana, ES.TE.R: http://www.esternet.org sentenció a muerte: “Maiore forsan cum timore sententiam in me fertis, quam ego accipiam”, que se podría traducir libremente como “Quizá vosotros, al dictar vuestra sentencia, sentís más miedo que yo al escucharla.”

Bruno había escrito varios tratados de astronomía que contradecían las leyes heliocéntricas imperantes, sostenidas por la Iglesia, motivo por el cual fue quemado en la hoguera a la mañana siguiente. Hasta ahí, nada que no se sepa. Lo que no se cuenta es que Bruno opinaba que necesariamente debía existir una energía especial y propia en toda forma de vida. En “Magia Naturallis”, hablaba de un universo que continuamente radiaba energía, porque tenía que estar lleno de energía. Además, expresaba una preocupación por lo absurdo de la evolución del mundo, vaticinando la implantación pocos años después –con la revolución industrial y la ilustración– de la modernidad y el progreso, de manera que al hombre, ya desvinculado de la naturaleza y sumido en el materialismo, sólo le queda vivir en una prisión de cristal para su alma. ¿Les suena de algo todo esto? © Artur Sala 2013

El sitio web de James de Meo: http://www. orgonelab.org The American College of Orgonomy and Journal of Orgonomy: http://www.orgonomy.org

Bibliografía de referencia y publicaciones en las que se basa este artículo [1.1] Wilhelm Reich. Análisis del carácter. 1933.

[1.2] Wilhelm Reich. Los experimentos con Biones. 1938.

[1.3] Wilhelm Reich. La Biopatía del Cáncer. 1948. [1.4] Wilhelm Reich. Éter, Dios y Demonio. Superimposición cósmica. 1956.

[2.1] Ola Raknes. Wilhelm Reich y la Orgonomía. Publicaciones de la escuela Española de Terapia Reichiana. Prólogo de Xavier Serrano. [3.1] James De Meo. Manual de la cámara de orgón. Natural Energy Works, Ashland, Oregon 1989. [3.2] James De Meo. Heretic’s Notebook. Energy Works, Ashland, Oregon 2002.

Para saber más El blog de Carles Frígola: http://compartir-wilhemreich. blogspot.com.es Entrevista a Carles Frígola sobre Orgonomía en Discovery Salud : http://www. dsalud.com/index.php?pagina=articulo&c1399

Fundación Española Wilhelm Reich: http://www. wilhem-reich.org/funda.html

[3.3] James De Meo. On Wilhelm Reich and Orgonomy. Natural Energy Works, Ashland, Oregon 1993. [3.4] James De Meo. Pulse of the planet #1 (Primavera 1989) #2 (Otoño 1989) y #3 (1991).

[4.1] Roberto Maglione. Wilhelm Reich e la modificazione del clima. 2004. [5.1] Trevor James Constable. The Cosmic Pulse of Life. 1976. Revisado en 1990. [6.1] Pierre F. Walter. The Science of Orgo-

DogmaCero 46

nomy. 2010.

[7.1] Leon Southgate. Chinese Medicine and Wilhelm Reich. 2009.

[8.1] Courtney Baker. Annals of the Institute of Orgonomic Science. Vol 1-10. Septiembre 1984 – Diciembre 2005. [9.1] Carlo Albini. Creazione e Castigo: La Grande Congiura contro Wilhelm Reich. 1997. [10.1] Wilhelm Reich. Where’s the truth? Letters and Journals, 1948-1957. James E. Strick. 2012.

Bibliografía anexa

Baker, Elsworth F.: Man In The Trap, Macmillan, NY, 1967.

Bean, Orson: Me And The Orgone, St. Martin’s Press, NY, 1971.

Boadella, David: Wilhelm Reich, The Evolution Of His Work, Henry Regnery, Chicago, 1973. Boadella, David (Ed.): In The Wake Of Reich, Coventure, London, 1976.

Brady, Mildred Edie, The Strange Case of Wilhelm Reich, New Republic, May 26, 1947

Cantwell, Alan, “Dr. Wilhelm Reich: Scientific Genius or Medical Madman”, New Dawn Magazine, May-June 2004. Eden, Jerome: Orgone Energy, The Answer To Atomic Suicide, Exposition, NY, 1972.

Eden, Jerome: Animal Magnetism And The Life Energy, Exposition, NY, 1974. Greenfield, Jerome: Wilhelm Reich Vs. The USA, W.W. Norton, NY, 1974.

Herskowitz, Morton: Emotional Armoring: An Introduction to Psychiatric Orgone Therapy, Transactions Press, NY 1998.

Hoppe, Walter: Wilhelm Reich Und Andere Grosse Manner Der Wissenschaft Im Kampf Mit Dem Irrationalismus (Wilhelm Reich and Other Great Men of Science in the Battle Against Irrationalism), Verlag Kurt Nane Jurgensen, Munich, 1985.

Laska, Bernd A.: Sigmund Freud contra Wilhelm Reich Auszug aus Laska, Bernd A.: Wilhelm Reich. Bildmonographie. Rowohlt, Reinbek 1981, 1999 Mann, Edward: Orgone, Reich And Eros: Wilhelm Reich’s Theory Of The Life Energy, Simon & Schuster, NY, 1973. Mann, Edward & Hoffman, Ed: The Man Who Dreamed Of Tomorrow: A Conceptual Biography Of Wilhelm Reich, J.P. Tarcher, 1980.

Martin, Jim: Wilhelm Reich and the Cold War, Flatland Books, Mendocino, CA, 2000. Meyerowitz, Jacob: Before the Beginning of Time, rRp Publishers, Easton, PA 1994. Moise, William S.: A Taste Of Color, A Touch Of Love, Hancock, Maine, 1970.

Ollendorff, Ilse: Wilhelm Reich: A Personal Biography, St. Martin’s Press, NY, 1969. Overly, Richard: Gentle Bio-Energetics: Tools for Everyone, Gentle Bioenergetics Press, Asheville, NC, 1998.

Reich, Peter: A Book Of Dreams, Harper & Row, NY, 1973. Ritter, Paul, Ed.: Wilhelm Reich Memorial Volume, Ritter Press, Nottingham, England, 1958.

Sharaf, Myron: Fury On Earth: A Biography Of Wilhlem Reich, St. Martin’s-Marek, NY, 1983.

Senf, Bernd: Die Wiederentdeckung des Lebendigen (The Rediscovery of the Living), Zweitausendeins Verlag, Frankfurt, 1996. Wilson, Robert Anton: Wilhelm Reich in Hell, Aires Press, 1998.

Wyckoff, James: Wilhelm Reich: Life Force Explorer, Fawcett, Greenwich, CT, 1973.

DogmaCero

47

ENTREVISTA A LLUÍS BOTINAS: “El SIDA fue el primer dogma mundial de terror” Xavier Bartlett y David Álvarez

Como se indica en el libro “Desmontar el Sida” escrito por el propio Lluís Botinas, “desde 1997, muchas vidas se hubiesen salvbado y muchísimo sufrimiento se hubiese evitado si los oficialistas creyentes en la ficcion VIH/SIDA hubiesen aceptado debatir las bases anti-científicas y a-biológicas sobre las que actúan. Pero no hubo debate ya que ni un solo oficialista defendió aquello por lo que cobra cada final de mes”.Esta es una entrevista polémica, destinada a abrir los ojos de quien la lea con mente abierta y sin prejucios, dispuesto a asumir una verdad inquietante. DogmaCero 48

A

sumimos que la entrevista que presentamos puede provocar ciertas alteraciones en los lectores, desde la sorpresa al rechazo total pasando por la indignación o el estupor. Casi nadie está acostumbrado a cuestionarse fácilmente las verdades y realidades que se dictan y se repiten desde los estamentos oficiales, porque no concebimos que nos puedan mentir ni engañar, sobre todo desde la “sacrosanta” ciencia. Así, y a pesar de episodios esporádicos de malas prácticas o corrupción, admitimos tácitamente que las autoridades trabajan por nuestro bien, “por nuestra seguridad”. Sin embargo, en estos convulsos tiempos que estamos viviendo, vemos que muchas instituciones (públicas y privadas) y grandes poderes de las esferas políticas, económicas y financieras no trabajan precisamente por el bien público sino en su propio interés. ¿Por qué no podría suceder algo semejante en otros ámbitos de la vida?

social que ha tenido el SIDA, no ya por las propias muertes, sino en términos de miedo, represión, vergüenza, marginación...

Pero, frente a esta verdad ampliamente difundida, uno se puede empezar a plantear qué está pasando en el mundo científico cuando lee afirmaciones como ésta: “Muchas promociones de médicos hemos ejercido nuestra profesión sabiendo que si una persona estuviera perfectamente sana y aislada de contactos con gérmenes y antígenos, debiera tener un conteo de T4 en sangre muy bajo y que, por lo contrario, una persona con altos niveles de T4 en sangre está muy contaminada e infectada. Pero de repente llegaron los especialistas de SIDA afirmando lo contrario. E incomprensiblemente se les ha permitido que maltraten a millones de personas con tamaña aberración.” (Dr. Jaime Fiol, médico retirado e investigador independiente argentino.)

Lo que viene a continuación exige una lecAsumimos también que una gran mayoría tura atenta, crítica y sin prejuicios, porque de los lectores puede tener una visión del lo que se explica pone patas arriba todas las SIDA más o menos como la que sigue (y que concepciones previas, y resultaría muy fácil se ajusta a la versión oficial): en 1981 apa- caer en la simple negación: “Esto no puereció una nueva enfermedad llamada SIDA, de ser posible de ninguna de las maneras.” mortal y contagiosa, que afectaba a ciertos No obstante, ahí está la información, que grupos de riesgo; más tarde se llegó a con- pone de manifiesto que a la gran mayoría vertir en epidemia, sobre todo en África. En de la población no le llegan noticias de que 1984 se demostró que detrás de la enfer- existen muchas voces discrepantes en todo medad había un virus, el VIH, que se trans- el mundo (incluidas algunas de alto nivel mite a través de las relaciones sexuales sin científico) que no aceptan la versión oficial preservativo, de madre a hijo, y por la san- y que plantean escenarios alternativos. gre (incluyendo jeringuillas, transfusiones, transplantes...) Luego se implantaron unos Así pues, Dogmacero –por su inequívoca tests que indican fiablemente quién está in- vocación de abrir debate científico, social fectado por este virus, o sea, quién padece e intelectual aun en terrenos complicados inmunodeficiencia (los “seropositivos”). Fi- e incómodos– ha abordado esta cuestión nalmente, desde 1995, se pudieron frenar sin complejos y ha dado voz mediante una las muertes y se consiguió que la enferme- entrevista a uno de los investigadores más dad se hiciese crónica. Todo ello gracias a críticos con la versión oficial, pero no desde los nuevos avances médicos, en especial, la el dogmatismo sino aportando pruebas, ramedición de la carga viral y la aplicación de zonamientos, hechos y datos científicos que ciertos fármacos anti-retrovirales. Sin em- deben ser valorados en su justa medida. Y bargo, a nadie se le escapa el gran impacto luego, que cada cual emita su propio juicio. DogmaCero

49

fermedad, sino como un montaje “made in USA”. Lluís Botinas actualmente es presidente de la entidad Plural-21, que se define como “Asociación para el cuidado de la vida en un planeta vivo”, si bien su principal misión es la investigación y difusión de la versión de que el SIDA es un fraude y un atentado a la salud pública mundial. Redacción Dogmacero

DogmaCero: ¿Cómo y cuándo se empezó a involucrar en la investigación del SIDA?

Lluís Botinas: Me empecé a involucrar en el tema de la salud en general el año 1988, el mismo día en que se hizo pública la sentencia del llamado “síndrome tóxico español”. Ese día tuve un “cortocircuito” porque yo me había creído la versión oficial del Lluis Botinas en su despacho de la asociación aceite de colza, y me sorprendió que acusaPlural 21 de Barcelona dos a los que se pedía cien mil años de cárLluís Botinas (Barcelona, 1944) tiene es- cel, prácticamente saliesen en libertad. Esto tudios superiores de Ciencias Físicas y me hizo sospechar que este aceite no era el Ciencias Exactas (carreras que abandonó causante del síndrome. Luego leí el libro de a la hora de matricularse en quinto cur- Andreas Faber-Kaiser “Pacto de silencio”, so) y es licenciado en Económicas. Lleva que revelaba que al poco tiempo de surgir más de 23 años investigando el fenómeno los casos se pudo determinar el causante de del SIDA desde su vertiente crítica, lo que la enfermedad, así como sus tratamientos le ha convertido en uno de los autores de eficaces, pero que se tapó todo para protereferencia a nivel mundial sobre este tema; ger a los verdaderos culpables. A partir de concretamente ha escrito dos libros especí- aquí, por razones sociales y políticas, me ficos titulados Desmontar el SIDA (2011) y impliqué a fondo en la salud, pensando en El VIH/SIDA es una ficción. Preguntas para que la gente –al conocer que la verdadera acabar con el SIDA (pendiente de publica- causa de la intoxicaciones, enfermedades, ción). A partir de una primera aproxima- etc. eran intereses económicos y polítición convencional al SIDA, Botinas trató de cos– reaccionaría y querría cambiar esta entenderlo en su contexto oficial, pero –al sociedad. De todas formas, cuando publiapreciar cada vez mayor número de incon- qué mi primer artículo sobre salud, a fines sistencias– fue desarrollando una postura de 1990, ya escribía al final una frase (que hipercrítica, que ha desembocado en una ahora pondría en mayúscula y resaltada) oposición frontal al paradigma imperante. que decía “la mayoría de enfermos prefiere En su opinión, el SIDA existe y ha tenido morir dentro del orden que pelear por vivir un gran impacto global, pero no como en- cuestionando el orden”. DogmaCero 50

Y bien, ese mismo año supe por el propio Andreas Faber-Kaiser que se había organizado C.O.B.R.A., una asociación con sede en Barcelona, que había contactado con los Beljanski, un matrimonio francés que estaba investigando sobre terapias alternativas para el cáncer, SIDA, etc. Me puse en contacto con ellos y de este modo me impliqué en C.O.B.R.A., cuyo mayor esfuerzo residía en difundir los productos de los Beljanski y al mismo tiempo en destapar el hecho de que el fármaco AZT –el primer fármaco oficialmente reconocido para el tratamiento del SIDA– es un auténtico veneno. De todas maneras, en ese momento C.O.B.R.A no ponía en entredicho la naturaleza del SIDA, sino solamente su tratamiento. Ahora bien, progresivamente me fui cuestionando la versión oficial: que si se transmitía por la relación sexual, que si era una epidemia, etc. Sin embargo, lo que más me impactó sin duda fue un artículo científico del Dr. Peter Duesberg (¡tenía sólo 11 páginas pero tardé 11 semanas en leerlo!) que me inclinó completamente a descartar que el virus VIH fuera el causante del SIDA. Duesberg presentaba una serie de pruebas de tipo biológico, virológico y epidemiológico que rebatían de forma convincente que el VIH fuese la causa del SIDA. Hay que resaltar que en aquel momento había unos 400 médicos y científicos que tenían una visión crítica; hoy en día existe un listado actualizado (disponible en http://aras.ab.ca/rethinkers.php) con más de 2.900, lo que niega la tergiversación oficialista de que sólo “cuatro atolondrados” no aceptan la versión oficial.

LB: Los que apoyan la versión disidente cuestionan la causa y el tratamiento del SIDA, pero aceptan que es una enfermedad. En cambio, la versión “montaje” cuestiona que el SIDA sea un enfermedad, con lo cual todo lo anterior queda invalidado. En mi opinión, los disidentes ayudan a que las víctimas del montaje SIDA sigan atrapadas dentro de este engranaje, porque les mantienen preocupados (incluso obsesionados) por esta supuesta enfermedad. De hecho, les hacen vivir en un estrés crónico psicoemotivo variante curativo o preventivo, que acaba produciendo realmente una situación de enfermedad. Yo he visto una receta de un médico alternativo con nada menos que 32 pastillas diarias (con vitaminas, antioxidantes, oligoelementos, omega-3, etc.) que –por muy naturales que sean las sustancias– acabará creando ese estrés que comentaba, que derivará en trastornos psico-fisiológicos. Y que conste que yo fui oficialista durante diez años (1981-1991)

Y, bueno, finalmente, en 1999 C.O.B.R.A se convirtió en Plural-21, la asociación que ahora presido, en la cual he proseguido mis labores de investigación y difusión hasta la fecha. DC: En su opinión, dejando aparte la versión oficial del SIDA, ¿cuáles son las diferencias entre la versión “disidente” y la del “montaje”, que usted defiende?

Portada del libro de Lluis Botinas “Desmontar el Sida”

DogmaCero

51

y luego disidente durante 18 años (19912009); en todo caso, no reniego de esa etapa porque aprendí mucho de ella y era lo mejor que había entonces. En lo que respecta a la versión “montaje”, yo propongo que el “tratamiento” sea simplemente salirse del engranaje SIDA, pues no hay tal enfermedad; de hecho, la gran mayoría (un 85%, según el experimento START) de etiquetados no tratados [Lluís Botinas nunca habla de enfermos o diagnosticados de SIDA sino de “etiquetados SIDA”] no tiene problemas de salud. Y si alguien tiene realmente un problema de salud, debe tratarlo al margen del montaje, fuera de la historia y de la histeria del SIDA.

oficial del SIDA; ver http://www.theperthgroup.com] es que no hay prueba científica alguna de que nadie haya aislado el VIH ni una sola vez. Por tanto, nadie tendría que afirmar que existe y menos aún que es causa de problemas de salud.

DC: Y entonces, toda la paranoia creada al entorno de la transmisión o contagio del virus por vía sexual, por hemoderivados, por jeringuilla, de madre a hijo, etc. ¿qué fundamento tendría?

Las reglas del juego que se han ido construyendo son tales que las únicas personas que nunca pueden dar positivo al test son los auténticos inmunodeficientes, dado que ellos no tienen capacidad de generar anticuerpos y menos aún en la gran cantidad que se precisa para dar positivo en los tests

DC: Vayamos al centro de la cuestión, que es su afirmación rotunda de que el SIDA no es una enfermedad sino un montaje que hay que desmontar. Así pues, ¿está usted diciendo que el virus del SIDA no existe?

LB: Hablando rigurosamente, yo no digo que no exista el virus del SIDA –nadie puede demostrar que algo no existe– pero lo que sí afirmo, apoyándome en la investigación del grupo de Perth [grupo de científicos que desde hace 30 años ha criticado la versión

LB: La cuestión de los contagios o transmisión de la enfermedad fue uno de los temas que nos puso en alerta desde el principio. Lo que fabrica supuestos contagios de la persona A a la persona B es que ambas den positivo en los tests y que haya existido una relación entre ellas. Así, la persona que supuestamente tenía antes el virus lo habría transmitido a la otra. En cambio, como pudimos comprobar en las parejas que pasaron por la asociación, en la gran mayoría de los casos uno era seropositivo y el otro seronegativo. Y estamos hablando de parejas heterosexuales estables, con niños mayores incluso, o de homosexuales con pareja de toda la vida. ¡Extraña enfermedad de transmisión sexual!

DogmaCero 52

En resumen, lo que se presenta como transmisión del virus es una interpretación estandarizada sin base científica alguna de la aplicación sucesiva de dos tests: al tener la mala suerte de dar dos positivos en dos personas se interpreta que ambas están infectadas por el virus y que ha habido transmisión de una a otra, en cierto orden cronológico. Pero es que además tampoco hay ninguna prueba científica publicada que muestre el funcionamiento de las llamadas “vías de transmisión del VIH”. Aunque, lógicamente, en última instancia, basta decir que no hay transmisión porque no hay virus que transmitir. DC: En todo caso, ¿qué ocurre con los miles de enfermos que presentan una sintomatología, que les ponen una etiqueta de enfermas de SIDA y los tratan?

LB: Bueno, realmente no hay una sintomatología específica del SIDA. Incluso el Dr. Montagnier recoge en uno de sus libros (citando al “historiador del SIDA” Mirko Grmek) que el SIDA es “esa enfermedad sin síntomas propios”. Así pues, ¿qué es lo que hace que tanta gente sea engullida por el embudo del SIDA? Los tests. Lo que realmente crea gente supuestamente infectada del supuesto VIH son los tests. La interpretación oficial de estas pruebas, que son una completa chapuza, hace creer a las personas que tienen la desgracia de dar positivo que están infectadas por el supuesto VIH. Desde mi punto de vista, la primera verdadera práctica de riesgo es someterse a un test de SIDA. Después podemos comentar esta cuestión con mayor detalle. DC: Pero sigue habiendo gente que está enferma y que presenta unos síntomas...

LB: No, no es así. Lo que presentan los etiquetados SIDA son unos marcadores indirectos que utiliza el sistema sanitario o el establishment del SIDA, que son estos: el recuento de T4 (que dicen que son defensas pero no lo son), y la llamada carga viral (que

El virólogo francés Luc Montagnier tampoco indica carga viral alguna, aunque existiera el supuesto virus). Estas son las reglas del juego que sostienen la versión oficial. El día en que podamos tumbar estas reglas, empezando porque nadie más se haga los tests de SIDA, se acabará el montaje. Oficialmente, saben –pero ocultan– que el 85% de las personas etiquetadas SIDA y no tratadas se mantiene perfectamente asintomático.

Es más, dar positivo al test nunca puede indicar inmunodeficiencia, porque las reglas del juego que se han ido construyendo son tales que las únicas personas que nunca pueden dar positivo al test son los auténticos inmunodeficientes, dado que ellos no tienen capacidad de generar anticuerpos y menos aún en la gran cantidad que se precisa para dar positivo en los tests. Así, tal como suena, una persona inmunodeficiente jamás podrá ser víctima del SIDA porque nunca dará positivo en un test de SIDA. Y la otra cara de este argumento es que los que dan positivo no pueden ser inmunodeficientes, en contra de lo que dicen los oficialistas, así como la inmensa mayoría de disidentes.

DogmaCero

53

Acceso a las instalaciones del CDC (Centers for Desease Control) en Atlanta, USA DC: ¿Y qué opinión le merecen las teorías del mundo existe la expresión “muerto de sobre si el supuesto virus era un experi- miedo”. Realmente, la sensación de terror mento biológico secreto con fines militares? puede romper el equilibrio psicosomático y causar los primeros trastornos fisiológicos RB: A estas personas, que arriesgan incluso y anímicos, lo que hace entrar a la persona su vida con esta posición, les pido lo mismo en una espiral muy peligrosa. Luego están que a los oficialistas: que primero muestren los problemas psicológicos, emocionales, pruebas científicas de que se ha aislado el sociales, etc., que se traducen en un estrés supuesto VIH. Yo estoy dispuesto a discutir crónico que a su vez pueden llevar a dar un de dónde viene el supuesto virus si antes positivo en un test. En este aspecto, el reme demuestran que existe. La verdad es fuerzo del VIH a través las ayudas bien incada uno interpretaba el origen del supues- tencionadas de amigos y familiares puede to virus según sus intereses o ideologías. ser una losa insuperable. Los estadounidenses situaban su origen en África (racismo negro), la URSS de entonces Obviamente también están los tratamientos proponía que era un producto de la guerra supuestamente anti-virales o preventivos, biológica occidental, el doctor belga Louis que en realidad son pura quimioterapia de Brouwer (contrario a las vacunaciones) (quiero resaltar que a los pacientes se les sugería que provenía de las campañas de habla de anti-retrovirales, pero entre sí los vacunación que se habían hecho en África... médicos especialistas hablan directamente DC: Aceptando pues que no hay virus VIH, de quimioterapia). Después tenemos las 29 entonces ¿cuáles son los factores que han enfermedades tapadas bajo el manto SIDA (todas ellas existentes anteriormente), los provocado la muerte de tantas personas? malos hábitos de vida, las transfusiones de RB: Bien, si no existe ni el virus ni la enfer- sangre y los trasplantes de órganos (que medad es lógico preguntarse cuál ha sido la plantean riesgos en determinados casos) o causa real de tantas muertes. En mi opinión, la condición de hemofílico. Finalmente está y con la experiencia del estudio de centena- la propia actuación de los médicos especiares de casos desde 1990, concluyo que exis- listas de SIDA, que son un auténtico nocebo, ten múltiples factores de muerte. El prime- al quitar esperanzas y aplicar los factores ro de ellos es el miedo. En todas las lenguas de muerte a los etiquetados. DogmaCero 54

Y en fin, no cabe duda de que hubo un marketing del SIDA presentando las muertes de ricos y famosos como Rock Hudson, Freddie Mercury, Anthony Perkins, Rudolf Nureyev, etc. como víctimas del SIDA, cuando lo cierto es que murieron de malos hábitos, de abuso de drogas, de enfermedades reales, y de tener dinero para comprar los primeros –y caros– tratamientos, entre los cuales estaba el AZT.

la sospecha, es que sin prueba científica alguna enseguida se aseguró que tal enfermedad era inevitablemente mortal. Si se trata de una enfermedad nueva, se ha de realizar un seguimiento durante 12, 18, o 24 meses de las personas que llegan al hospital y luego ver si realmente todas mueren.

Concretamente, el primer artículo sobre SIDA (de 6 de junio de 1981, en la revista Morbility & Mortality Weekly Report) recogía una investiDC: Para tener gación realizada una perspectiva por el Dr. Michael completa de su Gottlieb durante argumentación, seis meses en tres sería preciso hospitales genehacer un poco rales de Los Ande historia. Emgeles; en dicha inpecemos pues vestigación había por el principio: probado un apa¿Cómo nació el rato para realizar SIDA? lo que se llama “recuentos de T4” LB: El origen se y encontró cinco sitúa en 1981, casos de neumocuando los CDC nía PCP (Pneu[Centers for Democystis carinii sease Control: pneumonia) en organismo de la homosexuales administración adultos jóvenes norteamericaque le llamaron na, con influenla atención; dos cia mundial, de estas persoenfocado a denas murieron en tectar y abordar el hospital a peamenazas para sar de haber sido la salud pública] tratados con todo afirmaron que tipo de antibióse empezaba a ticos y fármacos. detectar una nueva enfermedad entre ho- Asimismo, cuatro de los casos presentaban mosexuales, caracterizada por una inmuno- un cuadro de inmunodeficiencia celular. El deficiencia celular. Esto es muy interesante artículo se publicó con una nota editorial porque la inmunidad tiene dos brazos: la que casi era tan larga como el propio texto celular y la humoral; los primeros artículos y en ella se sugería que “algo se está transhablaban sólo de la primera, pero luego se mitiendo entre los homosexuales”, a pesar obvió este punto y se habló de inmunode- de que Gottlieb dejaba claro que estos cinco ficiencia en general. Pero lo más sorpren- homosexuales no se conocían entre sí ni tedente, y esto nos debió haber conducido a nían amistades comunes.

Se adoptó la denominación AIDS (SIDA), siendo la primera vez que el término “síndrome” cambiaba de significado: antes quería decir “conjunto de signos o síntomas que caracterizaban una situación enfermiza” y ahora pasaba a significar “conjunto de enfermedades ya existentes”

DogmaCero

55

se concentraron esfuerzos y recursos en la búsqueda del virus, simplemente porque necesitaban un virus. ¡Y después dicen que nosotros no somos científicos, cuando ellos han acumulado heterodoxia sobre heterodoxia!

Lluis Botinas en una foto tomada en un momento de la entrevista Al cabo de un mes, la misma revista sacó otro artículo que hablaba de la incidencia en homosexuales del sarcoma de Kaposi (SK, que entonces se creía que era un cáncer y no una hiperplasia), y la nota editorial relacionaba este hecho con las neumonías antes citadas, lo que daba a entender que efectivamente en este colectivo “algo se estaba contagiando”. En ese primer momento se habló de GRID (Gay-Related InmumoDeficiency), una enfermedad gérmica.

Seguidamente, ya en 1982, los CDC dieron otro paso: no se trataba de una enfermedad sino de una epidemia. ¡Y hablaban de epidemia con sólo 452 casos en todos los EE UU! Entonces, según relata el Dr. Blattner, en el verano de ese año tuvo lugar una reunión de los investigadores del CDC sobre el SIDA. En esto, el director de los CDC entró en la sala y dijo: “He decidido que el SIDA es vírico”. Y para mayor sorpresa del Dr. Blattner, muchos de sus colegas empezaron a cambiar los informes que tenían preparados, que apuntaban a un origen tóxico en vez de infeccioso. (Hay que recordar que los directivos de los CDC tienen rango de oficial del Ejército de los EE UU). Desde ese momento

Además, y puesto que afirman que “hay una epidemia de SIDA”, en ese momento los CDC introducen cuatro grupos de riesgo (“las 4 h”): heroinómanos, hemofílicos, haitianos (por cierto, Haití protestó y hubo que suprimir esta h) y hetairas. Pero enseguida los propios CDC eliminaron también la h de hetairas porque sólo había casos de en prostitutas drogadictas. Lamentablemente quedaron los otros dos grupos, siendo el de los hemofílicos el que más impacto relativo ha sufrido en términos de muertes etiquetadas de SIDA.

DC: ¿Fue entonces cuando se asentó la definición de SIDA como enfermedad?

LB: Efectivamente. A finales de 1982, los CDC formulan la primera definición oficial de SIDA, en la que –aparte de recoger las dos enfermedades originales (PCP y SK)– se añaden nada menos que 10 enfermedades adicionales. Entonces se adoptó la denominación AIDS (SIDA), siendo la primera vez que el término “síndrome” cambiaba de significado: antes quería decir “conjunto de signos o síntomas que caracterizaban una situación enfermiza” y ahora pasaba a significar “conjunto de enfermedades ya existentes”, cada una con sus signos o síntomas, etiología, tratamiento, etc. propios. Posteriormente, los CDC han ido cambiando la definición –hasta cuatro veces– para ir añadiendo al saco SIDA nuevas enfermedades. Por ejemplo, de un día para otro, millones de enfermos que se habían acostado tuberculosos despertaron como “enfermos de SIDA”. Y por si fuera poco, no en todos los países se contemplan las mismas enfermedades asociadas al SIDA; por lo cual, un mismo caso puede ser “SIDA” en un país (“por definición”) y en otro no.

DogmaCero 56

DC: Y después entraron en escena los doc- sentar a Gallo y Montagnier como co-descutores Gallo y Montagnier, ¿es así? bridores y repartirse los royalties al 50%.

LB: Sí, ya que los CDC necesitaban un virus al que presentar como culpable. El 20 de mayo de 1983 el Dr. Luc Montagnier publicó en la revista Science un artículo en que afirmaba haber aislado un retrovirus en un enfermo de SIDA, si bien reconocía que había que investigar “qué papel podía tener ese virus en el origen de la enfermedad”. Por este artículo le concedieron el premio Nobel de Medicina en 2008, pero, estudiado con rigor, el artículo no prueba que se hubiera aislado ningún virus; Montagnier tan sólo encontró indicadores indirectos.

Ahora bien, con el tiempo Montagnier se fue distanciando de la versión oficial; al menos desde 1990 es disidente por cuanto considera que el virus no es suficiente para explicar la enfermedad; entonces propuso la existencia de unos co-factores necesarios. Al principio especuló con una micobacteria (que no encontró tras años de estudio) pero luego ya habló abiertamente de otro tipo de co-factores mucho más interesantes y ciertos: miedo, angustia, malnutrición, etc. O sea, estrictamente hablando, sólo Robert Gallo y sus ciegos seguidores mantienen la versión oficial de 1984.

Al contrario de lo que cree la mayoría de personas, los tests utilizados no detectan el supuesto virus sino que son “tests de anticuerpos”

Un año más tarde, el 23 de abril de 1984, tiene lugar la célebre conferencia de prensa (organizada por los NIH, National Institutes of Health, para los que trabajaba Gallo) en la que la Ministra de Sanidad de los EE UU anunciaba que “el prestigioso Dr. Gallo había aislado el virus probable causa del SIDA”. Era la primera vez que se realizaba un acto de este tipo sin ningún artículo científico previamente publicado que avalase lo expuesto en la conferencia de prensa. Además, ¡qué casualidad!, la mañana de ese mismo día el Dr. Gallo patentaba una prueba un “test para detectar el virus del SIDA”, al que se dio prioridad respecto a la patente depositada semanas antes por el Dr. Montaigner. Fue en este momento cuando se dio un cierto enfrentamiento entre EEUU y Francia por la paternidad del virus y sobre todo por los royalties de los tests. Finalmente, tras negociaciones políticas de alto nivel, Reagan y Chirac acordaron en marzo de 1987 pre-

Por cierto, déjenme comentar un hecho verídico para que se hagan una idea de qué clase de persona es Gallo. En la conferencia internacional sobre SIDA de 1998 celebrada en Ginebra, yo asistí con la credencial de “Prensa” a las sesiones. Así, en una conferencia de prensa, pude preguntar directamente al Dr. Gallo: “¿Entregará usted a los huelguistas de hambre que están a las puertas del Congreso las pruebas científicas de que usted aisló el VIH?” Entonces, él se echó hacia atrás, cruzó las manos detrás de la nuca y no dijo nada. A pesar de que se oyeron algunas voces exigiendo Answer the question! (“¡Conteste a la pregunta!”), el moderador, tras mirárselo dos veces, pasó a la siguiente pregunta. Acabada la sesión, una periodista suiza, que había estado en primera fila, se me acercó y me dijo: “¿Has oído lo que te ha contestado?” Yo repliqué que él no había dicho nada, pero ella me informó de que Ga-

DogmaCero

57

llo había murmurado: Shut up! (“¡Cierra el pico!”). ¡Ésta es la primera autoridad mundial sobre el VIH!

DC: Pero, ¿y los artículos sobre los que se basa toda la verdad científica oficial del SIDA?

LB: Bien, once días después de la conferencia, la revista Science publicó por fin cuatro artículos (uno principal y tres complementarios) del Dr. Gallo y su equipo, que constituyen los documentos que son presentados como de referencia originales. Pues bien, estos artículos ni siquiera intentan demostrar que han encontrado el virus causante del SIDA. En junio de 2008 apareció un libro escrito por la veterana periodista Janine Roberts titulado Fear of the invisible (“Miedo a lo invisible”) que prueba que Gallo cometió fraude con estos artículos, manipulando su contenido. Lo más revelador es que el jefe de laboratorio del Dr. Gallo, el Dr. Popovic, escribía en el borrador del artículo que “Pese a todos los esfuerzos de investigación realizados, el agente causal del SIDA aún no ha podido ser determinado”. Gallo tachó esta frase, y muchas otras, y envió su versión a Science, que fue publicada como “prueba científica de que se había aislado el virus causante del SIDA”. [Cabe resaltar que en 2008 más de 30 reputados científicos de 14 países escribieron una carta al director de Science para que retirara los artículos del Dr. Gallo por fraudulentos, petición que no fue atendida.]

El investigador biomédico Dr. Robert Ch. Gallo

LB: Una vez determinada la supuesta enfermedad con el supuesto virus, se tenía que hallar una forma de diagnosticar que tuviera una apariencia objetiva, dado que hasta entonces se diagnosticaba a “ojo clínico”, sobre todo si el paciente decía ser homosexual, hemofílico o drogadicto. Es reveladora la anécdota de un grupo de diez homosexuales que se hizo visitar cada uno por un médico distinto. Una vez explicada exactamente la misma historia, a nueve se les ofreció diversos tratamientos; sólo un caso se “etiquetó” de SIDA. Más tarde, el mismo grupo repitió la misma historia con DC: Por consiguiente, estaríamos ante una los mismos diez médicos pero cambiando nueva versión del emperador desnudo: de interlocutor, y en esta ocasión todos detodo el mundo hacía un acto de fe, ¿no? clararon ser homosexuales, tras lo cual se diagnosticaron ocho casos de SIDA y dos de LB: Totalmente. Es más, cuando en 1995 otros problemas. se cambia por completo el modelo de VIH/ SIDA, nadie discute nada para que no se vea Entonces, en 1985, se aprobó un test para que el emperador está desnudo, esto es, hacer únicamente el cribado (screening) de que no hay virus por ninguna parte. donaciones de sangre (pero no para diagDC: Volviendo al hilo histórico, ¿qué ocurre a partir de 1984?

nosticar “infección por VIH”). Puesto que circulaba el bulo de que “el germen causante del mortal SIDA se transmite por sangre”,

DogmaCero 58

hacía falta sacarse de la manga algo que permitiese a la población recuperar su confianza en las transfusiones. Y se adoptó la regla de juego de que, en caso de que la sangre donada diera positivo al test recién aprobado, sería destruida ante la sospecha de que podía contener el supuesto virus culpable. Este truco tranquilizó a los receptores de transfusiones, pero generó un inesperado “daño colateral” que tardaron dos años en solucionar: se fueron acumulando miles de bombas de relojería, es decir, de familias de clase media angustiadas al estar pendientes de qué significaba que un miembro de la familia que donó sangre hubiese dado positivo en “el test del SIDA”. Aquí es importante aclarar que, al contrario de lo que cree la mayoría de personas, los tests utilizados no detectan el supuesto virus sino que son “tests de anticuerpos”. Esto significa que, de entre la cantidad astronómica de anticuerpos de variadísimos tipos que tenemos en nuestra sangre, los tests detectan unos pocos tipos de anticuerpos que oficialmente se afirma (de nuevo, sin base científica alguna) que son generados por la persona solamente en presencia del supuesto VIH, por lo que falsamente aseveran que son específicos. Luego no son tests directos sino indirectos. Y tampoco son específicos, lo que implicaría que fuesen unos tests “sí-no” (si se tienen sí o no estos pocos tipos de anticuerpos supuestamente específicos). En realidad, son tests “más-menos”, es decir, indican si se tiene más cantidad o menos cantidad de los mismos tipos de anticuerpos; esto es, presentan los tests como cualitativos cuando en realidad sólo son cuantitativos. De ahí deriva que la cuestión clave es dónde se sitúa el umbral por encima del cual se etiquetará “positivo”, y por debajo, “negativo”. Y ahí también se les ha generado una complicación inesperada que evitan mencionar: los “indeterminados”. En efecto, las muestras de un gran número de personas quedan entorno al umbral, por lo que no

pueden ser etiquetadas ni “positivo” ni “negativo”. Y oficialmente se han ido aplicando distintos protocolos que tienden a etiquetar “positivo” si los indeterminados son de homosexuales y de drogadictos, y a etiquetar “negativo” si son de heterosexuales.

Y llegados a 1987 se produjo una “mini-revolución” en el SIDA. Por un lado, al primer test de detección (llamado ELISA) se le añade un segundo test denominado Western Blot (WB), que es lanzado a modo de test de confirmación, sabiendo que muchísimas personas que habían dado positivo en el ELISA luego darían negativo en el WB. Así pues, quedaron desactivados los miles de donantes de sangre que mencioné hace un momento, pero no así los homosexuales, heroinómanos y hemofílicos que volvieron a dar positivo al WB, quedando definitivamente atrapados por el montaje SIDA. Cabe señalar que las propias compañías que fabrican los tests aseguran en los prospectos que “no están concebidos para diagnosticar infección por VIH”. Incluso se afirma que los casos de positivo de WB “deberían ser seguidos por tests adicionales” (¡y se supone que el WB es el test de confirmación!). Pero hay más: se ha documentado que existen al menos 68 factores que pueden dar positivo a los tests, y para agravar más la cuestión, los tests pueden interpretarse según los países, e incluso en

DogmaCero

59

un mismo test el fabricante propone varios criterios de interpretación. Y para colmo, resulta que las diez proteínas atribuidas al supuesto VIH son todas proteínas humanas. Luego los anticuerpos detectados por estos tests son en realidad autoanticuerpos que todos tenemos en nuestro interior, por lo que cualquiera daría positivo en los tests si el establishment del SIDA no hubiese introducido un truco: diluir la muestra de suero que se sometía al test (400 veces en el ELISA y 50 en el WB), con lo cual sólo las personas con muchos anticuerpos darían positivo. Por esto es estadísticamente lógico que la mayoría de personas que dan positivo en los tests sean homosexuales pasivos, drogadictos que se inoculan en vena, y hemofílicos.

Entonces se aplicó el test al padre (y ya me explicarán cómo podía llegar el virus a la criatura sin pasar por la madre), que también dio negativo. Los médicos no se lo explican y los padres están asustados porque, aunque nadie pueda explicarlo, confían en los médicos –que a su vez confían en los tests– y aceptan que “nuestro bebé está infectado por este terrible virus”.

Afortunadamente, esta pareja conoce a nuestro entonces delegado en Andalucía, Jesús García Blanca (autor del importantísimo libro “El rapto de Higea”), que les explica que los test se interpretan de forma distinta según los países. Entonces los padres se dirigen a un hospital de Gibraltar y allí hacen el test del SIDA al bebé, Resumiendo, los que resulta netests son una gativo. A contichapuza total. Y nuación vuelven tampoco debe exmuy contentos al trañar que ocurra hospital de Máotro hecho que laga, pero allí los los oficialistas esmédicos les dicen conden: la seroque “este test no rreversión; esto vale porque no se es, que personas ha hecho en teque han dado porritorio español”. sitivo, luego den Yo propongo que negativo en un test posterior, lo cual es un para desmontar el SIDA se organice, por problema gravísimo para el estamento ofi- ejemplo, un puente aéreo entre Madrid y cial. Por ello, el protocolo de las autorida- Sidney, porque la mayoría de los que mardes sanitarias es realizar una única vez los chasen seropositivos regresarían como se“tests del SIDA”. ronegativos, dado que en Australia se aplican unos criterios muchos más restrictivos DC: ¿Nos puede explicar algún caso, a modo que los de aquí. de ejemplo, sobre cómo impacta en las personas las contradicciones de estas pruebas? DC: Siguiendo con la evolución del SIDA, ¿qué otras novedades se introdujeron en LB: En España conocimos el caso de un niño 1987? recién nacido en Málaga que dio positivo al test de SIDA ante la sorpresa del equipo LB: Aparte de lo ya mencionado, se aprobó médico, pues la madre había dado negativo. oficialmente el AZT como primer fármaco

Cabe señalar que las propias compañías que fabrican los tests [del SIDA] aseguran en los prospectos que “no están concebidos para diagnosticar infección por VIH”

DogmaCero 60

presentado como “anti-VIH”, manipulando las manifestaciones de homosexuales aterrorizados que reclamaban “¡Que se apruebe el AZT!” La realidad es que este producto, según ha demostrado el grupo de Perth, es muy nocivo por varias razones (por dañar las mitocondrias, por ser oxidante –en particular los grupos sulfidrilo–, por frenar la síntesis de ADN, etc.) pero se sigue administrando, especialmente a embarazadas seropositivas y a bebés. Además, se generalizó el impacto del montaje al incluir la “H” mayúscula de heterosexuales (con lo que toda la población quedó expuesta a ser atrapada por el engranaje SIDA). Y finalmente, cambiaron el nombre de la supuesta epidemia, pasando de ser “SIDA” a “VIH/SIDA”. Este cambio no es casual, pues coincide con la aparición en revistas científicas de los primeros artículos críticos que cuestionan la versión oficial de que “el VIH causa el SIDA”. Sin embargo, en vez de contrargumentar estas críticas, el estamento oficial adopta este nuevo nombre para inculcar de forma consciente e inconsciente la relación inseparable entre virus y enfermedad. DC: Pero los cambios realmente trascendentales se producen en 1995, ¿es así?

LB: Sí, la gran revolución dentro del VIH/ SIDA tiene lugar en 1995, y deja el SIDA más o menos como hoy lo conocemos. En primer lugar, se sustituye el modelo de VIH de Gallo-Montagnier por el modelo del Dr. Ho. Según la primera versión, el VIH sería un lentivirus, con un periodo de latencia muy largo (Gallo llegó a hablar de hasta 40 años) y era muy difícil de encontrar. De repente, con el nuevo modelo de 1995, se acepta que el VIH se multiplicaría miles de millones de veces desde el primer día y que se encuentra por todas partes. Ahora, que alguien me explique cómo una entidad biológica real puede ser tan contradictoria. Por de pronto, ni Gallo ni Montagnier dijeron nada. En segundo lugar, se aprueban los llamados cócteles y se empieza a aplicar la política de hit fast - hit hard (“golpear rápido, golpear fuerte”). Esto es, desde el momento en que alguien teme haberse infectado (“golpear rápido”), se le administran grandes dosis de cócteles (“golpear fuerte”), lo cual es el sueño de las industrias farmacéuticas del SIDA. Asimismo, se afirma –sin base científica alguna– que la enfermedad ya no es necesariamente mortal, sino que se ha cronificado gracias a los nuevos tratamientos.

DogmaCero

61

pecialistas de SIDA son todos culpables por omisión, porque saben que hay disidentes y críticos, y no se interesan por nada. La mayoría funciona por inercia, por comodidad... prefieren no complicarse la vida y cobrar un sueldo a fin de mes. DC: Así pues, ¿puede usted afirmar rotundamente que los seropositivos que se someten al tratamiento convencional tienen peor calidad de vida e incluso menor esperanza de vida que los que no toman ninguna medicación oficial?

Pero la innovación más perversa es la aprobación del marcador indirecto llamado carga viral, porque es un complicado engaño tecnológico que permite presentar como beneficiosos unos cócteles que en realidad están matando a quien los toma. Lo que ocurre es que si una persona con carga viral empieza a tomar los cócteles, desciende este marcador indirecto hasta que en un 90% se vuelve indetectable. Los médicos felicitan a su víctima por estos marcadores bajos, pero si le preguntan cómo se encuentra, en la mayoría de los casos afirmará que tiene dolores en las articulaciones, está orinando sangre, se le deposita la grasa donde no corresponde, pierde masa muscular, sufre frecuentes pesadillas y sudoraciones nocturnas, tiene deseos de suicidarse, etc. Los especialistas dicen que todo esto son efectos secundarios y que lo importante es que “la carga viral se ha hecho indetectable”. Y la gente se les está muriendo con carga viral indetectable”, luego “sin VIH”, según sus propios criterios... Ante todo esto, debo decir que hay unos culpables por acción, unos pocos, pero los es-

LB: Sí, por supuesto: intoxicarse con quimioterapia diaria sólo puede acarrear perjuicios. Ampliando lo dicho anteriormente, las personas que no toman nunca o que abandonan convencidos los ARV (anti-retrovirales) en su gran mayoría mantienen o recuperan un buen estado de salud, mientras que las que reciben el tratamiento oficial, incluso el preventivo, se van envenenando día a día. Por otra parte, los oficialistas no han demostrado que los ARV alarguen la vida de los afectados, como consta en los estudios oficiales. Así, en agosto del 2006 la revista The Lancet publicó un metaestudio firmado por unos 300 oficialistas sobre el seguimiento de 22.217 adultos etiquetados seropositivos de Europa, EE UU, Canadá y otros países que tomaron cócteles entre 1995 y 2003. En este documento se afirma que “no hubo reducción alguna en la mortalidad por todas las causas, y (sí hubo) un significativo aumento del riesgo combinado de muerte por SIDA y relacionada con SIDA, en los años más recientes”. En fin, algunas explicaciones oficiales sobre la acción de los ARV son muy significativas; por ejemplo dicen que: “el tratamiento antirretroviral tiene limitaciones, dado que la erradicación del VIH no es posible, que un 40% de pacientes fracasan al tratamiento y tienen virus resistentes (¡léase con atención que son los pacientes los que fracasan y no el tratamiento!) y que tiene efectos secundarios, especialmente metabólicos, aumentando la morbilidad.”

DogmaCero 62

LB: En efecto, consideramos que acabar con el SIDA debe situarse en el campo político-delictivo-criminal. Para dar este paso decisivo me ha inspirado la actuación de Clark Baker, una persona con la que en principio no me uniría nada, pues yo vengo de la clandestinidad, la ilegalidad, la extrema izquierda, etc. y él tiene 80 condecoraciones por sus servicios a los EE UU, como marine y luego como oficial de policía en Los Angeles desde 1980 al 2000 (actualmente es detective privado). Pues bien, en un momento dado pidieron a Baker un informe sobre el SIDA, y él me explicó que fue a hablar con los oficialistas, que le dijeron que los negacionistas eran unos criminales, responsables de la muerte de millones de personas, DC: ¿Y qué sucedió con la terrible plaga del y que no fuese a hablar con ellos. Entonces SIDA en África? Baker, con la experiencia de haber perseguido y puesto entre rejas a muchos crimiLB: Nunca ha habido epidemia de SIDA en nales, quedó sorprendido. No entendía que ningún lugar, y menos en África. Si se hu- en vez de animarle a detenerlos, le dijeran biesen cumplido las predicciones lanzadas que ni siquiera fuera a hablar con ellos, tras a mediados de los ochenta, África se habría lo cual le quedó claro enseguida que los cridespoblado tres veces pero está sucedien- minales eran los oficialistas. do lo contrario: hay una explosión demográfica tal que el Banco Mundial preveía en A raíz de este suceso, Baker se ha propues2008 que en el 2036 África habrá duplicado to dedicar lo que le queda de vida a que la su población. justicia lleve a prisión al Dr. Fauci, al Dr. Baltimore, al Dr. Gallo... a los que han montado El secreto de la supuesta “terrible epidemia este crimen masivo a gran escala. Para ello de SIDA en África” es que los africanos que ha organizado una Office of Medical Scientisiguen muriendo de malaria, tuberculosis, fic Justice (OMSJ) y ha reunido un equipo de tifus, hepatitis, diarrea o hambre, ahora son presentados como “muertos de SIDA”. En vez de explicar tales muertes por las condiciones de pobreza y explotación, se echa las culpas al supuesto “VIH” y se pide muchísimo más “apoyo internacional” para comprar cócteles… cuando afortunadamente la falta de dinero ha hecho que los ARV hayan matado a pocos africanos… hasta ahora. Lo que sucede es esperpéntico: se les mueren casi sin “enfermedades oportunistas que adquirían por estar inmunodeficientes a causa del SIDA”. Luego sus víctimas fallecen “sin VIH” y “sin SIDA” aunque van a parar a las estadísticas de “muertos de SIDA por culpa del VIH”… estadísticas que, por cierto, silencian a fin de alimentar el engaño de la supuesta cronificación. El gran logro de los carísimos tratamientos oficiales es que sus víctimas no mueren de “VIH” ni de “SIDA” sino de fallo hepático, de fallo renal, de fallo del páncreas, de fallo del corazón y de enfermedades no definitorias de SIDA, todo ello causado básicamente por los propios tratamientos. De juzgado de guardia.

DC: Usted afirma que el tema SIDA debe pasar sin demora del ámbito científico-médico al delictivo-criminal. ¿Qué iniciativas se están llevando a cabo actualmente en este sentido?

DogmaCero

El ex policía Clark Baker

63

LB: Para mí el responsable está claro: los CDC. Dicho de otra manera: la causa del SIDA son los CDC. En cuanto a las motivaciones tengo dos hipótesis, una suave y otra dura. La suave es que las mismas dinámicas existentes en la sociedad occidental moderna produjeron todo el engranaje: había un investigador que estaba haciendo un trabajo particular que quería publicar (y que se concentraba en unos casos de homosexuales). Luego, cuando comienza a circular que “algo se está contagiando entre homosexuales” y que los mata, surge un fenómeno de homofobia, telepredicadores, reprimidos, etc. que celebra que haya aparecido un castigo divino contra los promiscuos. Y Hasta la fecha, en 53 casos los jueces han los medios de comunicación ven que si hadejado en libertad al acusado. Y resulta re- blan de esto venden más, y después llegan velador que por lo menos en dos casos el las farmacéuticas que también se suben al juez ha tenido que anular el juicio porque tren, etc. los fiscales no han encontrado ningún especialista (entre las decenas de miles que en La hipótesis dura plantea que los CDC halos EE UU viven del tinglado SIDA) que se brían construido el montaje SIDA intencioatreva a ir a juicio para apoyar a la acusa- nadamente cumpliendo su tarea patriótica ción. ¿Por qué? Porque una cosa es acudir de detectar, prevenir y solucionar problea congresos nacionales e internacionales, mas de salud pública. El origen de todo aparecer en los medios de comunicación, estaría en afrontar un gran problema de la participar en galas benéficas como “héroes medicina occidental: la resistencia microde la lucha contra la terrible epidemia de biana a los antibióticos en particular y a SIDA”, etc. y otra muy distinta es ir a juicio los fármacos en general. Esto es, cada año bajo juramento, y por tanto con riesgo de mueren cientos de miles o probablemente cometer perjurio y de acabar en prisión. millones de personas por infecciones fulmiEsto lo puede entender todo el mundo. Has- nantes que adquieren cuando ingresan en ta el momento, esta explosiva noticia no ha un hospital. Este problema era enorme en llegado a los medios de comunicación, pero los EE UU, el primer país que quimicalizó la Baker considera que cuando la cifra llegue medicina. Según mi hipótesis, hacia 1973 a 100, 150, 200... los medios tendrán que los CDC decidieron realizar un experimento hacerse eco de esta realidad. Y esto es una para obtener mucha información acerca de bomba. cómo funcionan los antibióticos, en particular el Septrin. Entonces escogieron un gruLo cierto es que Clark Baker es el único di- po social determinado para implementar sidente que está al ataque. Los disidentes el experimento: los homosexuales que lleen general están a la defensiva, y siguen pi- vaban una vida caótica en el contexto de la diendo un debate científico al que el esta- revolución gay de los setenta. La razón para mento oficial se ha negado totalmente aun- esta elección es que este grupo presentaba que afirma que “todo está demostrado”. la ventaja patriótica de que no se reproducían, con lo cual el daño que se les pudiera DC: Llegados a este punto, nos gustaría sa- provocar no pasaría a futuras generaciones ber cuál sería su explicación del montaje ni se extendería al conjunto de la población SIDA, es decir, ¿quién y por qué lo impulsó? estadounidense. abogados, científicos y médicos independientes que asesoran a los abogados defensores de personas a las que se les pide 10, 20, 30 ó 40 años de prisión por contagiar a terceras personas el supuesto VIH. Hay que señalar que sólo en EE UU hay centenares de personas en prisión por este supuesto delito. Lo que está ocurriendo es que las defensas, bien preparadas, han rebatido los argumentos de la acusación, en especial en el tema de los tests, y los jueces llegan a la conclusión de que “existe una duda razonable” de que la persona acusada esté realmente infectada por el VIH y aún más de que lo haya transmitido.

DogmaCero 64

El experimento, que se vehiculó a través de médicos homosexuales que trataban homosexuales, consistió en fomentar el uso de antibióticos como preventivo. Así, antes de cualquier relación, se daría un “chute” de antibióticos para prevenir enfermedades de transmisión sexual. Pero cuando el Dr. Gottlieb presentó los dos casos de homosexuales adultos jóvenes que habían fallecido en el hospital a pesar de haberles administrado todo el arsenal de antibióticos, se encendió la luz roja: habían sido detectadas las dos primeras víctimas del experimento que habían iniciado, según mi estimación, hasta ocho años antes. Entonces los CDC supieron que iban a aparecer homosexuales muertos en todas las ciudades donde había una extensa comunidad gay. Así, para tapar las muertes, se sacaron de la manga una enfermedad “inevitablemente mortal”, y al año siguiente difuminaron las fronteras del experimento ampliando los grupos de riesgo para que no se detectara que era específico sobre homosexuales.

DC: Concluyendo, ¿cómo ve el hecho de que la gente acepte la medicina oficial y los sistemas públicos de salud como algo indiscutible y muy positivo (y aún más en esta época caracterizada por el recorte drástico de estos servicios)? ¿No es este un motivo que les empuja a rechazar cualquier versión que cuestione el sistema?

LB: Tras estar metido hasta el cuello en el tema salud desde 1988, he llegado a la conclusión de que el sistema sanitario es contra la salud. Cuando hay manifestaciones contra los recortes, yo no voy, porque yo iría con una pancarta que pusiera “recortes: el 95%” y me partirían la cara. Es razonable un 5% de cirugía de accidentados y algunas otras emergencias pero nada m á s . Ta m b i é n puedo decir que con la construcción del SIDA, que a mi entender fue el primer dogma mundial de terror, han ido aplicando el mismo modelo cada tres o cuatro años, como vimos con la “terrible pandemia de terrible gripe A”, e incluso hace un mes empezaron a circular noticias sobre la apaY ahora el experimento continúa a la luz del rición de un nuevo virus pero parece que día y a gran escala porque tienen millones esta campaña ha sido descartada… o simde personas en el mundo que están decidi- plemente retenida. das –gratuita y voluntariamente– a tomar cualquier fármaco que digan que sirve para Está claro que a la gente poderosa, la que combatir el SIDA. Y este es el sueño de las monta todo esto, les interesa tener a la pomultinacionales farmacéuticas y de algunos blación asustada y controlada; más aún que políticos y administradores. En fin, insisto ganar dinero, porque el dinero ya lo tienen. en que esto es una hipótesis y dejo claro A este respecto, el Dr. Hamer afirmó que el que si alguien viene con una hipótesis me- objetivo de la gripe A era llevar a cabo la implantación masiva de microchips cuando jor, estoy dispuesto a escucharla.

El origen de todo estaría en afrontar un gran problema de la medicina occidental: la resistencia microbiana a los antibióticos en particular y a los fármacos en general

DogmaCero

65

inyectasen la vacuna en las personas. Esto tiene sentido si observamos el acuerdo que hubo entre el Ministerio de Salud y el Ejército de los EE UU para aplicar la vacunación: abrieron unos 900 campos de cuarentena (campos de concentración) para encerrar a las personas que se negasen a vacunarse. DC: ¿Algún mensaje final que quiera trasladar a los lectores?

LB: Invito a todo el mundo a estudiar el tema y a actuar en consecuencia. En mis cursos de “Formación de desmontadores del SIDA” que imparto cada tercer sábado de mes empiezo diciendo que nadie crea nada de lo que voy a explicar, pero que investiguen y contrasten, que pregunten a unos y a otros, y que saquen sus conclusiones. © Xavier Bartlett / David Alvarez 2013 Nota de Xavier Bartlett: dedico esta entrevista con especial afecto a Carmen Torres, autora del libro “ELISA mató a Ruth”, que desgraciadamente aún no ha encontrado editor.

COSTA, Enric. Juicio a un virus inocente. Ed. Mandala. Madrid, 1993. HELMAN, Alfonso. El gran fiasco: el SIDA no es causado por el VIH. Prestigio Editorial Colombiana. Barranquilla, 1997.

MAGGIORE, Christine. ¿Qué tal si todo lo crees acerca del SIDA fuera falso? The American Foundation for AIDS Alternatives, 1999. ROBERTS, Janine. Fear of the invisble: How scared should we be of viruses and vaccines, HIV and AIDS impact. Investigative media Productions. 2008 Documentales

LEUNG, Brent. House of Numbers (2010) www.houseofnumbers.com Disponible en youtube con subtítulos en castellano: http://www.youtube.com/watch?v=l6F9edZLUwA

TAGLIATTI, Antonio. Deshaciendo el montaje del SIDA (2006) Conferencia filmada http://karbolarium.blogspot. com/2009/07/deshaciendo-el-montaje-del-sida-antonio.html Sitios web

Para saber más: Libros BELJANSKI, Mirko y Monique. La salud secuestrada. Una solución al cáncer y al SIDA silenciada por la industria farmacéutica. Libros Límite-C.O.B.R.A. Barcelona, 1991. BOTINAS, Lluís. Desmontar el SIDA. Ed. CAUAC. Barcelona, 2011.

CAMPOS, Luis Carlos. La macroestafa del SIDA y el mito de la transmisión sexual. Ed. Planeta Matrix. Sevilla, 2009.

http://plural-21.org

http://desmontarelsida.wordpress.com http://www.laverdaddelsida.com http://www.theperthgroup.com http://www.omsj.org http://aras.ab.ca

http://www.duesberg.com

DogmaCero 66

Página web de la asociación Plural 21 en donde puede encontrarse información y enlaces acerca de las cuestiones que se plantean en esta entrevista, así como de las actividades que periódicamente se organizan. http://plural-21.org DogmaCero

67

Anomalías y sorpresas: las grietas del paradigma científico Henry H. Bauer

Henry H. Bauer (Viena, 1931) es profesor emérito de Estudios de Química y Ciencias, y decano emérito de Ciencias y Letras del Virginia Polytechnic Institute & State University. Si bien Bauer ha desarrollado una carrera académica convencional, desde hace años se ha acercado a ciertos temas, teorías y corrientes alternativas en ciencia, desde una perspectiva rigurosa y racional pero crítica con la visión académica mayoritaria. Por este motivo se ha interesado en asuntos diversos como el supuesto monstruo del lago Ness, los fenómenos paranormales o los OVNI, y ha sido especialmente crítico con la versión oficial del SIDA por considerarla acientífica, aunque por otro lado también ha criticado las teorías de Velikovsky, uno de los adalides de la heterodoxia científica.

DogmaCero 68

M

e impresiona que hayan pasado ya más de 20 años desde que se fundó esta Sociedad (Society for Scientific Exploration). Estoy agradecido por la oportunidad que se me brinda de revisar algunas de las cosas que he aprendido durante estas dos décadas y de expresar mi gran agradecimiento a los fundadores, miembros y simpatizantes de la Sociedad, quienes me ayudaron a ampliar mis horizontes intelectuales. Creo que esto equivale a seguir siendo joven, si bien algunas personas lo consideran no como juventud, sino como inmadurez o ingenuidad.

Sin embargo, la lectura casual de un libro me puso frente a los ojos pruebas aparentemente sustanciales de que el monstruo del lago Ness podría ser un animal real, y ello me hizo cuestionar por qué la ciencia organizada no parecía sentir curiosidad por él.

Afortunadamente para mí, empecé a pensar seriamente en este tema justo cuando se estaba fundando esta Sociedad. No obstante, a lo largo de unos cuantos años, mis colaboraciones dentro de esta Sociedad no hicieron más que aumentar mi estado de perplejidad. Por un lado, me parecía evidente que sólo unas pocas de estas anomalías consiPeter Sturrock me sugirió el tema: “¿Cuan- deradas como extraordinarias podrían redo una sorpresa es una anomalía?” sultar válidas hasta cierto punto: el Nessie, los Bigfoot, los ovnis, la telequinesia, la reEn mi opinión, entiendo que una sorpre- encarnación, la combustión humana esponsa es una anomalía cuando la sorpresa no tánea, la curación por la fe, etc., etc. Por otro sólo es algo inesperado –que lo es por de- lado, llegué a conocer y a respetar a ciertas finición– sino cuando también contradice personas que se toman muy en serio toda de alguna manera las creencias bien establecidas. Puedo resultar sorprendido si de repente 50 personas se agolpan en mi casa para celebrar una fiesta sorpresa de cumpleaños, pero ello no inflige daño alguno a mi visión de lo que son los acontecimientos normales. Sin embargo, sí me sorprendería de verdad encontrarme a mí mismo siendo examinado en un OVNI por seres extraños, después de haber sido secuestrado. Eso sería una sorpresa anómala: mi visión del mundo quedaría sacudida por este hecho. ¿Es por tanto cada anomalía también una sorpresa? Yo antes pensaba que sí, pero ya no, y esto es de lo que quiero hablar.

Las anomalías como algo anómalo

Creo que yo era el caso típico de persona formada en la ciencia en la presunción de que las anomalías son anómalas. Igual de típica era mi falta de formación en filosofía de la ciencia; la historia que nos enseñaron era la tradicional secuencia cronólogica de un notorio progreso, de una ciencia que alcanzaba gradualmente un mayor y más profundo conocimiento y comprensión.

una gama de afirmaciones extraordinariamente anómalas. ¿Tenían que estar necesariamente equivocadas?

Las anomalías como una norma en el progreso de la ciencia Consideremos por un momento la historia de las reivindicaciones anómalas. Sin duda, lo que ahora llamamos “anomalías” no siempre fueron sorprendentes. Una anoma-

DogmaCero

69

lía va en contra de las expectativas. Cuando la humanidad tenía poco conocimiento, también había muy pocas pautas sobre lo que cabía esperar: las cosas simplemente ocurrían y tenían que ser aceptadas como algo que ocurre naturalmente. Siglos antes de que surgiera la ciencia moderna, las personas emprendieron la observación cada vez más sistemática de la naturaleza, lo que los historiadores llaman historia natural. Como punto de partida, esta actividad debía haber implicado una mente bastante abierta: se sabía muy poco y lo que se observaba sólo se podía tomar como tal observación. Pero a medida que se acumulaba el conocimiento, aparecieron presuntas generalidades y conexiones, y de este modo, uno podía esperar razonablemente que se diesen ciertos eventos bajo determinadas circunstancias. Por ejemplo, se podía estar bastante seguro de que el próximo cisne que se viera sería blanco, y que el siguiente cuervo sería negro. Así pues, las anomalías científicas surgieron cuando la ciencia alcanzó un cierto nivel de confianza, al conocer en qué consiste el mundo y cómo funciona. Fue hacia finales del siglo XIX cuando se llegó a un alto nivel de esa confianza. Para entonces la física, luego la química, a continuación la geología, y finalmente la biología se habían hecho reconociblemente modernas, con sus correspondientes paradigmas. Desde entonces hemos “conocido” bastante bien lo que cabe esperar a medida que estudiamos el mundo con mayor detalle. Sin embargo, la historia nos enseña que a tal firme expectativa siempre le ha seguido una humillante sorpresa.

Las anomalías van en contra de la teoría científica aceptada. Pero sería erróneo equiparar nuestro acervo de conocimiento científico acumulado con los actuales paradigmas teóricos: el conocimiento crece mientras que las teorías cambian. Este error de equiparar conocimientos y teorías ha sido cometido –por supuesto no

conscientemente– por muchos científicos en ejercicio, y en mayor grado por ciertos elementos de la ciencia que se hacen llamar “escépticos”. Para ellos, las anomalías siempre surgen como sorpresas; más aún, como sorpresas no deseadas. Sigue siendo una de las ideas más relegadas en la naturaleza de la ciencia el reconocimiento de que ésta no avanza progresivamente, sino a través de la revolución y frente a una constante resistencia. Hace ya cuatro décadas, Thomas Kuhn (1970) describió las revoluciones científicas y Bernard Barber (1961) abordó “la resistencia de los científicos a los descubrimiento científicos”. Barber destacaba que las ideas o hechos contrarios son sistemática e inevitablemente combatidos desde el inicio por la comunidad científica. Como ejemplos, mencionaba a Abel (matemáticas), Arrhenius y Faraday (química física), Ampère, Ohm y Maxwell (electricidad y magnetismo), Heaviside (propagación de ondas de radio des-

Portada de la edición española de La estructura de las revolusiones científicas de Thomas S. Kuhn

DogmaCero 70

de la ionosfera), Karl Pearson (biometría), Magendie (química en la medicina), Lister (asepsia), Pasteur (fermentación causada biológicamente), Darwin (evolución como resultado de la selección natural), una panoplia de nombres ahora venerados que, cuando propusieron por primera vez sus descubrimientos, fueron cualquier cosa menos reverenciados por sus compañeros. En una línea similar, Gunther Stent (1972) ha descrito casos de ciencia “prematura” –ignorada por la corriente mayoritaria durante largo tiempo antes de ser aceptada– como, por ejemplo, el descubrimiento de las reglas de la herencia de Mendel o la deriva de los continentes de Alfred Wegener (Sullivan, 1974).

anomalías son un hecho normal: creo que van a ser cada vez más prominentes. En general se acepta que el conocimiento se ha ido expandiendo y que la ciencia ha ido creciendo a un ritmo cada vez mayor. Dado que las anomalías constituyen un factor regular y necesario de las revoluciones científicas que marcan el progreso de la ciencia, necesariamente colegimos que van a surgir con más frecuencia.

¿Por qué la comunidad científica no ha aprendido ya a estas alturas que las anomalías conducen al progreso, y que por consiguiente no deberían ser tan escrupulosamente ignoradas, denigradas y combatidas? Porque la comunidad científica es una En otras palabras, colección de los cuando se trata del seres humanos. progreso de la cienIndividualmente, cia en vez de su rutilos seres humanos naria actividad ofiprefieren no tener cial, las anomalías que cambiar de no son en modo alopinión; colectivaguno anómalas. Con mente, aún están todo, las anomalías más decididos a siempre resultan ser una sorpresa para los no cambiar. Por lo tanto, los nuevos enfoprofesionales de la la especialidad en la que ques pasan por tiempos difíciles antes de aparecen. Sin embargo, no es una sorpresa, establecerse, no importa lo que la historia objetivamente hablando, que surjan conti- o la lógica hayan podido mostrar. Merece la nuamente anomalías y que periódicamente pena recordar la Ley de Parkinson: cuanprovoquen cambios en la manera en que do una institución humana ha adquirido la vemos el mundo. Los científicos sólo espe- hegemonía, también es señal de que se ha ran que las anomalías aparezcan en el patio hecho obsoleta. Parkinson citó la Armada trasero de otros, pero no en el suyo propio. británica, pero creo que la misma ley se aplica a los colegios invisibles de la comunidad cienLas anomalías como algo cada vez tífica.

¿Por qué la comunidad científica no ha aprendido ya a estas alturas que las anomalías conducen al progreso, y que por consiguiente no deberían ser tan escrupulosamente ignoradas, denigradas y combatidas?

más común

Sin embargo, yendo más lejos, no me conformo con sugerir simplemente que las

Un paradigma sólido, una visión del mundo aceptada, o un conjunto de teorías científicas se establecen debido a su éxito en la

DogmaCero

71

tarea de organizar y “explicar” lo que se conoce. En ningún momento, sin embargo, se puede conocer todo. Por lo tanto, cualquier paradigma es obsoleto desde el momento en que se llega a establecer, pues ignora los nuevos conocimientos que están por venir.

¿Deberíamos, entonces, ponernos como objetivo derribar los paradigmas tan pronto como son aceptados? Por supuesto que no. Hay más propuestas de nuevos enfoques y aparentes anomalías de las que podemos abarcar en un momento dado. En ciencia, la enorme fiabilidad del conocimiento (dado más o menos por seguro) depende hoy en día de la defensa vigilante contra los ataques prematuros sobre las teorías y los datos existentes. Como Bernard Barber puso de manifiesto, es apropiado, necesario y útil que las anomalías sean tratadas por la comunidad científica con gran incredulidad hasta que se conviertan en pruebas abrumadoras e irresistibles. En ciencia, al igual que en otros ámbitos humanos, bien se puede decir lo siguiente de la experiencia del pasado: “esto ha funcionado, y además ha funcionado bastante bien (lo suficiente en su momento), y así pues deberíamos pensárnoslo varias veces antes de cambiar nada”. Así, no sólo deberíamos asegurarnos de que algo está roto del todo antes de arreglarlo, sino también que la nueva solución funcionará sensiblemente mejor. Por lo tanto, la resistencia a los nuevos descubrimientos desempeña una función vital. Ahora bien, ¿hay alguna manera de juzgar cuando se convierte en excesiva?

La resistencia cumple una función intelectual importante, al situar acertadamente el peso de la prueba sobre la nueva propuesta. Sin embargo, la resistencia también puede surgir de arraigados intereses no-intelectuales, y cuando eso sucede se convierte en algo disfuncional. Podemos ver clásicos ejemplos de esto en las interferencias políticas en la ciencia, como sucedió en los casos de la Alemania nazi o la Unión Soviética. En una sociedad libre como la nuestra no

existe una interferencia tan genuinamente política, pero aun así, cualquier cosa que controle el funcionamiento de una sociedad conlleva intereses creados que pueden incidir en el progreso científico. Actualmente, creo que la dependencia de los mercados económicos, que regulan casi todo lo que pasa en la sociedad, constituye un considerable peligro para la ciencia, tanto para la investigación como para las aplicaciones de la investigación.

Dado el número cada vez mayor de especialidades, la investigación se hace cada vez más cara; así pues, las personas que la sufragan quieren ejercer un mayor control y buscan aplicaciones inmediatas explotables. Cito textualmente: “Todo el mundo está trabajando en proyectos cuyo resultado debe ser conocido de antemano, ya que de lo contrario la desmesurada inversión financiera no podría justificarse [...] uno de mis estudios actuales cuesta de producir entre veinte y veinticinco veces más que un artículo equivalente realizado hace treinta y cinco años” (Chargaff, 1977: 5556, 64, 65)... y esto se escribió hace más de 25 años. De este modo, los que quieren emprender una investigación se sienten cada vez bajo mayor presión de producir lo que sus patrocinadores desean: “los científicos han de cantar para conseguir su dinero mucho después de haber perdido sus juveniles voces” (Chargaff, 1977: 65). Así, uno de los resultados de la ciencia basada en el negocio es el creciente número de escándalos, sobre todo en la investigación biomédica, en la cual parece que se tiende a ocultar a la opinión pública los desagradables efectos secundarios o la falta de eficacia de los nuevos medicamentos hasta que ya se ha producido un daño considerable.

Aquí tenemos otro ejemplo de intereses creados en la investigación, de nuevo según Chargaff: “Como si fuera una orden, toda universidad, instituto de tecnología o laboratorio de investigación siente la repentina necesidad de abrir un instituto de cáncer... uno se sorprende ante la repentina pléto-

DogmaCero 72

ra de talento terapéutico” (Chargaff, 1977: 87n). Y añade: “En nuestro tiempo un exitoso investigador del cáncer no es alguien que resuelve el enigma, sino más bien el que recibe una gran cantidad de dinero para hacerlo. Todo esto es bastante similar a la historia de la alquimia, otra empresa claramente dirigida, aunque sin duda mucho menos costosa” (Chargaff, 1977: 89).

dominio de los patrocinadores financieros también podría ser una advertencia para nosotros: si bien resulta tentadora la búsqueda de apoyos sustanciales para nuestro trabajo, todavía hay mucho que decir sobre el hecho de mantener nuestro estatus de amateurs. © Henry H. Bauer 2001

Fuente: Journal of Scientific Exploration, Vol. Hoy en día tenemos la tragedia del SIDA, 15, No. 4, 2001. Artículo presentado en la cuyo dogma mayoritario –que el VIH es su 20 ª reunión anual de la Society for Scientila causa, sometiendo así a decenas o cientos fic Exploration, junio de 2001. de miles de personas a los llamados tratamientos inadecuados (de hecho mortales)– ha llevado a varias compañías farmacéuti- Henry Bauer fue editor jefe del Journal of cas a obtener beneficios sin precedentes. Scientific Exploration (2000-2007). Entre sus obras más destacadas podemos citar: Hace veinte años pensé que esta Sociedad Dogmatism in science and medicine (2012), podría ocupar un eficaz nicho, abordando The origin, persistence and failings of HIV/ los temas que la ciencia convencional igno- AIDS theory (2007), Fatal attractions: the ra. Ahora he llegado a la conclusión de que troubles with science (2001), Science or también puede ofrecer un servicio de gran pseudoscience: magnetic healing, psychic utilidad a la propia ciencia convencional, phenomena, and other heterodoxies (2001), aportando un foro para las heterodoxias Scientific literacy and the myth of the scientimenos anómalas, que son cada vez más re- fic method (1992), The enigma of Loch Ness: primidas dentro de la corriente mayoritaria making sense of a mystery (1986) y Beyond debido a los intereses creados de las orga- Velikovsky: the history of a public controvernizaciones patrocinadoras y de las empre- sy (1984). sas e industrias que comercian con las apliEl sitio web de Henry Bauer es: http://hencaciones del conocimiento científico. ryhbauer.homestead.com. También manAl mismo tiempo, el ejemplo de la corriente tiene el blog: http://hivskeptic.wordpress. mayoritaria que se va corrompiendo bajo el com. DogmaCero

73

Sobre el origen del hombre (II) Máximo Sandin

En esta segunda parte de su artículo (la primera fue publicada en el número 3 de DogmaCero), Máximo Sandín, profesor de Biología en la Universidad Autónoma de Madrid durante 35 años, sigue aportando argumentos que provocaran en el lector una duda razonable acerca de la validez de las teorías de Darwin y del evolucionismo que ha sido adoptado como un auténtico dogma de fe por casi toda la comunidad científica, anatemizando a quienes osan dudar de ella, aunque sea con planteamientos tan válidos como los de los sectores más ortodoxos. DogmaCero 74

E

l origen de la población españo- la salida del Corredor de la Bureba, el valle que conecta las cuencas del Duero y el la: ¿genocidio o mestizaje?

Ebro, un punto de paso obligado entre el Norte y el Sur, bañado por el río Arlanzón y Los indicios más antiguos –por el momen- que siempre ha mantenido una gran riqueto– de la presencia humana en España datan za de fauna y flora. La naturaleza caliza de de entre 1,6 y 0,9 millones de años. El yaci- la sierra ha posibilitado que la erosión del miento de Orce en Venta Micena (Granada) agua haya excavado en ella numerosas cuearrojó una calota (parte superior del crá- vas (complejos kársticos), a veces enormes, neo) que se describió como de un individuo que desde hace más de un millón de años infantil y que fue objeto de una vergonzosa ofrecían magníficos refugios. Aunque la expolémica entre especialistas, algunos de los tensión del yacimiento es enorme y, probacuales ridiculizaron a sus descubridores blemente, nos depare todavía mayores sor(Martinez-Navarro y cols., 1997), al afir- presas, los restos humanos más antiguos mar que se trataba de un cráneo de asno. Lo (más de 780.000 años) y completos encierto es que, aunque el fragmento craneal contrados hasta la fecha aparecieron en “la no presenta caracteres anatómicos que re- trinchera del ferrocarril”. Pertenecen a un sulten claramente significativos (aunque, individuo juvenil, probablemente no mayor finalmente, parece haber sido aceptado de catorce años. Son un fragmento de hueso como humano), la presencia del hombre en frontal con el inicio de la cara, dientes y un España pudo ser tan antigua como entre 1,6 trozo de mandíbula con el tercer molar sin y 1,4 millones de años, como atestiguan los salir. Además han aparecido 36 fragmentos restos de cultura oldovaica dispersos por de huesos pertenecientes a unos seis individuos y más de 100 piezas de herramientas yacimientos del Sur y Este peninsular. líticas de tipo oldovaico. Pero, sin duda, el yacimiento más informativo es el espectacular (y probablemente úni- La morfología del fragmento de cara –de co en el Mundo) sitio de Atapuerca. Su his- aspecto “moderno”– asociada a un frontal toria paleontológica es antigua, pero la más prominente llevó a los descubridores a atrifecunda comienza en 1976 con el redescu- buir al resto la condición de nueva especie brimiento de la “Sima de los huesos” por de “homínido”: Homo antecessor, situándoel ingeniero de minas Trinidad Torres, que le en el punto exacto de la bifurcación entre encontró restos humanos cuando buscaba el linaje humano actual y el (supuesto) cafósiles de osos para su tesis doctoral. Su di- llejón sin salida evolutiva representado por rector de tesis era el paleontólogo Emiliano los Neandertales. Aunque tal propuesta no Aguirre, que dirigió la excavación sistemáti- ha sido aceptada por diversos especialistas ca llevada a cabo por José Maria Bermúdez sobre la base de que, según la más estricta de Castro y Juan Luis Arsuaga. Pero quizás ortodoxia paleontológica, no se puede crear sea más informativo comentar los hallazgos una “nueva especie humana” a partir de un por su cronología paleontológica. La dispo- individuo juvenil que no ha finalizado el sición geográfica de la Sierra de Atapuerca crecimiento, cabe suponer que los reciennos puede ofrecer un indicio de la visión tes hallazgos de Homo erectus en África y estratégica de sus (sin duda abundantes) los Homo de Dmanisi, y el reconocimiento de su gran polimorfismo y amplia distribupobladores a lo largo del tiempo. ción, habrá zanjado la polémica. Es una colina que se extiende de Noroeste a Sudoeste en el valle del río Arlanzón, en la Pero, quizás, la interpretación más mereceprovincia de Burgos. Desde ella se domina dora de una (humilde) reconvención DogmaCero

75

porque es la que más resonancia ha obtenido de este hallazgo, (y no sólo por causa de las típicas exageraciones periodísticas, sino por el énfasis puesto en ello por los investigadores), es la calificación de “caníbales” con que se ha publicitado el hallazgo: La mezcla de fragmentos humanos con herramientas de piedra, junto con que en , al menos, en dos falanges y en un fragmento de cráneo se hayan encontrado marcas que indican una descarnación, les ha llevado a la conclusión de que los primeros europeos eran caníbales, llegando a afirmar que para ellos la diferencia entre un cadáver de ciervo y otro humano no existía aún (Atapuerca. Página web, UCM). Si tenemos en cuenta que la diferencia entre un cadáver de la propia especie y de otra existe para un buen número de mamíferos (y probablemente, en otros taxones), esto equivaldría a atribuir a estos hombres la condición, no ya de “prehumano”, sino de “premamífero”. Teniendo en consideración el amplio eco social que han adquirido estos hallazgos, que han descubierto para muchos ciudadanos el hecho de la evolución humana, no parece éste el mensaje más adecuado para transmitir. Desconocemos las circunstancias o los motivos que llevaron a ello (desde lue-

go, como en cualquier depredador, no sería un modo preferente de alimentarse), ni si era algo frecuente o si podría tener algún otro sentido que no fuera el gastronómico. No puede caracterizarse a todo un grupo por un hecho que puede ser ocasional o producido en circunstancias dramáticas, del mismo modo que no se puede extrapolar a una nacionalidad los hechos derivados de un accidente aéreo o de un naufragio. Tampoco podemos calificar o juzgar a estos hombres basándonos en nuestras actuales creencias o principios. Lo cierto es que vivieron en condiciones, a veces muy duras, que imponían las glaciaciones que en aquella época cubrieron de hielo gran parte de Europa (con sólo que los inviernos fueran tan duros como lo son en la actualidad, se puede tener una idea), y su simple supervivencia indica una gran capacidad cultural para hacer frente a un clima muy adverso, a pesar de que el organismo humano sólo está naturalmente capacitado para la vida en zonas cálidas (sólo podemos sobrevivir en zonas frías gracias al recurso de vestuario, refugios y alguna fuente de calor). La continuidad de la ocupación de Atapuerca por el hombre está representada (por el momento) por los yacimientos de “La Sima

DogmaCero 76

de los huesos”, junto con otros contemporáneos de “La Trinchera” asociados con industria lítica de tipo Acheulense y datados en torno a los 400.000 años. En la Sima se han encontrado un número mínimo de treinta y dos individuos, hombres y mujeres de diversas edades, pero que no parecen representar la distribución de edades de una banda completa. Eran individuos muy corpulentos y la morfología de sus cráneos presentaba características que se encontrarán, más acentuadas, en sus sucesores, los Neandertales. Entre la amplia gama de denominaciones específicas atribuidas a restos fragmentarios, a estos se les ha incluido dentro de una “especie” establecida, en este caso, a partir de un solo hueso: Homo heidelbergensis, que corresponde a la mandíbula de Mauer, datada entre 500.000 y 400.000 años. En “La Sima de los huesos” no se han encontrado instrumentos líticos ni restos de herbívoros (presas habituales), lo que indica que no era un lugar de habitación. La hipótesis más admitida y razonable es que la acumulación de estos restos tenga un origen humano (lo que constituiría algún tipo de enterramiento), y que las marcas de mordeduras que presentan más de la mitad de los restos sean debidas a carroñeros posteriores, aunque no se puede descartar que sean la causa de su muerte –es decir, muertos por carnívoros– lo que podría justificar, incluso, un enterramiento selectivo.

humana. Para los paleoantropólogos representantes de la versión “dura” del darwinismo eran una especie de autómatas grotescos si el menor rastro de humanidad. Según Ian Tattersall, del Museo Americano de Historia Natural, les faltaban las conexiones necesarias en el cerebro para pensar y hablar (desconocemos el origen de su documentación “neurológica”). Para él, un Neandertal representaría la máxima expresión del instinto, es decir, el límite de las cosas que se pueden hacer inconscientemente, automáticamente. Y esta es una concepción que, desgraciadamente, resulta difícil de refutar, porque, más o menos acentuada, es la que se transmite a la sociedad en libros divulgativos, documentales científicos y películas comerciales. Al parecer, es necesaria una justificación argumentada “científicamente” para su extinción (total, sin dejar el menor rastro) ante el avance de los hombres “más evolucionados”.

Los neandertales eran individuos con una morfología y un comportamiento absolutamente humanos

Sin embargo, lo que parece más próximo a la realidad es que, aunque el estereotipo de los neandertales que ha quedado grabado en el imaginario social como una especie de brutos encorvados y patizambos, se debe a la reconstrucción elaborada, a principios del siglo pasado, por el belga Marcelin Boule sobre los restos de La Chapelle-aux- Saints que pertenecían ¡a un anciano con artrosis!, los neandertales eran individuos con una morfología y un comportamiento absolutamente humanos. (Lo que pone de manifiesto, En lo que respecta a sus sucesores, los una vez más, que son las interpretaciones Neandertales, sus singulares características más sensacionalistas o llamativas las que morfológicas les han convertido, siempre más profundamente calan en la sociedad). en función del esquema mental darwinista, Sus características especiales, su robustez en la última “rama lateral” de la evolución y su cara prominente son, simplemente, DogmaCero

77

una acentuación de las de sus predecesores locales, impulsadas por el aislamiento en unas condiciones climáticas extremas.

tadiales) eran más soportables, en general eran extremadamente rigurosas, implica, forzosamente, un perfecto conocimiento y control del entorno. Su magnífica cultura Durante las glaciaciones precedentes lítica “Musteriense”, elaborada mediante la (Günz, Mindel y Riss), los animales y los degradación de nódulos discoidales de sílex hombres que vivían en Europa descende- de los que extraían lascas a las que daban rían paulatinamente hacia tierras más me- diferentes formas utilizando percutores ridionales, empujados por el avance de los blandos era extremadamente eficaz para hielos. Forzosamente, la Península Ibérica fabricar punzones, cuchillos, raspadores… se debió convertir muchas veces en centro hasta sesenta tipos de utensilios diferentes. de confluencia e intercambio genético y cultural de distintos grupos humanos (los lu- Asimismo, eran hábiles curtidores de pieles, gares privilegiados, como la Sierra de Ata- como atestiguan los numerosos raspadores,

puerca, debieron llegar a ser “el no va más” del cosmopolitismo de la época). Sin embargo, cuando hace unos 140.000 años se comenzó a producir la última gran glaciación, la conocida como Würm, los hombres que habitaban Europa Occidental y Central, que habían conseguido una magnífica adaptación cultural a climas muy fríos, no emigraron, por lo que permanecieron con un alto grado de aislamiento del resto de la Humanidad durante casi 100.000 años. Su supervivencia durante todo este tiempo en unas condiciones ambientales que, aunque en ocasiones (los períodos interes-

y en cuanto al uso de otros instrumentos, como los de madera, de difícil fosilización, se puede deducir del hecho de que sus antecesores de hace 400.000 años utilizaron unas lanzas de maderas de picea, encontradas fosilizadas en turba en el yacimiento de Binzingsleben (Alemania). Eran tres lanzas perfectamente pulidas y equilibradas para ser lanzadas con precisión. Dominaban perfectamente el fuego, lo cual es lógico, porque sin la capacidad de encenderlo (es decir, dependiendo de su conservación a partir de combustiones espontáneas de nafta o de rayos, como muchos sostienen), su lar-

DogmaCero 78

ga supervivencia habría sido imposible. De hecho, se han encontrado, por ejemplo, en Pech de l’Azé (Francia), hogares formados por piedras bien colocadas y muy usadas. También en Francia, en la gruta de Lazaret, se ha comprobado que construían tiendas en su interior. Las piedras que sujetaban la base de las tiendas atestiguan que las construían con la entrada en dirección opuesta a la de la cueva, para mejorar la protección. En definitiva, si estas actividades eran “inconscientes” los paleoantropólogos habrán de inventarse el concepto de “inconsciencia inteligente”.

Su presencia en la Península Ibérica queda atestiguada por restos como la mandíbula de Bañolas, el reciente hallazgo de la Gruta del Sidrón (Asturias), compuesto, por el momento, por más de 120 fragmentos de, al menos, tres individuos (Rosas y Aguirre, 1999), los indicios de su presencia en Atapuerca, el cráneo de Gibraltar, los restos infantiles de Portugal… pero, sobre todo, por los fósiles de Zafarraya (Málaga) datados en torno a los 30.000 años y considerados como “los últimos neandertales”. Porque, según la “versión oficial”, los neandertales se extinguieron, arrollados por la superioridad cultural pero, sobre todo, intelectual, del “hombre moderno”: Desde el punto de vista de la Historia con mayúsculas podemos decir que sabemos lo que pasó. Los neandertales fueron sustituidos por los humanos modernos. Tal vez hubo casos de mestizaje, pero no se dieron en una cantidad suficiente para que sus genes hayan llegado hasta nosotros. Nada me haría tanta ilusión como llevar en mi sangre una gota siquiera de sangre neandertal, que me conectara con esos poderosos europeos de

otro tiempo, pero temo que mi relación con ellos es sólo sentimental”, (Arsuaga, 1999). Si tenemos en cuenta que, por ejemplo, se ha estimado que compartimos con el ratón el 99% de los genes (Gunter y Dhand, 2002), lo que pone de manifiesto definitivamente que la “información genética” no está sólo en el ADN, y se sabe que compartimos gran cantidad de secuencias con todo el mundo viviente (animal y vegetal), hasta llegar a las bacterias, hay que decir que no se sabe de donde puede salir el fundamento genético que permite afirmar que “sus genes no han llegado hasta nosotros”.

La realidad es que no existen pruebas fiables de esta “sustitución” y, a falta de estas pruebas, intervienen las “firmes convicciones”. Los datos de que disponemos son que hace unos 40.000 años comienzan a aparecer en Europa un tipo de herramientas y utensilios denominados genéricamente Auriñacienses. Asociados a estos aparecen restos humanos con morfología parecida a la “moderna”, que han recibido la denominación de “cromañones” por los restos del “viejo” de Cro-Magnon (Francia) datado, por cierto, en unos 25.000 años de antigüedad. Tras un período de unos 10.000 años (resulta difícil de imaginar: 10.000 años) durante el que los vestigios de ambos tipos de morfologías y de culturas se encuentran intercalados por diferentes puntos de Europa, la morfología y la cultura características de los neandertales desaparecen del registro fósil.

La realidad es que no existen pruebas fiables de esta “sustitución” y, a falta de estas pruebas, intervienen las “firmes convicciones”

Pero, antes de continuar, puede ser conveniente una breve consideración sobre qué es la “morfología moderna” ¿tal vez la parecida a la de los actuales europeos? Porque

DogmaCero

79

anatómicamente moderno”. Sin embargo, una variante de la industria Auriñaciense, caracterizada por utensilios semejantes, la industria Chatelperroniense, ha aparecido asociada a restos indiscutiblemente neandertales, en los yacimientos franceses de Arcy-sur-Cure y Saint Cesaire. Este tipo de industria se ha encontrado distribuido por Francia, norte de España y con variantes, también asociadas con neandertales, en Italia y Europa Central y del Este. La explicación “dura”, es decir, más estrictamente darwinista es que los neandertales adquirieron estos utensilios del “hombre moderno”, bien mediante la imitación o incluso el robo.

Para Richard Klein no se puede hablar de una mente moderna hasta que no aparecen las primeras manifestaciones de adormorfología moderna es la de los esquima- no personal y de arte (éste último asociales, con las proporciones corporales exac- do sólo con cromañones). Ian Tattersall lo tamente iguales a las de los neandertales y explica con más datos científicos: La mente la de los esbeltísimos nilótidos o los peque- humana moderna surgió como todas las ños bosquimanos y pigmeos. Morfología grandes novedades biológicas: por evolumoderna es la de los aborígenes australia- ción, y como decía Darwin, sin intervención nos, muchos con su gran torus supraorbita- divina (que, al parecer, es la única alternario y un acentuado prognatismo, con todo tiva posible al darwinismo), pero en este el aspecto, apoyado por la continuidad del caso “golpe", y en un "hombre moderno". registro fósil (Wolpoff y Thorne, 1992), de Para Tattersall, las habilidades de los neanser herencia directa de los “marineros” de dertales en la talla de la piedra, aunque sorprendentes, eran algo estereotipadas; muy la isla de Flores... pocas veces, si alguna, elaboraban instruEstos 10.000 años de más que posible con- mentos utilizando otras materias primas. tacto entre diferentes culturas cuentan con Muchos paleontólogos ponen en cuestión interpretaciones muy distintas que, aunque su grado de especialización venatoria. dentro de la inercia explicativa de la ortodoxia darwinista, parecen distinguirse por Sin embargo, hay una forma muy distinta de distintas concepciones de lo que es “inhe- valorar las capacidades de los neandertales rente a la condición humana” en las que y que, curiosamente –casi sorprendentepueden ser detectables ciertos componen- mente– no se basa en las “firmes creencias”, tes culturales. El inicio de lo que se denomi- sino en la investigación científica. Francesco na Paleolítico Superior, asociado (cómo no) d'Errico del Instituto de Prehistoria de Burcon la industria Auriñaciense, caracteriza- deos, Joâo Zilhao del Instituto Arqueológico da por láminas de piedra alargadas, como de Portugal y otros investigadores france“cuchillos de dorso”, el uso de hueso y mar- ses que han trabajado en el yacimiento de fil y dientes de animales para hacer agujas, “la Cueva del Reno” de Arcy, han desmonpuntas de azagayas y adornos, se relaciona- tado la teoría de la recogida: el material de ba con la “irrupción en Europa del “hombre adornos y utensilios óseos de los neanderDogmaCero 80

tales estaba rodeado de restos y esquirlas mos neandertales eran más gráciles que los que indicaban que habían sido hechos allí primeros, de modo que el cráneo de Saint mismo (Bahn, 1998). Cesaire tiene más semejanzas con el de un hombre moderno que el neandertal de La Pero no importan las pruebas. Los darwi- Chapelle-aux-Saints, 15.000 años más annistas “duros” parecen ser inasequibles al tiguo... En definitiva, es más que posible desaliento. Los neandertales debían tener que el hombre de Neanderthal no haya sido alguna inferioridad, y hay que encontrar- “sustituido”, sino que sus características se la aunque se tenga que recurrir a los ar- habrían diluido, a lo largo de más de 10.000 gumentos más pintorescos. He aquí los de años de contacto e intercambio, en una poWesley Niewoehner, de la Universidad de blación de morfología más grácil muy suNuevo México en Alburquerque y comenta- perior en número. Muy probablemente, “la dos así en la revista Nature (Clarke, 2001): sangre” de los neandertales continúa entre Los neandertales, macizos y bien muscu- nosotros. lados, probablemente tenían unos dedos demasiado gruesos para hacer uso efectivo Las pruebas de “características intermede tecnología avanzada de la Edad de Pie- dias” y los indicios de mestizajes se encuendra o para realizar tareas de destreza como tran repartidos en restos fragmentarios grabar. [...] Esto da peso a la idea de que los por Europa central y del este (Predmost y humanos modernos recientes sustituyeron Brno en Moravia, Vindija en Yugoslavia…) a los neandertales por su superior uso del y un discutido ejemplar (por ser infantil) mismo tipo de herramientas. [...] Así, aun- en Portugal, pero mucho más evidentes que los neandertales pudieron probable- en fósiles muy abundantes y completos de mente fabricar y usar herramientas com- Oriente próximo, donde los neandertales plejas, no pudieron hacerlo muy a menudo han coexistido, se han mezclado y comparo muy cuidadosamente, (?) y no fueron ca- tido cultura, modo de vida y rituales con paces de tareas mas sofisticadas como gra- hombres de aspecto parecido a la morfobar o pintar, que fueron desarrolladas por logía “moderna”, es decir, de cráneos más los humanos modernos. redondeados, entre hace 100.000 y 35.000 años. Entre estos, el hallazgo en Kebara Como no parece que estos despropósitos (Arensburg y Tillier,1990) de un enterramerezcan un comentario, volvamos a los miento neandertal de hace 60.000 años, en datos del registro fósil: La cronología de las el que encontró un hueso hioides, de difícil dos culturas apoyan el carácter autóctono de la Chatelperroniense. Para Anne-Marie Tiller y Dominique Gambier existe un vacío antropológico durante el período Auriñaciense europeo entre hace 40 y 35.000 años o, al menos, un problema para identificar los escasos fósiles disponibles. Pero parece claro que el nacimiento del Chatelperroniense fue anterior al Auriñaciense. En cuanto a la “discontinuidad” morfológica, no parece tan clara. Para Tillier y Gambier (2000) los restos humanos auriñacienses presentan cierta robustez y conservan caracteres “arcaicos” (Porque “el viejo” de Cro-Magnon, no era de morfología estrictamente “moderna”). Por otra parte, los últiDogmaCero

81

fosilización por su fragilidad, es un indicio tan indiscutible como innecesario, (dadas las pruebas tan antiguas de un comportamiento dirigido por la planificación y la coordinación) de la existencia de un lenguaje articulado, porque sobre él se sitúan las cuerdas vocales. Pero ni esta prueba parece ser suficiente.

ampliamente admitida pero todavía controvertida visión de que los humanos modernos tuvieron poca o ninguna mezcla con los Neandertales, según William Goodwin de la Universidad de Glasgow y sus colegas (Gee, 2000). Esta aparente confianza en los datos contrasta con el espíritu crítico con que se acogen pruebas mucho menos frágiles (en el más estricto sentido). Porque el ADN es Para Richard Klein (1989) de la Universidad extremadamente frágil y degradable tras de Chicago, todavía era necesaria una evo- decenas de miles de años de fosilización de lución neurológica para llegar a la moder- los huesos. Por otra parte, las probabilidanidad completa. Este absurdo dogmatismo des de “contaminación” en estos huesos son que lleva a inventarse unas supuestas “me- enormes, tanto por la manipulación como joras” progresivas en la organización cere- por ADN del entorno (en un puñado de tiebral de las que no existen las menores pruerra hay millobas no tiene, nes de bacteen realidad, rias y virus). ningún contePero, incluso nido científico en el caso, exy sí mucho de tremadamenprejuicio sote improbable, bre la lógica de que estos de la “sustifenómenos no tución” de los se hubieran menos “aptos” producido, la justificada por comparación una supuesta de la variasuperioridad bilidad (pointelectual, limorfismos) como refleja del ADN huclaramente la mano de hace frase con que 30.000 años, Ian Tattersall en poblacio(2000) finaliza su argumentación sobre este tema: Aun- nes que habían sufrido un largo aislamienque los lingüistas le han dedicado muchas to, con la población actual, no sería espehoras de especulación, se nos escapa cómo cialmente informativa. surgió el lenguaje. Pero sabemos que un ser equipado por capacidades simbólicas es un Y esto pone de manifiesto, una vez más, que en el campo de la evolución –pero muy rival extraordinario… especialmente en el de la evolución huEl mensaje del ADN y la manipula- mana– los resultados obtenidos mediante metodologías, técnicas o materiales limición de la información tados o discutibles se pueden interpretar El estudio de ADN rescatado de fósiles de a gusto del investigador en función de lo neandertales como el histórico “Feldhofer” que se quiere demostrar. Y lo que se quiere encontrado en Alemania en 1856 o el de un demostrar queda claro en la frase con que resto infantil del norte del Cáucaso apoya la Paul Mellars (1998) zanja el debate sobre

Los resultados obtenidos mediante metodologías, técnicas o materiales limitados o discutibles se pueden interpretar a gusto del investigador en función de lo que se quiere demostrar

DogmaCero 82

“El destino de los Neandertales”: La vehemencia de algunos científicos en reclamar la cercana relación con los Neandertales puede estar cercana a negar que la evolución humana está teniendo lugar en la actualidad. Es decir, que “la supervivencia de los más aptos” continúa.

lan con una cadencia sorprendentemente regular en los linajes supervivientes. [...] La segunda idea, la de los relojes moleculares, surgió de la observación de que el ritmo de cambio genético según mutaciones puntuales (cambios en determinados pares de bases de ADN) es tan regular, en largos períodos, que se las podría usar para datar diPero la manipulación de los datos puede ir vergencias de troncos comunes. [...] El ADN más lejos que la consistente en la interpre- que estudiamos reside en las mitocondrias, tación sesgada de datos discutibles. La hi- orgánulos celulares que convierten alimenpótesis de la “Eva mitocondrial” de Wilson tos en energía disponible para el resto de la y Caan (1992) que ya ha sido incorporada célula. [...] A diferencia del ADN nuclear, el a los libros de texto, parece haber arraiga- de la mitocondria se hereda sólo de la mado firmemente en la comunidad “oficial” dre, sin más cambio que las eventuales mude Paleoantropólogos aparentemente des- taciones. La contribución paterna acaba en lumbrados por su aureola de “ciencia dura”, la papelera, como quien dice, de los recores decir, basada nada menos que en datos tes. [...] De ello se infiere, en pura lógica, que moleculares. Según tal hipótesis, el hom- todo el ADN mitocondrial humano debe de bre moderno desciende, en su totalidad, de haber tenido una última antecesora común. una “Eva” que habría vivido en África hace unos 200.000 años. Sus descendientes se La asunción de todos estos postulados dehabrían extendido por el Mundo y habrían rivó en la construcción de un espectacular sustituido, o lo que es igual, exterminado, árbol filogenético que, si bien presentaba a todos los hombres (homínidos, en su ter- individuos de distinta procedencia intercaminología) previamente existentes desde lados en diferentes poblaciones, tuvo una África a Siberia, desde Europa hasta Extre- gran resonancia, tanto científica como en mo Oriente... Para esta, al parecer, extendida concepción se trataría, no ya de un extermino total como el de los pobres neandertales aplastados por una población muy superior en número, sino del caso contrario: la “sustitución” total de poblaciones adaptadas biológica y culturalmente a entornos muy variados –y algunos muy duros– por pequeños grupos inconexos procedentes de un medio tropical. Aunque tal proceso resulta totalmente irreconciliable con el más elemental sentido común, está basado en datos “rigurosamente científicos”: De las primeras comparaciones entre proteínas de especies diferentes brotaron dos nuevas ideas: la de las mutaciones neutras y la del reloj molecular. Con respecto a la primera, la evolución molecular parece dominada por esas mutaciones fútiles que se acumu-

Mapa del origen africano de los humanos modernos creado según la teoría genómica mitocondrial

DogmaCero

83

los medios de comunicación: El origen del hombre moderno estaba en África, y el “reloj molecular” era concluyente: la “Eva mitocondrial”, la primera mujer moderna, había vivido hace unos 200.000 años. El problema fundamental de estas conclusiones es que todos los postulados en los que se basa son absolutamente falsos. Las mitocondrias no son sólo la "central de energía" de la célula. Su ADN participa en procesos tan importantes como el control de la apoptosis (muerte celular programada) fundamental, por ejemplo, en el desarrollo embrionario. Esto descalifica la supuesta neutralidad de sus mutaciones, pero también el hecho de que algunas de ellas pueden causar graves enfermedades neurológicas. En cuanto a la transmisión únicamente por vía materna, está desmentida por la comprobación de la transmisión de una enfermedad de éste origen por parte del padre. Pero, muy especialmente, la existencia de los supuestos “relojes moleculares”, una entelequia totalmente contradictoria con la base teórica de la evolución por mutaciones puntuales y al azar, pero sorprendentemente asumida como un hecho constatado, ha sido aborda-

da, finalmente, de una forma rigurosa (Rodríguez-Trelles et al., 2001) analizando tres proteínas utilizadas habitualmente como “relojes moleculares”: La glicerol-3-fosfato deshidrogenasa (GPDH), la superóxido dismutasa (SOD) y la xantina deshidrogenasa (XDH). El estudio se llevó a cabo en 78 especies representativas de los tres Reinos multicelulares: hongos, plantas y animales. Las conclusiones son: Hemos observado que: (1) Las tres proteínas evolucionan erráticamente en el tiempo y entre los linajes y

(2) Los patrones erráticos de aceleración y deceleración difieren de locus a locus. La constatación de estos hechos ha sacado a la luz la cuestión de cuán real es el reloj molecular o, más aún, si existen los relojes moleculares.

Datos verificables experimentalmente como estos, dispersos en distintas publicaciones, se acumulan continuamente sin tener, al parecer, la menor repercusión en la rutina habitual de la elaboración de árboles basados en la evolución “por cambios graduales y aleatorios” que siguen haciendo uso de los supuestos “relojes moleculares” para confirmar sus hipótesis. Pero eso no es todo: Otras críticas a los resultados de Wilson tienen que ver con el número de árboles obtenidos. Es bastante frecuente que los autores no den el número total de árboles igualmente parsimoniosos, sino que se limitan a seleccionar algunos para su publicación (Barriel, 1995). De hecho, utilizando los mismos datos, pero con una versión más reciente del programa de parsimonia, el norteamericano David R. Madison de Harvard, obtiene hasta 10.000 árboles más parsimoniosos. Revelaciones de este tipo ponen de manifiesto que las ideas preconcebidas de una evolución humana dirigida por competencias y “sustituciones” y dominada, al parecer, por una tal repugnancia por la idea del

DogmaCero 84

mestizaje, que éste no cabe en sus esquemas mentales, pueden conducir, no sólo a interpretaciones descabelladas, sino a auténticos fraudes en la práctica científica. Sin embargo, la “Eva mitocondrial”, cuya antigüedad se ha “precisado” últimamente en 143.000 años, (Caan, 2002), parece ser tan real para muchos científicos como su contrapartida masculina, el “Adan” del cromosoma Y. Según Peter Underhill y sus colegas de la Universidad de Stanford, (Underhill et al., 2000) que han estudiado la variabilidad genética del cromosoma Y en más de 1.000 hombres de 22 áreas geográficas, todos los hombres actuales descienden de un “Adan” que vivió en África hace, exactamente, 59.000 años, según su “reloj molecular”. Esto plantea un problema, no despreciable, de un período de “desajuste matrimonial” de nada menos que 84.000 años. Pero todo se puede explicar: Según Underhill, las “tribus dominantes” se quedaron con todas las mujeres (descendientes, a su vez, de “Eva”). Es más, el 95% de los hombres europeos descienden de unos 10 “Adanes” procedentes de distintas oleadas. Aunque estas afirmaciones emitidas con tal seguridad puedan sonar a broma, sus trabajos han sido publicados (es decir, “aceptados”) por las más prestigiosas revistas científicas.

clarificar los resultados, muchas veces contradictorios, de los estudios de secuencias individuales, ha estudiado diez regiones de cromosomas autosómicos, además de cromosomas sexuales y mitocondrias. Sus resultados son que, tras la primera emigración de Homo erectus, hubo una segunda entre 400.000 y 800.000 años, otra hace unos 100.000 años y otra más reciente desde África hasta Asia, con gran cantidad de intercambio genético entre grupos. Según Templeton: África ha tenido un gran impacto genético en la Humanidad, pero mi análisis no es compatible con un reemplazamiento completo (Templeton, 2002). Aunque estas conclusiones (por cierto, muy criticadas por los partidarios de la “sustitución”) parecen mejor fundamentadas y más razonables que las anteriores, el problema sigue estando en la base conceptual. En la idea de una evolución gradual, continua y “progresiva” en la que se fundan los falsos “relojes moleculares”. Es cierto que existe una variabilidad genética, por cierto, mínima, en polimorfismos del ADN que son neutrales, es decir, irrelevantes en el contexto de la evolución, y es (o parece) cierto que en las poblaciones africanas existe una mayor variabilidad en algunos marcadores de este tipo que en el resto de la Humanidad, pero esto es sólo un indicio más de un remoto origen africano.

La “Genética del comportamiento humano”, es un artificio totalmente rebatido por los conocimientos actuales sobre la expresión génica

Sin embargo, y dentro de los mismos esquemas conceptuales y metodológicos de la evolución darwinista, las conclusiones pueden ser muy diferentes. Alan Templeton de la Universidad de St. Louis ha estudiado la variabilidad del ADN en varones y mujeres de muy diversas poblaciones. Para intentar

Las impresionantes semejanzas genéticas de toda la Humanidad (King y Motulsky, 2002) son, sin duda, un reflejo de una larga historia de encuentros e intercambio genético que seguramente ha caracterizado a la especie humana desde su nacimiento, y no de un origen reciente del hombre “moder-

DogmaCero

85

ción creciente en nuestro entorno cultural, aún cuando las aplicaciones de sus imaginarios descubrimientos sólo pueden ser negativas: No se pueden sustituir, en todos los marginados o inadaptados sus supuestos “genes defectuosos” por genes de triunfador o de “políticamente correcto”, pero sí puede resultar una causa de discriminación más grave, más injusta y más falsa que cualquier otra, la consideración de que ciertos individuos sean portadores de estos falsos genes “inadecuados”.

no”, porque, muy posiblemente, la evolución humana acabó, al menos por el momento, con la aparición de los primeros hombres, hace más de tres millones de años.

La ley del más fuerte

Las “firmes creencias” darwinistas no responden sólo a las de una concepción científica caduca y ya obsoleta de la Naturaleza, porque en sus premisas y en sus argumentos se pueden identificar, más o menos disfrazados de “objetivos” o de “políticamente correctos”, todos y cada uno de los rancios prejuicios culturales y sociales que alumbraron su nacimiento. La idea de que las cualidades humanas, las virtudes y los defectos, son innatas, se pueden encontrar hoy disfrazadas de disciplina científica bajo la denominación de “Genética del comportamiento humano”, un artificio totalmente rebatido por los conocimientos actuales sobre la expresión génica en la que ni siquiera existe la ya anticuada creencia de una relación directa entre un gen y una simple proteína y en la que el ambiente juega un papel primordial. Cuánto menor aún será la supuesta relación entre “los genes” y algo tan complejo, tan circunstancial y tan influido por el ambiente (por el aprendizaje) como es el comportamiento humano. Sin embargo, esta pretendida disciplina científica parece contar con una considera-

Desgraciadamente, las informaciones sobre la extremada complejidad y de lo (mucho) que desconocemos de los fenómenos biológicos no resultan tan “periodísticas” como las simplificaciones dogmáticas de los científicos darwinistas o las noticias sobre descubrimientos espectaculares como los de “los genes del miedo” o de la homosexualidad o, incluso, de la base genética de la marginalidad. Y lo realmente dramático es que esta concepción de la naturaleza humana está calando profundamente en la sociedad porque confiere un carácter científico a muy viejos y muy nefastos prejuicios. Y así, se extiende a pueblos o culturas enteras la condición de “intrínsecamente perversos”, fanáticos o delincuentes, por naturaleza, porque lo llevan en sus genes. La hipocresía de afirmar que las diferencias creadas en el Mundo por unas circunstancias históricas concretas y acentuadas por un modelo económico aberrante (el modelo del que surgieron las bases conceptuales del darwinismo) son “naturales”, oculta en realidad una cínica justificación de la situación y transmite una estúpida creencia en la propia superioridad. Porque la competencia “está en la naturaleza humana” (Arsuaga, 2002), y los que triunfan son los mejores. Al parecer, la única posibilidad, no ya de éxito, sino de simple supervivencia, está en una competencia permanente, y del mismo modo que en la teoría darwinista la supervivencia del “más apto” pretende justificar “con el tiempo” lo injustificable, la “libre competencia” será beneficiosa para todos “con el tiempo” como se puede comprobar observando la

DogmaCero 86

situación, cada día más dramática, en que ASFAW, B. et al., 1992. The earliest Acheuse encuentra la mayor parte de la Humanidad. lean from Konso-Gardula. Nature, 360: 732-735. La desalentadora sensación que produce ATAPUERCA (Página web): http://www. la aceptación de estos argumentos cargaucm.es/info/paleo/ata/portada.htm dos de conceptos vacíos, es de que estamos AYALA, F. J. 1999. La teoría de la evolución. asistiendo a una crisis, no sólo ética (que De Darwin a los últimos avances de la es muy evidente), sino también intelectual. genética. Temas de hoy. Madrid. De que se ha extendido una especie de “peBAHN, P. G. 1998. Archaeology: Neanderthareza mental” que impide profundizar, no ls emancipated. Nature, 394: 719-721. sólo en la comprensión de los fenómenos BALTER, M. y GIBBONS, A. 2002. Were “Littnaturales, sino también en las causas (en la raíz) de los graves problemas a los que le People” the First to Venture Out of se enfrenta la Humanidad y afrontarlos de Africa? Science, 297: 26-27. una manera coherente. Porque, como hasta BARRIEL, V. 1995. Mitos y realidades del enla persona más sencilla (o más “primitiva”) foque genético. Mundo Científico, Nº puede comprender, en toda competencia 160: 724-729. hay pocos ganadores y muchos perdedores. BENTON, M. J. et al., 2000. Quality of the fosY, de seguir por este camino, el premio para sil record through time. Nature, 403: los vencedores no va a ser, precisamente, 535-537. BOYD, R. y SILK, J. B. 2001. Cómo evolucioenvidiable. naron los humanos. Ariel Ciencia. Agradecimientos: A mi colega Armando Barcelona. González por las siempre enriquecedoras BROMHAN, L. 2002. The human zoo: endoconversaciones sobre osteología humana genous retroviruses in the human genome. y por sus aportaciones de documentación. Trends in Ecology & Evolution. Vol. 17 Nº 2: (María está “muy ocupada”). 91-97. BRUNET, M. Et al., 2002. A new hominid © Máximo Sandín 2002 from the Upper Miocene of Chad, Central Africa. Nature, 418: 152-155. CAAN, R. L. 2002. Human evolution: Tangled genetic routes. Nature, 416: 32-33. Fuente: www.somosbacteriasyvirus.com/ DARWIN, Ch. R., 1859. On the Origin of Spearticulos cies by Means of Natural Selection, or the Preservation of Favoured Races in the StruBibliografía ggle for Life. Versión española: El Origen de ABBOTT, A. 2002. Proteomics: The society of las Especies. Akal. Madrid. 1998. DARWIN, Ch. R., 1871. The Descent of Man, proteins. Nature, 417:894-896. ARENSBURG, B. y TILLIER, A. 1990. El len- and Selection in Relation to Sex. Versión española: El Origen del Hombre. Ediciones guaje del hombre de Neandertal. Mundo Petronio. Barcelona. 1973. Científico, Nº 107: 1144-1146. ARSUAGA, J. L. 1999. El collar del neander- DARWIN, Ch. R. 1876. Autobiografía. Aliantal. En busca de los primeros pensadores. Te- za Editorial. Madrid. CLARKE, T. 2001. Early modern humans won mas de hoy. Madrid. ARSUAGA, J. L. 2001. El enigma de la esfinge. hand over fist. Nature science update. 6 Feb. CLARKE, T. 2002. Skull thwarts species-splitLas causas, el curso y el propósito de ters. Nature science update. 20 March. la evolución. Plaza Janés. Barcelona. CELA CONDE, C y AYALA, F. J. 2001. SendeARSUAGA, J. L. 2002. www.5dias.com/especiales/suplementos/ ros de la evolución humana. Alianza Ensayo. Madrid. directivos/20020412/30arsuaga.htm DogmaCero

87

DELOISON, Y. 1996. El pie de los primeros homínidos. Mundo Científico. Nº 164, 20-23. DNIG, D. y LIPSHITZ, H. D. 1994. Spatially regulated expresión of retrovirus-like transposons during Drosophila melanogaster embryogenesis. Genet. Research, 64:3 EPISCOPOU, V. Et al., 2001. Induction of the mammalian node requires Arkadia function in the extraembrionic lineages. Nature, 410: 825-830. ELDREDGE, N. y GOULD, S. J. 1972. Models in Paleobiology. T. J. M. Schopf (ed.) W. M. Freeman. New York. ERICKSON, J. 1991. Las edades del hielo. McGraw-Hill. Madrid. FERNÁNDEZ, J. 1983. Prólogo al “Origen de las especies” Akal. Madrid. FOOTE, M. y SEPKOSKI, J. J. 1999. Absolute measures of the completeness of the fossil record. Nature, 398: 415-417. GALERA, A. 2002. Modelos evolutivos predarwinistas. Arbor, Nº 677: 1-16. GARCÍA BELLIDO, A. 1999. Los genes del Cámbrico. Rev. R. Acad. Cienc. Exact. Fis. Nat. (Esp.). Vol. 93 Nº 4: 511-528. GAVIN, A. C. Et al., 2002. Functional organization of the yeast proteome by systematic analysis of protein complexes. Nature, 415: 141-147. GEE, H. 2000. Of Goethe, genomes and how babies are made. Nature science update. 10 Feb. GEE, H. 2000. Neanderthal DNA confirms distinct history. Nature science update. 29 March. GOULD, S. J. 1985. La sonrisa del flamenco. H. Blume Editores. Madrid GU, X. et al., 2002. Age distribution of human gene families shows significant roles of both large and small scale duplications in vertebrate evolution. Nature Genetics, Vol. 31 Nº 2: 205-209. GUNTER, C. y DHAND, R. 2002. Human Biology by Proxy. Nature, 420, 509. HEMLEBEN, J. 1971. Darwin. Alianza Editorial. Madrid. HERBERT, A. y RICH, A. 1999. RNA processing and the evolution of eukaryotes.

Nature Genetics Vol. 21: 265-269. ISAAC, G. Ll. (ed); ISAAC, B. (ed.). 1997. Koobi Fora Research Project: PlioPleistocene Archaeology (Vol. 5). Clarendon Press. Harvard. KEMP, T. S. 1999. Fossils and Evolution. Oxford University Press. KERR, R. A. 1995. Did Darwin get it All Right? Science, 267: 1421. KING, M. C. Y MOTULSKY, A. G. 2002. Human genetics: Mapping Human History. Science, 298: 2342-2343. KNIGHT, J. 2002. Physics meets biology: Bridging the culture gap. Nature, 419: 244- 246. KONDO, T., et al., 1997. On fingers, toes and penises. Nature, 390: 29. LOVEJOY, C. O. 1981. The Origin of Man. Science, 211; 341-350. MARTINEZ-NAVARRO, B. ET AL., 1997. Fuente Nueva-3 (Orce, Granada, Spain) and the first human occupation of Europe. Journal of Human Evolution, 33: 611-620. McLYSAGTH, A. Et al., 2002. Extensive genomic duplication during early chordate evolution. Nature Genetics, Vol 31 Nº 2: 200-204. MELLARS, P. 1998. The fate of Neanderthals. Nature, 395: 539-540. MICHOR, F. y NOWAK, M. A. 2002. Evolution: The good, the bad and the lonely. Nature,419: 677-679. MORENO, M. 2002. Botánica y evolución. Arbor, Nº 677: 59-99. MORATA, G. 1999. Biología molecular, desarrollo y evolución del Reino Animal. Origen y Evolución. Fundación Marcelino Botín. Santander. MORWOOD, M. J. 1998. Fission-track ages of stone tools and fossils on the east Indonesian island of Flores. Nature, 392: 173-176. PATIENCE. C. et al., 1997. Our retroviral heritage. Trends Genet., 13: 116-120. PENNISI, E. 2002. Jumbled DNA Separate Chimps and Humans. Science, 298: 719721. RAYNER, R. J. y MASTERS, J. C. 1994. ¿Era el jardín del edén un bosque? Mundo Científico. Nº 142: 62-63.

DogmaCero 88

RICHMOND, B. G. y STRAIT, D. S. 2000. Evidence that human evolved from a knuckle-walking ancestor. Nature, 404: 382. ROBBINS, L. M. 1987. Hominid footprints from Site G. En M. D. Leakey y J. M. Harris (eds.), Laetoli, a Pliocene Site in Northern Tanzania. Oxford. Clarendon Press. Pp. 174-178. RODRÍGUEZ-TRELLES, F. et al., 2001. Erratic overdispersion of three molecular clocks: GPDH, SOD and XDH. Proc. Natl. Acad. Sci. USA, Vol 98, 20: 11405-11410. RONSHAUGEN, M. et al., 2002. Hox protein mutation and macroevolution of the insect body plan. Nature. Advance online publication. 6 Feb. ROSAS, A. y AGUIRRE, E. 1999. Restos humanos Neandertales de la Cueva del Sidrón, Piloña, Asturias. Nota preliminar. Est. Geol., 55: 181-190. SANDÍN, M. 2000. Sobre una redundancia: El darwinismo social. Asclepio. Vol. LII, 2: 27-50. SANDÍN, M. 2002. Hacia una nueva Biología. Arbor Nº 677: 167-218. SCHMID, P. 1983. Eine Rekonstruktion des Skelettes von A. L 288-1 (Hadar) und deren Konsequenzen. Folia primatol, 40 : 283-306. SCHULTE A. M. et al., 1996. Human trophoblast and choriocarcinoma expression of the growth factor pleiotrophin attributable to germline insertion of an endogenous retrovirus. Proc. Natl. Acad. Sci. USA, Vol 93: 14759-14764. STERN, J. T. y SUSMAN, R. L. 1991. Total Morphological Pattern versus the “Magic Trait”. Y. Coppens y B. Senut (eds.), Origine(s) de la bipédie chez les hominidés. Editions du CNRS, pp. 99-111. Paris. STRATHERN, P. 1999. Darwin y la Evolución. Siglo XXI de España Editores. Madrid. TATTERSALL, I. 2000. Homínidos contemporáneos. Investigación y Ciencia. Nº 282: 14-20. TEMPLETON, A. R. 2002. Out of Africa again and again. Nature, 416: 45-51.

THE GENOME SEQUENCING CONSORTIUM 2001. Initial sequencing and analysis of the human genome. Nature, 409: 860921. THE PEEL WEB. http://dspace.dial.pipex. com/town/terrace/adw03/peel/malthus. htm THORNE, A. G. y WOLPOFF, M. H. 1992. Evolución multirregional de los humanos. Investigación y Ciencia. Nº 189: 14-20. THUILLIER. P. 1990. De Arquímedes a Einstein. Las caras ocultas de la investigación científica. Alianza Editorial. Madrid. TILLIER, A. 2000. ¿Frente a frente o al lado? Mundo Científico. Nº 218:52-55. TUTTLE, R. H. ET AL., 1990. Further Progress on the Laetoli Trails. J. Archaeol. Sci.., 17: 347-362. UNDERHILL, P. Et al., 2000. Y chromosome sequence and the history of human populations. Nature Genetics, 26: 358-361. VERHAEGEN, M. J. B. 1994. Australopithecines: Ancestors of the African Apes? Human Evolution, 9: 121-139. VRBA, E. S. 1999. Habitat theory in relation to the evolution in African Neogene biota and hominids. En T. G. Bromage and F. Schrenk (eds.), African Biogeography, Climate Change and Early Hominids Evolution. Pp. 19-34. Oxford University Press. WILLIAMSON, P. G. 1983. Speciation in molluscs from Turkana Basin. Nature, 302: 659-663. WILSON, A. C. y CANN, R. L. 1992. Origen africano reciente de los humanos. Investigación y Ciencia. Nº 189: 8-13. WOLPOFF, M. H. Et al., 2002. Sahelanthropus or Sahelpithecus ? Nature, 419 : 581582. YOUNG, R. M. 1973. The historiographic and ideological contexts of the nineteenth century debate on man’s place in nature. En: Changing perspectives in the history of Science. Ed. M. Teich y R. M. Young. Reidel, Boston.

DogmaCero

89

El disco de Festos: ¿Tan solo un juego? Phillip Coppens

Como es sabido, el disco de Phaistos es un disco de arcilla cocida que data de la edad de Bronce y cuyas inscripciones (a ambas caras del mismo) no han encontrado una explicación satisfactoria hasta la fecha. Philip Coppens (1971-2012) escritor y periodista de origen belga es conocido por sus trabajos sobre historia y arqueología alternativa en los que defiende la teoría de los antiguos astronautas. En este artículo Coppens introduce una teoría cuyo principal mérito es la lectura de las inscripciones del disco de Phaistos en una clave totalmente original.

DogmaCero 90

E

ntre los varios artefactos peculiares que han llamado la atención a muchos estudiosos y aficionados a la arqueología está sin duda el llamado disco de Festos. Desde hace ya más de un siglo se han propuesto diversas interpretaciones para este objeto, particularmente con la intención de descifrar el supuesto texto que se escondería tras unos singulares signos jeroglíficos, que –curiosamente– no estaban incisos como los sistemas de escritura lineal A y B, sino estampillados sobre la arcilla. Lo cierto es que estos símbolos parecen realmente otra cosa si los comparamos con estas escrituras cretenses bien conocidas por la arqueología. Y todavía sorprende más el hecho de que no se han encontrado otras muestras de esta simbología estampillada, lo que parece un contrasentido: ¿para qué molestarse en fabricar un conjunto de tampones para usarlos una sola vez? También cabe señalar que sobre este caso planea desde hace tiempo la sombra del fraude a cargo del propio descubridor del artefacto, el arqueólogo italiano Luigi Pernier. Así, la gran excepcionalidad de esta pieza y las poco claras circunstancias de su descubrimiento han levantado fundadas sospechas de que se pudiera tratar de una magnífica falsificación. Ahora bien, tam-

Phaistos –también Festos o Festo– es uno de los antiguos palacios de Creta. A principios de julio de 1908, a la estela del descubrimiento de Knossos por Sir Arthur Evans , se halló en unas similares –pero menos conocidas– ruinas de la costa sur de la isla un curioso disco de arcilla, que data de alrededor de 1700 a. C. y que contiene una sofisticada escritura pictográfica. El propósito, significado y hasta el propio origen geográfico de fabricación de este objeto, conocido como “el Disco de Festos”, siguen estando bajo disputa. Hoy en día, este intrigante artefacto está expuesto en una vitrina del Museo Arqueológico de Heraklion, siendo objeto de curiosidad para numerosos visitantes. Precisamente, sobre su origen y propósito

poco se ha podido demostrar con pruebas científicas que el objeto se trate en realidad de una manufactura moderna, aunque sorprende que no se le haya practicado un análisis de termoluminiscencia, para obtener una fecha absoluta de la época en que se coció la pieza de arcilla.

En fin, los intentos de desciframiento han sido múltiples y exhaustivos pero hasta la fecha nadie ha sido capaz de dar una versión mínimamente consistente. Por su parte, la arqueología alternativa también ha entrado en este debate con propuestas de todo tipo, algunas realmente atrevidas por no decir estrambóticas; por poner dos ejemplos, se ha sugerido que podría ser una simbología astronómica o incluso una especie de mapa genético. Frente a todas las líneas de investigación más o menos heterodoxas, el recientemente desaparecido autor Phillip Coppens, apostaba por una original lectura en clave diferente que, si bien no deja de tener un cierto componente especulativo, posee alguna base lógica a partir de ciertas analogías con algunos objetos bien conocidos de la Antigüedad. Y bien pudiera ser que lo aparentemente más obvio (un sistema de escritura) fuese una pista del todo equivocada... Redacción Dogmacero

se han planteado decenas de teorías, pero en el análisis final ninguna de ellas ha resultado satisfactoria. No obstante, arrinconada entre las múltiples propuestas, hay una que –si bien tiene poca aceptación– puede ser la respuesta correcta, como veremos más adelante. El Disco de Festos fue descubierto por el arqueólogo italiano Luigi Pernier en los cimientos de la sala XL-101 del palacio minoico de Festos, cerca de Hagia Triada (en la costa sur de Creta). El disco, que se halló notablemente intacto, es de tamaño bastante reducido: unos 15 cm de diámetro y poco más de 1 cm de grosor uniforme. No hay nada extraordinario sobre el disco en

DogmaCero

91

Fotografía del Disco de Festos o Phaistos, que se encuentra actualmente en el Museo Heraklion en Creta sí. Las inscripciones se hicieron presionan- barco, un escudo, un bastón, etc. Tales redo sellos jeroglíficos prefabricados sobre presentaciones se encuentran también en la arcilla blanda, en una secuencia en espi- la escritura jeroglífica egipcia. ral del exterior hacia el centro del disco. A Pero hay poco que pueda hacerse más allá continuación fue cocido a alta temperatura. de la clasificación, dado que las inscripcioEl palacio fue destruido y abandonado pones del disco son en gran parte un hecho siblemente cuando el volcán de Santorini aislado –único– y por lo tanto cualquier entró en erupción, lo que constituyó uno de intento de descodificación es extremadalos mayores dramas geológicos que ha altemente difícil. Si se trata de un idioma, no se rado el mundo mediterráneo en los últimos ha encontrado hasta la fecha ningún otro 10.000 años. Si no hubiera sido por el reejemplo en lugar alguno. Algunos investipentino y dramático final de la vida del pa- gadores han afirmado que existen algunos lacio, tal vez el disco no habría sobrevivido posibles paralelos. Se trata de una doble durante milenios, hasta su descubrimiento hacha votiva encontrada en la Cueva Arkaen 1908. lohori, también en Creta, pero que contiene No hay pues enigma alguno acerca de cómo se hizo el disco. Lo que está en el meollo de la polémica son las inscripciones del disco y su significado. Hay un total de 241 figuras en el disco, creado a partir de “sólo” 45 glifos diferentes. Esto, según algunos, podría ser un alfabeto, un alfabeto jeroglífico. Muchos representan cosas cotidianas fácilmente identificables, que incluyen figuras humanas, peces, aves, insectos, plantas, un

sólo jeroglíficos ligeramente similares; de hecho, sólo tres de los 51 signos comparten potencialmente cierto parecido. El segundo es un fragmento de un disco de arcilla más pequeño, hallado en Vladikavkaz (Osetia del Norte), que sin embargo desapareció misteriosamente y por tanto no puede utilizarse para la comparación. Jerome Eisenberg, un especialista estadounidense en falsificaciones de arte antiguo,

DogmaCero 92

acusa a Luigi Pernier, el arqueólogo que encontró el disco, de haberlo inventado, y cree que la escritura no significa nada. Eisenberg sostiene que Pernier necesitaba impresionar a sus colegas, pero no ha presentado prueba alguna para respaldar su serio alegato que, de estar aún vivo Pernier, habría dado lugar sin duda a una demanda1. Los expertos, en general, tienden a hacer caso omiso de la argumentación de Eisenberg, ya que existen inscripciones similares en conocidos yacimientos arqueológicos, como la ya mencionada doble hacha de bronce de Arkalokhori, que tiene 16 caracteres, dos de los cuales se asemejan a los caracteres del disco.

da en espiral de largos campos irregulares a cada lado, 30 en uno y 31 en el otro, dispuestos dentro de las líneas curvas incisas. Sin duda, uno de los motivos de gran parte de esta confusión es que Sir Arthur Evans había insistido en que los signos del disco debían ser escritura silábica, porque él promovió la cultura cretense-micénica como la cuna de la civilización europea.

Entonces, ¿qué es? En la actualidad, la teoría más convincente es que se trata de un tablero de juego. Realmente lo parece, y el uso de sellos en su fabricación sugiere alguna forma de producción en serie. Su camino pautado hacia al centro es un rasgo clásico que han compartido los tableros de juego a La mayoría de las teorías proponen que lo largo de la historia. el disco representa un texto en un idioma Ahora bien, qué tipo de juego era, eso es desconocido. Como hay una serie de glifos más difícil de evaluar. Algunos sostienen marcados con una barra inclinada, algunos que se basaba en los viajes del dios sol y la creen que tales glifos designan palabras, o diosa luna, tanto en términos astronómicos incluso párrafos. En cuanto al significado como mitológicos. Tal juego tenía estredel texto, existen varias especulaciones: chos paralelos en el antiguo Egipto, lo que una oración, una narración, una historia permite la reconstrucción de sus principade aventuras, una llamada a las armas, un les características y campos (o casillas) de documento legal, una agenda de activida- eventos. De hecho, este análisis reveló que des del palacio, etc. Otros argumentan que estos campos coincidían con muchas casiel disco no es ningún tipo de texto, sino tal llas prácticamente idénticas del popular vez un calendario. O una ficha. O un teore- Juego de la Oca, las cuales se mantienen aún ma geométrico. O un tablero de juego. O un las mismas posiciones a lo largo del camino mensaje de extraterrestres que visitaron que su predecesor directo. la Tierra hace miles de años. O una puerta estelar. De hecho, casi la única cosa en que Ciertamente, los orígenes del disco se puecoinciden la mayoría de las teorías es que den explicar bien en el ámbito de los tableel texto se escribió desde el exterior hacia ros de juego, si nos atenemos a la existenel centro. cia de diversos objetos de este tipo en las civilizaciones vecinas, especialmente en Que el disco no es un lenguaje, a pesar de Egipto. De hecho, se observa una profunda que así se acepta ampliamente en algunos influencia egipcia en Creta, hasta el punámbitos, parece bastante lógico, dado que to de que varios de los niveles de Knossos tal lenguaje es totalmente único, y tanto su están fechados por los artefactos egipcios entorno (Phaistos) como su fecha (1700 recuperados en los mismos; allí incluso saa. C.) no apuntan a que pudiera existir tal lió a la luz la base de una estatua en diorita lengua aislada. Incluso si Phaistos tuviera de un dignatario de la XII dinastía egipcia, un lenguaje propio, ¿por qué sólo se des- en un depósito datado dos siglos antes del cubrió en un disco? En evidente contraste disco. Por tanto, el hecho de que un juego con las tablillas de escritura sin pautar de de mesa egipcio hubiera ido a parar a Creta aquel entonces y con las que, sólo un par es del todo posible y probable, viendo los de siglos más tarde, ya presentaban textos otros elementos egipcios que se hallaron en en líneas paralelas, el disco tiene una ban- Creta. DogmaCero

93

Curiosamente, en algunos tableros de Senet (juego del antiguo Egipto) se imprimían ciertos signos sobre la blanda masa arcillosa antes de la cocción, y tal impresión se hacía con tampones. En otras palabras, mientras que habría sido del todo inusual recurrir al estampillado para imprimir un texto en el disco de Festos, en cambio no sería de ningún modo excepcional el uso del estampillado para grabar signos sobre un tablero de juego. Otro indicio que también apunta en la dirección del tablero de juego proviene de la roseta de ocho hojas, que aparece cuatro veces en el disco. Este signo

de la tumba de Hesy (III Dinastía, ca. 26862613 a. C.). Edgar B. Pusch publicó una serie de fotografías y dibujos con las descripciones de todos los tableros conocidos de Senet –unos cuarenta– así como escenas de juego de Senet en papiros y murales. De acuerdo a un fragmento de pergamino que data de la época grecorromana (si bien parece registrar una tradición muy anterior), las 30 casillas del tablero de Senet representaban los 30 días del mes estándar del antiguo calendario egipcio, y más concretamente el mes de Thot, el primer mes

Tablero y piezas del Senet se encuentra con frecuencia en tableros de del año egipcio. El primer cuadro del Senet juego antiguos, incluidos los que se halla- era la Casa de Thot, y el festival de Thot se ron en las tumbas reales de Ur en Sumeria, celebraba en efecto el primer día de su mes, de alrededor de 2500 a. C., varios siglos an- que era también el día de Año Nuevo. El trigésimo cuadro representaba el último día tes del disco de Festos. del mes estandarizado, “cuando la luna es Pero, ¿en qué consistía el Senet? Se trata de invisible”. Observamos que el disco de Fesun juego de carreras, que podemos consi- tos tiene 30 “campos largos” en una cara y derar como el antepasado de nuestro mo- 31 en la otra. Así pues, siguiendo este razoderno backgammon. Afortunadamente, ha namiento, los teóricos que llegaron a la consobrevivido una gran cantidad de informa- clusión de que el disco era un calendario tal ción sobre el Senet en forma de tableros de vez no andaban muy equivocados. juego reales, descripciones y pinturas funerarias de jugadores de Senet con sus res- Sin embargo, aun aceptando que el Disco de pectivos títulos. La representación más an- Faistos fuese en realidad un tablero de juetigua conocida del Senet es en una pintura go, no podemos establecer una corresponDogmaCero 94

dencia directa con el Senet. Por un lado, la versión más común del tablero de Senet se presenta como una cuadrícula rectangular de 3 x 10 cuadros, y no como un disco. Por otro lado, aunque el Senet y otros juegos de mesa han sobrevivido, no así las reglas del juego. Los arqueólogos han tratado de adivinar cómo se jugaba y han establecido sus propias reglas, teniendo en cuenta que sin duda estas reglas fueron evolucionado en la Antigüedad y que algunos juegos se acabaron convirtiendo en otros.

En el caso específico del Senet, se cree que se tiraban unos bastones para ver cuántos cuadros se podía mover la pieza hacia adelante. Si se obtenía un uno, un cuatro o un seis, se consiguía un turno extra. No se podía ir a parar a donde estuviera una de tus propias piezas, y si se coincidía con la pieza de otro jugador, entonces se intercambiaban las posiciones. Sin embargo, no se podía hacer tal cosa si el otro jugador tenía dos o más piezas en fila, y si el otro jugador tenía tres o más piezas en una fila, no se podía pasar. Algunas casillas eran lugares seguros y otras eran lugares peligrosos. El primer jugador que conseguía sacar todas sus piezas del tablero ganaba la partida. Sin embargo, es igualmente posible que el juego fuese puramente “azar”: esto es, que la función de los dados o los bastones permitieran avanzar en el camino hasta alcanzar el centro. Y tal vez el disco de Festos pudo funcionar tanto como juego de azar como juego de reglas, al estilo del backgammon.

fue una adaptación de juegos egipcios similares, pero al igual que todo lo relacionado con la cultura minoica, debió ser modificado con un toque local específico. Seguramente, el juego de Festos tuvo reglas ligeramente diferentes y lo más probable es que nunca recuperemos las piezas que se colocaron en la parte superior, a menos que se trate de pequeños artefactos –erróneamente identificados por los arqueólogos– encontrados entre los escombros de los palacios y que ahora permanecen en vitrinas o almacenes del museo, a la espera de una identificación apropiada.

Sea como fuere, el Senet y otros juegos del antiguo Egipto están siendo lentamente revividos. El erudito en antigüedades Peter Aleff ya ha recreado un juego de tipo Festos, que ha alcanzado la producción comercial. Como tal, el misterio del disco no es sólo que se está recuperando, sino que está empezando a entretener al mundo del siglo XXI, cuatro mil años después de su creación. Para aquellos que creían que el disco fue una especie de portal del tiempo... puede que también estuvieran en lo cierto, si bien no en la forma que propusieron.

Tal vez el disco de Festos pudo funcionar tanto como juego de azar como juego de reglas, al estilo del backgammon

En fin, la hipótesis de que el disco de Festos sea seguramente un juego de mesa es la mejor y más lógica interpretación que podemos dar a este artefacto, si bien probablemente nunca lleguemos a descifrar con exactitud cómo se jugó. Parece claro que

© Phillip Coppens

Fuente: www.philipcoppens.com/feature articles

Notas

1.- Para tener una visión equilibrada del asunto de la falsificación y más concretamente de las propuestas de Eisenberg, los lectores pueden consultar en Internet su extenso artículo publicado en la revista Minerva, volumen 19, número 4, julio-agosto 2008. (nota del editor)

DogmaCero

95

“No Identificados”: intentando comprender lo absurdo Marcelino Requejo

Marcelino Requejo es un veterano investigador del fenómeno OVNI y autor del libro “OVNIS ALTO SECRETO”. En este artículo nos presenta una arriesgada pero interesante hipótesis, en un intento por intentar hallar una explicación a un fenómeno que se nos muestra con demasiada frecuencia como algo absurdo, incomprensible para una mente racional. Física cuántica, mundos paralelos, otras dimensiones... quizás, como afirma el propio autor, para intentar entender el fenómeno OVNI debemos abordarlo con una mente libre de ataduras.

DogmaCero 96

“El fenómeno OVNI es auténtico y de trascendental importancia para el hombre; sin embargo, por alguna razón, se nos está ocultando.”

Y es que, en algunas ocasiones, el comportamiento de los no identificados entre directamente en el terreno de lo rocambolesco. Es como si el fenómeno quisiera darse una vuelta de tuerza a sí mismo para convertir Fernando Jiménez del Oso su “puesta en escena de lo absurdo” en una Doctor en Psiquiatría, escritor e investig- absurda puesta en escena. Da la impresión dor OVNI de que “alguien” pretendiera enviar siempre a los testigos la misma consigna: “Cuenta a todo el mundo lo que has visto, nadie te “Nuestras diferencias en todo el mundo creerá”. desaparecerían si nos enfrentáramos a una amenaza extraterrestre. Y yo les En efecto, la experiencia nos permite afirpregunto: ¿No hay ya una fuerza extra- mar que la “inteligencia” que opera entre las terrestre entre nosotros?” bambalinas del fenómeno OVNI es maestra en el manejo de la paradoja. Se esconde en Ronald Reagan nuestra incredulidad, utilizando a su favor Discurso ante la Asamblea General de la la lógica humana como un impenetrable esONU 21-09-1987 cudo defensivo. Su lógica equivale a nuestro concepto de lo absurdo: nunca abriría una ventana para que entre la luz, sino para que El fenómeno OVNI en su conjunto es muy salga la oscuridad. complejo y se presenta a nuestro entendimiento como algo absurdo, por lo que, Por ello, los testimonios OVNI no son creíademás de no resultar creíble para una bles en su gran mayoría, porque el testigo gran parte de los ciudadanos, conduce al narra una experiencia absurda, expone un fracaso más estrepitoso a quienes intentan concepto chocante para la mente racional. analizarlo y estudiarlo utilizando métodos Esa inteligencia posee tal grado de astucia exclusivamente cartesianos. Algo así fue que ha logrado disfrazarse sin utilizar un expuesto ya en su día por el profesor Pie- disfraz. No hace falta que nosotros neguerre Guerin, miembro del Consejo Nacional mos la existencia de los OVNIs porque ya de Investigación Científica de Francia: “El se cuidan ellos muy mucho de negarse a sí problema OVNI, en su totalidad, realmente mismos. Lo advirtió claramente en su día no puede entenderse a menos que nuestra Carl Gustav Jung: “El fenómeno no se deja Ciencia pueda algún día proponer modelos atrapar”. físicos que tengan en cuenta los fenómenos Ahora bien, el hecho de que una gran parte observados. Nosotros no podemos conocer del género humano no admita su presencia esto ahora; alguna vez ocurrirá, y en todo en la Tierra es para esa “inteligencia” una caso, todavía estamos muy lejos de esta bendita colaboración. Ha sustituido hábilfase.” mente la famosa frase de Descartes “pienso luego existo”, por otra más acorde con sus Y hasta tal punto nos lleva el desconcierintereses: “Piensa que no existo”. to creado por la teatralidad del fenómeno OVNI que el mismo profesor llegó a afirmar: En mi opinión, la presencia entre nosotros “El comportamiento de los OVNIs es más del fenómeno OVNI tiene dos finalidades: parecido a la magia en lugar de a la física una, la primordial, que desconocemos por como la conocemos. Los tripulantes de los completo. Otra, la auxiliar, radica en hacerOVNIs modernos y los demonios de antaño nos creer que no existe, sirviendo de másprobablemente son idénticos”. cara y protección de la primera. DogmaCero

97

Concluida la función (el avistamiento), el circo se aleja llevándose consigo a toda su “troupe” de magos e ilusionistas. La astuta inteligencia ha cumplido con su representación y el testigo ha sido su espectador de platea. Quedó maravillado ante la fantástica exhibición; ahora siente la tentación de contarlo; lo hace y, por supuesto, nadie le cree (y “ella” encantada de que así sea). Esto funciona de esta guisa porque el idioma que utiliza esa “inteligencia” para comunicarse con nosotros es paradójico contemplado desde la óptica de la lógica humana; ella lo sabe y aún así, sigue empeñada en mostrarnos ese esporádico teatro, como esperando que nuestra respuesta se limite, asimismo, al empleo de un lenguaje absurdo y paradójico. Pero ¿cuál?

Otras dimensiones

En esta línea, la doctora Beatriz Gato Rivera, especialista en Física de Partículas Elementales y en Física Matemática, propone el “Principio de Indetectabilidad”, según el cual es probable que una supercivilización extraterrestre nos esté ofreciendo una imagen absurda y distorsionada de sí misma, aprovechando esa idealización que la cultura humana posee sobre lo que debe ser un extraterrestre. De esta forma, es posible que nuestra civilización terrestre esté sumergida, sin saberlo, en el seno de otra mucho más avanzada y de dimensión galáctica. La científica española nos lleva así a pensar en la posibilidad de una civilización que pulula en otra dimensión distinta a las tres conocidas en las que desarrolla nuestra actividad, y distinta también del tiempo; en otras palabras, una civilización enclaustrada en un plano diferente al nuestro, de ahí que, aunque conviva e interactúe con nosotros, no podamos detectarla tal cual es. Esta idea no es tan descabellada como pudiera parecer, pues al interactuar con nuestras dimensiones espacio-temporales, esta supuesta civilización provocaría en nuestros siste-

mas de percepción unos efectos anómalos que bien podrían encajar en muchas de las diversas facetas surrealistas que exhibe el fenómeno OVNI. Dicho de otro modo, al interferir en nuestro plano tridimensional, esta civilización provocaría una serie de absurdos efectos que de ninguna manera podríamos entender, pero que no dejarían de ser como un lenguaje, como el único medio de comunicarnos su existencia y su presencia. De todas formas, no deja de ser curioso que alguien como la doctora Gato, tan cercana al ámbito de la “Teoría del Campo Unifica-

DogmaCero 98

do de Einstein”, a la “Ecuación de Schrödinger” o al “Principio de Indeterminación de Heisenberg”, haya dedicado una parte de su precioso tiempo a elucubrar sobre la misteriosa presencia del “teatro OVNI” entre nosotros; sobre los teatrales y absurdos comportamientos de posibles civilizaciones superiores instaladas en otra dimensión.

Hace algunos años, el astrónomo ruso Felix Zigel afirmaba: “Estamos de acuerdo en que existe otra dimensión, la cual nos causaría que viéramos a los OVNIs cambiando de formas al observarlos dentro del marco de sólo tres dimensiones. Esto explica por qué algunos testigos han informado que la forma del objeto cambiaba misteriosamente ante sus propios ojos. Nuestros físicos consideran la cuarta dimensión, y quizá dimensiones adicionales y, a mi manera de ver, es una explicación del porqué los objetos volantes no identificados son capaces de cruzar enormes distancias en un breve lapso de tiempo, siendo así que, si se movieran con la velocidad de la luz, les llevaría cientos y miles de años. Además, los OVNIs tienen la característica definida de verse muy distintos desde diferentes puntos, o cuando cambia el ángulo entre el observador y el OVNI.”

El problema dimensional tuvo su origen con el alemán Theodor Franz Eduard Kaluza, un físico que, curiosamente, era experto en fonética. Por expresa recomendación de Albert Einstein, fue nombrado profesor de una cátedra de física en la universidad de Kiel. En la teoría de la relatividad general de Einstein se contempla la existencia de un “espacio-tiempo” integrado por tres dimensiones espaciales y una de tiempo. En base a ello, Kaluza publicó un trabajo en 1921 en el que intentó complementar este modelo relativista de Einstein con una quinta dimensión espacial, a fin de probar la “Teoría del Campo Unificado” (unificar la gravedad con el electromagnetismo). Proponía la existencia de un mundo de cinco dimensiones en el que la gravedad, el magnetismo y la electricidad no serían fuerzas separadas. Sin embargo, en el modelo pentadimensional de Kaluza se presentaban dos defectos importantes. En primer lugar, la teoría no describía la naturaleza de la quinta dimensión, asumiendo además un comportamiento clásico para los cuerpos, sin considerar los efectos de la mecánica cuántica. En 1926, el físico sueco Oskar Klein trato de corregir esos defectos realizando revisio-

Theodor Kaluza y Oskar Klein DogmaCero

99

mensiones a nuestro alrededor, pero no las vemos porque son inaccesibles con la tecnología que tenemos actualmente a nuestro alcance; se extienden por espacios que no podemos atisbar. Están “escondidas”, enrolladas en un micro tamaño alejado de nuestra realidad. Ya en el siglo XVIII, el filósofo alemán Emmanuel Kant afirmaba: “Si es posible que existan regiones con otras dimensiones, es muy probable que Dios las haya creado en alguna parte”. La reciente teoría de las supercuerdas no hace sino darle la razón al eminente filósofo.

El “poder” de místicos y artistas

También las doctrinas religiosas y ocultistas sostuvieron siempre en su ideología la existencia de dimensiones superiores. En el siglo XVII, el filósofo inglés Henry More acuñó el término Spissitude para describir una cuarta dimensión espacial en la que suponía habitaba el reino espiritual. Sostenía que espíritus y ángeles eran entes que ocupaban un determinado lugar en el espacio, pero en una dimensión superior. Esta idea fue adoptada por la teósofa rusa Helena Blavatsky.

La Dra. Beatriz Gato Rivera

nes a las formulaciones de Kaluza, estructurando la que hoy se conoce como “Teoría de Kaluza-Klein”, en la que se afirma que esa quinta dimensión estaría retorcida en un apretado bucle dentro del núcleo atómico. Desgraciadamente, como casi siempre sucede, esta idea no recibió en aquella época la importancia y el reconocimiento que merecía. Habrían de pasar casi 60 años para que fuese recuperada y enaltecida con todos los honores. El filósofo y escritor ruso Ouspensky, discípulo de Gurdjieff, al hablar de la cuarta diFue en los años ochenta cuando, gracias a mensión nos plantea la posibilidad de que los trabajos de los físicos John Schwartz y nosotros mismos seamos seres de cuatro Michael Green, se resolvió el problema de dimensiones; una pequeña parte de nueslas dimensiones con la denominada “Teotro ser vive en la tercera dimensión; el resto ría de las Supercuerdas”, en base a la cual el universo es el resultado de la vibración en reside en la cuarta, pero no somos consciendiez dimensiones. Según Schwartz y Green, tes de ello; así pues, para reconocer nuestra nuestro universo sólo puede sostenerse si existencia en una dimensión superior, debemos recurrir al trance místico. existen diez dimensiones. Las cuerdas se colapsaron durante el Big Bang, la gran explosión inicial. Seis dimensiones desaparecieron o se compactaron; las otras cuatro, en las cuales se desarrolla nuestra existencia, se expandieron. Para decirlo de una manera más expresiva: según la “Teoría de las Supercuerdas”, hay seis di-

La idea de Ouspensky está también presente en el astrónomo, periodista, escritor y teósofo extremeño Mario Roso de Luna, que fue discípulo de Blavatsky y tuvo además contacto con figuras muy importantes de su época, como Unamuno o Valle Inclán. Según él, “todos los inspirados, los poetas,

DogmaCero 100

los artistas, han presentido que sus propias antes, había escrito y publicado un poema creaciones provienen de una cadena de de corte expresionista, “Motivos del espacio y del tiempo” (1916-19). En esta obra, mundos más altos”. el clima onírico instala la posibilidad de la El matemático y escritor británico Charles “aventura dimensional”, con el tiempo, la Howard Hinton, considerado como el gran memoria y los fenómenos de dejà vu acteórico de la cuarta dimensión, sostenía tuando como telón de fondo. La relación de que la comprensión matemática del espacio Borges con la cuarta dimensión se enriquele llevaba a captar la sublime propuesta de ció a través de su afición por las matemátilos místicos: todo es uno. En esa compren- cas: “Obtuve muchas de mis ideas en libros sión, el hombre se funde con Dios. En su sobre lógica y matemáticas que he leído” obra “Muchas Dimensiones”, Hintob asegu- dijo en una conversación con Herbert Sira que el espacio, en su nivel más profundo, mon. sólo puede ser entendido por el corazón y No es de extrañar, por tanto, que, en 1934, no por el cerebro. Borges escribiera un artículo titulado “La cuarta dimensión”, seducido en aquellos Ahora bien, si el fenómeno OVNI procediese años por la divulgación de las geometrías de otra dimensión, rezumaría una connotano euclidianas y la Teoría de la Relatividad. ción onírica, poética, metafísica y filosófica. Aunque presentó El estudio minucioobjeciones a la forso de la variada cama y métodos exsuística nos ha llepositivos de Hinton vado a sospechar si y Ouspasky, Borges más que una extraña concedió mucha imnave voladora y sus portancia al tema tripulantes, no será de las dimensiones. una idea, un concep“Rehusar la cuarta to o un pensamiendimensión es limitar to lo que realmente el mundo; afirmarla presenció el testigo. es enriquecerlo.” Niveló la ciencia y la liPuede parecer ésta teratura a través del una proposición sin denominador común de la metáfora, llegansentido pero, al tratar el tema de la cuarta do a afirmar que “la metafísica es una rama dimensión, la cuestión onírica, poética, me- de la literatura fantástica”. tafísica y filosófica ya fue contemplada en su día por uno de los autores más destaca- ¿Un juego? dos de la literatura en español del siglo XX, el escritor argentino y Premio Miguel de Aún así, seguimos desconociendo el objetiCervantes 1980, Jorge Luis Borges. vo principal que subyace en la presencia del fenómeno OVNI. Para la doctora Gato Rivera En una carta de 1920 dirigida a su buen podría tratarse de un simple “juego” con el amigo Maurice Abramowicz, el literato ar- ser humano, al que transmite información gentino afirmaba: “… Como ultraísta y como para convertirlo en un fenómeno de masas, kantiano yo creo en la cuarta dimensión”, o un profeta, a fin de divertirse con sus reaunque siempre se mostró en desacuerdo acciones de orgullo y prepotencia; por otro con la costumbre intelectual de concebir lado, considera también la posibilidad de el tiempo como una “cuarta dimensión del una finalidad altruista al intentar ayudarle espacio”. No debe sorprendernos su interés para evolucionar psicológica y espiritualpor el tema dimensional, pues, poco tiempo mente.

Seguimos desconociendo el objetivo principal que subyace en la presencia del fenómeno OVNI

DogmaCero

101

A la vista de cuanto antecede, el discutido asunto de las más que posibles visitas de seres extraterrestres a nuestro planeta entraría en una fase muy interesante si lo contemplamos desde el ángulo de la existencia de otras dimensiones, pues nos obligaría a plantearnos la posibilidad de que estemos utilizando el término “extraterrestre” de una forma inadecuada, como apuntaba la doctora Gato Rivera ¿Deberíamos, tal vez, considerar el término “extradimensional” cuando tratamos la problemática OVNI? Porque, de ser así, si este fenómeno procede de otras dimensiones, eso explicaría en gran medida la imposibilidad actual de contactar con el mismo; una comunicación que, como acabamos de ver, sólo sería factible si traspasamos los campos de la física, de la matemática y de la filosofía, para entrar de lleno en el terreno del misticismo.

Entonces, ¿quiénes de entre nosotros serían las personas más idóneas, si no para entrar en contacto directo con esas entidades dimensionales que posiblemente manejan y se esconden tras una parte del fenómeno OVNI, sí al menos para intentar conseguir una migaja de su “absurdo” mensaje? Pues, tal vez, como afirmaba Roso de Luna, “los místicos, los poetas, los artistas y cuantos han sentido de una u otra forma la inspiración” porque, como sostiene Hinton, “el universo sólo puede ser entendido por el corazón” y ellos de ese saben bastante pues poseen una inexplicable facilidad para encontrar la creatividad no se sabe dónde.

contemporáneo Octavio Uña Juárez al mostrarnos su obra “Escrito en el Agua” © Marcelino Requejo 2013

Nota

Marcelino Requejo estudió Ciencias Químicas y en la actualidad es funcionario del Ministerio de Justicia. Lleva décadas investigando el enigma OVNI y es el responsable de que salieran a la luz algunos de los casos más importantes de los últimos tiempos. Concienzudo y meticuloso, siempre viaja al lugar de los hechos para entrevistar en persona a los testigos. Habitualmente interviene como invitado en programas radiofónicos como “Espacio en Blanco” (RNE), “La Rosa de los Vientos” (Onda Cero) o “Milenio3” (Cadena SER). Es colaborador de “Milenio” (Radio Galega) y de las revistas “Año/ Cero” y “Enigmas”. El contenido de este artículo está basado en las propuestas que aparecen en el libro “OVNIS alto secreto”, del investigador español Marcelino Requejo. Durante décadas, el autor ha investigado sobre el terreno centenares de asombrosos casos OVNI sucedidos en España, entrevistando siempre a los protagonistas.

Este libro es el fruto de esa labor en el que se relatan los más sorprendentes encuentros cercanos con los tripulantes de los OVNIs, las apariciones de gigantescos no identificados sobre varias ciudades españolas, los A fin de cuentas, la mente del místico, del casos de OVNIs que provocaron efectos fípoeta, del artista está libre de ataduras. Son sicos en algunos testigos, los testimonios genios y magos en el arte de la expresión de los secuestrados por los OVNIs, casos de y de la transmisión del sentimiento, alqui- contacto con presuntos seres de otros munmistas capaces de transmutar palabras y dos, los incidentes que oculta el Ejército conceptos, tanto lógicos como absurdos. español: cazas que persiguen OVNIs, las exCrean belleza valiénose de una “receta má- periencias de pilotos, políticos y militares… gica” que incorpora tan sólo dos ingredientes: imaginación y paradoja. “Sembraste ba- El blog de Marcelino Requejo es: rro y cosechaste estrellas” apunta el poeta http://marcelinorequejo.blogspot.com.es/ DogmaCero 102

OVNIS ALTO SECRETO. ENCUENTROS CERCANOS CON SERES DE OTROS MUNDOS Autor: Marcelino Requejo Prólogo de J.J. Benítez Ediciones Cydonia http://www.edicionescydonia.com/ovnis/ovnis.html DogmaCero

103

DogmaCero HORIZONTE ALTERNATIVO

Y en el próximo número... Graham Hancock es entrevistado en exclusiva para Dogmacero. Hancock nos habla de su nuevo libro, “War God”, y de los variados temas que son objeto de su interés: la civilización desaparecida, el problema de la conciencia, la crítica al paradigma imperante en ciencia, la arquitectura de tradición esotérica... Scott Creighton profundiza en su artículo “Howard Vyse: ¿Héroe o villano?” en la figura de uno de los egiptólogos más polémicos del siglo XIX, no sólo por sus discutibles métodos, sino por la grave sospecha de que pudo haber llevado a cabo la falsificación de los cartuchos del faraón Keops hallados en la Gran Pirámide de Guiza. Andrew Collins, en la primera parte de “El legado prohibido de una raza caída”, investiga a caballo entre la religión, la mitología, la historia y la arqueología el origen de una raza de supuestos seres superiores que ejercieron una poderosa influencia sobre la humanidad en un pasado muy remoto DogmaCero 104