Los resultados de Belfast
Una farmacóloga de la Universidad de Queen en Belfast, azote de homeópatas, se decidió a probar de una vez por todas la ineficacia de la homeopatía. Para ello, comprobó los efectos de una disolución ultradiluida de histamina sobre células blancas de sangre, y sorprendentemente comprobó como, aunque según la estadística la disolución no debería contener una sola molécula, el efecto fue como si efectivamente las hubiera (Inflamation Research, Vol .53, p. 181). El resultado además, ha sido duplicado por otros cuatro laboratorios diferentes.
En líneas generales, parece coincidir con lo que reclaman los homeópatas. ¿Es la prueba científica que tanto buscan, y que tanto reclamamos? ¿Hay que aceptar definitivamente la homeopatía como medicina, e inundar las farmacias con ella?.
Pues va a ser que no. En primer lugar, un detalle: la homeopatía afirma que cura usando compuestos que producen los mismo efectos que suponen combatir. Si el whisky da resaca, contra un dolor de cabeza lo mejor es una dosis homeopática de whisky. En el resultado de Belfast en cambio, los efectos de la disolución son los previstos por las moléculas disueltas. Aún así, sí parece coincidir la pretensión de que el soluto impregna el disolvente con sus propiedades (la famosa memoria del agua).
¿Por qué no se puede afirmar que la homeopatía es válida? En primer lugar, porque este resultado no está explicado. Podría ser desde un error en la metodología o la instrumentación, a que efectivamente hubiera un cambio en las propiedades del disolvente (que habría que comprobar). En cualquier caso, antes de comenzar una revolución en la física y la química, lo primero es llegar a descartar todas las posibilidades conocidas y reconocidas como válidas.
Si llegara a establecerse una teoría, fuera comprobada experimentalmente, con ella se fabricaran fármacos homeopáticos, y superara todos los controles de forma clara y sin ambigüedades, al igual que cualquier otra medicina, no creo que ningún detractor pusiera ninguna pega. Pero de el resultado de Belfast a esto último aún va un abismo.
La fusión fría
En 1989, investigadores de la Universidad de Utah dieron una conferencia de prensa revelando unos resultados que confirmaban la fusión de hidrógeno a temperatura ambiente, la conocida como fusión fría. El experimento consistía en introducir dos electrodos de paladio en agua pesada (D2O, donde D es el isótopo del hidrógeno llamado deuterio, cuyo núcleo tiene un protón y un neutrón), y aplicar un voltaje. Tras la hidrólisis, los iones de deuterio se desplazan hacia uno de los electrodos donde quedan atrapados, permitiendo que venzan la repulsión eléctrica, fusionándose y liberando una gran cantidad de energía.
Sin embargo, estos resultados no han conseguido ser reproducidos, y lo más probable es que se debiera a un error experimental. En la página web del proyecto ITER se puede encontrar amplia información acerca del proceso de fusión nuclear. Una de las condiciones necesarias es una altísima velocidad de los iones de un gas de D, para que éstos al colisionar consigan acercarse tanto como para que la interacción fuerte pueda entrar en juego y los núcleos tengan una alta probabilidad de fusionarse. Esto implica necesariamente una alta temperatura (del orden de millones de grados), ya que ésta es una medida de la velocidad media de las moléculas de un gas. Por tanto, la fusión fría, no es que sea imposible, pero sí bastante improbable. Y menos aún que el balance de energía generada - consumida sea positiva
Llama la atención, que New Scientist seleccione como un rompecabezas de la ciencia la fusión fría, y en especial con un experimento como éste que ni siquiera ha podido ser reproducido.
Otros rompecabezas
Podrían haberse hecho eco de algunos otros como pueden ser la paradoja EPR (Einstein - Podolsky - Rosen), surgida a raíz del enfrentamiento entre Einstein ("Dios no juega a los dados") y Bohr ("¿Quien eres tú, Einstein, para decirle a Dios lo que tiene que hacer?") por la interpretación de éste último de la mecánica cuántica.
Einstein sostenía que la mecánica cuántica era incompleta, y propuso experimentos pensados a Bohr para demostrarlo, los cuales siempre eran refutados. En el último de los experimentos, ideado junto con Boris Podolsky y Nathan Rosen, partían un sistema de dos partículas, con spin total 0. Cada partícula tiene entonces un spin igual, pero de signo contrario. Las partículas se separan en direcciones opuestas, y en cierto momento, un observador mide una de ellas. Según la mecánica cuántica, hasta ese momento, ninguna de las partículas tiene un spin definido. Pero al medir una de ellas, instantáneamente la otra queda determinada. El problema está en que según la relatividad, si la otra partícula está muy alejada (medio universo por medio, por ejemplo) y la información no puede viajar más rápido que la luz, no tiene forma de saber que su partícula compañera ha sido medida, y por tanto determinar su estado hasta que reciba la información. Por tanto, según EPR, debe haber variables ocultas, y la mecánica cuántica es sólo una aproximación estadística, debido al desconocimiento de estas variables (otra opción, que no tuvieron en cuenta, es que la relatividad fuera la teoría incompleta)
En 1964 John Bell mostró que las predicciones contemplando la mecánica cuántica tal y como estaba formulada, y la mecánica cuántica asumiendo que había variables ocultas, eran distintas, y por tanto un experimento real podría poner de manifiesto si EPR tenían razón. El experimento lo llevó a cabo Aspect, obteniendo un resultado a favor de la mecánica cuántica tal y como está formulada. Entonces, en un sistema de dos partículas, sus estados se determinan en el mismo instante de la observación de una de ellas. Además de la interpretación filosófica, este resultado es importante para el desarrollo de la computación y encriptación cuántica por ejemplo.
Otro enigma de la ciencia se podría buscar en los materiales superconductores de alta temperatura. La superconductividad fue descubierta en 1911 por Kamerlingh Ohnes, tras enfriar Mercurio a temperatura de Helio líquido (4.2 K, -269ºC). La resistencia eléctrica de pronto se anula, y es posible mantener en un anillo una corriente eléctrica durante al menos cientos de miles de años (siempre que se mantenga el estado superconductividad). En los siguientes años se descubrieron otra serie de efectos, que llevaron en los años 50 a Bardeen, Cooper y Schrieffer a la teoría que lleva sus iniciales (BCS). Hasta 1988, el superconductor de más alta temperatura lo era a 23 K (-250ºC), lo que conlleva refrigeración con Helio líquido. En ese año, se encontró que ciertos materiales cerámicos basados en óxido de cobre, se volvían superconductores a "alta" temperatura (125 K, -148 ºC), pudiéndose refrigerar con Nitrógeno líquido, más barato que el Helio. A diferencia de los superconductores de baja temperatura, en que es necesaria una concentración lo menor posible de impurezas, en estos materiales hay que introducirlas para conseguir el efecto. Sin embargo, la teoría BCS parece no ser completa para este tipo de materiales, y aún se está buscando el origen de su superconductividad. La pregunta más importante es ¿hasta qué temperatura se podrá elevar el estado de superconductividad?
Y así, se podrían buscar y encontrar más misterios de la ciencia, en los que se está investigando, y de los que se adquirirán conocimientos que podrán revolucionar la ciencia y ser aprovechados para una mejor calidad de vida, como llevamos cientos de años haciendo. En cambio, de los misterios pseudocientíficos, todavía estamos esperando a que por lo menos se resuelva el primero y nos revolucione el mundo.