lunes, noviembre 10, 2008

Conspiración on tour


7 de Noviembre, 7 de la tarde, Fundación del Colegio Oficial de Arquitectos de Madrid (COAM). El arquitecto americano Richard Gage se pasó por allí, para demostrar (otro más) que las torres gemelas y el edificio 7 del World Trade Center cayeron debido a una demolición controlada. No es una charla aislada, porque Richard Gage está de gira por Europa, comenzando por Madrid.

A pesar de tener ya planes para esa tarde (aunque no se lo crean, los malvados escépticos también tenemos vida social, y no nos pasamos la vida pegados al ordenador o la tele a ver cual es la última de Iker Jiménez) me pude acercar un ratito a ver que se cocía.

Hay que reconocer que el evento tuvo éxito en cuanto a afluencia de público. Llegué 15 minutos antes del comienzo, y tuve que esperar a ver si había hueco porque el aforo estaba prácticamente lleno. A pesar de todo, pude entrar y coger asiento en la sala principal. En una sala exterior proyectaban la imagen y se oía la traducción simultánea.

Cuando entré, le estaban entrevistando para una televisión local de Vallecas. Poco pude oír porque le pillé justo al final, y sólo pude entender cómo hablaba de que había que “ceñirse a las evidencias”.

Y mientras esperábamos la cola para acceder al salón de actos, en un mostrador repartían tarjetitas con un resumen de esas evidencias, y de cómo éstas corroboran la teoría de la demolición controlada. También vendían CD’s al módico precio de 20 euros, que al fin y al cabo, la noble labor de abrir los ojos al mundo no se hace gratis.

Richard Gage se presenta como arquitecto desde hace 20 años, en la zona de la bahía de San Francisco. Miembro de la asociación de arquitectos e ingenieros por la verdad del 11-S apoyada ni más ni menos que por la friolera e impresionante cantidad de unos 500 arquitectos e ingenieros (*), todos ellos pidiendo una nueva investigación de los eventos de aquel día. Sin embargo, parece ser que ya no ejerce como arquitecto. Según él mismo dijo, ahora dedica el 100% de su tiempo a divulgar la teoría de la demolición controlada. De ahí el tour que tiene previsto realizar por toda Europa.

Tras la presentación, Gage denunció la existencia de una nueva ley (HR 1955) según la cual, cualquiera que dude de la versión oficial puede ser considerado terrorista. El texto de la ley anda por aquí, y dejaremos que sean quienes entienden de leyes los que opinen si la ley dice eso, o si es una nueva versión del argumento de persecución Galileana

Gage considera importante saber qué pasó realmente el 11 de Septiembre de 2001, para prevenir que otro 11-S ocurra algún día, algo en lo que creo la mayoría podemos estar de acuerdo.

Preguntó Gage por qué tipo de público tenía: unos 10 “oficialistas”, unos 50 “dudosos “, y otros 50 “convencidos de la conspiración”. En cuanto a formación, unos 20 entre arquitectos e ingenieros, y el resto, gente “normal” (sic), de lo cual llegó a decir “eso está bien”. Cada uno que lo interprete como quiera, pero siendo malo uno diría que tenía un público fácil, lo cual le agradaba.

Lo que no terminé por entender fue su obsesión por conocer los números exactos. Y tampoco quiero pensar mal en exceso.

Y así, empezó la chicha del acto, remarcando que sólo se iba a fijar en los hechos basados en ciencia, seguido de una mención a Pearl Harbour, y una introducción en forma de video del 11-S. El video, como no, decía que las torres gemelas cayeron en apenas 10 segundos. Mal empezamos, si partimos de hechos falsos, dado que el tiempo en que cayeron las torres fue más bien de unos 15 segundos.

El método científico tiene un esquema claro y fácil de seguir: tenemos unas evidencias, las interpretamos para elaborar una hipótesis, hacemos experimentos repetibles de los que sacamos conclusiones y entonces validamos o descartamos la hipótesis para buscar una nueva. Más o menos, todos estaremos de acuerdo en esa descripción.

En 2005, FEMA y NIST habían dicho que no encontraron evidencias de una demolición controlada. La crítica de Gage es que no se puede encontrar lo que no se busca. Pero también se le puede decir a Gage que si no hay motivos para buscar algo determinado, hacerlo es dar palos de ciego, algo que en alguna ocasión puede llevar a descubrimientos fantásticos, pero la mayoría de las veces a perder el tiempo (y malgastar el dinero). Aplicando el método científico esquematizado de antes, podríamos decir que los experimentos de FEMA y NIST confirmaban las hipótesis que les sugerían las evidencias disponibles, y por tanto no era necesario buscar en otra dirección.

Así, empezamos a repasar las características de los derrumbes. Empezamos por al torre 7. Fue la última en caer, pero tiene su lógica empezar por aquí. Creo que todos podemos coincidir en que su derrumbe se parece a una demolición controlada. La estrategia es clara: convencer primero de lo fácil (el WTC7 fue demolido controladamente porque se parece mucho a una demolición controlada desde la base del edificio), que luego será más fácil de convencer de lo difícil (la demolición controlada de arriba a abajo de las torres gemelas).

Remarco parece, porque al final la argumentación se reduce a un “confía en tus sentidos”, “tus sentidos no te engañan”. El primer elemento para convencernos de esta demolición controlada es… un video de una demolición controlada desde la base del edificio. En el video se apreciaba bien la explosión en los pisos bajos, y un segundo después cómo la estructura se cae.

Lo que no se aprecia en el video en cambio, es el sonido. Es un video mudo, donde no se oyen explosiones. De esta forma, al ver a continuación el derrumbe del edificio 7 uno no se da cuenta que falta el sonido de las explosiones, a pesar de que sí se oye el sonido del edificio cayendo. Eso sí, nos ofrece el sonido de una grabación de una emisión de radio, en la que la locutora entrevista a alguien de emergencias, diciendo que había oído como el sonido de un trueno o relámpago (literalmente, “clap of thunder”) justo antes de la caída. La transcripción (y sonido) se pueden encontrar aquí

Se nota que Gage se dedica el 100% a la divulgación, y tiene tiempo para hacer sus deberes. En Agosto de 2008, el NIST sacó por fin el informe sobre el colapso del WTC7. Y ya se lo ha leído a fondo.

Resumiendo, lo que señala el informe como la secuencia más probable del colapso, es que tras la caída de la torre norte (la segunda en caer), el WTC7 sufrió daños visibles en la fachada. También aparecieron algunos incendios, de los cuales, el que se dio entre las plantas 7 y 13 fue el causante final del derrumbe. El incendio comenzó en el lado suroeste del edificio, y se propagó a la zona norte (algo de lo que Gage se sorprende, a pesar de haber dicho previamente que es bien sabido que los fuegos no están más de 20 minutos en una zona concreta), y de la zona norte, a la zona este.

El incendio y las variaciones de temperatura dilataron y contrajeron los pisos y columnas, hasta que al final, en el lado este, algunos pisos se desprendieron de las columnas 79, 80 y 81. Éstas eran las más largas del edifcio, y además eran las que más peso soportaban. Al caerse los pisos, las columnas se quedan sin apoyos laterales, y comienzan un proceso de “pandeo” que las hace doblarse sobre sí mismas, comenzando el derrumbe general de todo el edificio.

Esta era una buena ocasión para que Gage mostrara sus conocimientos de arquitectura y explicara si esas columnas eran o no tan importantes. Y si el perder esas columnas hubiera hecho que el edificio se cayera como lo hizo, tal y como sostiene el NIST.

Un edificio se cae porque sus columnas dejan de soportar el peso. Cómo se eliminen, es independiente de lo que pase luego. De hecho, el NIST también examinó la hipótesis de la demolición controlada. Sabiendo que el edificio cae si se eliminan esas columnas, calcularon la cantidad de explosivo mínimo: una carga direccional de apenas 4 Kg de RDX en la columna 79. Al explotar, se elimina la columna y el edificio cae como se ve en las imágenes. Es una demolición controlada que cumple con los requisitos que piden los conspiranoicos, y coincide con los estudios de qué pasa cuando se elimina la columna 79.

Así que la pregunta para Gage, como arquitecto que es, debería ser si el hecho de perder el apoyo de las columnas 79, 80 y 81 hubieran tirado al suelo al WTC7. Luego, si quiere, podríamos entrar en si se perdieron por un incendio, o por una carga explosiva, pero el primer punto es claro: eliminar esas columnas ¿tira abajo el edificio, sí o no?. La mayoría de los que estábamos allí no poseíamos conocimientos suficientes para saberlo, Gage podría haber explicado si era así o no dado que él sí posee esos conocimientos. Pero, o me perdí ese punto, no entró en él.

En cambio, prefiere mostrar una imagen de la simulación del NIST. Según la simulación, unos segundos después del inicio de la caída el edificio empieza a retorcerse sobre sí mismo, algo que según él, no se aprecia en las imágenes. Sin embargo, estos giros de la estructura aparecen en los pisos más bajos, que están tapados por otros edificios en los videos, por lo que no podemos saber realmente si eso fue así.

Y para poco más me dio el ratillo que pasé allí. De lo poco que vi y oí, me pareció que la argumentación se reducía a fiarse de los sentidos para comprobar cómo un hecho se parece a otros. Pero en fin, igual después sí que sacó a relucir su experiencia como arquitecto y me lo perdí.

Una de las curiosidades que tenía para acudir al acto era saber si algún arquitecto o ingeniero con experiencia en construcción de edificios, o demoliciones, planteaba algún debate sobre las afirmaciones de Gage. Visto el tipo público asistente, tengo mis dudas al respecto. Y en todo caso, tampoco podría haberme quedado a verlo.

-Hay que ceñirse a las evidencias - le oí decir al entrar.
Las evidencias deben llevar a establecer las hipótesis. Sin embargo, si partimos de una interpretación errónea de las evidencias, llegaremos a hipótesis erróneas. La tarjetita que cogí al inicio del acto muestra las características de las caídas de los 3 edificios, que se toman como evidencias. Entre ellas, la archiconocida "caída libre", que las torres gemelas cayeron fuera de su huella, y la torre 7 dentro de su huella (¿ambas son evidencias de demolición controlada?), piscinas de metal fundido.... Pero la que llama más la atención es lo de la “nube piroclástica”.


En las torres Norte y Sur, la “evidencia” sugiere la presencia de unas nubes que se parecen a nubes piroclásticas, lo que sugiere el uso de explosivos. Una vez más, se nos está pidiendo que tomemos un parecido como evidencia. Las nubes piroclásticas surgen en algunas erupciones de volcanes, como la del Vesubio que llevó a la destrucción de Pompeya y Herculano. Es una nube de gas a muy alta temperatura que cae a alta velocidad volcán abajo.

¿Qué tiene que ver una erupción volcánica con una bomba, o demolición? Pues no lo sé. Tampoco se entiende por qué la gente que terminó cubierta por esa nube no murió carbonizada.




Lo cierto es que si los conspiranoicos fueran tan sólo el 1% de exigentes con sus teorías de lo que son con la versión oficial, se quedarían sin conspiración.


Actualización

(*) Compárese con los 123.000 miembros de la ASCE (American Society of Civil Engineers), y los 80.000 miembros de la AIA (American Institute of Architecs) (fuente) que al contrario de los 500 arquitectos a los que representa Gage, no dudan de los informes del NIST. Mucho conspirador suelto, es lo que hay

Otra Actualización

Terminó la gira europea, y Gage la resume en su web. Por supuesto, fue un éxito porque acudió gran cantidad de gente. Y la manía por contar qué tipo de asistentes tenía era por lo que me temía:


Cientos de arquitectos e ingenieros vinieron a ver de qué iba la controversia


No se cómo fue en otros países. En Madrid, de unos ~120 asistentes, sólo 20 eran ingenieros o arquitectos (un 16%). En París, parece que la proporción fue más o menos la misma: unos 40 de 240. Si la proporción fue la misma en el resto de países, entonces sumando los de todos los países, sí, llegaron al centenar, y representan al 16% del público. Otra cosa es si se creían o no los argumentos de Gage.

Y la otra frase me hace gracia es la de:

Y el número de manos alzadas reveló que apenas nadie apoyaba la conspiración oficial y la historia del fuego después de mostrar las evidencias


Se le olvida contar que el número de manos alzadas antes de dar las evidencias ya era elevado, por lo que en realidad, estaba hablando a un público ya convencido o predispuesto.

Si lo que intentaba contando tipos de asistentes era demostrar a posteriori que había convencido a ingenieros y arquitectos de "la Verdad"... pues simplemente me parece una manipulación.

lunes, octubre 06, 2008

El radar de Dulles

Danielle O’Brien era controladora en el aeropuerto internacional de Dulles (Washington), de donde despegó el vuelo 77 que acabó estrellándose en el pentágono. De hecho, ella misma participó en el despegue del avión, pero lo que le ha hecho conocida son las siguientes declaraciones:

La velocidad, maniobrabilidad, la forma en que giró, lo que todos en la sala de radar pensamos, todos nosotros controladores aéreos experimentados, fue que se trataba de un avión militar (…) No pilotas un 757 de esa manera. Es inseguro.


Sobre las nueve y media de la mañana, O’Brien y sus compañeros vieron en las pantallas de radar un eco no identificado. Se movía rápido hacia el Este. Hizo un giro de casi 360º y desapareció del radar. Minutos más tarde el aeropuerto Nacional de Washington (el aeropuerto Reagan), les comunicaba que el Pentágono había sido alcanzado.

Quienes creen en una megaconspiración del gobierno estadounidense para autoatentarse, ven en estas declaraciones la confirmación de que ningún avión se estrelló en el Pentágono. Principalmente, es el giro de casi 360º el que levanta las sospechas, ya que por un lado O’Brien dice que es “inseguro” hacer volar así un 757, y no faltan pilotos expertos (y generalmente anónimos) que dicen que esa maniobra es imposible. En cambio, lo que habría visto O’Brien en el radar bien podría haber sido un caza, o incluso un misil.

Objeciones que se pueden hacer a esa rápida conclusión es que las palabras se pueden interpretar de otra forma: pilotar un 757 de esa forma puede ser inseguro, o incómodo para los pasajeros, pero no imposible, y para un terrorista que se quiere suicidar no parece que la seguridad del avión sea una prioridad. Por otro lado, están los datos de las cajas negras recuperadas, que confirman que se hizo tal giro, con una trayectoria que coincide con la marcada por el radar, y a pesar de que la maniobra quizás fuera hecha de forma chapucera, era perfectamente posible como confirman otros pilotos expertos (estos sí, con nombre y apellidos).

Las declaraciones, prácticamente las únicas que se pueden encontrar en la red, las hizo en Octubre de 2001 a la ABC, pero no fue lo único que dijo. Entre otras cosas, también relata cómo fue a ver por sí misma qué había ocurrido:

He estado en el Pentágono e imaginado por donde, según lo que vi en el radar, pudo haber venido el vuelo. Y creo que fueron hacia el Este y debido a que el sol les daba en los ojos esa mañana, y porque la Casa Blanca está rodeada de árboles, creo que no pudieron verlo. Iba demasiado rápido. Sobrevolaron el Pentágono o lo vieron frente a ellos. No puedes pasarte el Pentágono. Es tan reconocible por su forma y tamaño, y dijeron “Mira, ahí está. Ve por él. Dale a ese”. Ciertamente podrían haberle dado a la Casa Blanca si la hubieran visto


Que deja entrever que ella, controladora experimentada, a pesar de creer que volar un 757 de esa forma puede ser inseguro, no tiene dudas de que eso fue lo que recogió el radar.

¿Qué vio Danielle O’Brien?

En la web http://www.aal77.com/ están disponibles las imágenes del radar de aquella mañana. En concreto, se pueden ver los videos de los radares del aeropuerto de Dulles (código del aeropuerto IAD), de Reagan (DCA), de Baltimore (BWI), y de Harrisburg (MDT). En los tres primeros se ve un eco de radar dirigiéndose a toda velocidad hacia el este, haciendo el famoso giro, y finalmente acelerando hasta que se pierde la señal. Estas imágenes muestran lo que los controladores vieron aquella mañana.

El suceso no ocurrió tan rápido como podría parecer de las palabras de O’Brien: la pantalla del radar se refresca cada 5 segundos. El primer eco aparece sobre las 9:25 y la señal se pierde más de 10 minutos después.

¿Y qué estaba detectando el radar?

Las evidencias tales como el análisis de las cajas negras que describen una trayectoria igual a la recogida por el radar, los restos encontrados, y los testimonios de la gente deberían bastar para concluir que lo que el radar captó fue el AA77.

Pero por si aún hay alguna duda, vamos a razonar lo que pudo, y no pudo detectar el radar.

Como funciona un radar

El radar (acrónimo de RAdio Detection And Ranging) es un sistema que emplea ondas electromagnéticas para detectar y estimar la distancia de un blanco. Una antena barre en ángulo y en el tiempo de una vuelta (casi 5 segundos) emite una serie de pulsos. Estos pulsos cuando chocan con un blanco rebotan hacia la antena, donde generan una señal eléctrica que posteriormente se muestra en una pantalla. Ya que la velocidad de la luz es una constante (c=2.997•108m/s), el tiempo (t) que ha tardado la señal en ir y venir determina la distancia (r) al blanco (r=c•t/2).

Pero el radar tiene una sensibilidad. Es decir, la antena necesita recoger una cantidad mínima de radiación rebotada para que la electrónica reconozca la señal como un eco, y no como ruido. Para entender qué factores determinan la señal que un eco produce en la antena, resumiremos el proceso que se puede encontrar más detallado en la web Radar Basics:

1- Emisión de señal
La antena del radar emite un pulso de radiación con una potencia media PS. La radiación se propaga por el aire, hasta una distancia R donde se halla el blanco. Entonces, la radiación que recibe el blanco es proporcional a la potencia de salida de la antena, e inversamente proporcional al cuadrado de la distancia que le separa del blanco:



2- Rebote de la señal
La radiación rebota y comienza a propagarse en todas direcciones. Sólo una parte vuelve hacia la antena. Cuanta exactamente, depende del tamaño del blanco, de su forma, y del material con que está hecho. Todos estos parámetros se combinan en uno sólo llamado Sección Eficaz de Radar, cuyo significado físico es el área aparente que parece mostrar el blanco. Así, la potencia que rebota es proporcional la potencia que llega, y su sección eficaz de radar:


3- Recepción de la señal
El eco producido debe recorrer el mismo camino R hasta llegar a la antena donde será detectado con una potencia Pe, por lo que de nuevo su potencia disminuirá como el cuadrado de la distancia:


4- Ganancias y pérdidas
Lo anterior es el esqueleto de la ecuación básica del radar. Para completarla falta añadir unos detalles. Primero, la antena no emite radiación de forma simétrica en todas direcciones, sino que concentra el haz en una dirección. Para ello, se diseña la antena con una forma y área específica. De esta forma, la potencia que llega al blanco es mayor que la que hubiera recibido si la radiación se hubiera emitido de forma omnidireccional.

Esto también afecta a la recepción del eco: cuanto mayor sea el área de la antena, más radiación recogerá. A esta corrección debida al diseño geométrico de la antena se le llama ganancia (G), y como vemos, actúa tanto en la emisión como en la recepción.

La longitud de onda también influye en la propagación de la radiación, por lo que también se debe incluir en la ecuación.

Por último, el radar está sujeto a pérdidas, a fracciones de la potencia recibida que no se convierten en señal eléctrica. Con todo esto, la ecuación final del radar queda como sigue:


En la ecuación se pueden diferenciar varias partes:

- Primero, la debida únicamente a la antena: potencia emitida, ganancia, longitud de onda y pérdidas (azul).

- Segundo, la debida únicamente al blanco: la sección eficaz de radar (rojo)

- Tercero, un factor debido a la geometría que es una constante (verde)

- Y cuarto, la distancia R (negro)

Fijando las características de un radar, el eco depende únicamente del tipo de blanco, y de su distancia a la antena. Blancos muy grandes a mucha distancia pueden rebotar la misma cantidad de radiación que un blanco pequeño a corta distancia. Un blanco pequeño rebota menos radiación que un blanco grande, y si ambos están a la misma distancia el blanco más pequeño puede no ser detectado.

Las antenas tienen un límite por debajo del cual no detectan ecos. A este límite se le llama sensibilidad, depende únicamente de la antena y se determina experimentalmente. Ecos que lleguen con una potencia similar o menor que la sensibilidad no se van a detectar.

El ruido es otro parámetro característico del radar. El radar tiene una sensibilidad, pero el ruido puede hacer que de pronto surjan señales más altas que ésta. ¿Cómo se puede diferenciar entonces entre una señal verdadera, o el simple ruido que por azar genera una señal ligeramente superior a la sensibilidad? Para ello se caracteriza este ruido, de forma que para considerar una señal como un eco válido, debe superar la señal que produce el ruido por encima de la sensibilidad.

El radar que se hallaba instalado en Dulles y en la mayoría de los aeropuertos norteamericanos en 2001 era el ASR 9 fabricado por Northrop Grumman, cuyas características se pueden encontrar por la web de la FAA

Las características que influyen en la ecuación del radar son los siguientes:

- Potencia media : 1188 a 1462 W
- Ganancia : 33-34 dB
- Frecuencia : 2.7 a 2.9 Ghz (longitud de onda : ~10 cm)
- Pérdidas : 2.6 dB
- Sensibilidad : -108 dBm (-138 dB)
- Ruido : 4.1 dB

Para este radar, la señal mínima que debe llegar a la antena para reconocer un eco debe ser de -138+4.1 dB=-133.9 dB

Como datos complementarios, el radar rota a una velocidad de 12.5 revoluciones por minuto (4.8 segundos por vuelta. El refresco en la pantalla del operador es cada 4.8 segundos), y su alcance es de 60 Millas Náuticas (unos 110 Km. 1 NM=1.852 Km)

Las señales en decibelios (dB) se calculan a partir de logaritmos. Así, si tenemos una potencia en vatios (PW) para expresar la potencia en dB, PdB=10•log(PW).

Las unidades dBm (decibelios-milivatio) son el resultado de calcular los decibelios usando milivatios en vez de vatios:
dBm=10log(PW•1000)=10log(1000)+10log(PW)=30+dB


El alcance máximo no viene determinado por la sensibilidad del radar, sino por el periodo de los pulsos emitidos por la antena. Cuando la antena emite, no puede recibir y viceversa. La antena pone un contador de tiempo a cero cada vez que emite un pulso, y el eco debe llegar a la antena antes de que se emita el siguiente. Ese tiempo determina el alcance máximo.

Según las características técnicas del ASR-9, la antena emite un pulso con un periodo variable entre t=0.757 ms y 1.07 ms. En ese tiempo, la radiación debe ir y volver, por lo que la distancia más larga que puede recorrer la radiación varía entre r=c•t/2=113 km (61 NM) y 161 km (87 NM). El radar sólo muestra hasta 60 NM al operador.


En conclusión, tenemos que para que un radar ASR-9 reconozca un eco como señal, éste debe ser de al menos Pe=-133.9 dB, y debe encontrarse a un máximo de 110 km del radar.

La sección eficaz de radar

Con las características del radar conocidas, para estimar si un blanco determinado se puede detectar a una distancia R, hay que conocer aproximadamente su sección eficaz de radar.

La sección eficaz de radar (Radar Cross Section, RCS) es una medida del “área aparente”, o el área que la radiación “parece” encontrarse cuando rebota con el blanco. Otra interpretación posible es que es una medida de la probabilidad de que la radiación sea rebotada hacia la antena. Depende, obviamente, del tamaño del objeto, de su forma, de su orientación respecto a la antena, y de la longitud de onda.

También del material con que esté hecho el blanco. Así, por ejemplo, los cazas y misiles suelen estar recubiertos de un material llamado RAM (Radar Absorbent Material) que absorbe parte de la radiación para que la potencia del eco sea mínima. Otros cazas (como el F-117, o el B-2) y también algunos misiles (como el AGM-129) llevan formas calculadas expresamente para que el rebote de la radiación se desvíe hacia los lados, y no hacia la antena de radar evitando así su detección. Estos dos factores reducen la RCS.

Algunos valores típicos de RCS en metros cuadrados:


Avión Comercial / Bombardero
500 – 1000 (Ref. 1)
100 (Ref. 2)
100 – 1000 (Ref. 3)
Jet privado: 100 – Reactor: 1000 (Ref. 4)

Caza de combate
1 – 50 (Ref. 1)
2 – 6 (Ref. 2)
5 – 100 (Ref. 3)

Misil
0.1 – 10 (Ref. 1)
0.5 (Ref 3)
Tomahawk: 1 (Ref. 5)

Caza invisible (stealth)
F-117 0.1 (Ref. 2)
B-2 0.01 (Ref. 2)
Menor de 0.0001 (Ref. 4)

Ref 1: Radar Cross Section en aerospaceweb.org
Ref 2:
Radar Cross Section Measurements (8-12 GHz) of Magnetic and Dielectric Microwave Absorbing Thin Sheets [.pdf]
Ref 3:
RADAR CROSS SECTION (RCS) [pdf]
Ref. 4:
Antenas
Ref. 5:
Tomahawk (BGM – 109)


A pesar de la dispersión de valores, se ve que hay diferencias de uno o varios órdenes de magnitud entre aviones comerciales (100-1000 m2), cazas (5-100 m2), misiles (0.1-10 m2) y aviones invisibles (menos de 0.1 m2)

Dentro de cada tipo de blanco, también depende de su tamaño. No es lo mismo una avioneta Cessna, que un jet privado, o que un gran reactor tipo Boeing 757.

Y para un mismo blanco, puede haber también diferencias entre si la radiación ve el blanco de frente, o de lado. Normalmente, de frente la RCS es menor.


Teniendo en cuenta que estos valores son una estimación del la RCS, ahora podemos estimar algunas cosas: el ASR-9 tiene un alcance de R=60 NM. A esa distancia, ¿qué RCS debe tener un blanco como mínimo para poder ser detectado por el radar?

Para facilitar los cálculos, partiendo de la ecuación básica del radar, se puede expresar en decibelios:


Se han empleado las propiedades de los logaritmos para separar los términos. G(dB) y Ls(dB) son la ganancia y las pérdidas expresadas en decibelios, tal y como aparecen en los datos técnicos.

Sabiendo que la distancia es R=110 000 metros (~60NM) y que la potencia mínima que debe llegar al radar es de 10logPe=-133.9 dB, se puede despejar la RCS para obtener el valor mínimo que debe tener un blanco para ser detectado a 110 km de distancia.

Ese valor es 10·log σ = 23.6 dB, es decir, 232 m2. Retomando los valores anteriores, vemos que un misil tiene una RCS que no pasa de 10 m2. Un caza no pasa de 100 m2 como máximo, parecido un avión pequeño; mientras que un gran reactor puede rondar hasta los 1000 m2. Es decir, a 60 NM, un misil no sería detectado por el radar. Un caza tiene un valor máximo por debajo del límite, por lo que según las circunstancias, o el tipo de caza concreto, es probable que no fuera detectado hasta que estuviera más cerca; más o menos lo que mismo que le puede pasar a un pequeño jet privado o una avioneta. En cambio, un avión comercial tipo Boeing 757 sí tiene probabilidades de ser detectado a 60 NM.

Lo cual no podría ser de otra forma, porque el radar está pensado para controlar el tráfico aéreo que en su mayor parte es comercial. Si el radar se diseña para alcanzar esa distancia, es lógico ajustar la potencia para poder detectar ese tipo de aviones.

En cualquier caso, el sistema de radar por ecos es actualmente un sistema de apoyo. Tanto los aviones comerciales como los cazas llevan un transpondedor (también llamado radar secundario) que envía a la torre su posición, altura, dirección, velocidad, etc… Aunque el radar primario (el de ecos del que estamos hablando) no pudiera detectar un caza, sí que aparecería en pantalla la señal del transpondedor si éste está encendido.

El 11 de Septiembre los terroristas desconectaron el transpondedor en 3 de los 4 aviones secuestrados, entre ellos el AA77, por lo que en las pantallas de los controladores sólo aparecía un eco de radar primario sin identificación alguna

¿A qué distancia apareció el eco de radar en Dulles? ¿Cuanto se acercó o alejó del radar?. En esta imagen se ha superpuesto la trayectoria [.pdf] del eco en el radar de Dulles (IAD) en un mapa de google.

Cada círculo concéntrico corresponde a 5 NM. El primer eco en Dulles aparece sobre las 9:25 hora local, a una distancia entre 47 y 50 NM (entre 86 y 92 km). El eco se acercó a menos 18 km, y se alejó hacia el Pentágono, haciendo el giro y desapareciendo.

Pero Dulles no fue el único radar que vio el eco. El aeropuerto de Baltimore (BWI) también lo captó. En el mapa está oscurecido el área que ambos radares cubrían (y sus límites marcados en verde) y se ve qué parte de la trayectoria podían ver simultáneamente en ambos aeropuertos. El primer eco apareció en Baltimore a las 9:28 hora local (13:28 UTC), a 60 millas de distancia del aeropuerto, y a unas 22 millas de Dulles.

(Imagen del radar del aeropuerto internacional de Baltimore-Washington (BWI), tras recibir 5 ecos del AA77 a 60 millas de distancia)

Para terminar, en la imagen también se ha añadido una “mapa” de la sección eficaz de radar mínima (zonas azules). Cada zona indica el valor mínimo de RCS que debería tener un blanco para ser detectado por ambos radares simultáneamente. La zona azul más oscura indica que un blanco debía tener una sección eficaz menor de 10 m2, lo que se estima para un misil. Fuera de esa zona, un misil no sería detectado por ambos radares a la vez. El azul más claro indica que en esa zona un blanco debe tener una RCS entre 10 y 100 m2, como mínimo, lo estimado para un caza de combate. Más lejos de esa zona, un caza podría no ser detectado por ambos radares a la vez.

Como el eco en realidad se recibe fuera de ambas zonas azules, la sección eficaz de radar mínima que tenía el blanco era superior a 100 m2.

Y por fin llegamos donde queríamos: ¿Qué puede ser, y qué no puede ser el eco?

No puede ser un misil. Un misil, con una sección eficaz de radar de 10 m2 o menor, quizás se hubiera podido ver en Dulles cuando estuviera a menos de 25 NM, pero no su trayectoria completa. Pero en Baltimore no se le hubiera podido ver ni acercarse, ni realizar el giro de 330º. No era posible ver el eco en ambos radares simultáneamente, por lo que un misil no pudo generar el asombro de los controladores de Dulles.

¿Podemos suponer que es un caza con el transpondedor apagado, que se acercó y lanzó un misil? Un caza que no esté preparado para ser invisible (como un F-22, un F-117 o un B-2) dependiendo de su tamaño, uno que tuviera una sección eficaz de radar rondando los 100 m2, se podría ver a partir de 45-50 millas. ¿Podría haber captado el radar de Baltimore su eco a 60 millas de distancia? Para afirmarlo o negarlo sin ningún género de dudas hace falta hilar más fino de lo que estamos haciendo aquí.

Supongamos que sí. Entonces ambos radares podían ver el eco simultáneamente.

Sin embargo, pudiéndose ver desde tan lejos, después de hacer el giro el eco desaparece en una zona donde no habría dudas de que puede ser detectado. Si el caza lanza un misil y huye de la escena del crimen, ¿por qué desaparece su eco, y no se capta la huída? La opción más razonable es pensar que el eco desaparece porque desaparece el blanco: el blanco se estrella contra el pentágono.

Pero ya hemos visto que no podía ser un misil. Lo cual nos llevaría a considerar otras teorías alternativas, como que lo que se estrelló allí fue un Globalhawk, que a veces se describe como un misil con alas que parece un “avión pequeño”, tal y como algún testigo dice que vio. Sin embargo, el Globalhawk no es un misil, y si parece un avión pequeño porque es un avión no tripulado.

Es un avión que se emplea en misiones de reconocimiento. Por dentro está lleno de sensores, ordenadores e instrumentación que le sirven para controlar el vuelo y recoger información, pero no lleva explosivos. Si se hubiera estrellado un Globalhawk en el pentágono, todo el daño vendría producido por su energía cinética, como haría un 757. Y claro, si ya hay pegas porque (según dicen) no se ven los restos del AA77 (más pesado y con mayor energía cinética), idénticos argumentos se deberían aplicar a esta opción: ¿dónde estarían los restos de un Globalhawk? Si los conspiranoicos no se creen que un 757 atravesara de parte a parte el anillo exterior del pentágono, ¿por qué habría de hacerlo un Globalhawk?

La última opción, que el eco era el AA77, no plantea problemas al radar. Su sección eficaz es mayor de 100 m2, quizás rondando los 1000 m2: se puede detectar por ambos radares desde su alcance máximo, y su señal desaparece al estrellarse en el pentágono.

Conclusión: ¿Qué vieron los radares de Dulles, Reagan, y Baltimore?

Vieron un objeto que se acercó en dirección Este, hizo un giro, y se estrelló contra el pentágono.

¿Fue el AA77, un Boeing 757? Los radares podían hacerlo porque están diseñados precisamente para ello, y otras pruebas y testimonios corroboran que eso fue lo que captaron los radares.

¿Pudo ser un caza o un avión pequeño? Dependiendo del tipo de avión o caza, podría haber sido detectado. Pero tendría que haber terminado su trayectoria estrellado contra el Pentágono y no hay ninguna prueba que permita confirmar esta interpretación. Y puestos a aceptar que fue un avión lo que se estrelló, un Boeing 757 tiene una mayor energía cinética y capacidad de destrucción en un choque que un Globalhawk, o un F-18.

¿Pudo ser un misil? No. El radar tiene capacidad para captar un misil a una distancia cercana, pero no para detectarlo desde tan lejos. Aunque se hubiera podido ver en el radar de Dulles, no se hubiera visto en el de Baltimore, por lo que hay que descartar esa posibilidad.

jueves, septiembre 11, 2008

11-S: Análisis crítico

¿Por qué 4 aviones secuestrados volaron hasta una hora sin ser interceptados?

¿Se demolieron las torres gemelas con explosivos?

¿Cómo pudo caerse la torre 7, si allí no impactó ningún avión?

¿Por qué las baterías antiaéreas del Pentágono no derribaron el avión que se le venía encima?

¿Cómo un piloto mediocre al que no le quisieron alquilar una avioneta pudo pilotar y hacer acrobacias con un Boeing?

Todos sabemos que el 11 de septiembre de 2001 ocurrieron en Estados Unidos unos hechos terribles que costaron la vida a miles de personas. Un tiempo después de los fatídicos atentados, empezaron a surgir teorías según las cuales el gobierno estadounidense estaría implicado de alguna forma en ellos.

Estas ideas se vieron reforzadas por la aparición de determinados libros, vídeos y sitios web que ponían en duda la versión dada por prácticamente todos los medios de comunicación sobre Al Qaeda y el integrismo islámico como origen de la planificación y autoría de los atentados. La idea general sería que el gobierno habría tomado parte activa en una conspiración para perpetrarlos.

Igualmente empezaron los debates acerca de la veracidad tanto de la versión oficial, como de la verosimilitud de las teorías de la conspiración, muy salpicadas de connotaciones políticas y económicas.

11-S: Análisis crítico es una iniciativa de la Red crítica del 11-S para tratar de dar respuesta a dudas y preguntas frecuentes en relación con los atentados sucedidos en Estados Unidos el 11 de septiembre de 2001.

Dado que ha habido muchas manipulaciones de información en relación a los mismos, creemos que es necesaria la divulgación de las pruebas junto con un análisis de las conclusiones que podemos extraer de ellas, para tratar el tema con la objetividad que merece, despojándolo de amarillismos, verdades a medias y mentiras llanas. No pretendemos realizar un análisis sociopolítico basado en conjeturas o especulaciones, sino que nuestro foco se centra en observar los hechos físicos y las pruebas para deducir las conclusiones pertinentes a partir de ellas, no en hacer una interpretación política creativa.

Esperamos cumplir este cometido, pero no somos infalibles. Estamos abiertos a cualquier discusión y crítica sobre los contenidos de la web. Por motivos prácticos, creemos que lo mejor para este tipo de discusiones es este subforo, del foro Misterios de Todo a Cien, donde cualquier persona puede intervenir sin necesidad de registrarse.

sábado, agosto 23, 2008

Turismo paranormal

No, si al final le voy a coger gusto a esto de hacer "turismo paranormal". Uno se va de vacaciones, y sin querer acaba encontrándose con exposiciones esotéricas

alegorías del hombre pez en Liérganes,
(bonito pueblo por cierto, que no necesitaría el reclamo del hombre pez para atraer turistas)

Pero el misterio más insondable que me he encontrado, ha sido esta escritura antigua en el parque natural de Cabárceno que ningún filólogo ha sido aún capaz de descifrar.

jueves, julio 24, 2008

La Sábana milagrosa: 4. Apéndice: absorción de luz en un medio saturable



Esta entrada forma parte de una serie dedicada a la Sábana Santa. Se recomienda leer las partes precedentes a ésta.

La sábana milagrosa:
0. Introducción
1. La formación de la imagen
2. Distorsiones en 2D
3. La representación en 3D
4. Apéndice: absorción de luz en un medio saturable


El objetivo de este apéndice es tan sólo divulgar un hecho curioso, que de rebote debería ser de aplicación en la hipótesis de la formación de la imagen en la Sábana Santa que sostienen los sindonólogos, aunque su efecto pudiera no ser muy notable. Lo leí por primera vez en la web de la NASA, donde ponen a disposición del público series de fotografías de la Luna hechas con varios módulos del programa Apollo.

Según cuentan, digitalizar las fotografías a partir de sus negativos lleva un proceso de limpieza, escaneo, y finalmente un procesado para corregir los niveles de luminosidad porque la respuesta de la película fotográfica es de tipo logarítmico, y no lineal como cualquiera pensaría de primeras. Es decir, dados dos focos de luz, donde uno tiene el doble de intensidad que el primero, en el negativo no se va a ver el doble de “oscuridad” entre un foco y otro, sino otra relación distinta, que depende de funciones logaritmo.

Al hacer una copia en papel a partir de un negativo, este tipo respuesta también está presente en el papel fotográfico, con lo que ambos procesos se cancelan, y la fotografía final tiene bien ajustada la luminosidad, produciendo una respuesta “lineal” entre la luz del objeto fotografiado, y su luminosidad en la fotografía final en papel.

Sin embargo, al digitalizar directamente los negativos de la misiones Apollo, la corrección debida a la respuesta de la película se tiene que hacer a posteriori, por medio de software.

¿Por qué ocurre este tipo de respuesta? Vamos a intentar explicarlo. Primero, es necesario aclarar términos, y diferenciar entre intensidad y dosis.

- Intensidad es la cantidad de fotones que cada segundo de forma continua llegan a una superficie (o que emite una fuente de luz).

- Dosis es la cantidad de total de fotones que en un determinado tiempo han llegado a una superficie (o han salido de una fuente de luz)

Son definiciones similares, pero distintas, aunque de forma informal se puede llegar a hablar de ambas como si fueran la misma cosa. Si a una superficie están llegando fotones, la intensidad dice a qué “ritmo” llegan esos fotones. La dosis dice “cuantos” fotones han llegado en total, desde que abrimos el obturador hasta que lo cerramos, sin importar el ritmo al que han llegado. La relación entre dosis e intensidad es simple: la dosis es la intensidad, multiplicada por el tiempo durante el cual los fotones han estado llegando.

A igualdad tiempo, dos intensidades distintas producen dosis distintas, pero proporcionales a las intensidades.

Dos haces de luz con distinta intensidad pueden producir la misma dosis: basta con dejar que la luz menos intensa llegue durante más tiempo, y al final en número de fotones recogidos serán el mismo. Por ejemplo, al hacer una fotografía con “poca luz”, es necesario dejar el obturador más tiempo abierto para que la fotografía final tenga suficiente claridad. Si la foto se hace con condiciones de “mucha luz”, entonces el obturador debe cerrase antes, para conseguir la misma claridad en la foto final.

Entendido esto, vayamos a ver en qué consiste una película fotográfica. Es un “papel”, o “substrato” que reacciona más o menos, según la dosis de luz que recibe. Las imágenes se componen de unidades mínimas de información, que llamamos píxeles. Un píxel por sí sólo no es una imagen, sino sólo un punto con un nivel de luminosidad determinada. Son todos los píxeles juntos con sus distintos niveles de claridad u oscuridad los que generan la imagen.

Todos tenemos una idea de lo que es un píxel en una cámara digital. En una cámara analógica, la película está compuesta de pequeños granos, que en última instancia son sus “píxeles”. Un grano no forma una imagen, sino que adquiere una luminosidad, y el conjunto de todos ellos forman la imagen

Cada uno de estos granos a su vez, tiene una gran cantidad de moléculas fotosensibles, es decir, que pueden absorber fotones, y llevar a cabo una reacción química que cambie su estructura y propiedades de forma permanente. Una vez que una molécula ha absorbido un fotón, no va a volver a absorber otro; o si lo hace, esa molécula no se va a volver “más negra”, sino que se queda como está, porque ya ha realizado la transformación que debía hacer. A efectos prácticos, una molécula reaccionada deja de estar disponible para absorber fotones.

Cuando se revela un negativo, un producto químico lo que hace es reaccionar de forma distinta con las moléculas que han sufrido este cambio por absorber un fotón, que aquellas que no lo han absorbido.



De forma que al final, cada grano contiene una concentración de moléculas con unas propiedades ópticas (digamos que “son opacas”), y de moléculas con otras propiedades ópticas distintas (“son transparentes”). Un ojo humano no es capaz de ver estas diferencias molécula a molécula, sino que de un grupo elevado de ellas, como las que hay en un grano, observa unas propiedades ópticas “promedio”, a medio camino entre la opacidad y la transparencia. Cada píxel de la imagen tiene una concentración distinta de moléculas opacas y transparentes, y el ojo ve por tanto los distintos niveles de opacidad “promedio” que forman la imagen que finalmente vemos de un negativo.



En la parte izquierda de la imagen anterior, hay distintos niveles de gris, generados a partir de los patrones indicados, que sólo contienen negro y blanco. La compresión en .jpg hace el “promedio” de ese patrón, y por eso vemos distintos niveles de grises

Otro ejemplo son las fotografías en blanco y negro de periódicos o en libros. Se puede ver como los distintos niveles de grises en realidad se deben a distintas concentraciones de puntos negros y espacios blancos.

Visto desde cierta distancia, el ojo es incapaz de ver individualmente estos puntos. Lo que vemos en esas fotografías es un “promedio” entre los puntos negros y los espacios en blanco, que el cerebro interpreta como un tono de “gris”
La Pava
(Imagen de "La Pava", sacada del libro "Los caras de Bélmez", de J. Cavanilles y F. Máñez)


Así pues, uno abre el obturador, y deja que una dosis determinada de fotones llegue a la película hasta que cierra el obturador. ¿Qué nivel luminosidad tendrá un grano determinado? ¿Cuántas moléculas del grano van a reaccionar? Si tenemos N moléculas fotosensibles, y enviamos una cantidad D de fotones (menor que N), lo primero que se le ocurre a uno es que todos los fotones serán absorbidos. Y que si enviamos un número D’ (mayor que N), entonces N fotones serán absorbidos, y el resto (D’-N) pasarán de largo, o no afectarán a la película, mientras que en el negativo se obtendrá el máximo valor de gris posible (es decir, totalmente negro)

Pero veamos el proceso a cámara superlenta. Abrimos el obturador. Llega el primer fotón. Todas las moléculas están disponibles para absorber el fotón, así que el fotón tiene una probabilidad del 100% de acertar en una molécula que puede absorberlo, y hacerla reaccionar. Es absorbido, y la molécula cambia su estructura.

En seguida, llega un segundo fotón. Todas las moléculas menos una están disponibles para absorber el fotón. Da igual, como son muchas. La probabilidad de ser absorbido es del 99.9…%; otra molécula lo absorbe, y cambia su estructura.

Llega el tercero, el cuarto, el quinto… que van siendo absorbidos por moléculas que cambian su estructura. Hasta ahora, por cada fotón absorbido, hay una molécula que lo absorbe y reacciona. Pero a la vez, está disminuyendo el número de moléculas que pueden absorber un fotón. Llega un momento en que la probabilidad de ser absorbido disminuye de tal forma que el fotón no es absorbido, pasa de largo, y no genera un cambio de estructura de una molécula. De forma que la relación “un fotón-una reacción” deja de ser válida. Para cuando se cierre el obturador, si hemos dejado pasar una dosis D de fotones (menor que N), resulta que no todos los fotones se han absorbido y producido una reacción.

Coge un papel, y dibuja una tabla de 6x6 casillas. La tabla representa un píxel, o grano de la película; y cada casilla representa una molécula fotosensible. Todas las casillas están vacías, es decir, que tienes todas las moléculas disponibles para absorber fotones.

Tira un dado de seis caras dos veces. La combinación de tiradas te indica una fila y una columna. Eso indica con cual de todas las moléculas ha interaccionado el fotón que ha llegado. En la casilla de esa fila y columna, haz una cruz. Eso representa una molécula que ha reaccionado.

Haz una gráfica aparte, donde el eje x represente el número de dobles tiradas (=número de fotones que han llegado), y el eje y, el número de casillas con una cruz (=número de moléculas que han reaccionado). Al empezar, para x=0 fotones, hay y=0 moléculas reaccionadas. Tras la primera doble tirada, deberías tener x=1 fotón, e y=1 molécula. Ve marcando estos puntos. Borra la cruz en la tabla, y ahora haz dos dobles tiradas marcando las cruces correspondientes, y anota en la gráfica cuantas cruces tiene ahora la tabla (posiblemente obtendrás x=2, y=2).

Al cabo de varias repeticiones aumentando en número de tiradas, alrededor de la décima (si no antes), llegará un momento que obtengas una combinación de fila y columna que ya está marcada. Eso representa un fotón que ha encontrado una molécula que ya había reaccionado, y por tanto, ese fotón se pierde sin producir ninguna reacción.

Es posible que al inicio pensaras que si tienes 36 casillas disponibles, con 36 dobles-tiradas habrías llenado toda la tabla (“una tirada-una cruz” = “un fotón-una reacción”). Sin embargo, cuando lleves 36 tiradas, aún tendrás bastantes casillas sin marcar. Y necesitarás aún muchas más para poder llenar todas las casillas.

Si observas la gráfica que has ido construyendo, verás que tendrá más o menos esta pinta:



La curva azul representa la relación “un fotón-una reacción”. Los puntos negros representan valores que habrás ido marcando en tu gráfica. La curva roja, es la curva en torno a la cual se agrupan todos los puntos. Si repites la prueba varias veces, verás que aunque no obtengas nunca los mismos valores, los puntos siempre se agruparán en torno a esa curva.

Esta forma de simular un proceso a través de “tirar dados”, es el llamado “Método de Monte Carlo”. Procesos que pueden ser muy complejos, en los que es imposible controlar todas las variables (como saber con dónde va a caer un fotón), se simulan con un componente de azar, y se analiza el resultado global.

Es decir, no importa tanto saber cuantas moléculas habrán reaccionado tras llegar x fotones, sino la tendencia que siguen todos los valores tomados en conjunto: la línea roja.

Otro ejemplo de Método de Monte Carlo, lo usamos hace tiempo para predecir qué resultados se pueden esperar en experimentos de telepatía con cartas Zener


Cosas a destacar:

Primero, la relación entre la dosis y la “oscuridad” (o moléculas que han reaccionado) que se registra en el negativo no es “lineal”, sino del tipo “exponencial”. Si nos fijamos en la línea azul, que es la que hubiéramos esperado en principio, vemos que la curva roja se aparta de ésta. Es decir, esa curva crece más lentamente que la recta, por lo que se dice que es “sub-lineal”, lo que es típico de una función logarítmica, tal y como hablaban en la web del Apollo. (Logaritmos y exponenciales son funciones estrechamente relacionadas, así que supondremos que no quisieron ser rigurosos con el lenguaje)

Segundo, aunque un píxel tenga un determinado número de moléculas, hace falta una dosis de fotones mayor que el número de moléculas para poder hacer reaccionar todas. Y según quedan menos moléculas, se necesita una cantidad mayor de fotones para que al menos uno consiga hacer reaccionar una molécula. Es decir, el material que absorbe fotones se va poco a poco “saturando”, y la probabilidad de que un fotón sea absorbido disminuye según avanza el proceso y la saturación del material (que es lo que finalmente provoca la “sub-linealidad” del proceso)

Ahora veamos qué ocurre cuando del negativo, hacemos una copia en positivo. El proceso es prácticamente el mismo, con alguna ligera diferencia. Un foco de luz con una intensidad uniforme, ilumina un negativo. La luz lo atraviesa, pero teniendo en cuenta que el negativo presenta zonas claras (porque recibieron una dosis pequeña de fotones al hacer la foto orginal) y zonas oscuras (que recibieron una dosis más alta de fotones al hacer la fotografía), la intensidad de luz que finalmente atraviesa el negativo se modifica según este mismo patrón: de las zonas oscuras sale una dosis menor de fotones, que de la zona clara.

Cuando los fotones llegan al papel (cubierto con su propia película fotosensible), los fotones hacen lo mismo que antes: van uno a uno según llegan haciendo reaccionar las moléculas, y según la misma respuesta sub-lineal que antes. Las zonas a las que llegan pocos fotones, se vuelven claras (que corresponden a las zonas oscuras del negativo, y por tanto, a una alta intensidad de luz del objeto o escenario fotografiado), mientras que las zonas a las que llegan muchos fotones se vuelven oscuras (que correspondían a una zona clara del negativo, y por tanto a una baja intensidad de luz del objeto o escenario fotografiado)



Lo interesante resulta de comparar la intensidad de luz de la fuente de luz original, y el nivel de luminosidad de la fotografía resultante tras los dos procesos (negativo y copia): sigue una relación aproximadamente lineal entre la dosis de fotones que se capturaron al hacer la imagen, y la luminosidad que presenta la fotografía (o al menos lo hace en una zona que abarca la mayor parte de la gráfica). Esto nos asegura que la reproducción en papel tiene luminosidades “proporcionales” a la intensidad de luz del objeto o escenario real.

Mismo proceso, otra situación

La fotografía se parece a la energía nuclear de fisión lo que un huevo a una castaña. Pero lo divertido muchas veces de la física, es que situaciones que no tienen nada que ver, se pueden describir con los mismos procesos.

La fisión nuclear consiste en dividir átomos de Uranio-235 (isótopo con 92 protones, y 143 neutrones, con una abundancia del 0.07% en la naturaleza. El isótopo más abundante es el U-238). Al dividirse, libera una gran cantidad de energía que se convierte posteriormente en electricidad.

Para dividir un átomo de U235, es necesario que absorba primero un neutrón. Al hacerlo, se desestabiliza, y se divide en dos átomos más pequeños, y libera igualmente algún neutrón, que se emplea en producir otra fisión, siguiendo con la reacción en cadena.

Entonces: tenemos una barra de Uranio, que contiene un número determinado de átomos de U235. Tenemos un haz de neutrones. Un neutrón es absorbido por un átomo de U235. Éste lleva a cabo una reacción nuclear, y desaparece al fisionarse en otros dos átomos; es decir, no vuelve a estar disponible para absorber otro neutrón.

¿Cuántos átomos de Uranio235 se habrán fisionado después de que hayan llegado x neutrones? ¿Se habrán absorbido todos los neutrones enviados? ¿Cuántos átomos de U235 quedarán sin fisionar? Si aún no ves la similitud, cambia “átomo de U235” por “molécula fotosensible”, y “neutrón” por “fotón”. Las mismas relaciones matemáticas y consecuencias se aplican al caso de la fisión.

Y en este caso, es de gran importancia. Para que una reacción nuclear de fisión esté bajo control, es necesario controlar la cantidad de neutrones que llegan al Uranio. Es un equilibrio inestable que según del lado que caiga, hace que la reacción en cadena se dispare, o se frene. Afortunadamente, las centrales se diseñan para que en caso de romperse el equilibrio por cualquier motivo, la reacción se frene.

En este equilibrio entran las llamadas “barras de control”. Son unas pocas barras (generalmente de Boro) que se introducen entre las barras de Uranio. Su misión es absorber neutrones para mantener el equilibrio de la reacción en cadena.

Como hemos visto, según avanza la reacción, hay cada vez menos átomos de U235, porque desaparecen con su fisión. La probabilidad de que un neutrón sea absorbido y produzca una fisión disminuye según avanza el proceso, por lo que la reacción se puede ralentizar, y terminar parándose. Entonces, lo que se hace es ir retirando poco a poco las barras de control, para que absorban menos neutrones, y haya más disponibles para fisionar un átomo. Si hay más neutrones, hay más probabilidad de que uno de ellos sea absorbido, y produzca una fisión, manteniendo la reacción.

El ritmo al que hay que ir retirando las barras depende del ritmo al que se van fisionando los átomos, que depende del ritmo al que llegan los neutrones. Por tanto, saber cuántos Uranio U235 queda por fisionar es un dato clave para el funcionamiento de una central nuclear.

La Sábana Santa

La analogía del proceso de hacer un negativo con el de la Sábana Santa es un poco más obvio que en el caso de la fisión nuclear.

Una presunta radiación llega a la Sábana. La Sábana está compuesta por fibras de lino, cuyas moléculas absorben la radiación, y experimentan un cambio en su estructura. Según los sindonólogos, se deshidratan, es decir, pierden moléculas de agua que pudieran estar enlazadas.

Esta deshidratación cambia las propiedades ópticas de la sábana, dándole color a la imagen. Según llegan los fotones, las moléculas se van deshidratando, pero cada vez quedan menos moléculas hidratadas por deshidratar. Por lo que los fotones tienen cada vez menos probabilidad de ser absorbidos, generar una deshidratación en las moléculas, y oscurecer la tela. Nos hallamos de nuevo ante el mismo proceso.

Cuando en 1898 Secondo Pía hizo una fotografía de la Sábana Santa, observó que en el negativo aparecía la imagen más nítida, como si en realidad fuera el positivo. Eso lleva a algunos sindonólogos a hablar de la sábana como si fuera un negativo.

Si la imagen de la sábana se hubiera formado realmente como especulan los sindonólogos, sería, efectivamente, un negativo. Pero no por las razones que se esgrimen : “al invertir los colores se ve mejor la imagen”. Eso es un efecto relacionado con la percepción de la vista, que por cierto, también tiene una respuesta de tipo logarítmico, y no tiene nada que ver con el proceso de formación de la imagen.

Sería un negativo porque el proceso según el cual se habría impreso la imagen, sería el mismo por el que se genera un negativo al hacer una fotografía. Pero eso no implica nada respecto a los colores de la sábana, que la imagen se vea más nítida, y que el hombre hubiera tenido en realidad canas. Una cosa es el proceso del cerebro para la percepción de imágenes, y otra distinta el proceso físico-químico que produce una imagen en un medio saturable, ya sea en la Sábana Santa, o en un negativo fotográfico. Si se quiere hablar de la sábana como un negativo, hay que hablar de cómo se forma la imagen en ella, y no de cómo percibe el cerebro la imagen.

Conociendo entonces el proceso que hubiera seguido la sábana, hay que tener en cuenta que los niveles de luminosidad no son proporcionales a la intensidad original de la radiación, sino que es una relación “sub-lineal”. Al tratar los niveles de luminosidad de la imagen, estos deben ser corregidos teniendo en cuenta este efecto, como hemos hecho en la tercera parte, y justificamos en este apéndice.

La Sábana milagrosa: 3. La representación en 3D





Esta entrada forma parte de una serie dedicada a la Sábana Santa. Se recomienda leer las partes precedentes a ésta.

La sábana milagrosa:
0. Introducción
1. La formación de la imagen
2. Distorsiones en 2D
3. La representación en 3D
4. Apéndice: absorción de luz en un medio saturable




Anteriormente habíamos visto cómo una radiación emitida por un cuerpo necesita saltarse a la torera todas las leyes de la óptica para poder formar una imagen sobre una sábana. Hoy toca hablar de la tridimensionalidad de la imagen, o esa propiedad según la cual, al representar los niveles de “intensidad” (o de oscuridad) de la imagen en una tercera dimensión, la imagen parece ser coherente con el volumen de un cuerpo real. Esta característica la “descubrieron” John Jackson, Eric Jumper y Peter Schumacher (JJS) allá por los 70, con un sistema llamado VP-8 Image Analyzer. El VP-8 fue desarrollado por Peter Schumacher. Y nadie como él mismo nos puede contar cómo funcionaba este cacharro. Lo tienen por escrito [.pdf], y en video [.wmv] (ambos en inglés)

Una foto de la Sábana Santa se colocaba en el aparato. Una cámara de video tomaba una imagen, la electrónica analizaba la intensidad de luz en cada punto de la imagen, y le asignaba un cierto valor. Estos valores se representaban en una pantalla, en una gráfica tridimensional donde los ejes x e y corresponden a las dimensiones de la fotografía, y la coordenada z al valor de luminosidad asignado.

Muy importante: la asignación que hacía el VP8 era del tipo “lineal” o “proporcional”, palabras que vienen a significar lo mismo: dados dos niveles de luminosidad cualquiera, la relación entre ellos guarda la misma proporción que la relación entre las alturas z asignadas. O en palabras de Schumacher:




Un cambio del 10 % en el nivel de intensidad entrante, produce un cambio en la elevación del 10% en el eje Z. Es una función directa, lineal.




Este trabalenguas se puede resumir en una gráfica: si en el eje horizontal ponemos los niveles de grises, y en el eje vertical la altura z que le corresponde, la gráfica que resulta es una recta:




Si nos fijamos en la recta morada, por cada dos cuadritos que se avanza en horizontal, se sube uno en vertical. Si en vez de 2, avanzamos 4 cuadritos en horizontal (el doble), entonces en vertical en vez de uno, son dos cuadritos (también el doble) lo que asciende la recta. En ambos casos la relación entre la altura ascendida, y la distancia en horizontal es la misma, y ese valor se denomina constante de proporcionalidad

Entonces, proporcionalidad (o linealidad) significa que las variables se relacionan por una recta. El parámetro a es la constante de proporcionalidad, que establece cual es esa “proporción”, es decir: “cómo de empinada” es la recta. El parámetro b no afecta a la proporción (“no afecta a la pendiente de la recta”). Por eso el primer parámetro es el importante, mientras que el segundo se puede ignorar la mayoría de las veces. Dos rectas con el parámetro a idéntico, pero distinto valor de b, representan la misma relación de proporcionalidad.


Bueno, ya conocemos (y entendemos, o eso espero) un dato importante: el VP-8 relaciona el nivel de gris y altura a través de una recta. Pero, ¿qué recta exactamente? Existen infinitas rectas, pero sólo una debería ser la correcta. Cuando se desarrolla una hipótesis para relacionar dos variables de forma proporcional, primero se deduce (o se asume justificando por qué) que tal relación es una recta. Luego, se calcula la constante de proporcionalidad a. Finalmente, se hace un experimento para comprobar:

1- Que las variables se relacionan a través de una recta
2- Que la proporción coincide con la calculada

Si el resultado es una recta, hemos demostrado que la mitad de la hipótesis es correcta, y la teoría va por buen camino. Si además coincide (dentro del margen de error) con la proporción, la hipótesis ha pasado todo el test. Si no, habrá que volver atrás y modificar algún punto de la teoría para calcular de nuevo el parámetro a, sin desechar la hipótesis aún. Pero si la gráfica ni siquiera es una recta, entonces habrá que hacer uso de la papelera, empezar desde el principio, y suponer otro tipo de relación no proporcional.


¿Qué ocurre en el caso de la Sábana Santa? Que no sabemos cómo se relacionan los valores de intensidad y altura. JJS metieron la imagen en el analizador. El analizador formó una imagen 3D basándose en sus propias reglas de proporcionalidad, y los tres creyeron entonces que la intensidad de la imagen se relacionaba con la altura o topografía del cuerpo.

Es decir, hicieron una observación experimental, pero no existe ninguna razón para pensar que esa observación deba de ser correcta, ni nadie ha comprobado si esa observación tiene que ser correcta. Simplemente, se ha asumido sin más. La relación entre intensidad y altura no tiene por qué ser lineal. Y si lo fuera, no sabemos qué parámetros de la recta son los correctos para hacer la comparación. Tanto el VP-8, como la mayoría de programas actuales y más modernos que representan en pseudo3D, pueden variar arbitrariamente la constante de proporcionalidad: tienen un “botón” que modifica la pendiente de esa recta. Y se puede modificar hasta conseguir que la imagen aparente estar bien proporcionada: que el tamaño de la nariz en vertical esté proporcionado con respecto al tamaño de la cabeza, por ejemplo.




Dos imágenes cambiando los parámetros de la recta que relaciona altura con intensidad: no todos los valores dan lugar a una imagen que parezca coherente con el volumen de un cuerpo en 3D.

Quizás algún malvado escéptico comeniños y amante de la barbacoa vea en esta arbitrariedad una justificación para tirar por tierra las conclusiones del trío JJS. Pero no es así necesariamente. Es perfectamente válido ajustar arbitrariamente ese parámetro hasta obtener la imagen lo más proporcionada posible. El problema es que aún faltaría la mitad del trabajo, que es comprobar que la relación proporcional debe ser correcta, darle un sentido a esos parámetros a través del desarrollo de una hipótesis, y comprobar que los valores obtenidos no sean absurdos dentro de esa hipótesis.


Esos parámetros podrían dar información que seria relevante, por ejemplo, para entender la naturaleza de la presunta radiación, pero sin hipótesis, no dejan de ser unos simples números sin sentido.

Esto legitima a emplear idéntica arbitrariedad a cualquier otra imagen para demostrar que un dibujo también puede presentarse en pseudo3D con unas proporciones aparentemente aceptables, pudiendo refutar así el argumento de que la tridimensionalidad de la Sábana Santa es un fenómeno único, y no reproducible de cualquier otra forma, en ningún tipo de fotografía, imagen, dibujo, etc….



De esta forma, que el ajuste “a mano” sea arbitrario, o qué valores son los correctos, tiene una importancia relativa. Lo realmente prioritario es saber si la relación entre altura e intensidad y viceversa es o no proporcional, y es lo que vamos a discutir a continuación. JJS justifican la relación entre intensidad de la imagen en la sábana y topografía del cuerpo, en que al hacer la representación el cuerpo aparece una forma que básicamente es un cuerpo real. Es decir, han obtenido la topografía original sin distorsiones ni desproporciones en la tercera dimensión, y por tanto, concluyen que los niveles de intensidad tienen “codificados” la topografía de un cuerpo que fue envuelto con la sábana. En particular, Schumacher se maravilla de que por ejemplo la nariz aparezca con una “rampa”, como lo haría cualquier otra nariz. O las formas de brazos, piernas, pecho...


Cuando se activó el modo de imagen pseudo-tridimensional, una imagen “tridimensional verdadera” apareció en el monitor. Al menos, había suficientes trazas de una estructura tridimensional real en la imagen mostrada. La nariz hacía rampa en relieve. Las características faciales estaban apropiadamente contorneadas. Las formas del cuerpo de brazos, piernas, y pecho tenían la forma básica humana.
P. Schumacher






Nota: Schumacher está hablando originalmente de la topografía de un cuerpo. Otros sindonólogos posteriormente hablan de la distancia entre la sábana y el cuerpo.



Para esta conclusión, se parte de la sábana y se genera una imagen en 3D, pero no se confronta a lo que sería el proceso de formación de la imagen partiendo de la topografía de un cuerpo para llegar a una sábana con una imagen en ella. Les faltó comprobar si “la otra mitad” de la historia era coherente con su observación: que un cuerpo envuelto en la tela dejaría los niveles de intensidad que observan.

Esa otra mitad del proceso es en realidad lo que los sindonólogos llaman su “hipótesis sobre la formación de la imagen”, de la que ya hablamos en la primera parte. Así que nada como poner a prueba si esa hipótesis produce resultados coherentes con la afirmación de la tridimensionalidad.
La formación de la imagen no es algo tan simple como “sale una radiación y deja su imagen en la sábana”. En realidad, es un proceso que consta de varios pasos. A cada paso lo vamos a llamar “transformación”. Cada una de estas transformaciones parten de una función de entrada, que es transformada con unos parámetros de control, y que finalmente proporciona una función de salida, que a su vez puede servir de función de entrada de la siguiente transformación. El resultado final del conjunto de todas estas “transformaciones” es lo que lo que JJS meten en el VP8, que aplica su propia transformación, que tiene como función de entrada los niveles de grises de la imagen, como control los parámetros (ajustables por el usuario) de una recta que relaciona los grises con altura, y como función de salida la altura o topografía del cuerpo en 3 dimensiones.

En realidad, el VP8 está recorriendo el mismo camino, pero en sentido inverso y de un solo paso: parte de los niveles de grises, y los transforma para obtener la topografía del cuerpo; y lo que vamos a hacer nosotros es partir de la topografía para llegar a los niveles de grises en varios pasos, usando las hipótesis de los sindonólogos. El VP8 está haciendo pues una transformación inversa al proceso de formación de la imagen.

A todos debería resultarle intuitiva la idea de que si aplicas una transformación, y luego su inversa, se obtiene el original sin modificación alguna:

- Si multiplicamos una función por un número k, basta hacer la operación inversa (dividir por ese mismo número k, o equivalentemente, multiplicar por el inverso del número, 1/k) para obtener la función original.

-Si elevamos una función al cuadrado, basta con hacer la raíz cuadrada (la inversa del cuadrado) para obtener la original.

-Si a una función le aplicamos un logaritmo en base 10, basta aplicar la inversa del logaritmo (la potencia de 10) para obtener la función original.

Al asumir que la imagen generada a través del VP8 es correcta, los sindonólogos están asumiendo que la transformación correcta es que la altura (z) es proporcional a la intensidad (I), es decir,

z(x,y)=k•I(x,y)


donde k es el parámetro de proporcionalidad, que hace la transformación entre las funciones I y z

Ya hemos dicho cual es la transformación inversa de una multiplicación: La división. Basta entonces dividir por el mismo número k para obtener la transformación inversa I=z/k, o lo que es lo mismo, una relación en que la intensidad I es proporcional a z, a través del número (1/k):

I(x,y)=(1/k)•z(x,y)

.

La transformación inversa de una transformación lineal, es otra transformación lineal

Por tanto, si se asume que una transformación lineal representa correctamente la topografía del cuerpo a partir de los niveles de grises de la imagen, entonces, el conjunto de las transformaciones necesarias para que, partiendo de la topografía del cuerpo se consiga la imagen en la sábana con esos niveles de gris, debe ser también lineal.




Nota: No estamos diciendo que todas y cada una de las transformaciones individuales deban ser lineales, sino que el conjunto de todas ellas lo sea.


Vayamos repasando las transformaciones una a una. Es complicado tener un modelo de un cuerpo entero, por eso sólo vamos a ver cómo todas estas transformaciones afectan a un perfil de una cabeza (aprovechando el modelo que propone el sindonólogo Mario Latendresse).


El perfil de la cabeza se representa por una función z(x), que a cada punto x le asigna un valor de altura z. La hipótesis que sostienen los sindonólogos es que el cuerpo emite una radiación sólo en vertical. Esta radiación sale de cada punto del cuerpo con una intensidad que depende del ángulo que una recta perpendicular a la superficie del cuerpo hace con la dirección vertical, en la cual se propaga la radiación (es la ley del coseno “sindonológica”). Entonces, nuestra primera operación consiste transformar la función del perfil z(x) en una función de intensidad I(x) de una radiación que emite el cuerpo en cada punto x. Para ello, primero se calcula el ángulo que la superficie de la cara hace con la vertical, y después su coseno.



La siguiente transformación tiene que ver con la propagación de la radiación. Al viajar desde el cuerpo hasta la sábana, según los sindonólogos la radiación pierde intensidad con la inversa del cuadrado de la distancia, algo llamativo que ya discutimos largo y tendido en la primera parte.

La transformación ahora, parte de la intensidad de la radiación en el cuerpo obtenida en el paso anterior, se tiene en cuenta la distancia entre la sábana y el cuerpo, y se transforma según la inversa del cuadrado de esta distancia:



Vamos por la tercera. Es la Ley del Coseno (la de verdad, la de Lambert). La superficie de la sábana hace un ángulo con la dirección vertical. Esto se traduce en que la radiación que va a ser capaz de absorber la tela, depende del coseno del ángulo que forma una línea perpendicular a la sábana, con la vertical. Así, primero se necesita calcular tal ángulo, y posteriormente, su coseno, para transformar la intensidad que llega a la sábana tras su propagación:



En realidad, no está claro si los sindonólogos tienen en cuenta esta ley o no (deberían hacerlo). Lo que sí está claro es que la conocen, ya que por ejemplo Giulio Fanti la describe en alguno de sus artículos. En todo caso, no hace mucha diferencia, como puede observarse.

Por último, queda otra transformación: los fotones de luz son absorbidos por moléculas de las fibras de la sábana, que sufren una reacción química (al parecer, se deshidratan). Esta deshidratación es la que produce el oscurecimiento, y la aparición de la imagen. Cómo depende el oscurecimiento de la cantidad de fotones que llegan a la sábana, es algo largo, farragoso, curioso e interesante de contar, que he dejado para el apéndice. Allí se justifica que la relación entre intensidad y oscurecimiento sea de tipo “sub-lineal”, que hemos usado para producir este resultado:


Llegando pues al perfil de intensidad final.

Si analizamos los pasos intermedios, vemos que no hay ninguno que sea una transformación lineal. En todo caso, los que más se acercan son, por un lado, el tercer paso (ley del coseno de Lambert): el modelo de la sábana son varias rectas. En cada una de estas rectas, el ángulo que forman con la vertical es constante, y por tanto su coseno también. Por lo que aplica una transformación “lineal a trozos”, con distintas constantes de proporcionalidad según el trozo considerado.

Y el último paso también se acerca a la linealidad. En realidad, podría no ser así. Si la cantidad de fotones que llegaran fuera muy elevada, se llegaría a producir una “saturación”. Sin embargo, los sindonólogos dicen que tal saturación no está presente en la sábana. Y eso hemos tenido en cuenta a la hora de simular transformación, lo que da una transformación que se acerca a la proporcional, aunque no lo sea. Por eso estos dos últimos pasos no varían demasiado el perfil de intensidad entre el entrante y el saliente.

Realmente, la transformación que más influye es la segunda: la propagación de la luz (intensidad inversamente proporcional al cuadrado de la distancia)

Pero lo importante, como hemos dicho, es la transformación total: cómo se ha transformado la función inicial z(x) en la función final Ia(x). A simple vista, se pueden comparar el perfil de altura original, y el perfil de intensidad final. Y ver que no guardan las proporciones entre ellas. Por ejemplo, la diferencia de altura entre la frente y la cuenca del ojo, es mucho menor que la diferencia de altura entre la barbilla y el cuello. Sin embargo, en el perfil de intensidad, estas dos alturas son prácticamente iguales: No se han guardado las proporciones, la transformación no ha sido proporcional.

Por mostrarlo de forma más analítica, la idea de proporcionalidad es que una función es idéntica a la otra, excepto por la multiplicación de un parámetro constante que hace guardar las proporciones entre ambas funciones . Podemos entonces coger ambos perfiles, y dividirlos. Su resultado debería ser una constante, independiente de la variable x. Y al hacerlo, tenemos la confirmación de lo que se veía “a ojo”:

La intensidad no es proporcional a la topografía, porque el parámetro por el que hay que multiplicar la topografía no es una constante independiente de x:



Hemos comparado el perfil de una cabeza, según las observaciones de Jackson, Jumper y Schumacher. Otros sindonólogos dicen que la imagen no representa la topografía, sino la distancia entre sábana cuerpo.

Se puede comprobar que la intensidad final tampoco guarda las proporciones con la función distancia Sábana-Cuerpo (línea azul en la figura de la segunda transformación)





En realidad, existirían otras transformaciones que no hemos tenido en cuenta:


- Las distorsiones de tamaño que se producirían en la sábana, y que vimos en la segunda parte


- Hacer una fotografía de la sábana, generar el negativo, y de ahí producir la imagen positiva que se mete finalmente en el analizador de imágenes.

No tenerlas en cuenta es lo mismo que suponer que reproducen fielmente la función de entrada que tengan, sin deformaciones, distorsiones, ni desproporciones.




Así pues, a partir de la hipótesis de formación de la imagen, se llega a un resultado que no es coherente con la representación en 3D que hace el VP8. Las conclusiones posibles son,

- Una: si la imagen del VP8 es coherente con el volumen de un cuerpo, y si la imagen se produjo como sostienen los sindonólogos, entonces hay que concluir necesariamente que la persona de la sábana estaba deformada.

- O dos: admitir que al menos una de las dos proposiciones, o incluso las dos (“hipótesis de formación”, o “representación del VP-8 es correcta”) es errónea.

Por hacer más visual cómo la hipótesis sindonológica transforma una figura tridimensional en un nivel de grises de una tela, y cómo sería representado posteriormente en 3D, he aquí un ejemplo simple.

Un óvalo, cubierto por una “sábana” (con forma de parábola):



Al aplicar todos los pasos anteriormente descritos, se transforma tal que así:




Ahora, piensen en un cuerpo, con todos los detalles de la cara, brazos cruzando, etc… y una sábana adaptándose como buenamente puede al cuerpo.

Llegados a este punto, habría que recordar las palabras de G. Fanti, apelando a la navaja de Occam. ¿Realmente creen los sindonólogos que no hay que complicar las hipótesis innecesariamente? ¿Realmente creen qué hay que centrarse en las características más llamativas?

Pues un buen punto de partida lo tienen entonces el trabajo Image Formation and the Shroud of Turín, E.Craig. Journal of Imaging Science and Technology, Vol. 34 N.1 (1994), donde se propone que la imagen de la Sábana Santa se hizo con una técnica similar al dibujo al carboncillo, con alguna modificación. Sus resultados son al menos dignos de tener en cuenta:

- Requiere tecnología disponible en la edad media (e incluso anterior)

- Que sea una pintura o dibujo justifica que no haya grandes distorsiones en 2D, y las que hay sean atribuibles a la poca pericia del artista.


- Genera una imagen en 3D con al menos tan “forma humana básica” (P. Schumacher dixit) como la imagen de la Sábana Santa