14 de marzo, día de π según la fecha anglosajona, 3/14, que en contra de cualquier tipo de criterio razonable les da por comenzar la fecha por el mes.
Pero cualquier excusa es buena para cacharrear.
Un método fácil de calcular π está basado en el azar: sobre un cuadrado con un círculo inscrito, se generan puntos aleatoriamente. Se cuentan los que caen en el círculo, cuantos en todo el cuadrado, y se puede obtener π de la relación entre ambos números. Se puede hacer con un ordenador fácilmente, y es solo cuestión de tiempo (y potencia de cálculo) obtener una precisión razonable para unos pocos decimales.
Pero eso es cacharreo de salón. Aquí hemos venido a jugar, a experimentar de verdad, a ensuciarnos las manos si hace falta (pero laváoslas después, ¡eh!), y por ejemplo, se puede intentar hacer lo mismo lanzando dardos a una diana.
Eso ya es más divertido, aunque se nos queda corto. Los físicos preferimos las cosas controladas, reproducibles y más rigurosas. No nos vale solo con calcular, también queremos medir, y así por ejemplo, Eugenio Manuel Fernández Aguilar («La conspiración lunar. ¡Vaya timo!» entre otros) «pesó» el número π usando una balanza y arroz. Es un método que en última instancia se vuelve a basar en comparar dos figuras geométricas.
Para ser originales, en los Laboratorios Secretos Gluon con Leche (financiados por la KGB, CIA y protección civil de Pardilla, y expertos en Experimentos de Todo a 100), lo vamos a hacer con un péndulo. Si lo de Eugenio era «pesar π», nosotros vamos a «columpiar π».
Un péndulo no es más que una objeto colgando de una cuerda. La cuerda debe tener una masa despreciable, lo cual no quiere decir que sea mala persona, sino que tiene muy poca masa comparada con la del objeto que cuelga. En mi caso, voy a usar un candado que recordarán de otros grandes éxitos de esta bitácora, como demostrar que la Tierra no es plana.
La idea es la siguiente. Un péndulo oscila con un periodo (T) que depende de la fuerza de la gravedad (g) y la longitud del péndulo (l). No depende de la masa. Y cuando las oscilaciones son pequeñas, la relación entre estas variables es:
Y ahí tenemos a pi. El periodo se puede medir muy fácilmente: se pone el péndulo a oscilar, y cronómetro en mano contamos un número de oscilaciones, i.e., ida y vuelta. Y cuantas más oscilaciones contemos, mejor.
El periodo no es más que el tiempo total divido por el número de oscilaciones. g es la aceleración de la gravedad, el archiconocido valor 9.81 m/s2. Aunque los más puristas dirían que tendríamos que obtenerlo experimentalmente primero, vamos a usar este valor. Y l, se puede medir con un metro.
Así pues, hacemos un péndulo de longitud l, medimos su periodo T, y despejando, podemos calcular pi:
Para distintas longitudes, se obtienen distintos valores de periodo. A longitudes más largas, periodos más largos.
La relación entre l y T está fijado por unas constantes: 2, π y g. De cada par de valores (l,T) se debería poder obtener el mismo valor de π (salvo fluctuaciones estadísticas). Aquí unas medidas, contando 40 oscilaciones:
l=0.36 m ; T=1.20 s; π=3.136
l=0.43 m ; T=1.31 s; π=3.122
l=0.58 m ; T=1.53 s; π=3.153
l=0.92 m ; T=1.92 s; π=3.127
l=1.09 m ; T=2.10 s; π=3.141
l=1.20 m ; T=2.20 s; π=3.143
l=1.50 m ; T=2.46 s; π=3.140
de las que podríamos obtener un valor promedio.
π=3.138
Y esta sería la forma chapucera de hacerlo.
Pero aquí somos profesionales y nos gustan las cosas bien hechas. O al menos tan bien hechas como sea razonablemente posible, sin que el presupuesto se desmadre.
La forma elegante es representar en una gráfica los pares de valores longitud - periodo.
¿Se ve cómo se alinean formando una curva, una tendencia?. El siguiente paso es ajustar esa curva. Sabemos que el periodo es proporcional a la raíz cuadrada de la longitud. Es decir, podemos escribir una función tal que:
siendo k una constante.
«Ajustar la curva» significa encontrar el valor de k que hace que la función pase lo más cerca posible de todos los pares de puntos. Para funciones simples como ésta, se puede hacer a mano, por el método llamado de mínimos cuadrados, que después de desarrollarlo, se reduce a calcular:
Donde (li,Ti) son cada uno de los pares de valores de periodo y distancia medidos. Y Σ representa el sumatorio de esos valores.
La teoría nos dice que k debe ser igual a 2π partido de la raíz de g, así que podemos despejar y calcular un valor final de π a partir de k:
π = 3.139
No es una mala aproximación.
Como todo experimento, existen incertidumbres que dependen de cómo se miden las cosas: el metro para medir la longitud del péndulo puede tener una precisión de milímetros. El tiempo para medir el periodo tiene como incertidumbre el tiempo de reacción para comenzar y parar el cronómetro; al menos una o dos décimas. Estas incertidumbres se van propagando desde los datos medidos hasta el valor final calculado. He dejado π con 3 decimales porque esa es la última cifra significativa. Eso quiere decir que el tercer decimal tiene una incertidumbre. Carece de sentido poner un cuarto decimal.
Incluyendo la incertidumbre, π=3.139+-0.003. El valor real de pi está dentro de la horquilla de incertidumbre, así que podemos decir que el experimento ha sido todo un éxito.
Seguro que sí.
Ahora, sepárense del ordenador, salgan incluso de la habitación sin perder de vista la imagen. O separen el móvil unos metros. O entornen los ojos para desenfocar la imagen. ¿Siguen viendo a Einstein?. Por si es usted un lector de los vagos, que lo quieren todo hecho, les pongo la misma imagen, pero a menor tamaño.
Sí. Es la misma imagen. Lo pueden comprobar descargando la grande y reduciéndole el tamaño.
Pero, ¿por qué ahora se ve a Marylin?
Es una imagen híbrida, creada por el MIT. Aquí tienen una galería de imágenes híbridas, de donde he sacado la de Einstein/Marylin.
La característica de estas imágenes híbridas es que combina las dos, pero de tal forma que de una se cogen los detalles finos, mientras que de la otra se cogen los detalles gruesos. Fíjense mejor en Marylin. ¿Realmente la ven, o en realidad solo ven los detalles gruesos?: la forma del pelo, la forma de la cara, una sonrisa... pero no van a ver detalle de sus ojos, o los dientes en su sonrisa. En realidad, es una imagen «desenfocada» de Marylin. La imagen de Einstein es todo lo contrario: detalle fino de su cara, arrugas, pelos del bigote. El truco está en que cuando uno se aleja de la imagen, o la desenfoca, los detalles finos desaparecen porque nuestra vista es incapaz de ver con esa resolución, mientras que los detalles gruesos permanencen. Al corresponder a dos imágenes distintas, pasamos de ver una a ver otra.
Vemos la imagen desenfocada, los detalles gruesos... y es luego nuestro cerebro quien reconoce esa imagen icónica, reconstruyendo detalles que en realidad no están en la imagen.
Así es como funciona la pareidolia. La imagen de Marylin, a pesar de ocultar los detalles finos, tiene suficiente información para llegar a reconocerla. A nuestro alrededor, en cambio, podemos encontrarnos imágenes con mucho menor nivel de detalle, que aún así nos lleva a ver «cosas». Por ejemplo, las formas de las nubes. Manchas de cemento que nos lleva a ver caras.
O a ver la imagen de una niña en una imagen oscura y ruidosa. Una imagen como la que ha captado un trabajador de un Ayuntamiento de Vegas del Genil, en Granada, y que está pasando por televisión y periódicos con titulares como Los fantasmas 'atacan' el ayuntamiento
Esta parece ser la imagen original.
Esta parece ser una imagen toqueteada para hacer resaltar el presunto fantasma.
¿Ven una niña ahí? ¿O ven en realidad una imagen con poco detalle, tan solo una silueta? ¿Ven una cara, ojos, ropa...? ¿O ven solo una silueta con la forma básica de la señalética del baño de mujeres?
En realidad, podría ser cualquier cosa, que por forma o perspectiva pudiera tener esa forma tan simple. El ruido de la imagen y la poca luz evitan tener más información sobre qué se está viendo exactamente, así que el cerebro la pone de su cosecha. Tan simple como eso.
Pero ahora viene lo preocupante. ¿Qué ha hecho el Ayuntamiento de Vegas del Genil? «Limpiar» el ayuntamiento de «energías» gracias a una persona que practica reiki. Pero no teman, mis malvados colegas escépticos, que el ayuntamiento ya ha aclarado que no la ha pagado.
No la ha pagado por «limpiar» el ayuntamiento. En cambio, sí la paga por el taller municipal de reiki, en el que aprovecha el final de cada clase para «limpiar» el aula. Si de verdad creen que un trabajador ha fotografiado un fantasma, igual tendrían que plantearse la efectividad de esa limpieza energética.
No habremos encontrado un fantasma. Pero lo que sí hemos encontrado es un ayuntamiento gastando dinero público en fomentar pseudociencias.
¿Qué tienen en común un espejismo y un eclipse? Pues casi tanto (o casi nada) como Albert Einstein y Víctor Veselago.
Era 1905 cuando Einstein se preguntaba acerca de la propagación de la luz, y qué pasaría si alguien pudiera montarse sobre ella y viajar a su misma velocidad. Un 29 de Mayo 14 años más tarde, Sir Arthur Eddington se hallaba aguantando una tormenta en medio una pequeña isla africana para comprobar los resultados de la curiosidad de Einstein.
Era 1967 cuando Víctor Veselago, físico soviético, se preguntaba acerca de la propagación de la luz, y qué ocurría cuando se encontraba con materiales ciertamente exóticos... Pero para entender cómo de exóticos quizás sea mejor empezar por James Maxwell y las cuatro ecuaciones a su nombre, aunque ninguna sea suya.
Estas cuatro ecuaciones describen todo lo relacionado con la electricidad y el magnetismo, y además, establecen la existencia de ondas electromagnéticas cuya propagación esta determinada por dos constantes que aparecen en ellas:
Y de ellas, se obtiene la velocidad a la que las ondas electromagnéticas viajan en el vacío:
c=(ε0·μ0)-1/2=299.792 km/s
Pero cuando la luz se propaga con materia de por medio, las propiedades eléctricas y magnéticas son ligeramente distintas, por lo que hablamos de una constante dieléctrica y una permitividad magnética relativas: εr y μr, de tal forma que la velocidad de la luz en un material es ligeramente más lenta que en el vacío:
c/v=(εr·μr)1/2
La relación c/v es lo que llamamos índice de refracción, n, y que nos sirve para describir las propiedades ópticas de los materiales.
Con esta pequeña introducción, podemos volver a Veselago y su curiosidad acerca de la propagación de ondas en materiales exóticos. ¿Cómo de exóticos?. Para eso tenemos que preguntarnos primero por los valores que pueden tener εr y μr:
Supongamos que tanto ε como μ tienen valores positivos. Esto es lo que ocurre en la mayoría de materiales que llamamos dieléctricos: silicio, zafiro, vidrio... Y esto produce un índice de refracción real. El resultado es que tenemos ondas electromagnéticas que se propagan.
Supongamos que ε es negativo, mientras μ es positivo. Esto es lo que ocurre en la ionosfera, una capa de la atmósfera donde se concentran cargas eléctricas. El índice de refracción en estas condiciones se vuelve un número imaginario. ¿Y esto qué significa? Pues que una onda electromagnética no puede existir en tal medio, lo que provoca su reflexión. Así es como se aprovecha la ionosfera para las comunicaciones por radio. Y esta propiedad también se da en materiales como los metales: aluminio, oro, plata, cobre... ¿A alguien le suenan las jaulas de faraday?
Una situación similar se da cuando μ es negativa, y ε positiva. n es un número imaginario, tampoco pueden existir ondas electromagnéticas en el material, y se reflejan. Son raras las situaciones en las que podría darse este caso en la naturaleza, pero podrían ocurrir.
Sin embargo, el caso más exótico es cuando ε y μ son negativas simultáneamente, empezando porque es una situación que no se ha encontrado nunca en la naturaleza. Y es una situación en la que, matemáticamente al menos, el índice de refracción es un número real. Otra cosa es si tiene sentido físico.
Así pues, Veselago en 1967 se preguntaba por estos materiales, y qué le pasaba a la luz cuando atravesaba una zona con esos valores tan raros. Su conclusión fue que no sólo el índice de refracción es real, sino que además tiene un valor negativo. Y que las ondas electromagnéticas pueden propagarse por un medio así; eso sí, con ciertas particularidades. Veselago bautizó a los materiales con ε y μ negativos como materiales zurdos. Pero posteriormente se les ha llamado metamateriales.
Este gif animado muestra la diferencia de propagación en un dieléctrico y en un material zurdo. Ambas ondas se propagan hacia la misma dirección, pero en la zurda (la de abajo) la fase (o la dirección en que se mueven las oscilaciones) es en dirección contraria.
Veselago fue un poquito más lejos, y elucubró qué pasaría en la intercara entre un material diestro (un dieléctrico) y uno zurdo. Todos sabemos qué es la refracción, y lo que le ocurre a la luz cuando pasa de un material a otro. En el caso de los metamateriales, resulta que la refracción ocurre en la dirección contraria a la que estamos acostumbrados. La refracción inversa es quizás el fenómeno más conocido de los metamateriales, pero Veselago también predijo otros como el efecto doppler inverso, o el efecto Cerenkov inverso.
Usando una lámina planoparalela de metamaterial, se puede conseguir una lente plana, aprovechando la doble refracción negativa en ambas caras.
Sin embargo, como estos materiales no se encuentran en la naturaleza, y Veselago no tenía forma de fabricarlos, hubo que esperar hasta 1999, cuando Sir John Pendry (otro inglés con título, como Eddington) ideó unos anillos resonantes partidos (Split Ring Resonators, SRR) que magnéticamente presentaban una μ negativa (al menos para una banda de frecuencia estrecha). Combinando los SRR con cilindros de metal que presentan de forma natural una ε negativa... ¡se obtiene un metamaterial!. Y lo mejor de todo, con las propiedades que predecía Veselago.
¿Quién no ha visto un espejismo en uno de esos días calurosos de verano? En el suelo aparece el reflejo del cielo, un árbol, un coche... Por qué ocurre esto es fácil de entender: el suelo está muy caliente, y el aire sobre él también se calienta. Más caliente, cuanto más cercano al suelo. Como el índice de refracción del aire depende de la temperatura, cerca del suelo lo que hay es una zona con varias capas de índice de refracción, un gradiente. Cuando la luz pasa por esa zona, se refracta y se curva, de tal forma que al final llega a los ojos de un observador que cree ver una imagen donde en realidad no está.
Algo muy similar buscaba Sir Eddington en medio de un eclipse, sólo que esta vez, en vez de un gradiente de índice de refracción, era una masa (la del Sol) la que estaba curvando la luz que provenía de una estrella, dando la apariencia de que la estrella estaba en un lugar donde en realidad no estaba. Fue una prueba que demostró la validez de la teoría de la relatividad general del Einstein.
Ambos fenómenos tienen un punto en común: la luz no se desplaza siguiendo el camino más corto, sino el camino más rápido. Es lo que se llama el principio de Fermat.
Junto con el desarrollo de los metamateriales, ha surgido lo que se llama la óptica de transformación: una forma de controlar el camino óptico de la luz para ser guiada según interesa. Y el punto de vista está muy ligado a la relatividad general: al modificar ε y μ (el índice de refracción) estamos deformando el espacio, de igual forma que el espacio se deforma por la presencia de una masa... De esta forma, la luz no hace más que seguir el camino más rápido entre dos puntos, pero adaptándose a las propiedades del espacio óptico que tiene que recorrer.
Lo mejor de todo: un formalismo matemático muy similar al usado en relatividad general, es aplicable a la óptica de transformación para calcular el camino de la luz, y el valor de ε y μ necesario en cada punto. Por otro lado, gracias a los metamateriales y la refracción negativa, tenemos herramientas para generar valores de ε y μ de cualquier tipo.
Supongamos que hacemos un agujero en el espacio. Una zona que la luz tiene que rodear, y luego continuar como si no hubiera tenido que variar su camino. Supongamos que ponemos en ese "agujero óptico" un objeto. ¿Qué vería un observador? Nada. Vería la luz que viene, pero no vería el objeto, ni ninguna evidencia de que la luz lo ha rodeado. Vería lo que hay detrás del objeto, pero el objeto estaría oculto. O más bien, el objeto sería invisible. Este tipo de construcciones ópticas son llamadas capas o dispositivos de invisibilidad (en inglés, cloaking device).
Muy curiosas académicamente, que demuestran el potencial de la óptica de transformación, pero de momento poco más. La potencia de esta técnica está en la capacidad de diseñar un espacio óptico que guíe la luz para hacer lo que nos interese: concentración de luz, dispersión de la luz, bloquear una banda de frecuencia, rodear objetos... El único problema es que los valores de ε y μ que se obtienen son tan raros, que es difícil realizarlos experimentalmente. Una cosa es hacer un metamaterial con propiedades homogéneas... y otra una estructura donde hay que tener en cuenta que ε y μ son tensores.
Ahora imagina que diseñamos un espacio tal que la luz que entra en una zona, no puede volver a salir de ella... ¿Alguien ha dicho "agujero negro"?. Sí, uno de los resultados más llamativos e interesantes de la relatividad general son los agujeros negros, zonas del espacio deformadas por una masa tan elevada, que atrapa la luz y no puede salir. Y gracias a la óptica de transformación, se pueden reproducir sus propiedades ópticas en el salón de casa, sin los problemas que ciertamente daría tener la masa del sol concentrada en el tamaño de una cucharilla. De momento en los ordenadores, porque de tecnología andamos escasos.
Ahora supón que en el centro del meta-agujero negro colocas una célula solar, y puedes estar seguro de que toda la luz que entre en el agujero acabará en siendo recogida por el sensor, aumentando su eficiencia.
Y estas son las cosas bonitas de la ciencia: cómo campos totalmente distintos, como son la cosmología y la física aplicada, la relatividad y la óptica electromagnética, acaban confluyendo en un mismo punto.
En física, o en ciencia en general, uno observa el mundo, lo parametriza, y luego trata de reproducirlo. Cogemos unos datos, les aplicamos las ecuaciones correspondientes, sacamos unos valores de ciertos parámetros, y nos preguntamos si tienen sentido. Algunos somos tan frikis que lo hacemos sólo por el gusto de hacerlo, por simple curiosidad. Quien conozca desde hace tiempo este blog, ya lo sabe [1][2]. Esta es otra de esas entradas. (El que avisa no es traidor)
La ciudad de Salzburgo es conocida por cosas como sus Mozartkugeln, o por Sonrisas y lágrimas. Quizás no sean tan conocidos los Doppler Konfekt
aunque todos en algún momento hemos oído de la razón de su existencia.
Christian Doppler nació en Salzburgo, y fue él quien explicó el efecto que hoy lleva su nombre: el cambio aparente de la frecuencia de un sonido dependiendo de si la fuente del sonido se acerca o se aleja del oyente.
Echar las cuentas es sencillo: Supongamos que estamos en reposo, y un tren se mueve a velocidad V. Al tocar el silbato, produce perturbaciones en la presión del aire de forma periódica. Esto es el sonido. Bueno, pues en un instante dado, el silbato produce una primera perturbación, que se propaga con velocidad Vs. Al cabo de un tiempo T (tiempo de periodicidad de la perturbación), la perturbación se ha propagado una distancia igual a su longitud de onda, λ=VsT; en ese momento, el silbato produce una segunda perturbación. Pero en ese tiempo, el tren ha recorrido una distancia VT.
Si el tren estuviera parado, la distancia entre las dos perturbaciones sería la equivalente a la longitud de onda del sonido que produce. Pero al estar en movimiento, la distancia entre las perturbaciones ha variado, de forma que esta distancia λ' es igual a lo que se ha propagado la primera perturbación, menos lo que ha recorrido el tren (o sumado, según la dirección del tren que estemos considerando). Así, un observador parado sentiría las perturbaciones con una periodicidad T' diferente a las que realmente se producen, generando el efecto de un aumento de frecuencia en el caso de que el tren se acerque o una frecuencia menor, si el tren se aleja.
Con esto, podemos decir que ya sabemos cómo una causa produce un efecto o fenómeno. Esto es lo que podemos llamar ciencia, adquirir conocimiento: si conocemos la velocidad de un móvil, y la frecuencia a la que emite un sonido, podemos predecir cómo se escuchará por alguien parado que vea pasar el móvil.
Pero la parte divertida de la ciencia es la de poder aplicar este conocimiento a una situación real. Pongamos por ejemplo, que oimos cómo el silbato de un tren cambia de frecuencia al pasar cerca de nosotros. ¿A qué velocidad va el tren? ¿Cual es la frecuencia original del silbato?.
La situación es en realidad la inversa de la usada para encontrar la expresión del desplazamiento Doppler: suponíamos conocida la velocidad del móvil y la frecuencia del sonido, y hallábamos cuanto variaba la frecuencia del sonido en función de esos parámetros. Pero, en un caso real simple sólo tenemos acceso a la variación del sonido(el efecto), y no sabemos el valor de los parámetros que lo causan.
Veamos el siguiente video. Es un fragmento del programa "Brainiac", donde muestran el efecto Doppler. Para ello se fueron a la Patagonia, se montaron en un tren y lo hicieron pitar.
El fragmento que nos interesa está en el minuto 5:20. El sonido de ese fragmento se puede representar en un espectrograma, que es un gráfico que muestra el tiempo en el eje x, la frecuencia en el eje y, y en código de colores la intensidad de cada frecuencia en cada instante de tiempo. Es una forma muy visual de ver el efecto Doppler:
Supondremos que el fenómeno por el cual el silbato suena más agudo dentro del tren en movimiento es un fenómeno paranormal, y nos centraremos sólo en el sonido captado por la cámara parada cerca la vía del tren. Es un truco muy útil que uno ha aprendido tras varios años lidiando con las pseudociencias ;)
La variación de frecuencia se ve perfectamente en el espectrograma: una frecuencia (f+) cuando el tren se acerca, y que al pasar por delante, baja de frecuencia hasta (f-). Estos son los datos a los que podemos acceder en una situación real.
¿Cómo deducimos la velocidad del tren?. Si supiéramos la frecuencia original del silbato, sería simple usar la expresión del desplazamiento Doppler, pero es que ese dato tampoco lo conocemos a priori. Así que hay que jugar un poco con la ecuación.
f+ y f- corresponden a las frecuencias de cuando el tren se acerca, y de cuando se aleja, es decir, que:
y si las restamos y las sumamos, podemos llegar a que:
de donde se puede hallar directamente la velocidad del tren. Y una vez conocida la velocidad, entonces sí puede hallar la frecuencia original. En el caso del tren de Brainiac, estos cálculos sencillos nos dan
V=14.8 m/s=53.4 km/h
f0=549 hz
En el video dicen que el tren va a unos 60 km/h, lo que se acerca más o menos a lo que hemos calculado.
en realidad, si la velocidad del móvil es mucho menor que la velocidad del sonido (V < 0.1·Vs), la frecuencia original se aproxima muy bien a la media artimética entre f+ y f-, es decir f0=(f+ + f-)/2.
Si esta condición no se cumple, entonces f0 se acerca más a f- que a f+
Un cálculo más refinado
En el cálculo anterior hemos usado dos valores: la frecuencia cuando el tren se acerca, y cuando el tren se aleja. Son sólo dos puntos experimentales extraidos del espectrograma, pero en realidad, hay mucha más información: no sólo tenemos los valores cuando el tren se halla "lejos" del micrófono, sino que también cuando el tren pasa cerca. El cambio de la frecuencia alta a la baja no es brusco, sino que hay una transición. Bien, pues podemos usar no sólo dos datos, sino todos ellos y reproducir la transición entre f+ y f- para obtener más información.
Claro que para ello, primero hay que darse cuenta de que el efecto Doppler no depende exactamente de la velocidad del móvil, sino de la velocidad relativa entre el móvil y el observador en cada momento de tiempo.
Si el móvil lleva una trayectoria [x(t),y(t),z(t)], entonces la distancia al observador será r(t)=[x(t)2+y(t)2+z(t)2]1/2. Y entonces la velocidad relativa entre el móvil y el observador será la derivada respecto al tiempo de esta distancia(dr/dt=r'), de forma que:
Nótese que ahora el denominador ahora lleva siempre el signo +. Cuando el móvil se acerque, r' será negativo, y cuando se aleje, r' será positivo, como corresponde con la expresión Doppler original.
Puede que ahora la expresión sea más complicada. Pero a la vez es más potente, porque ahora si suponemos una trayectoria (x,y,z)(t), podemos saber cómo variará en cada instante de tiempo el desplazamiento Doppler.
Volvamos al tren de Brianiac. El desplazamiento del tren es simple: un movimiento rectilíneo uniforme en una dirección (x(t)=Vxt). Y que pasa a una distancia mínima y(t)=y0 del observador. La componente z nos la comemos (más correctamente, z(t)=0).
En cuanto a las derivadas, x'=Vx, y'=0, z'=0
Ahora, en vez de usar dos puntos de todo el espectrograma, podemos usar la mayoría de ellos, y reproducir la curva del desplazamiento Doppler. Pero antes hace falta determinar el valor de algunos parámetros, a saber: la frecuencia original (f0, la velocidad del tren Vx, y la distancia y0. Para ello, existen rutinas para hacer variar los parámetros hasta que conseguir que la curva teórica sea lo más parecida posible a la curva experimental:
En el caso del tren de Brainiac, los parámetros que mejor ajustan la curva teórica al espectrograma nos dicen que la frecuencia original son 547 Hz. Que el tren se desplaza a 16.3 m/s (58.7 Km/h), y que pasó a una distancia de 5.6 metros del micrófono. Comparados con los valores de frecuencia y velocidad calculados por el método simple, vemos que son similares(f=549 hz, v=14.8 m/s). Pero estos son más fiables porque hemos usado la mayoría de los valores representados en un espectrogama, y no sólo dos.
Las rutinas de ajuste suelen indicar también el error que tienen los parámetros. En este caso:
f=547+/-1 Hz, Vx=16.3+/-0.7 m/s, y y0=5.6+/-1.5 m.
Otro caso real
El ejemplo del tren de Brainiac era interesante, porque se podía observar una zona plana, cuando el tren está lo suficientemente lejos del micrófono como para que no se note cómo el sonido pasa de una frecuencia más aguda, a otra más grave. Esto permitía hacer el cálculo simple usando sólo dos valores, y que no se desviaba mucho de un cálculo más refinado usando un ajuste.
Ahora voy a usar otra situación real: un avión a baja cota. De nuevo, suponemos que la trayectoria es rectilínea y uniforme en la dirección x=Vxt, y que pasa a una distancia mínima y0.
En este caso no se aprecia esa zona plana donde el desplazamiento Doppler es constante, sino que sólo se ve la zona de transición entre f+ a f-. Podríamos estimar a ojo por donde caerían las frecuencias f+ y f-. Pero si queremos un poco más de rigor, hay que irse directamente a la rutina de ajuste, usando la transición visible en el espectrograma. Haciéndolo, encontramos que el avión pasó a una velocidad de 122 m/s, y a una distancia de 1156 metros.
122 m/s son 439 km/h, que en nudos son 244 kt. La velocidad máxima permitida baja cota para aviones es de 250 kt, así que el valor encontrado es razonable.
El sonido lo grabé en un lugar donde los aviones se alinean con la pista de aterrizaje, pero aún no han extendido los flaps, ni han sacado el tren de aterrizaje.
¡Que pasada!
Vamos con otro:
Una pasada a ras de suelo en una exhibición aérea. Si suponemos de nuevo una trayectoria rectilínea uniforme, podemos comprobar que el mejor ajuste posible, no es del todo satisfactorio (línea negra):
A pesar de que el avión se oye desde lejos, no existe una zona "plana", sino que la frecuencia aumenta ligeramente, y por eso el ajuste no es del todo satisfactorio. La gracia de usar un ajuste es que se pueden evaluar tantas trayectorias como puedas parametrizar. Sabemos que el desplazamiento Doppler es mayor cuanto mayor es la velocidad. Así que podemos suponer que el avión está aumentando su velocidad: un movimiento uniformemente acelerado, x(t)=0.5a*t2+Vxt (y entonces, x'(t)=at+Vx)
Repitiendo el ajuste con el parámetro extra (la aceleración), se ve que el ajuste (línea azul) tiene mejor pinta. Por cierto, que el avión llevaba 187 m/s (673 km/h, 374 kt) en el momento que más se acercó al micrófono (a 146 metros de distancia)
American Airlines 11
Confieso que esta curiosidad por el efecto Doppler, y su aplicación en el cálculo de velocidad de móviles me surgió tras ver/oír este video:
Es la grabación de los hermanos Naudet el día 11 de Septiembre del impacto del primer avión. Se puede percibir un efecto Doppler cuando pasa el avión, practicamente por encima de los bomberos y el cámara. Por desgracia, el espectrograma es muy ruidoso, aunque se pueden ver algunos "fragmentos" del desplazamiento Doppler, que se pueden aprovechar para ajustar y obtener la velocidad del avión. Volvemos a una trayectoria rectilínea y uniforme.
El ajuste da que el AA11 pasó a 184 +/- 12 m/s (663 +/- 42km/h, 368 +/-24 kt). Un profesor del MIT usó el mismo video para estimar la velocidad del avión, pero con un método más simple: del vídeo, obtiene el tiempo que tarda el avión entre que (aparentemente) pasa por encima, hasta que choca con la torre. Por otro lado, del tiempo que tarda el sonido del impacto en oirse desde que se ve en las imágenes, deduce la distancia hasta las torres. Así pues, velocidad = espacio / tiempo = 691 km/h. Su estimación no está muy alejada de lo que he podido calcular yo.
El NTSB también estimó la velocidad del AA11 usando los ecos de radar, y les salen 770 km/h, que es más alta de lo que estima el profesor del MIT y yo. Los ecos del radar son aproximadamente cada 5 segundos, y muestran que el avión se acercó acelerándose, y no con una velocidad constante. ¿Cual es el valor correcto (o el menos incorrecto)? Pues no lo sé. Personalmente creo que el NTSB sobreestimó la velocidad, creo que los datos de radar cada 5 segundos dan poca precisión temporal (también desconozco cual es la precisión espacial).
También es cierto que el espectrograma es demasiado ruidoso (y corto también) como para apreciar la aceleración en el efecto Doppler (como en el caso de la pasada a ras de suelo). Lo dejaremos en que tres personas de forma independiente, y con métodos distintos han calculado esos tres valores. Que es lo habitual en ciencia: tratar de replicar resultados de forma independiente, y cuando se tienen muchos datos acumulados, estudiar qué métodos son más rigurosos, establecer qué valores pueden estar sobreestimados, o subestimados, y establecer un valor medio y su error.
En cuanto a la altura a la que pasó el avión, me salen 312 +/- 28 metros, lo que equivale a la altura del piso 80 del WTC (+/- 7 pisos). El AA11 impactó entre los pisos 92 y 93 de la torre norte, a nos 360 metros sobre el suelo sobre el que se elevaba la torre. No he podido hallar la altura del suelo en el lugar donde se grabó el sonido. Posiblemente esté un poco más alto que el lugar donde estaban las torres, pero no creo que tanto como para salvar la diferencia de casi 50 metros. Pero como aproximación, no está mal.
¿Saben que hay personas que creen que este video es un trucaje? A algunas personas les parece muy sospechoso que no se captara ninguna imagen del avión del pentágono. Y también les parece muy sospechoso que alguien pudiera grabar el AA11. Una cosa y la contraria, ambas son sospechosas.
Pues bueno, si el video de los Naudet es una falsificación, y el avión son efectos especiales de ordenador y esas cosas, yo felicitaría a quien la hizo por tener en cuenta estos detalles tan finos y (casi) clavarlos con la versión oficial.