Categoría: Física

Coronavirus: lo que los datos dicen a un físico

Una de las afirmaciones que más se repiten en esta crisis sanitaria que vivimos es que el análisis epidemiológico es muy complicado y que no se pueden hacer predicciones porque la situación es “dinámica” (expresión muy del gusto del gobierno últimamente), de modo que hay que ir actuando en función de los datos de cada día (y, como corolario, se deduce que nadie habría podido ver venir esto antes del 10 o el 12 de marzo… pero mejor no insistamos).

Todo esto puede que sea cierto si queremos predicciones exactas. Y suele creerse que la ciencia sirve precisamente para eso (otra expresión favorita de los portavoces del gobierno es que “hay que escuchar a los científicos”). Pero es un error muy común, y, lo estamos viendo, muy peligroso. La ciencia sirve, antes que nada, para hacer estimaciones de orden de magnitud. Y, por supuesto, que un fenómeno sea “dinámico” no significa para nada que no se pueda hacer tal cosa. Sólo hay que conocer cómo es esa dinámica. Y basta con conocerla de modo aproximado si sólo buscamos un orden de magnitud.

Esto se hace todos los días y a todas horas en física: nunca hagas un cálculo complicado  si no sabes lo que (más o menos) tiene que salir. Es una actitud tan enraizada en la profesión que el legendario John Archibald Wheeler la llamó “primer principio moral“. Esos complicados modelos epidemiológicos están muy bien, pero primero hay que saber más o menos lo que tiene que salir, y eso nos lo dice una estimación de orden de magnitud.

En el caso de una epidemia es de sobra conocido que la dinámica es aproximadamente exponencial. Y de este simple conocimiento se derivan consecuencias dramáticas. En este post voy a analizar los datos como lo haría un físico, si en lugar de una epidemia se tratara de cualquier otro fenómeno que crece exponencialmente. Me lo exige el principio moral de Wheeler. 

*

Decíamos hace ya una semana que las medidas que tomó el gobierno parecía que se estaban empezando a notar, y ahora se confirma sin ningún género de dudas. Con los datos de la última semana, los contagios se duplican cada 4,1 días y los fallecimientos cada 2,8 días. Antes del estado de alarma, los periodos de duplicación eran de 2,0 y 1,4 días, respectivamente: el ritmo de crecimiento de la epidemia se ha reducido a la mitad.

Es una buena noticia, pero ¿qué significa en concreto? Que los (redondeando) 42.000 contagiados y 3.000 muertos de hoy se convertirán dentro de una semana en unos 137.000 contagiados y 17.000 muertos [1].  Si eso le parece una barbaridad, piense que con las tendencias anteriores al estado de alarma tendríamos dentro de una semana 475.000 casos y 96.000 muertos (y ahora, si la cabeza no le da vueltas, puede calcular como ejercicio los miles de muertos que nos habríamos ahorrado si se hubieran tomado las medidas a la vez que Italia, el 8 de marzo en vez del 14…).

Todo esto lo podemos ver en la gráfica siguiente[2]:

ContagiosyMuertes_dia24_tendencia2

Se han dibujado las tendencias obtenidas con los 7 días anteriores al estado de alarma (“tendencia hasta el 13/03/2020”) y los 7 posteriores (“tendencia desde el 14/03/2020”). Una gráfica logarítmica como esta permite ver a ojo el tiempo en el que los contagios o muertes se multiplican por 10. Con la tendencia actual, por ejemplo, vemos en la gráfica que las muertes tardan unos 9 días en multiplicarse por 10. Ahora, para encontrar el periodo de duplicación basta dividir por 3,32[3]. Así, 9/3,32=2,7 (aproximadamente 2,8 días, como habíamos dicho).

Un detalle importante para que estas gráficas sean significativas es elegir bien el origen de tiempos. Ante todo, no conviene representar los datos en la etapa temprana de la epidemia, porque los números son muy pequeños y la escala logarítmica los magnifica (lo lo olviden: ¡entre 1 y 10 hay la misma distancia en vertical que entre 1.000 y 10.000!). Como siempre hay fluctuaciones que no son significativas, este pequeño “ruido”, nada importante,  se amplifica mucho. Por eso hemos tomado el origen de la gráfica de contagios en 100 y el origen de la gráfica de muertes en 10.

Por otra parte, hay que poner para cada país el origen de tiempos en una fecha equivalente: por ejemplo, el día en el que se alcanzaron los 100 contagios o los 10 fallecimientos. Un detalle sutil pero importante: el retraso no es el mismo si se mide por los contagios que si se mide por los muertos. En los post anteriores (por ejemplo aquí) las dos gráficas tenían el mismo origen de tiempo (el día del contagio nº100), y Alemania resultaba un caso anómalo entre los países europeos porque tenía un número excepcionalmente bajo de fallecimientos (sobre ese “misterio alemán” se había especulado mucho últimamente). Al medir el tiempo desde el fallecimiento nº10, Alemania deja de ser una excepción y está en la misma línea que Italia y Francia.

¿Qué significa esto? Que la epidemia está más atrasada en Alemania de lo que sugería el número de contagios, seguramente porque han hecho muchos más tests que el resto de países europeos (más sobre esto un poco más adelante).

[Un inciso: para interpretar las gráficas puede ser útil el dato de los retrasos: tomando Italia como referencia, los retrasos en la gráfica de contagios son:
España=8,5 días, Alemania=7,5 días, Francia=7 días; Corea está adelantada 2 días a Italia.
Y los retrasos en la gráfica de fallecimientos son:
España:=11 días, Alemania=18 días, Francia=10 días; Corea=0 días]

*

Ahora la cuestión es: ¿cuándo lograremos “frenar la curva”? La mejor manera de verlo es representar los casos nuevos en función del tiempo:

CasosNuevosDiarios

[Nota: no hay que preocuparse porque las gráficas sean más “ruidosas” que las anteriores ni porque falten datos en Corea, es normal -pero sería un poco largo de explicar-]

Las dos gráficas anteriores muestran que Italia llegó a un máximo hace tres días, tanto en casos nuevos como en fallecidos diarios, y pese al repunte del último dato, es lógico esperar que recupere la tendencia descendente. Tenemos tendencias similares a Italia (la tendencia se ve en la pendiente de la gráfica) así que podemos estimar que alcanzaremos el pico de casos nuevos dentro de 5 o 6 días y el pico de fallecidos diarios dentro de 8 (ya que nuestro retraso es, respectivamente, de 8,5 y 11 días).

¿Cuál será la altura de esos picos? Una manera burda de estimarla es suponer que las curvas de Italia y España se van a mantener paralelas, como han venido haciendo a grandes rasgos. En la gráfica de contagios la distancia es, muy grosso modo, un factor 2, y en la de muertes algo más. Seamos optimistas y dejémoslo en 2 para ambos datos. Como el pico en  Italia ha sido de 6.550 casos nuevos y 793 fallecidos en un día, redondeamos a 6.500 y 800 y multiplicamos por 2 para obtener esta estimación: el pico de casos nuevos diarios será de unos 13.000 y se alcanzará el 30 o 31 de marzo; el pico de fallecimientos diarios será de unos 1.600 y se alcanzará en torno al 2 de abril[4].

Son órdenes de magnitud, y ojalá me equivoque (¡por exceso!). Pero eso es lo que me dicen los datos, y me atengo al primer principio moral de Wheeler.

*

Antes he dicho que la evolución de los fallecimientos en Alemania está bastante más retrasada que la evolución del número de casos, y que una explicación verosímil es que allí se han realizado muchos más tests, de modo que se vio venir la epidemia antes.

Eso implicaría que su número de contagios reportados sería más cercano al real que el de España e Italia, que estarían subestimando este dato. Una manera de intentar confirmar esta hipótesis es representar la fracción que representan los fallecidos respecto de los contagiados. Si subestimamos el número de contagiados, esta mortalidad aparente será mayor. Digo “aparente” porque los fallecimientos se producen con cierto retraso sobre los contagios, y no siempre es el mismo para todos los pacientes.

He hecho dos estimaciones burdas, una con números totales, dividiendo el número de muertos por el número de contagiados cinco días antes (gráfica siguiente, a la izquierda); otra, dividiendo los muertos de cada día por los contagiados cinco días antes (gráfica siguiente, a la derecha). La segunda estimación es en teoría algo más correcta que la primera pero tiene más ruido porque los datos diarios fluctúan más que los acumulados. Aquí tienen las gráficas:

MortalidadEstimada

En los dos casos los resultados son similares: la mortalidad se situaría en torno al 15% para España e Italia, al 8 o 10% para Francia, y al 1% para Alemania y Corea (no hagan caso a los últimos datos de la gráfica de la derecha para Corea: tienen mucho ruido porque los números de fallecimientos y contagios son ya muy pequeños).

Suponiendo que los sistemas sanitarios español e italiano no son mucho peores que el alemán o el coreano (de modo que la mortalidad real debería ser similar), y suponiendo que en esos países se detecta el 100% de los casos (un poco optimista, pero es lo más sencillo), resultaría que el número de casos real en España e Italia sería unas 15 veces mayor que el oficial.

*

Repito: todo esto son estimaciones de orden de magnitud. Los fenómenos no son impredecibles por ser dinámicos y los datos hablan. Al tratarse de exponenciales puede haber un error importante, pero no creo que sea de más de un factor 2 más o menos un 50%, o de un par de días más o menos.  Ojalá me equivoque, repito, y que sea por exceso.

NOTAS:

[1] Hay que multiplicar los datos actuales por 2^(7/4,1) y por 2^(7/2,8)]

[2] Quizá sería más correcto representar los datos normalizados a la población (muertes por millón de habitantes) pero lo único que cambiaría es que las curvas se desplazarían ligeramente en vertical, pero también en horizontal, porque el origen de tiempos sería un poco distinto. Ambos desplazamientos casi se cancelan, así que no merece la pena.

[3] 3,32 es el logaritmo en base 2 de 10.

[4] El número total de contagiados y de fallecidos seguirá aumentando después de ese día, claro, pero más despacio. Cuándo empezarán a disminuir los contagiados y cuándo dejará de haber fallecimientos es más difícil de saber: para eso sí necesitamos un modelo epidemiológico.

[Actualización, 06/04/20] ¿Se cumplieron mis predicciones? Estas son las gráficas actualizadas para contagios y muertos diarios:

ResultadoPrediccionesTasasEl famoso “pico” no es  muy picudo (habría que haberlo advertido), pero las fechas son casi exactas en los dos casos. Afortunadamente, me equivoqué por exceso en los valores: en vez de 13.000 contagios diarios (el 30 ó 31 de marzo), hemos alcanzado 8.195 (el 1 de abril) y en vez de 1.600 muertos diarios (el 2 de abril) hemos llegado a 961 (justamente el 2 de abril). Como se aprecia en la figura, hasta la fecha de la predicción las tendencias eran muy parecidas a las de Italia; a partir de ese día, nuestras curvas se “aplanaron” respecto a las suyas: esa es la causa del (bendito) error en los valores absolutos de mis predicciones.

Hay que advertir sin embargo, que no hay motivo para el triunfalismo: haber superado el “pico” en las gráficas de casos diarios no se traduce en ningún cambio llamativo en los casos acumulados. Siguen creciendo, cada vez más lentamente, pero falta mucho para que nos parezcamos a Corea, y lo hemos hecho rematadamente mal en comparación con ellos:ResultadoPrediccionesAbs

 

Un discurso y dos problemas de Fermi (sobre el calentamiento global)

En el post anterior hablábamos de la superstición de la exactitud: la idea, implícita en toda la enseñanza obligatoria, de que un problema sólo puede tener una solución exacta, y si no la tiene o no la podemos obtener, entonces no hay nada que podamos decir sobre el problema. Con esta actitud se cultiva una visión en blanco y negro de la realidad: o tenemos una certeza absoluta sobre una cuestión o cualquier opinión es igualmente válida. Y así, en el ejemplo de las manifestaciones, la imposibilidad de contar a los manifestantes nos deja abandonados a la habitual “guerra de cifras” entre unos y otros.

Idolatrar la exactitud, paradójicamente (o no tanto: los extremos se tocan), nos entrega al relativismo y la propaganda.

Lo curioso es que esta actitud, que se pretende rigurosa y “científica” (y por eso la inculcamos en la escuela) es  diametralmente opuesta a la de la ciencia de verdad. La ciencia moderna sólo despegó cuando Galileo abandonó el ideal de precisión absoluta para proclamar que un acuerdo aproximado puede ser suficiente para confirmar una ley. Por ejemplo: una bola de piedra y otra de madera no tardan lo mismo en caer desde una torre, pero Galileo, en contra del rigor mal entendido de los aristotélicos, señalaba que la diferencia es suficientemente pequeña para afirmar que en realidad sí lo hacen… Sí lo hacen, bien entendido, en una realidad abstracta, idealizada, en la que el rozamiento del aire y otros “impedimentos materiales” no compliquen la simplicidad subyacente, esa que Galileo comparó a un libro escrito en caracteres matemáticos, donde podemos alcanzar el ideal de precisión.

La  ciencia, mucho más que un repertorio de “contenidos científicos”, es ante todo una actitud. Una manera de pensar que sólo funciona, como nos enseñó Galileo, gracias a la capacidad de hacer aproximaciones, de estimar los errores y de apreciar los órdenes de magnitud. Esas son las herramientas que permiten traducir nuestro confuso mundo cotidiano al lenguaje del libro de la Naturaleza.

Y el desarrollo de esta capacidad, dicho sea de paso, es lo que puede hacer que las asignaturas de ciencias tengan algo que aportar, “transversalmente” (como quieren nuestras leyes de educación), a la formación de ciudadanos responsables, autónomos y con espíritu crítico. Eso y no todas las fórmulas y fenómenos que se acumulan, inertes, en los libros de física de nuestro disparatado bachillerato de dos cursos…

Pero basta de discursos: pasemos mejor a un ejemplo concreto.

*

Todo el mundo ha oído hablar del calentamiento global y de cómo la principal causa son las emisiones de gases de efecto invernadero, sobre todo de CO2. Es un problema enormemente complejo si entramos en los detalles… pero aquí estamos para hacer aproximaciones. Así que en primera aproximación podemos escribir la cadena causal así:

Emisiones de CO2 ⇒ ­↑ [CO2] en la atmósfera ⇒ ↑­ T de la Tierra ⇒ ↑­ nivel del mar

La subida del nivel del mar -la amenaza más dramática del calentamiento global- es consecuencia del calentamiento de nuestro planeta, que a su vez se debe al aumento de la concentración de CO2 en la atmósfera por culpa de las emisiones humanas.

Pero todo esto es cualitativo. Para trabajar en el espíritu de Galileo lo primero es cuantificar. ¿Cómo de grandes son esos incrementos? Aquí traigo una gráfica para cada una de las principales magnitudes: la concentración de CO2, la temperatura y el ascenso del nivel del mar:

Variación de la concentración atmosférica de CO2 en los últimos años (Fuente:NASA).

 

Variación de la temperatura promedio de la Tierra en el último siglo (Fuente: NASA).

Ascenso del nivel del mar en las últimas décadas (Fuente: The Economist)

Midiendo a ojo la pendiente de cada gráfica encontramos estos incrementos en los últimos años:

Δ[CO2] ≈ 25 ppm/década (ppm=partes por millón)

ΔT ≈ 0,2ºC/década

Δhmar ≈ 3 cm/década

¿Podemos hacer algo con estos números? ¿Son razonables? ¿Tenemos que creerlos sin más o podríamos haberlos estimado, al menos en orden de magnitud? De momento vemos, con una regla de tres, que cada 100 ppm adicionales de CO2 se traducen en un calentamiento de 0,8ºC: hemos cuantificado el efecto invernadero, el eslabón principal de la cadena causal. Pero con este valor no podemos hacer gran cosa salvo creérnoslo. La relación entre CO2 en el aire y calentamiento no es en absoluto directa y es difícil estimarla sin bajar a los detalles de la física: espectros de absorción del CO2, ley de Planck, etc (aunque nunca se sabe: ¿se le ocurre a alguien una manera de hacerlo?).

Sin embargo, sí que podemos decir algo sobre el principio y el final de la cadena: estimar las emisiones de CO2 (al menos una parte importante), y también el ascenso del nivel del mar para un aumento dado de temperatura. Lo mejor es que no necesitamos calculadora y basta con saber unos pocos datos, casi todos conocidos -en teoría al menos- por un estudiante de bachillerato. En definitiva, que son cálculos que podemos hacer en un bar, con una servilleta de papel y un lápiz: lo que en física se llama back of the envelope calculation, la especialidad del legendario Enrico Fermi.

Así que les propongo dos “problemas de Fermi” (el primero es más fácil que el segundo):

1) Por lo que hemos visto en las gráficas, 1ºC de aumento de temperatura supone un aumento de nivel del mar de 15 cm. ¿Cuánto debería subir el mar debido a su dilatación térmica si ΔT=1ºC?

Pistas:

  1. Cuando un volumen V0 de agua aumenta su temperatura ΔT, se dilata un ΔV=βV0ΔT, siendo β el coeficiente de dilatación volúmica. Este coeficiente depende mucho de la temperatura: a 4ºC es 0, a 10ºC es 8·10-5 ºC-1 y a 20ºC es 20·10-5 ºC-1.
  2. El resto de los datos nos los inventamos, según lo que nos dicte nuestro sentido común.
  3. Para verificar nuestro resultado: curiosamente, este efecto de dilatación es más importante que la tan comentada fusión de los casquetes polares: da cuenta de aproximadamente 3/5 de la subida total del nivel del mar.

2) Estimar los kg de CO2 vertidos a la atmósfera en un año por un automóvil típico. A partir de este dato, calcular las emisiones de todos los vehículos de España y del mundo. A partir de este dato, estimar el aumento de la concentración anual de CO2 en la atmósfera.

Pistas:

  1. La gasolina es un hidrocarburo, formado por átomos de H y C. Como los primeros son 12 veces más ligeros que los segundos, podemos despreciar su masa.
  2. La masa atómica del oxígeno es 16 veces la del H.
  3. La densidad de la gasolina la tomamos como igual a la del agua.
  4. Consideramos que todo el CO2 vertido a la atmósfera en un año se queda en la atmósfera.
  5. No vamos a distinguir entre partes por millón en peso y partes por millón en átomos.
  6. La atmósfera ejerce una presión de 1 Kg/cm2 y el ecuador tiene una longitud de 40.000 km
  7. Suponemos que hay 45 millones de españoles y 7.500 millones de habitantes en el mundo.
  8. El resto de los datos nos los inventamos, según lo que nos dicte nuestro sentido común.
  9. Para verificar nuestro resultado: según se puede leer aquí, el transporte terrestre es el responsable de algo más del 15% de las emisiones de CO2.

*

¿Se animan ustedes? Cualquier intento de solución en los comentarios será bienvenido. Acabaré dando mis soluciones, pero sólo cuando haya pasado un tiempo prudencial…

*

Actualización: soluciones en el comentario del 23/11/19.

Las ideas de la ciencia, de Tales a Newton: Una antología de posts

Ahora que en el mundo real (Universidad Carlos III) estamos inmersos en el curso de humanidades “Las ideas de la ciencia”, he pensado que puede ser un buen momento para recopilar unos cuantos posts que he ido escribiendo estos años y que son una ampliación o un comentario del libro y del curso… a beneficio de los alumnos curiosos (o de los diletantes que se dejen caer por aquí). Los ordeno según los capítulos del libro.

En el principio fue la medida

El mirador y la forma de la Tierra

¿Realmente se ve Gibraltar desde el Pico Veleta?

Umberto Eco y la Tierra plana

Modelos del cielo

Mirando al cielo, en Youtube

Mirando al cielo desde Ávila (I): Estrellas y constelaciones

Mirando al cielo desde Ávila (II): La bóveda celeste

Mirando al cielo desde Ávila (III): El año, el mes y la semana

Mirando al cielo desde Ávila (IV): El Universo de las dos esferas

Mirando al cielo desde Ávila (V): Un salto al cosmos de Aristóteles

Mirando al cielo desde Ávila (y VI): Epílogo: La ambrosía de Ptolomeo

Mapas de la Tierra

Cartografía en la Biblioteca Nacional

Mapas en la Biblioteca Nacional

España en 1486, según la Geografía de Ptolomeo

Viaje a las antípodas

(Des)conocimiento del medio

Las antípodas y los antípodas

Diez razones por las que sabemos que la Tierra es redonda

La Tierra, esa bola de billar

El mundo según Aristóteles

La flecha de Aristóteles y el órgano sensorial de Dios

Los cuatro temperamentos… y las mujeres

¿No será usted aristotélico sin saberlo? (y II)

¿No será usted aristotélico sin saberlo? (I)

Aristóteles y el manga (etcétera)

El cielo, de Aristóteles a Copérnico

Galileo y las montañas de la Luna

La paradójica revolución de Copérnico

Copérnico y la campana de Huesca

Agudeza Visual

Galileo (I): El primer científico moderno

¿Eppur si muove?

La verdadera historia de Galileo y la Torre de Pisa (II)

La verdadera historia de Galileo y la Torre de Pisa (I)

La verdadera historia de Galileo y la Torre de Pisa (III)

Siete mitos sobre Galileo que casi todo el mundo cree

El experimento de Galileo, a lo grande

Galileo lo tuvo mucho más difícil

Emulando a Galileo… con el móvil.

Galileo (II): El telescopio y la inquisición

El telescopio contra Copérnico (I): Pulgas y paralajes

El telescopio contra Copérnico (II): Estrellas, telescopios y artefactos

El telescopio contra Copérnico (y III): Unas estrellas inconcebibles

y de propina… (fuera de catálogo):

Colón y la Tierra plana

El día, la noche y el mapa

Del mapa al calendario

Alta mar

La paradoja del cambio de fecha (I): La Tierra como reloj

La paradoja del cambio de fecha (II): ¿Qué día es en las islas Fiyi?

La paradoja del cambio de fecha (y III): Por fin entendemos qué le pasó a Phileas Fogg

 

La tragedia de la cinemática

Es verdad, puede que el título sea una exageración: esté como esté la enseñanza de la cinemática en la ESO y el Bachillerato, no puede compararse con un terremoto o una guerra… Pero dentro de sus parámetros académicos e incruentos, es lo más parecido que tenemos a un desastre. No un desastre natural, sino uno de esos producidos por el abandono y la indiferencia.

La cinemática es el estudio descriptivo del movimiento, y como tal, es la puerta de entrada a la dinámica de Newton y en definitiva a toda la física. Virtualmente todos los libros de esta materia empiezan con los conceptos de velocidad, aceleración y ecuación del movimiento. Incluso cuando el libro todavía no se llama de Física, sino de Ciencias de la Naturaleza, como en 2º de la ESO, encontramos una vez más esas inevitables definiciones, que se repetirán religiosamente en 4º de la ESO, y una vez más en 1º de Bachillerato: pocos temas se repasan más veces que la cinemática.

Y aquí viene el problema: la cinemática se estudia muchas veces, pero siempre se estudia mal. La razón es muy sencilla: el estudio del movimiento, incluso el de un punto material (que no tiene dimensiones y no puede por eso girar sobre sí mismo o deformarse) es mucho más complicado de lo que parece a primera vista. Requiere manejar los vectores con soltura, y sobre todo, necesita comprender el concepto de derivada.

En efecto, la definición buena de velocidad, la única que de verdad abre la puerta de la dinámica de Newton y en definitiva de toda la física, es que la velocidad es la derivada de la posición respecto del tiempo. En una dimensión, si la posición es x(t), la velocidad es v(t)=\frac{dx}{dt}. Y en tres dimensiones, si el vector de posición es \vec{r}(t), la velocidad es \vec{v}(t)=\frac{d\vec{r}}{dt}. Análogamente, la aceleración es la derivada de la velocidad.

El camino inverso, de la aceleración a la velocidad y de la velocidad a la posición, se recorre con la operación inversa de la derivada: la integral. La cinemática, en definitiva, no es más que cálculo diferencial e integral aplicado, y su tragedia es que siempre que se explica en la enseñanza media, una y otra vez, se hace antes de que se hayan explicado los conceptos de derivada e integral.

Si no se lo creen ustedes (no me extraña), aquí tienen una página de un libro de Física y Química de 1º de Bachillerato:

TragediaCinematica

¡El mensaje del recuadro azul es antológico!: “te vamos a explicar esto usando un concepto que no te han explicado”. Años y años de reformas pedagógicas para llegar a esta aberración…

Pero comprendo a los pobres autores. Seguramente ellos, que saben física, nunca lo explicarían así… si les dejaran. Pero están obligados a seguir un temario impuesto por el Ministerio. Y ese temario les obliga a enseñar a hacer tortillas a unos estudiantes que no han aprendido a cascar huevos. ¿No es esto un desastre?

*

P.S.: Por si alguien tenía alguna duda: el programa de Física de 2º de Bachillerato (cuando por fin se han estudiado las derivadas y las integrales), ya no incluye la cinemática. Brillante.

Hawking: lejos de Einstein, cerca del pueblo

Me permito copiar el magnífico titular de Mario Viciosa en su artículo de El Independiente, porque es el mejor resumen que he encontrado en la prensa sobre Stephen Hawking, que como todo el mundo sabe, ha fallecido hoy 14 de marzo, precisamente el día de pi.

Mario me pidió mi opinión sobre Hawking, y la resumió así en el artículo:

Hawking no estaría en el primer nivel, con Newton, Einstein, Galileo o Faraday, entre otras figuras clave. “Estaría en un cuarto nivel, alguien que hizo unos descubrimientos brillantes en un campo concreto donde quizá marcó un punto de inflexión. Lo que ha publicado desde los años setenta ha sido bastante especulativo y no ha tenido confirmación”, por eso no le han dado el Nobel, aunque sí el Wolf o la Medalla Copley. Está lejos de “ser un Einstein”, pero revitalizó su Relatividad general

Leyéndolo, veo que necesitaría alguna aclaración eso del “cuarto nivel”. Estaba aludiendo, implícitamente, a la Escala de Landau, con la que el genial físico soviético clasificaba a sus colegas. En el nivel más alto brillaban Newton y Einstein; en el segundo (el “nivel 1” para Landau, que empezaba a contar por el cero) estaban Bohr, Dirac, Schrödinger… . Un piso más abajo se colocaba Landau a sí mismo. Y en el piso inmediatamente inferior, el cuarto nivel para mí, es donde situaba yo a Hawking.

Un par de enlaces (en inglés) para quien quiera aprender algo, en vez de aturdirse con el habitual ruido mediático:

  • Hawking es una celebridad, pero ¿qué opinan los físicos sobre él? Respuestas interesantes en Quora. Coincido con la primera opinión, la más votada.
  • Una nota necrológica magistral de un viejo colega suyo: nada menos que el gran Roger Penrose.

Dulce Newtondad

¿Quién ha sido la persona más influyente de la historia? Seguramente muchos dirán que Jesucristo (yo me incluyo). Sin embargo, hay voces autorizadas, como el astrofísico Michael Hart, que no están de acuerdo: en su célebre lista de 1978, el número uno es Mahoma… a pesar de que por entonces Jomeini aún no había llegado al poder y Bin Laden era un anónimo estudiante de ingeniería. Hart argumentaba que, siendo el cristianismo la religión más extendida y que más ha marcado a la humanidad, no se puede considerar a Jesucristo su único fundador, porque San Pablo tuvo un papel decisivo, a diferencia del caso del Islam, creado íntegramente por Mahoma. Por eso coloca a Jesucristo tercero en la lista, y a Pablo de Tarso en el sexto lugar, tras Buda (4ª posición) y Confucio (en el 5º puesto).

Polémicas aparte, el lector atento se habrá dado cuenta de una cosa: hemos mencionado al primero, el tercero, el cuarto y el quinto de la lista de Hart, pero ¿quién es el segundo? Ese mismo lector seguro que sabe ya responder a la pregunta: sólo puede ser Isaac Newton.

sir_isaac_newton_281643-172729

Y en efecto, puede haber discusión para  elegir al personaje más importante de la historia de las religiones, pero por suerte eso no pasa con la historia de la ciencia: nadie bien informado puede negar el puesto de honor a sir Isaac Newton.

Otro Isaac, el buen doctor Asimov, lo explicaba en su libro Cien preguntas básicas sobre la ciencia:

¿Quién fue, en su opinión, el científico más grande que jamás existió?

Si la pregunta fuese “¿Quién fue el segundo científico más grande?” sería imposible de contestar. Hay por lo menos una docena de nombres que, en mi opinión, pueden aspirar a esa segunda plaza. Entre ellos figurarían, por ejemplo, Albert Einstein, Ernest Rutherford, Niels Bohr, Louis Pasteur, Charles Darwin, Galileo Galilei, James Clerk Maxwell, Arquímedes y otros. (…) Pero como la pregunta es “¿Quién es el más grande?”, no hay problema alguno. En mi opinión, la mayoría de los historiadores de la ciencia no dudarían en afirmar que Isaac Newton fue el talento científico más grande que jamás haya visto el mundo. Tenía sus faltas, vive el cielo: era un mal conferenciante, tenía algo de cobarde moral y de llorón autocompasivo y de vez en cuando era víctima de serias depresiones. Pero como científico no tenía igual.

Decir que “tenía sus faltas” es muy amable para con Newton (¡por algo llamaban a Asimov “el buen doctor”!): en realidad sir Isaac era un personaje sumamente antipático en lo personal, que se peleó con todos sus rivales científicos, dirigió con especial crueldad la Casa de la Moneda (encargándose personalmente de que se ahorcase a los falsificadores) y al que su ayuda de cámara sólo vio sonreír una vez en décadas. Un mal bicho, en resumen… pero el mayor genio científico de la historia.

Pero ¿qué tiene que ver Newton con la Navidad? Aquí lo explica Sheldon Cooper…

…pero si quieren saber más, les recomendó el podcast de El Independiente en el que converso con Mario Viciosa sobre el que es, sin sombra de duda, el mayor científico de la historia.

[Mas podcasts de De Tales a Newton aquí]

Confesiones de un profesor de física: Eric Mazur

Esta conferencia de Eric Mazur debería hacernos pensar a todos los profesores de física. No es un gurú pedagógico, sino uno de los nuestros.

(Sólo tiene los subtítulos automáticos, pero se entiende muy bien su inglés.)

Muchas cosas de las que dice las hemos vivido todos. Y otras las sospechábamos. Por ejemplo, cuando explica (en t=13’13”) el resultado de un estudio que comparó el aprendizaje de alumnos de distintos profesores, clasificados por su competencia:

¿And you know what? No difference. No difference between the award-winning teacher and the winner who scores extremely low at the end of the semester. In other words, it does not make any difference what we do in front of our students: they learn next to nothing. Well, I felt challenged.

Este tipo de cosas le llevaron a concebir la peer instruction (enseñanza por pares, aquí su web). Si me lo contara un gurú pedagógico desconfiaría, pero a Eric Mazur sí le creo.

(Con mi agradecimiento a Pedro Ramos que me lo descubrió en un comentario)

Emulando a Galileo… con el móvil.

Hace 400 años hizo falta un genio como Galileo para demostrar la ley de caída de los cuerpos. Tuvo que superar muchas dificultades, algunas conceptuales (había que dejar de ver el mundo con los ojos de Aristóteles) y otras experimentales (no es nada fácil tomar medidas de la caída libre de un cuerpo: ¡todo ocurre demasiado deprisa!).

Para retardar la caída, Galileo tuvo la idea de usar una bolita rodando por un plano inclinado. Aun así, no podía medir velocidades, y ni siquiera valores absolutos de los tiempos, sólo medir (más o menos) los espacios recorridos en tiempos iguales. Consiguió demostrar, de todos modos, que el espacio recorrido aumenta proporcionalmente al cuadrado del tiempo, y que esto significa que la velocidad aumenta en proporción al tiempo. Es decir, que se trata de lo que hoy llamamos un movimiento uniformemente acelerado.

Hemos progresado mucho desde los tiempos de Galileo. En el bolsillo llevamos un instrumento científico de una precisión con la que él no pudo soñar: el teléfono móvil.  ¿Podríamos usarlo para demostrar lo que a él le costó tanto esfuerzo? La respuesta es que sí, y que ni siquiera necesitamos plano inclinado. Podemos grabar la caída libre de una pelota y verificar que el espacio recorrido aumenta en proporción al cuadrado del tiempo. Y resulta incluso que, con un poco de ingenio, podemos medir casi directamente la velocidad, y comprobar que aumenta en proporción al tiempo. Este es el trabajo que propuse hace ya más de tres meses a los alumnos de 2º de la ESO del PEAC de Madrid Este (ver este post). Ya era hora de que lo contara aquí.

FOTOS EXPERTO_30 ENERO_JUAN MELENDEZ 002

Hemos utilizado el vídeo que ya colgué en su día:

La idea es extraer de la película los fotogramas uno a uno y a partir de ellos, sacar la posición de la pelota en función del tiempo.

El proceso, cuando ya se tienen los fotogramas, se explica en este guión. Pero extraer los fotogramas no es tan sencillo como pudiera parecer. La mayoría de los reproductores de vídeo para PCs no lo permiten, y alguno muy popular que sí lo hace (VLC Media Player) no lo hace bien: se salta fotogramas sin avisar y eso es un desastre para nuestros propósitos. Programas profesionales como Matlab lo hacen perfectamente, pero no están al alcance de cualquiera… Finalmente, encontré la solución con GOM Player, un reproductor de vídeo de software libre que extrae sin ningún problema los fotogramas (se explica en el último apartado del guión).

Una vez que tenemos los fotogramas, ¿cuál es el intervalo de tiempo entre ellos? Para algunos formatos de vídeo, lo podemos saber desde el explorador de Windows: con el botón derecho del ratón, elegimos “propiedades”, la pestaña “detalles” y encontramos, por ejemplo, “Velocidad fotograma: 25 fotogramas/segundo”. Tenemos entonces 1/25 = 0,04 s entre cada fotograma. Pero con otros formatos esa información no aparece, por ejemplo, con archivos mpg como la grabación original que utilicé. En ese caso, GOM Player viene al rescate: en el menú, elegimos “información del archivo que se está reproduciendo” (o hacemos Cntrl+F1) y en “información de archivo” encontramos “Frame Rate”, y el número de fotogramas por segundo (fps).

A partir de aquí, se trata sólo de medir sobre los fotogramas las posiciones de la pelota. Con dos marcas en el fondo de la imagen, separadas una distancia conocida (en nuestro caso, 10 cm), podemos hacer la conversión de píxeles a cm. Para facilitar las cuentas, he creado una hoja de cálculo Excel: Caída libre PEAC.xls, donde introduciendo los datos se hace la conversión a cm y la gráfica que muestra la posición frente al tiempo.

¿Y qué hay de medir directamente la velocidad? Lo podemos hacer porque la pelota sale “movida”: se ve como una mancha alargada, tanto más cuanto más deprisa va, debido a que la cámara obtiene los fotogramas con un cierto tiempo de exposición. Hay un único problema: no sabemos cuál es ese tiempo. En el archivo Excel he hecho una pequeña trampa, estimando el tiempo de exposición a partir de la aceleración (medida del ajuste de las posiciones).

Para quien quiera repetir por sí mismo la toma de datos, a partir de las imágenes de mi vídeo, he dejado los fotogramas ya extraídos aquí. Pero lo mejor es realizar todo el proceso uno mismo, con el móvil que lleva en el bolsillo: ¡Cuánto hubiera dado Galileo por poder hacerlo!

¿No será usted aristotélico sin saberlo? (y II)

Monsieur Jourdain, el burgués gentilhombre de Moliere, se quedó muy sorprendido al saber que hablaba en prosa: seguramente pensaba que con ese nombre la “prosa” debía ser un género literario exótico, y no la manera de hablar común y corriente.

No hace falta saber qué es la prosa para hablar en prosa. Y no hace falta saber quién fue Aristóteles para pensar aristotélicamente, porque resulta que es la forma de pensar común y corriente.

En la clase de física nos dicen que para que un cuerpo se mueva no hace falta que actúe ninguna fuerza sobre él: es la primera ley de Newton. Y que si actúa una fuerza sobre él, lo que hace es acelerarlo: segunda ley de Newton. Esto puede parecer bien sobre el papel, pero no casa con la realidad. En el supermercado nos pasamos la tarde empujando el carro… y no vemos que se acelere como dice Newton. Imaginemos un carro de 40 kg, al que empujamos con una fuerza de sólo 10 Nw (la necesaria para sostener un cartón de un litro de leche). La aceleración según Newton sería F/m=10/40=0.25 m/s2, lo que significa que en media hora (1800 s) tendríamos una velocidad de 1800·0.25=450 m/s: ¡habríamos roto la barrera del sonido!

Lo que experimentamos en el supermercado, y prácticamente en todas partes, no se corresponde con la física de Newton sino con la de Aristóteles, que decía que la acción de una fuerza constante produce una velocidad constante. Con nuestros 10 Nw de fuerza mantenemos el carrito a una cierta velocidad, y si empujamos más fuerte, va más deprisa. Nuestra impresión es que la fuerza es proporcional a la velocidad que se consigue.

¿Por qué no superan la velocidad del sonido al cabo de un rato largo?

Vemos así que, en primera aproximación, la física de Aristóteles se parece a la de Newton poniendo “velocidad” donde él pone “aceleración”. Podríamos incluso formular dos leyes de la dinámica de Aristóteles, análogas a las de Newton:

  • Un cuerpo sobre el que no actúa una fuerza permanece en reposo (velocidad=0).
  • Un cuerpo sobre el que actúa una fuerza de mueve con una velocidad proporcional a esa fuerza.

(Aristóteles añadía a la segunda ley el detalle de que para que un cuerpo empiece a moverse, la fuerza que actúe sobre él debe superar un cierto valor umbral, “porque si no fuera así, un hombre podría mover un barco, sólo que con una velocidad extremadamente pequeña”).

Las leyes de Aristóteles no sólo explican muy bien nuestra experiencia empujando el carro del supermercado, sino muchas otras: cuando corremos, nuestro esfuerzo parece, al menos dentro de unos límites, proporcional a la velocidad constante que alcanzamos; conduciendo, el coche va a una velocidad constante que parece proporcional a la potencia que desarrolla el motor, etc. Lo que nunca vemos es que con un esfuerzo o potencia constante vayamos cada vez más y más deprisa. Para acelerar el coche, hay que pisarle. Y por mucho que le pisemos durante mucho tiempo, no rompemos la barrera del sonido: necesitaríamos más potencia, de acuerdo con la idea de que la velocidad es proporcional a la fuerza.

Aunque no hayamos formulado conscientemente estas experiencias y nadie nos haya hablado de las leyes de Aristóteles, sino, al contrario, de las de Newton, lo cierto es que hemos interiorizado la física aristotélica porque así es como funciona el mundo en nuestra experiencia cotidiana: con la “velocidad” haciendo lo que Newton dice que hace la “aceleración”.  Y así llegamos a la pregunta de nuestro test de aristotelismo, que reproduzco aquí ya con los resultados (para las 81 respuestas que había en el momento de escribir esto):

Un balón es lanzado verticalmente hacia arriba con velocidad inicial de 5 m/s. En su posición más alta, el balón…

  1. Tiene aceleración cero [17%]
  2. Tiene una aceleración de 9.8 m/s2 hacia abajo [58%]
  3. Tiene una aceleración de 9.8 m/s2 hacia arriba [0%]
  4. Tiene una aceleración instantánea de 0, que rápidamente pasa a ser 9.8 m/s2 [25%]
  5. Cambia su aceleración de 9.8 m/s2 hacia arriba a 9.8 m/s2 hacia abajo [0%]

La respuesta correcta (newtoniana) es la 2: el balón está sometido a la aceleración de la gravedad, que vale, para todos los objetos, 9.8 m/s2 hacia abajo, independientemente de su masa, estado de movimiento, etc.

La respuesta 3 es absurda, así que no es extraño que no haya cosechado ningún voto. Las otras tres opciones, sin embargo, son más interesantes. La velocidad del balón vale instantáneamente cero en el punto más alto de la trayectoria, donde cambia de sentido. Así que las opciones 1, 4 y 5 (salvo los valores numéricos) serían correctas o casi correctas si cambiáramos “aceleración” por “velocidad”, como tendería a hacer un aristotélico. Sumando el 17% de la opción (1) y el 25% la opción (4), alcanzamos un respetable 42% de respuestas aristotélicas.

Quizá lo más curioso de este resultado es que es casi idéntico al que obtuve cuando hace tres años planteé la misma pregunta a los alumnos de primero de ingeniería mecánica en el primer día de curso. Las respuestas (para una muestra de 99) fueron así: 1=14%, 2=54%, 3=0%, 4=27%, 5=5%: un 46% de aristotélicos.

En resumen: entre los alumnos que empiezan una carrera de ingeniería y entre los inteligentes lectores de este blog, la física aristotélica sigue disputándole la primacía a la física newtoniana, a pesar de que sin duda ambos grupos han estudiado más de un curso de mecánica. No me cabe duda de cuál sería el resultado si preguntáramos a un público sin estudios científicos.

Después de más de dos mil trescientos años y de un número incalculable de planes de estudio, Aristóteles sigue vivo.