Fracking

19 04 2015

La palabra fracking es una contracción de “hydraulic fracturing” que, pocheando un poco la traducción, significa fracturamiento hidráulico. La práctica del fracking se conoce desde la década de 1940, sin embargo, era en general considerada muy cara para ser utilizada de forma rutinaria. Hoy día conforme se agotan las fuentes tradicionales de gas y petróleo y crece la economía global se ha vuelto una técnica común, sobre todo en los Estados Unidos.

Vamos por partes, ¿cómo funciona?

Los pozos tradicionales de gas y petróleo son verticales, o casi verticales y su meta es encontrar y perforar formaciones de roca porosa que contienen gas, petróleo y frecuentemente agua. Una vez que el pozo perfora estas formaciones porosas, llamadas rocas almacenadoras, en el argot de la ingeniería petrolera, la diferencia de presiones entre el fondo del pozo, a varios miles de metros de profundidad, y la superficie ocasiona que el gas o el petróleo abandone el espacio poroso de la roca, entre al pozo y fluya a la superficie. Estas rocas usualmente son arena endurecida (litificada) y a esta roca se le llama arenisca. Las areniscas son como esponjas muy duras, solo que en vez de tener aire en sus poros tienen gas, petróleo y agua. Una característica importante de estas rocas es que además de ser porosas son permeables. Esto significa que ademas de tener muchas oquedades donde pueden almacenar fluidos estas oquedades están bien conectadas y permiten que los fluidos se trasladen con facilidad dentro de ellas. Este es el tipo de pozo tradicional, que requiere de rocas con alta permeabilidad como las areniscas; pero conforme el apetito energético de la humanidad ha ido aumentado, se encuentran cada vez menos de ellos.

Hay otro tipo de rocas que también contiene hidrocarburos. Los geólogos las llaman lutitas o limolitas y son rocas formadas por el endurecimiento de sedimentos muy finos, usualmente de menos de 0.1 mm. Estas rocas, al igual que las areniscas son porosas, tienen millones de pequeñas oquedades entre sus granos y también almacena petróleo, gas y agua. Sin embargo la diferencia crítica es que la permeabilidad de las lutitas es muy, muy baja, por lo cual los fluidos en su interior no pueden trasladarse con facilidad. En épocas anteriores cuando se encontraban lutitas con petróleo se prefería no explotarlas porque, dado su baja permeabilidad, era muy difícil y muy caro extraer suficientes hidrocarburos para justificar el gasto de exploración y explotación.

Aquí entra el fracking. De forma simple, el fracking es una forma de crear fracturas en las lutitas que contienen hidrocarburos para aumentar su permeabilidad y hacer la extracción de hidrocarburos más productiva.

Esquema de la fracturación hidráulica o "fracking"

Esquema de la fracturación hidráulica o “fracking”

La figura anterior muestra de forma esquemática cómo funciona el fracking (y acá uno y otro video). Cuando el pozo alcanza la capa de lutitas (shale en inglés) que contiene los hidrocarburos gira de forma gradual hasta volverse horizontal y continua barrenando un par de kilometros más. Después se extrae la herramienta de perforación, se introducen segmentos de tubería de revestimiento y se sella el espacio entre la tubería y la roca con concreto. Hecho esto  se introducen explosivos en varios puntos del segmento horizontal y se “dispara” el pozo para crear pequeñas ranuras en la tubería de revestimeinto. Entonces comienza el fracking, hasta 8 mil millones de litros de agua mezclada con varias toneladas de arena y unos 2 mil litros de químicos se introducen con alta presión al pozo. La elevada presión de la mezcla de fluidos penetra por las ranuras en la tubería de revestimiento y genera nuevas fracturas en la roca. La arena en el fluido mantiene las fracturas abiertas y los químicos disuelven minerales, lubrican las fracturas y previene el crecimiento bacterial. hecho esto se extrae el fluido de fracking, que es almacenado en tanques especiales la superficie y con suerte comienzan entonces a fluir los hidrocarburos.

Barrenos horizontales en Glenfarne, Irlanda

Ahora, recuerden que la permeabilidad de las lutitas es muy baja y es muy difícil extraer hidrocarburos, aun con las nuevas fracturas, entonces es necesario perforar muchos de estos barrenos horizontales en la capa de lutitas y dispararlos y fracturarlos en muchos puntos para generar suficientes fracturas para extraer  gas y petróleo y así recuperar los costos de operación. El mapa anterior muestra un ejemplo de esto en Glenfarne en Irlanda donde 13 pozos verticales tienen cada uno entre 8 y 16 barrenos horizontales.

Hay tres críticas importantes al fracking, 1) que utiliza muchos recursos, 2) que contamina los acuíferos locales y 3) que genera un incremento en la sismicidad local. Es verdad que requiere de cantidades exorbitantes de agua y de energía para barrenar y bombear los fluidos con la suficiente presión para genera las fracturas. Sin embargo el gas y petróleo que se extraen de esta forma aun así generan ganancias y mientras el precio del gas y el petróleo se mantengan por encima del costo de operación del fracking seguirá habiendo compañías que utilicen esta técnica, es oferta y demanda. Creo entonces que el impacto, en cuestiones de cambio climático, del fracking es, sí, negativo, pero es similar al de cualquier otra forma de extraer hidrocarburos. Sin embargo, donde el fracking es ambientalmente nocivo es en relación a los químicos utilizados en el fluido de fracking. Pueden ser tan tóxicos que no hay forma de tratar el fluido y la única solución segura para disponer de el es almacenarlo mientras el pozo este en producción y reinyectarlo a la roca cuando concluya la producción y sellar con concreto el pozo.

Sobre la contaminación de los acuíferos mi postura es un tanto ambivalente. Los pozos fracturados usualmente se encuentran a varios miles de metro de profundidad, muy por debajo de los acuíferos. Las fracturas generadas por el fluido de fracking son varios ordenes de magnitud menores y no pueden alcanzar al acuifero. Han existido episodios de contaminación, sin duda, pero estos se deben a problemas con la calidad de las tuberías de revestimiento que perforan los acuíferos y nada tienen que ver con el fracking. De hecho muchos episodios de contaminación suceden en pozos verticales tradicionales también. Es decir, la contaminación de los acuiferos es un probema serio, pero es un problema inherente a todas las formas de explotación de hidrocarburos y no al fracking en particular.

F2.large

Aumento en la sismicidad del centro de los Estados Unidos

La objeción final, esa sí, es bien sería, que el fracking produce un incremento en la actividad sísmica de la región. Esto era controversial hace unos años pero ahora sabemos con certeza que el fracking, sin duda, incrementa la actividad sísmica de una región. Solo basta consultar el caso de Oklahoma y del centro de los Estados Unidos en general. En la figura anterior se muestran el número de sismos mayores a magnitud 3 en el centro de los EU lejos de cualquier actividad tectónica. A partir del 2001 y en particular en el 2010 hay un gran incremento en la sismicidad de la zona. Esto se debe a la frenética actividad de fracking en la región. Las fracturas generan pequeños sismos y los fluidos pueden lubricar fallas pre-existentes que rara vez generan un sismo, pero que ahora con la ayuda del fracking comienzan a despertar. En si los sismos generados son pequeños, aunque han habido sismos de hasta magnitud 6 en Oklahoma, sin embargo es difícil (más no imposible) pensar que el fracking producirá un gran sismo de magnitud 7 u 8.

Aun así, el peligro se manifiesta de otras formas. Mientras que un sismo de magnitud 5 en una región donde usualmente ocurren cómo México o California, no produce mayores daños, en el centro de los Estados Unidos es un verdadero peligro. Los códigos de construcción no contemplan este escenario y los edificios rara vez se construyen de forma sismoresistente. Un sismo que en otras partes no es de cuidado puede ser catastrófico en un lugar donde rara vez suceden. Asi mismo, este incremento en actividad sísmica ha generado mucho debate sobre como administrar el peligro sísmico. Usualmente consideramos que el peligro es mas o menos estático. Una vez que se identifican las fuentes de sismicidad podemos generar códigos de construcción y planes de respuesta. Pero con el fracking lo que observamos es que las zonas donde incrememnta la sismicidad cambian conforme las operaciones de fracking comienzan en un lado o concluyen en otro. Es decir, el peligro es ahora función del tiempo y requiere de nuevos paradigmas de respuesta.

No hay soluciones fáciles. El fracking tiene serias desventajas, es verdad, pero la economía, un poco como un adicto, requiere fuentes constantes de energía. Es importante entender el fenómeno y responder con la cabeza fría. El fracking usualmente produce discusiones acaloradas que espero puedan ser ahora discusiones mejor informadas.





400 ppm

23 05 2013

Estos son los hechos, el 9 de mayo de 2013 la concentración de dióxido de carbón (CO2) en la atmósfera alcanzó las 400 partes por millón (ppm). El número en si no ostenta un significado particular, pero ofrece un buen momento para evaluar lo que sabemos hasta ahora  sobre el impacto del quehacer humano sobre la atmósfera y el clima del planeta

Este número tiene historia. En 1958 Charles David Keeling, científico de la Scripps Institution of Oceanography, instaló en la cima del volcán Mauna Loa en Hawaii un observatorio de química atmosférica. A 3,397 m de altura Mauna Loa le ofrecía a Keeling la oportunidad de medir la química atmosférica no solo a una altura significativa, si no también, a la mitad del Pacífico, lejos de los centros urbanos y de actividad industrial del planeta. Desde entonces, las observaciones en Mauna Loa ofrecen el registro más largo e ininterrumpido del contenido de CO2 en la atmósfera. Con este registro (y algunos otros) Keeling y sus colaboradores publicaron en 1960 un artículo que argumentaba que, por primera vez y con sustento empírico, que era posible devanar que la concentración de CO2 iba a la alza. Había nacido la curva de Keeling.

Curva de Keeling, CO2 atmosférico en partes por millón medido en el observatorio de Mauna Loa

Curva de Keeling, CO2 atmosférico en partes por millón medido en el observatorio de Mauna Loa

La curva de Keeling, muestra el incremento en la concentración de CO2 desde unas 310 ppm en 1958 hasta las 400 ppm en 2013 y no admite debate. Hay variabilidad en la curva, es cierto, si se le mira con cuidado es posible ver que a lo largo del año las mediciones oscilan. La variabilidad anual de unas 5 ppm es debido a que la mayoría de la vegetación del planeta se encuentra en el hemisferio norte, así, durante la primavera boreal el nuevo follaje absorbe CO2 por fotosíntesis y se reduce la concentración a nivel mundial. Al llegar el otoñó e invierno las plantas se desvisten de sus hojas que al morir y decaer liberan el CO2 de vuelta al aire. Sin embargo, a pesar de esta pequeña variabilidad anual, la tendencia es siempre a la alza.

El CO2 es lo que ahora recibe el mote de gas de efecto invernadero. Permite la entrada de la radiación solar a la atmósfera pero impide que escape; ocasionando que la temperatura promedio de la atmósfera y el océano incrementen. Los efectos que este incremento de temperatura tiene sobre los patrones climáticos (colectivamente llamados cambio climático) son muchos y sus interdependencias complejas y aun no los comprendemos todos. Sin embargo sabemos que el incremento va a cambiar el clima del planeta de forma radical. Se derretirá gran parte del casquete polar Ártico (como ya sucede con frecuencia en el verano polar) y la perdida de hielo en la Antartida será significativa también. Ello no solo habrá de incrementar el nivel del mar, como ya se puede observar en registros mareográficos, alterará también los patrones de circulación oceánica. El océano, que tiene una gran capacidad para absorber calor es el refrigerante del motor climático transportando y reubicando calor de regiones cálidas a frías. Por tanto cambios en la circulación oceánica alterarán el patrón climático. En breve, al agregar calor al sistema terrestre los extremos se harán más extremos. Los huracanes serán más violentos pero también las nevadas, las oleadas de calor y las sequías morderán con más rencor. Esto tendrá fuertes impactos sobre la humanidad, regiones antes fértiles, productoras de alimento se secarán, habrá (y ya hay) hambruna en las naciones, comenzando por las más pobres y conflictos por agua. La economía mundial se volcará sobre si misma y tendrá que reinventarse.

Pero, ¿quién, si es que hay alguien, tiene la culpa? El clima del planeta a lo largo de la historia geológica ha sido variable y cambiante, el nivel del mar ha subido y bajado ¿cómo sabemos que las concentraciones de CO2 hoy medidas son causa de preocupación? Bueno, los climatólogos que estudian climas antiguos (propiamente llamados paleoclimatólogos) han encontrado una bella formar de mirar al pasado. Cada año las nuevas nevadas sepultan pequeñas burbujas de aire, atrapadas entre copos de nieve, de tal suerte que cada capa de los casquetes de hielo de miles de metros de espesor en Groenlandia o la Antártida son en realidad sarcófagos, gavetas que contienen diminutas burbujas de aire provenientes de las atmósferas del pasado. Los climatólogos han barrenado los casquetes y extraído núcleos de ese antiquísimo hielo para extraer muestras de esas burbujas y determinar cual fue la composición de la atmósfera en el pasado.

Cocnentración de CO2 en la atmósfera antigua inferida de los núcleos de hielo Vostok y EPICA

Concentración de CO2 en la atmósfera antigua inferida de los núcleos de hielo Vostok y EPICA. Se compara con la concentración medida en Mauna Loa en 2007 y con las predicciones de diversos modelos climáticos

Los núcleos de hielo de la Antártida llamados Vostok y EPICA (este último llega hasta más de 3000 m de profundidad) permiten reconstruir la concentración de CO2 en la atmósfera pasada. En esta historia climatológica es posible ver que, es cierto, ha habido periodos de mas y de menos CO2, pero, al menos en los últimos 800,000 años las concentraciones de CO2 no han estado, ni cerca, de lo que actualmente se observa. Resulta difícil pensar entonces que la actividad humana, a través de la combustión de los derivados del carbón y el petroleo no ha sido la causa primaria del incremento de CO2 que dibuja la curva de Keeling.

¿Porqué no hacemos algo al respecto? La respuesta es complicada, pero un componente importante de ella es que entre los que detentan el poder a veces se escuchan ademas de estas certezas científicas los tumores de las voces que dudan. Dudan y dicen que la ciencia es aun incierta y que si bien sí hay evidencia de un efecto humano no sabemos a aun al 100% que sea culpa humana.

¿Quiénes dudan que el cambio climático es en gran parte un monstruo de nuestra propia creación? No son los climatólogos y mucho menos la comunidad científica en general. El Panel Inter-gubernamental sobre Cambio Climático (IPCC), una organización multinacional y multidisciplinaria que desde 1988 evalúa y recopila la ciencia detrás del cambio climático y emite recomendaciones sentencia (todas las traducciones son mias) “Las actividades humanas […] están modificando la concentración de los compuestos constitutivos de la atmósfera […] La mayoría del calentamiento de los últimos 50 años es atribuible al incremento en la concentración de gases de efecto invernadero”. La Academia de Ciencias de los Estados Unidos afirma “Los gases de efecto invernadero se han acumulado en la atmósfera como consecuencia de la actividad humana ocasionando incrementos en la temperatura de la atmósfera y del oceano”. La American Meteorological Society, la American Geophysical Union y la American Association for the Advancement of Science todas han emitido pronunciamientos similares. Sus miembros concuerdan. Un estudio publicado en 2004 en la revista Science encontró que de 928 artículos científicos publicados sobre climatología entre 1993 y 2003, 25% lidiaban con estudios paleocliamtológicos y no tomaban un postura sobre la veracidad del cambio climático y 75% afirmaban que los efectos de la actividad humana sobre el cambio climático eran significativos y medibles. Ni uno solo niega esta conexión. Es decir, la comunidad de especialistas que dedican su vida profesional al análisis de este tema están casi todos de acuerdo en que la actividad humana ejerce un control de primer orden sobre el cambio climático.

En su excelente libro Mercaderes de la Duda, una lectura obligada, los historiadores de la ciencia Naomi Oreskes (Universidad de California San Diego) y Eric Conway (Jet Propulsion Laboratory) desmenuzan y documentan la raíz de esta duda que se escucha entre aquellos con el poder de ejercer un cambio en la política energética del planeta. Encuentran vínculos antes no cartografiados en la historia de la ciencia de los últimos 50 años. Los científicos (o pseudo-científicos diría yo) que han negado que el tabaco causa cancer, que el DDT, aquel denostado insecticida, sea cancerígeno también, que la lluvia ácida es un desastre ecológico, que el hoyo en la capa de ozono es real, que el humo de segunda mano afecte a la salud y finalmente que el cambio climático sea producto de la actividad humana, esos científicos que niegan esto, son todos los mismos. Es el mismo reducido grupo de personas con un nutrido financiamiento de grupos libertarios y conservadores que publican sus pseudo-resultados no en revistas científicas y arbitradas como  Science o Nature si no en periódicos y sitios de Internet a modo y que han hecho de la duda una forma de vida. Oreskes y Conway documentan y muestran como los mercaderes han aprendido, que para dirigir la opinión pública no es necesario demostrar científicamente que el tabaco no es malo o que el cambio climático no es producto humano, solo es necesario convencer al público que los científicos dudan y aun no tienen todos los resultados estudiados y todos los efectos calculados. De esta forma el público encontrará permisible que no actuemos, que nos quedemos en la inacción pues si los científicos dudan entonces no tenemos bases, les han hecho creer, para exigir hacer las cosas de forma distinta.

Pero como ya discutí, los científicos mismos no dudan y es una construcción, un espejismo izado en nombre de  aquellos intereses a quienes no conviene actuar por un grupo de mercenarios de la ciencia que han encontrado una actividad lucrativa en la manufactura de la duda.

No es del todo un complot, Oreskes y Conway arguyen que en verdad lo que motiva a los mercaderes es, además de la apetitosa remuneración  que reciben por sus servicios, la febril creencia en un libre mercado absoluto que jamás debe de ser interrumpido  y ello queda documentado en sus propios escritos. Reconocer problemas como el cambio climático es reconocer que la mano invisible, que a veces adquiere matices de deidad entre los fundamentalistas del libremercado, ha fallado y que se necesita la intervención gubernamental para corregir el curso. Los llamo fundamentalistas pues ¿cómo referirse a una doctrina económica que rehúsa a adaptarse aun cuando se le presenta evidencia de sus deficiencias (los comunistas son fundamentalistas también)? Una noción tal, como la intervención reguladora, les es repulsiva pues creyendo ciegamente en el poder del mercado la intromisión gubernamental es coartar la libertad del individuo y es sinónimo de socialismo. Es en verdad una saga aterradora para todos los que hacemos ciencia pues los mercaderes han cooptado el método científico para volverlo propaganda y con un terrible exito. Aquellos que niegan realidades científicas que el resto del medio acepta son ellos científicos doctorados por las mejores escuelas y  han sido directores de la Scripps Institution of Oceanography (William Nierenberg), el mismo instituto donde Keeling elaboró su famosa curva; directores de la Academia de Ciencias de los Estados Unidos (Frederick Seitz) y directores de la Agencia de Proteccion Ambiental (EPA) de Estados Unidos (Fred Singer), asi como asesores de presidentes y legisladores.

Pero dejemos a los interesados investigar en el libro de Oreskes y Conway el resto de esta historia. A mi parecer la evidencia admite solo una interpretación: hemos afectado al clima del planeta. Mejor habríamos de discutir como iniciar las maniobras geopolíticas para iniciar un cambio de paradigma en cuanto al consumo de energía y su impacto sobre el ambiente. Esta discusión es también harto complicada. La producción antropogénica de CO2, puede uno argumentar, comenzó su ascenso con el advenimiento de la revolución industrial en el siglo 19. Aceptando este axioma es trivial concluir que la mayoría del CO2, y de otros gases, en la atmósfera son producto de las economías industriales de occidente, es decir, de Estados Unidos y de Europa. Sin embargo, lo que fue cierto ayer ha cambiado hoy. En su reporte sobre el futuro energético del planeta The outook for energy: a view to 2040 la petrolera Exxon Mobil concluye que si bien las emisiones llegarán a un pico hacia 2030 y luego tenderán a disminuir, los países responsables de la mayoría de emisiones en el futuro no  serán mas las economías occidentales y mas desarrolladas de la OCDE si no China, la India y otras economías pujantes como, Brasil, Malasia, Indonesia, Filipinas, etc. Esto ocasiona una disyuntiva ética que no es fácil de resolver, pues los países responsables de traernos al borde del abismo no son los mismos que serán responsables de empujarnos al precipicio. Estas economías emergentes que ahora y en el futuro producirán la mayoría de las emisiones podrán argumentar, que porqué ellas deberían de mesurar su producción y disminuir su potencial de desarrollo, si es que no hicieron lo propio las potencias industriales del siglo 19. Hay mas lecciones importantes en las proyecciones de la petrolera. Si bien la mayoría de las emisiones no vendrán ya de países de la OCDE, el despilfarro energético de estas economías sigue siendo ofensivo. La producción de CO2 per capita, es y seguirá siendo sensiblemente mayor en las economías de la OCDE que en las de China, India y demás países.

Proyección de emisiones de CO2 de acuerdo a Exxon Mobil

Proyección de emisiones de CO2 de acuerdo a Exxon Mobil

El mismo reporte de Exxon  Mobil tiene algunas proyecciones reveladoras, argumentan que ante la necesidad, de carácter moral, de disminuir emisiones habrá un cambio en el patrón de consumo energético del planeta, pero no serán los cambios que los más férreos ecologistas quisieran. Proyectan que el incremento en energías alternativas como la eólica y solar será mas bien pequeño, el consumo de petróleo incrementara tan solo de forma moderada y el de carbón (la más sucia forma de energía) disminuirá, mientras que el consumo de gas natural convencional y no convencional (el producido por el infame frakking) crecerá a pasos agigantados. El gas natural produce una combustión más limpia que el petróleo o el carbón pero aun así causa la emisión de CO2. Todo apunta a que estamos lejos de romper el ímpetu de esta maquina humana que arroja, como confeti, toneladas de CO2 al aire.

Proyección del consumo de energía hacia 2040 de acuerdo a Exxon Mobil

Proyección del consumo de energía hacia 2040 de acuerdo a Exxon Mobil

Esta es la realidad donde nos encontramos. Las coordenadas de nuestra existencia y no son halagüeñas. El IPCC llega a conclusiones similares a las de Exxon Mobil, en sus pronósticos de emisiones para el futuro, todos sus modelos predicen incrementos. Entonces la coyuntura es esta: el incremento de CO2 es casi con certeza producto de la actividad humana, este incremento generará un cambio en los patrones climáticos del planeta que tendera a aguzar los extremos climáticos, sequías más secas y huracanes más violentos con consecuencias insoslayables para la cadena productiva de la economía mundial y aquellos países responsables de iniciar la tendencia no serán los responsables de continuarla, estos serán los países hoy menos desarrollados que se rehúsan con frecuencia a mediar sus emisiones pues, reclaman, tienen el derecho también al crecimiento económico que generan los motores de combustión, las turbinas de gas y las termoeléctricas de carbón con las cuales el primer mundo llego a ser eso, el primero.

Qué hacer pues, es el reto que nos enfrenta a todos, que reclama soluciones de tecnología, política y economía que aun estamos lejos, en mi opinión, de articular de forma coherente. Pero con motivo de la curva de Keeling y las 400 partículas por millón, podríamos comenzar por admitir, y ya viene siendo hora de hacerlo y sin esgrimir excusas, que estamos aquí por nuestra propia culpa y la de nadie más pero también de permitirnos tener esperanza en que la creatividad humana será capaz, como siempre lo ha sido, de hacer mella en esta crisis que nos enfrenta a todos.





¿Qué le sucedió a los simólogos italianos?

23 10 2012

Atento lector, por favor lea las siguientes líneas bajo la siguiente premisa: el estado actual de la sismología es tal que no es posible predecir un sismo. Esta es la noción que existe hoy entre los simólogos del mundo. Ello no quiere decir que sepamos poco o que nunca lo vayamos a lograra hacer. Sencillamente significa que, como suele suceder en la ciencia, nuestro conocimiento es aun limitado e imperfecto.

Vamos pues, ¿qué sucedió en Italia?

Estos son los hechos; este lunes 22 de octubre de 2012 seis científicos y un oficial del gobierno italiano fueron declarados culpables de homicidio culposo por hechos suscitados en vísperas del sismo de l’Aquila de magnitud 6.3 en el cual fallecieron 309 personas y fueron sentenciados a 6 años de carcel y obligados a pagar numerosas multas. Son: Enzo Boschi, ex-presidente del Instituto Nacional de Geofísica y Vulcanología (INGV) de Italia, Franco Barberi de la Universidad de Roma, Mauro Dolce, jefe de la oficina de riesgos sísmicos en el Departamento de Protección Civil en Roma, Claudio Eva, de la Universidad de Roma, Giulio Selvaggi, director del Centro Nacional de Sismología del INGV, Gian Michele Calvi, presidente del Centro Europeo para la Capacitación e Investigación en Ingeniería Sísmica en Pavia y Bernardo De Bernardinis, entonces vice-director del Departamento de Protección Civil.

Estos son más hechos; comenzando en octubre del 2008 se suscitó lo que se conoce como un enjambre sísmico. Un enjambre es un número de sismos elevado, comparado a la sismicidad de fondo usual, en una zona particular y mas o menos bien delineada del planeta. En este caso, Los Apeninos cerca del poblado de l’Aquila. Los enjambres ocurren con frecuencia en zonas tectónicamente activas y en las cercanías de volcanes. En el caso de l’Aquila se registraron 69 eventos en enero del 2009, 78 en febrero, 100 en marzo y 57 tan solo en los primeros días de Abril. Finalmente el 6 de abril sucedió el evento principal de magnitud 6.3 con las tristes consecuencias que ya relaté.

Si uno mira la cantidad de sismos (figura 1) es posible ver que se registra un número elevado de ellos antes del evento principal. Sin embargo, analizando todo el histograma, este tipo de incrementos se suscitaron numerosas veces durante el enjambre. Entonces ¿cómo decidimos cuándo emitir una alerta? La respuesta es simple y poco satisfactoria. No sabemos cuando. Es posible con algunos cálculos rudimentarios basados en la magnitud, el número y la ubicación de los sismos del enjambre, calcular la probabilidad de que suceda un sismo grande en tal o cual parte de una falla. Sin embargo esas probabilidades tienen una incertidumbre enorme, es decir aunque le ponemos un número, confiamos poco, muy poco en ese número. Aun cuando hay un aumento las probabilidades de un sismo mayor siguen siendo muy bajas. Por ejemplo, en el caso de l’Aquila aunque la presencia del enjambre aumenta la probabilidad de un sismo grande más de mil veces, esta probabilidad es menor a una parte en mil. Es decir el enjambre aumenta la probabilidad de un sismo de 0.0001% a 0.1%. ¿Qué hacemos con esta información? ¿Cómo la transmitimos? ¿Cómo actuamos cuando la recibimos? Estas son preguntas importantes sobre las cuales podría y deberíamos de pasar horas y días debatiendo.

Figura 1: Sismicidad durante el enjambre del 2009 y peligro sísmico en Italia. Fuente (http://www.nature.com/news/2011/110914/full/477264a/box/1.html)

Pero de regreso a los hechos. El 31 de marzo de 2009, seis días antes del sismo mayor se reunieron en l’Aquila científicos y burócratas, miembros de la comisión de riesgos para discutir que hacer ya que el enjambre tenia para entonces 5 meses de duración y la población se encontraba muy alarmada. Más aun por un charlatán que llevaba ya unos meses gritando y haciendo aspavientos prediciendo la fecha de un sismo mayor porque había emisiones “extrañas” de gas radón. Ninguna de sus predicciones fue acertada, por supuesto, pero logró alterar a la población de sobremanera (él no es culpable de nada de acuerdo a la justicia Italiana). Entonces pues, se dio esta reunión de emergencia de la comisión.

Las intenciones detrás de la reunión eran nobles, pero como dicen por ahí, el camino al infierno esta pavimentado con buenas intenciones, y durante la reunión se cometieron varios y harto graves errores. Primero, las deliberaciones fueron públicas entre los oficiales del gobierno y los científicos y no a puerta cerrada como usualmente son para luego tener una rueda de prensa y dar una respuesta coordinada. No se emitió un comunicado oficial y las minutas de la reunión no se organizaron si no hasta concluido el sismo. Sin embargo, sabemos que numerosas veces cuando los sismólogos fueron cuestionados tanto por los oficiales del gobierno como por los medios sobre la probabilidad de un evento mayor su respuesta consistentemente fue: “la probabilidad de un evento mayor es pequeña pero no podemos descartarla.” Correcto. Correctísimo. Sin embargo concluida la reunión y ya dispersos la mayoría de quienes la atendieron algunos oficiales de protección civil se dieron a la tarea de responder preguntas de los medios de manera informal.

A pregunta expresa sobre la seguridad del pueblo de l’Aquila los oficiales del gobierno respondieron con un sereno “no pasa nada” e hicieron a los reporteros saber que todo estaba bajo control y categóricamente negaron que pudiera suceder un sismo. Pero ¿cómo? Si solo unos instantes antes habían sido informados por los sismólogos (ahora culpables de homicidio) que era imposible determinar con prescisión que un sismo mayor fuera a suceder o no y mucho menos cuando o de que magnitud. Presionados aun más por los reporteros y ante la sarcástica pregunta de uno de ellos “¿Entonces ahora nos regresamos a tomar vino?” El representante de protección civil respondió en tono jovial “¡Claro! Y que sea un Montepelucciano” vino de la región de Abruzzo. Este (ahora también homicida) oficial del gobierno clara e inegablemente cometió un error. Él no es sismólogo, y no esta capacitado para hacer tales aseveraciones, su labor no es emitir predicciones de riesgo sísmico si no destilar la información que le dieron los científicos. Claramente erró y fallo en su labor como intermediario entre los científicos y la población. Los sismólogos también erraron pues esta cita (y otras igual de ridículas) se esparcieron por los medios italianos como un fuego en un pastizal y quizás debieron de hacer un esfuerzo mayor por atajarlas en los medios.

Pero pregunto ¿son estos errores suficientes para encontrar a alguien culpable de homicidio?

Otro punto, los sismos no matan, lo que mata son las estructuras al colapsarse sobre uno. l’Aquila es una ciudad del medievo con estructuras increíblemente antiguas. Tiene un historial sísmico riquísimo y hay recuentos de sismos en todos los capítulos de la existencia de la ciudad. El mapa de peligro sísmico del INGV (figura 1) coloca a l’Aquila en la zona de mayor riesgo. Es decir, desde hace siglos la sociedad italiana sabe y muy bien que esa zona de los Apeninos es un calderón tectónico que crepita constantemente. Entonces, con este conocimiento y con códigos de construcción modernos (como los que existen en Italia) quién, pregunto ¿quién tiene la culpa de no haber renovado estructuras antiguas, cuando durante décadas se les ha sabido precarias? ¿Los sismólogos? ¿Los oficiales del gobierno? o ¿La sociedad que habita en ellos?

Además, ante comentarios tan patentemente falsos como los del pobre oficial de protección civil, ¿no tienen los medios de comunicación la obligación de reconocer tan inocente falsedad y buscar otras fuentes de información para corroborar lo que se ha dicho? ¿Porqué dieron tanta credibilidad a comentarios como ese y no a las otras decenas de voces (entre ellas del INGV) que exigían precaución? ¿Por qué favorecieron el sensacionalismo? En mi humilde experiencia la mayoría de los reporteros de los medios de comunicación tienen nociones tristemente infantiles sobre los fenómenos naturales y procesos de la Tierra (por eso escribo aquí) y su conocimiento es más sobre mitos que sobre hechos científicos. ¿De quien es obligación capacitar a los medios de comunicación para que entiendan un poco de ciencias de la Tierra y que sepan comunicar?

Aun más, siendo Italia un país tectónicamente muy activo ¿no tiene la sociedad civil italiana que hacerse responsable de si misma? Hasta donde se no existían entonces y creo que aun no existen, protocolos ni a nivel federal ni a nivel local en l’Aquila para lidiar con una crisis sísmica. Siendo los terremotos tan pero tan frecuentes en ese país ¿No es obligación de la sociedad civil saber que hacer y como responder ante un sismo?

Mi intención con este soliloquio no es apuntar el cetro de la culpa hacia alguien en particular si no más bien para ilustrar lo que a mi parecer sucedió en Italia. El sistema fallo de forma catastrófica en todos sus niveles. Los que hacen ciencia no supieron como interactuar con sus oficiales de gobierno y con sus sociedad. El gobierno no supo como escuchar a sus científicos y como transmitir esa información a su sociedad. Los medios de comunicación fallaron en su obligación de comunicar a la sociedad la información de forma balanceada y de una pluralidad de fuentes y por último la sociedad civil, displicente, esperó que papá gobierno el dijera que hacer y se ocupó poco de prepararse.

Es pueril, calumniosos y una injuria de proporciones casi inimaginables lo que sucede en Italia. Como he expresado aquí, creo que se cometieron errores, pero culpar solo a los científicos y levantarles sentencias tan duras es una mofa, una pantomima de la justicia, son chivos expiatorios camino del matadero. Desconozco la confiabilidad del sistema de justicia italiano, pero conozco bien la propensión latina de juzgar primero con el corazón y no con la cabeza y la pasión con la que se siente el dolor de perder a un ser querido y sospecho que a estos hombres se les juzgó antes de poner pie en el tribunal. Italia es hoy un país mintiéndose a si mismo y negando que todos tienen aun mucho por hacer y que deben de trabajar juntos. Se ahogó el niño, y ayer lunes se tapó el pozo.

Italia fue un país pionero en geofísica, la primer revista de geofísica (Geofisica pura e aplicata) que data del siglo 19 y que existe aun como Pure and Applied Geophysics, se publico allí. Los primeros sismómetros y estudios vulcanológicos se dieron ahí, pero me temo que esta cuna de cultura y ciencia se encuentra hoy con el ojo mayugado. Hace 400 años, en Roma, Giordano Bruno murió en la hoguera por sostener que nuestro sol era solo uno de muchos y que debiera de haber otros planetas allá afuera. Hace 400 años Galileo fue sentenciado, en Roma, a arresto domiciliario a perpetuidad por defender el heliocentrismo, moriría aislado 9 años después. Es tragicómico lo que ha sucedido, es de risa loca y lágrimas. Como bien dice mi padre, el ser humano es el único animal que se tropieza con la misma piedra dos veces, y tres y cuatro…

Mis fuentes:

http://www.nature.com/news/2011/110914/full/477264a.html

https://www.nytimes.com/2011/10/04/science/04quake.html?_r=2&

https://www.scientificamerican.com/article.cfm?id=italian-scientists-get





Japón

8 07 2012

En marzo de 2012 visité la zona de Sendai en Japón con motivo del primer aniversario del sismo y tsunami de Tohoku. Esta es al historía de lo que vi y aprendí

Fotos aquí.

El viajé comenzó temprano. Conforme a las direcciones que recibí por correo electrónico una semana antes, la cita era a las 8 de la mañana en la estación central de trenes de Tokio. El punto de reunión era en la puerta norte, allí nos encontraríamos 20 participantes de la “Visita técnica 2” que, con motivo del primer aniversario del sismo de Tohoku-oki, realizaríamos una inspección de 2 días a la zona de Sendai al norte de Honshu, la isla principal del archipiélago japonés para estudiar los daños que habían ocasionado el sismo y el tsunami de marzo del 2011 (la sismología de ese evento la explique aca).

Mi hotel se encontraba a 8 estaciones de tren de la estación central y admitiendo que mi japonés es menos que adecuado, salí temprano para darme suficiente tiempo pues casi seguro me iba a confundir o perder en algún momento del trayecto. El transporte público en Japón es famoso por su eficiencia pero también por su frenético paso que tolera poco los errores del usuario, sin embargo esperaba que un poco de suerte, la ayuda ocasional de un extraño y mi experiencia en el subsuelo de la Ciudad de México, sobre todo en el metro Hidalgo en hora pico, me llevarían a buen puerto.

Crucé el umbral del lobby y me aventuré hacia la calle a las 7 de la mañana, el frío mordía los nudillos, corría el mes de marzo y aunque mi mente había anticipado el estado termodinámico del país mi sangre latina no estaba preparada para temperaturas de 2 o 3 grados centígrados, menos aun con la primavera a la vuelta de la esquina. Sin embargo superado ese momento de aguda ofensa descubrí que el aire helado como amargo tónico me aclaraba la mente, aun confundida por el radical cambio de horario.

Llegué a la estación central con 30 minutos de sobra. Decido a no desperdiciar mi tiempo allí logré vencer la inevitable ansiedad que uno siente cuando se encuentra en un lugar nuevo y desconocido y explorar un poco. Esa ansiedad se acentúa en Japón, no tanto por las dimensiones de la metrópolis que habiendo uno conocido cualquier megalópolis resultan menos abrumadoras si no por la a veces insondable barrera del lenguaje. Las tareas más básicas se convierten en rompecabezas. Ordenar algo de comer, si el menú no tiene fotos, puede ser una tarea extenuante, no importa cuan cosmopolita piense uno que es su paladar. En fin, con unos minutos de sobra emergí de la estación de trenes y me permití vagar unas cuantas cuadras mientras esperaba que dieran las 8 de la mañana.

Era el final del invierno y los cerezos amenazaban ya con florear, con un té en mano, en mi primer acto de turismo, me senté en una banca no muy lejos de la estación a mirar a la gente pasar. Todos veloces, todos con decisión. En ese momento sentí el primer sismo de muchos que sentiría en mi corto viaje. Sentado en mi pequeña banca noté que el suelo comenzaba a crepitar, la sacudida fue breve y gentil pero no por ello sutil. “Está temblando” pensé con alarma. Mi mente invocó en un instante todos mis conocimientos de tectónica, estimaba la distancia entre Tokio y la zona de subducción donde posiblemente se originaba el sismo. Intentaba descifrar la polaridad de la primera sacudida y estimar si el movimiento crecería en intensidad, imitando uno de los cientos de sismogramas que había estudiado en el pasado, desencadenando pánico y destrucción o si sería tan solo un pequeño temblor, otra ínfima réplica del mega-sismo de 2011. Admito que este proceso mental, que ocurre cada vez que siento un sismo, es absolutamente inútil y no tiene función evolutiva alguna, mi cuerpo no es sismómetro y mis pueriles observaciones poco le pueden asistir a mi mente para analizar las vibraciones bajo mis pies. Es más bien la racionalización, como mecanismo de defensa, ante la posibilidad de que el caos este a segundos de distancia, es la esperanza de que seré capaz de anticipar la debacle, aunque sea por unos cuantos instantes y que ello de alguna forma me traerá resguardo. Mientras meditaba todo esto, cientos de hombres y mujeres japoneses que caminaban esa mañana por la calle ni se inmutaron, no equivocaron un paso, no desviaron una mirada, continuaron todos a su destino.

Ligeramente sacudido regresé a la estación y me encontré con los 20 participantes de la visita, un potpurrí de 19 ingenieros de Europa, Estados Unidos, Nueva Zelanda, Chile y México y un sismólogo, yo. Nos guiaba el profesor de ingeniería estructural Koichi Kusunoki, o Kusunoki-san de acuerdo a la usanza japonesa, de la Universidad de Tokio. Nos explicó a todos el funcionamiento y etiqueta de uso del tren bala y como excursión de escuela primaria fuimos todos en orden, simultáneamente intentando conocernos y no perdernos, hacia la plataforma y al tren que a 250km/hr nos transportaría a la ciudad de Sendai.

Una vez en Sendai recibimos una copia del itinerario del primer día, visitaríamos los poblados de Ishinomaki, Onegawa y Ofunato. Ya en el camión mientras cruzábamos colinas tapizadas de pinos y árboles meditaba que en verdad no tenía la más remota idea de que esperar. Mi motivo para visitar Japón era el congreso que se realizaría dos días después donde habría cientos de platicas sobre sismología e ingeniería sísmica. La visita técnica era sencillamente un bono, una excusa para justificar gastos y pasar mas tiempo en el país. Era para mi algo como turismo sismológico.

El objetivo del primer día era visitar la zona más afectada por el tsunami que azoró la costa norte de Honshu 30 minutos después del inicio del sismo. Pero a un año del evento ¿qué tanto podríamos ver? Como una cachetada, la dimensión de mi ignorancia se hizo evidente tan solo 5 minutos después de que mi primitiva mente formó ese pensamiento. Abandonamos las colinas que separan a la planicie aluvial de Sendai de la costa y comenzamos el breve descenso a la ciudad de Ishinomaki. Conforme crece la mancha urbana la carretera cede el paso a una avenida que parte la ciudad en dos. Es una ciudad industrial posada frente a la costa; al oeste de la avenida sobre la cual transitábamos se veían multitudes de fabricas con chimeneas fumando sin parar y un mar de bodegas; el eterno color gris metálico, moteado del ocre del oxido que caracteriza a todos los parajes industriales, domina el horizonte y las colinas que recién habíamos dejado atrás colorean el papel tapiz. Al otro lado de la avenida, hacia el este, nada, cien metros de tierra café, recientemente apisonada y luego el interminable Pacífico, frío y de un azul grisáceo como limpio acero. Kusunoki-san tomó el micrófono del camión, su voz que en la estación de trenes era alegre dio paso a un tono grave y en impecable inglés nos explicó que esos cien metros de tierra, hacia menos de un año, palpitaban con vida, albergaban, muelles, oficinas y bodegas. Tan pronto como esas palabras abandonaron a Kusunoki-san y en un momento de dramatismo imposible de planear, los cien metros de tierra café se volvieron una marejada de cascajo. Aquí una pila de 20 metros de altura de automóviles mayugados y enlodados, como juguetes descuidados por un enorme niñó con disfunciones motrices, allá una pila de 30 metros de altura de madera, atrás otra pila de 20 metros de altura de refrigeradores, junto, un tanque de gasolina de 25 metros de diámetro yacía sobre su costado, abollado y vacío y sin razón de ser. Y hasta el horizonte cientos de retro-excavadoras haciendo montañas sobre montañas de desechos de lo que antes era un centro industrial de uno de los países más industrializados del planeta.

Esto sería solo el principio de un viaje que cubriría unos 200 km de costa. La costa de esta parte del Japón es de esos paisajes del planeta que más me atraen, bello pero a la vez amenazador. La topografía es accidentada, montañas cubiertas de nieve terminan abruptamente en acantilados y escarpes que a regañadientes ceden paso al mar gris que no es necesario tocar para entender que en invierno es frío y hostil. En los estrechos valles que unen una montaña con otra, donde la tierra es fértil cuando la temperatura es cálida, los japoneses han construido pueblos y ciudades que van desde lo industrial, como Ishinomaki hasta lo rural, como el pueblo pesquero de Ofunato que visitaríamos después. Si algo recuerdo de este viaje es lo esquizofrénico, lo bipolar del paisaje. Bellísimas montanas cubiertas de nieve y árboles, de vida verde y entre ellas toneladas y toneladas de cascajo y deshechos humanos. Ahora un bello pico alpino con vista al mar y después un ejercito de doscientas Caterpillar que como autómatas de novela post-apocalíptica apilan metal sobre madera sobre piedras sin rumbo y sin objetivo fijo.

Quizás porque Japón es un país adinerado fue que pensé que no habría mucho que ver, que en un año la recuperación habría comenzado. Pero la escala de la destrucción es inimaginable. Son cientos de kilómetros de detritos. Cada colina separa un pequeño valle de destrucción e inmundicia del siguiente, y otro y luego otro. Todas las superficies planas de la costa están cubiertas de los tristes restos de lo que antes era existencia humana.

Así llegamos a Ofunato donde murieron 2000 personas arrolladas por un muro de agua helada que antes pertenecía al océano y que temporalmente decidió visitar la tierra. Aquí bajamos por primera vez del camión, el viento helado me agredió de nuevo esta vez varios grados bajo cero. El centro del pueblo, otrora de 20,000 habitantes ha sido reducido a tan solo cinco edificios, dos aun en pie y los otros tres yacen sobre su costado, el tsunami los derribó sin chistar. Las demás estructuras, o sus restos, han sido apiladas por el ejercito mecánico de limpieza en montañas de cascajo en los alrededores del pueblo.

El hospital, situado sobre una colina a 25 metros sobre el nivel del mar es una de las estructuras que se mantiene incólume. El 3 de marzo del 2011, muchos de los pobladores se resguardaron sobre este promontorio pensando que el tsunami jamás llegaría hasta allá. Ese día el océano, ignorando las nociones humanas sobre lo que el planeta puede o no puede hacer, se alzó dos metros por encima de la planta baja del hospital. Aun sobre este pequeño bastión, construido allí, precisamente con esta eventualidad en mente, falleció una decena de personas. Desde esa colina puede uno apreciar el pequeño valle de unos dos kilómetros de largo por uno de ancho bordeado por montañas. Una cuadricula de calles tapiza el fondo del valle terminando en el mar, pero entre calle y calle no hay nada, solo rocas y mas tierra apisonada. Bajamos del hospital a caminar por el valle para inspeccionar los edificios que yacían, tranquilos, sobre sus costados.

Kusunoki-san y la vista desde el hospital de Ofunato y centro de Ofunato (mas fotos aqui)

Un pequeño y modesto altar shinto que alguién improvisó tiempo después con bloques de hormigón se encuentra a unos metros de uno de estos edificios, un tributo a la gente que murió allí esa mañana y mientras caminábamos hacia la estructura Kusunoki-san se separó discretamente del grupo, nadie mas lo vio y sin adivinar que yo lo espiaba con curiosidad se plantó solemnemente frente al discreto altar, unió las manos, agachó la cabeza, cerró los ojos y sus labios formaron algunas palabras. Después levantó la vista y se unió a nosotros de nuevo, frente a un edificio de departamentos de 4 pisos que fue arrastrado 20 metros desde sus cimientos, cizallando los pilotes de ocho metros de concreto reforzado como palillos y depositado sobre su lado.

Antes de hacer el peritaje y discutir sobre la forma precisa en la que habían fallado los pilotes de esta estructura en particular, Kusunoki-san nos recordó que mucha gente había muerto en Ofunato, quizás sobre el mismo lugar donde estábamos parados y si bien estábamos ahí para aprender lecciones de ciencia e ingeniería, deberíamos de tener siempre presente el dolor y la perdida que había significado ese sismo para su gente y su país.

Ese tono sombrío no fue del todo apreciado por mis compañeros. Observé, francamente ofendido y con una nada deleznable cantidad de repulsión, como frecuentemente tomaban fotos de si mismos utilizando la destrucción como trasfondo. De igual forma que uno toma fotos con el color turquesa del Caribe al fondo y las sube a internet para increpar a los conocidos a sentir envidia, mis compañeros de la visita tomaban fotos en pequeños grupos, abrazados junto a un edificio de concreto reforzado enteramente destruido. Entiendo el impulso, desde el punto de vista científico e ingenieril el sismo es muy interesante y supongo que uno siente la misma necesidad de compartirle a sus colegas de profesión la foto que evidencia la propia superioridad intelectual al ser testigo presencial de ese caos único. Sin embargo no puedo evitar sentir que esto es una falta de respeto y una transgresión que trivializa y despersonaliza la tragedia que ocurrió bajo los pies que posaron para esas fotos.

Con el paso del tiempo he encontrado algunas débiles justificaciones para estos actos. Muchos de los que fueron mis compañeros de visita son veteranos. Ingenieros estructurales forenses y especialistas del análisis post-mortem de estructuras y han visitado diversas zonas de catástrofe sísmica, Chile, Irán, Peru, China, Haiti, Nueva Zelanda, Estados Unidos y ahora Japón. Imagino que al igual que los corresponsales de guerra han construido callosidades para tolerar el hedor del dolor y la destrucción que permean a estos territorios comanches. Imagino que para muchos de ellos que viven de este tipo de visitas enfocar la situación desde esta óptica un tanto distorsionada es condición sine qua non para mantener la cordura.

Bajo esta tónica visitamos varias estructuras, entre todas ellas una alfombra ininterrumpida de detritos, de clavos oxidados, madera en avanzada podredumbre, placas filosas de metal y vidrio. Fue entonces cuando mire ese cascajo de cerca por primera vez y con horror y tristeza me di cuenta que no solo eran pedazos de madera y roca, encontré una tetera, un patín, varios zapatos, almohadas, cobijas, herramientas, tazas y platos, discos compactos, pedazos de una televisión y componentes varios de lo que usualmente atesoramos como parte de nuestra existencia material. Ese cascajo no era materia impersonal, más bien era pedazos de vidas, es un cementerio carente de inquilinos.

Cada estructura que visitamos durante esos dos días era una pequeño cuento de horror, un híbrido entre Poe y Lovecraft. Sin reparar en la simple absurdidad del autobús cómodamente estacionado sobre el techo de un edificio de dos pisos, recuerdo dos particularmente macabros. Una escuela de pasillos larguísimos con lecciones aun escritas en los pizarrones; caminando por las aulas y en penumbras tropecé con un álbum parcialmente cubierto de barro seco, el moretón del tsunami. En su interior entre las hojas crujientes estaban las fotos roídas, con esas marcas cafés, características de las fotos mojadas, de rostros sonrientes de niños de no mas de 8 años de edad en algún tipo de festividad escolar. El otro fue un edificio de 20 pisos y 250 departamentos que falló por licuefacción del suelo y se encontraba inclinado unos cuantos grados, posado sobre el edificio vecino. El sutil ángulo del edificio es suficiente para hacerle a uno sentir, al deambular por su interior, una nausea sutil pero inconfundible que no lo abandona hasta que se abandona al edificio. Uno puede caminar por los pasillos del edificio y vagabundear al interior de los departamentos, las puertas no cierran ya pues los marcos están todos deformes y carentes de ángulos rectos. Casi todos los apartamentos se encuentran aun repletos de cosas. Conservas en los anaqueles de la cocina, colecciones de discos en el suelo y ropa en los armarios. Entre copos de nieve el capataz a cargo de las tareas de demolición me explicó que aunque se le dio la oportunidad a los inquilinos de regresar por sus cosas, antes de comenzar la demolición, la gran mayoría, opto por dejar todo atrás y jamás entrar al edificio de nuevo. ¿Cuántas personas seriamos capaces de abandonar todas nuestras posesiones, toda nuestra vida material?

Al interior de la escuela primaria de Ofunato y un camión sobre el edificio de la alcaldía de Onegawa (más fotos aquí).

Superada la sorpresa, visitamos más poblados, mas estructuras o esqueletos de estructuras y debatimos importantes preguntas de ingeniería. ¿Cómo elaborar un código de construcción para tsunamis? Los códigos de construcción que preparan a la infraestructura para sobrevivir la sacudida de un sismo existen, son la mejor defensa y son efectivos, pero ¿como construir una casa, a precio razonable, que sobreviva el azote de 10 o 20 o 30m de agua cargada de detritos? Otra, ¿qué hacer con los millones de toneladas de cascajo? Aun otra ¿es viable reconstruir los pueblos? La gente que sobrevivió la tragedia de ese día, si es afortunada, vive con algún familiar en otra parte del país, pero la mayoría se encuentra aun en albergues temporales. Son pequeños cubículos pre-fabricados unos cuantos kilómetros tierra adentro, viven como en una colmena de abejas, hacinados. Muchos de ellos vivían de la pesca y actividades relacionadas al mar. Si no se reconstruyen esos poblados ¿qué van a hacer? Además, Japón es un país densamente poblado con poco espació libre, no es una tarea sencilla reubicar a decenas de miles de desplazados en un lugar donde aun puedan contribuir a la vida económica del país.

Sin duda Japón es uno de los pocos países capaces de encontrar soluciones a problemas de esta dimensión. Yo aun, con mi limitada imaginación, no encuentro respuestas fáciles.

Ese viaje es un punto de inflexión filosófico en mi vida como científico, no tanto por la novedad de los pensamientos que me invadieron si no por su palpable realidad. Primero porque el sismo y tsunami de 2011 en Japón es una lección de humildad. El planeta estornuda y mueren miles de personas y desaparecen poblados enteros, no somos amos y seóres del planeta. También aprendí que mi disciplina, la sismología, tiene un fin social tangible, que con la contribución agregada de todos los que la estudiamos es posible aminorar el impacto de tragedias como esta, pero que aun queda un larguísimo camino por andar. Es casi inevitable contemplar la escala de lo que aun desconocemos sin sentir nausea sartreana, pero a la vez es alentador saber que hay metas definidas. Si bien no viviré para ver la predicción sísmica hecha realidad sí veré progreso mesurable en mi vida. No pretendo caer en el pragmatismo utilitario absoluto. No todas las ramas de la sismología tienen un impacto inmediato sobre la prevención y respuesta y no sugiero que solo la sismología aplicada es valiosa. Esto es ridículo. La ciencia avanza en todos los frentes, desde lo puramente abstracto y teórico hasta lo netamente ingenieril y es imposible predecir que será “útil” mañana. La ciencia es fractal y hay conexiones inesperadas a escalas múltiples entre sectores que los individuos a veces en nuestra miopía consideramos inconexos. Son necesarias las contribuciones integradas de todos.

Pero las lecciones que aprendí son humanas también, en una tienda al costado de la autopista vendían, junto a las postales, una álbum de fotografías aéreas tomadas antes y después del sismo. Como anuncios de cosméticos en reversa el antes es más lindo que el después; antes, paisajes con vida humana rodeados de vibrante vegetación después parajes grises o cafés con nada más que fragmentos de materia. Porque los japoneses han hecho, a lo largo de los siglos un esfuerzo concertado por recordar y mantener la memoria de sus grandes tragedias; porque solo así las nuevas generaciones serán capaces de construir sobre la sabiduría de aquellos que vivieron antes.

Este es un punto importante, hay mucha opacidad y controversia en varios aspectos de la respuesta del gobierno japonés ante la tragedia, especialmente en cuanto al manejo de la crisis nuclear en Fukushima. Ciertamente cometieron errores gravísimos antes, durante y después del sismo, sin embargo percibí un gran esfuerzo por parte de la sociedad civil por preservar la historia del evento, por recordar no solo las historias de éxito si no también los fracasos.

En otro momento del viaje, algunos días después de terminado el congreso, visité la zona del sismo de Kobe de 1995 con epicentro en la isla de Awaji, otro sismo que produjo gran destrucción y que es aun un recuerdo reciente en la memoria colectiva de los japoneses. La falla que produjo este sismo rompió hasta la superficie, y los japoneses construyeron un museo alrededor de un segmento de ella. Inclusive hicieron una trinchera, un corte transversal, a lo largo de la falla de unos tres o cuatro metros de profundidad donde uno puede bajar a mirar y tocar el desplazamiento relativo de los dos bloques de tierra. El museo ostenta además una pequeña mesa de vibraciones donde uno puede sentarse en una sala comedor y sentir una simulación, harto aterradora, del sismo.

Este esfuerzo concertado por no perder de vista el pasado es notable y siento un enorme respeto por la sociedad japonesa, prefieren mirar los horrores del pasado de frente y con reverencia que sepultar su dolor y olvidarlos por siempre. Es una actitud difícil de replicar y contra natura pues es comprensible el deseo de olvidar los eventos traumáticos. Sin embargo es precisamente esta actitud la que los ha impulsado a ser lideres en tecnología sismológica. Ostentan las mejores prácticas de construcción, las mejores redes de observación sísmica, los mejores sistemas de alerta temprana y la mejor educación preventiva. Estos triunfos obtenidos antes del sismo hacen de el una amarga derrota porque muestra lo diminuto de nuestro conocimiento, pero creo que Japón aprenderá y será mejor y crecerá y nos compete a todos los demás, que observamos en lontananza, aprender con ellos.





¿Hay alguna relación entre la actividad solar y los terremotos?

25 04 2012

Recientemente, David a quien conocí por teléfono (y con quien ahora resulta ser que jugué béisbol en mis años mozos) me preguntaba si existía alguna relación entre sismicidad y actividad solar. Es una pregunta que surge a menudo y una que gracias a la cantidad de instrumentos de medición que existen tanto en la superficie terrestre como en órbita alrededor de la Tierra es posible contestar de mi forma preferida; mirando los números.

La respuesta corta es no, no existen indicios de que un incremento en la actividad solar produzca un incremento en sismicidad. En un excelente artículo en “The Sun Today” un blog sobre física espacial Ryan O. Milligan físico del NASA Goddard Space Flight Centre lleva a cabo un bonito análisis sobre la correlación entre la actividad solar y la sismicidad. No entraré en mucho detalle porque apenas son las 3 de la tarde y me queda mucho trabajo por hacer, pero si les interesa saber más los invito a visitar el blog (http://www.thesuntoday.org/sun-101/flares-and-earthquakes/).

Ocurrencia de erupciones solares (azul) y sismicidad (rojo)

La imagen anterior muestra que las erupciones solares siguen un ciclo de aproximadamente 11 años mientras que la sismicidad se mantiene relativamente constante independientemente de si la actividad solar es máxima o mínima o se encuentra en algún punto intermedio. Los datos con los cuales se genera esta gráfica son abierto así que el análisis es trasparente y como comentan en ese blog, cualquiera con un poco de curiosidad, tiempo y Excel puede replicar el resultado.

A mi parecer no es sorprendente el resultado y es que meditándolo un poco recordemos que los sismos suceden por el arrastre y empuje de las placas tectónicas que pesan millones y millones y millones de kilogramos. Los esfuerzos que puede ejercer el viento solar sobre la parte solida de la Tierra palidecen en comparación a las fuerzas tectónicas, además, no está claro que las interacciones electromagnéticas jueguen un rol terriblemente importante en los mecanismos que determinan la sismicidad.

Hay más, como muestra la siguiente imagen solo una parte pequeña de la radiación total del sol penetra la atmósfera y llega a la superficie terrestre. La mayor parte de la radiación es absorbida por la atmósfera, para nuestra gran fortuna ya que de lo contrario no habría vida en la Tierra. Entonces si era difícil que el total de la radiación solar contribuyese a la producción sismica del planeta, es aun más difícil que lo haga la pequeña fracción que penetra hasta la superficie.

Absorción (o transmisión) de radiación por la atmósfera terrestre.

Ahora bien, el análisis es de solo 30 años de datos, es verdad, pero no anticipo que con el paso del tiempo la gráfica que compara sismicidad y erupciones solares cambie sustancialmente. Los invito a que visiten The Sun Today para un análisis más detallado, vale la pena.





Monitoreo volcánico: El Popocatépetl

23 04 2012

El Popocatépetl anda malhumorado. Los que hemos vivido cerca del volcán en las ciudades de México, Puebla, Cuernavaca o Tlaxcala por ejemplo estamos ya un tanto acostumbrados a la actividad episódica de este majestuoso volcán que se iza a 5,542m sobre el nivel del mar y es la segunda montaña más elevada del país. Pero ¿cómo se le toma el pulso al volcán, para conocer su humor y estado de salud?

En una de las primeras entradas de este blog discutí que los volcanes se pueden clasficar, grosso modo, en dos tipos, estrato-volcanes y volcanes de tipo escudo y cada uno de ellos tiene diferentes riesgos asociados a el. El Popocatépetl es un ejemplo clásico de un estrato-volcán lo cual significa que su actividad eruptiva es episódica (la noticia buena) pero altamente explosiva (la noticia mala). Claro, por el lado optimista el Popocatépetl es el volcán mejor instrumentado del país y es el menor de sus tremores es registrado por diversos instrumentos geofísicos instalados en sus laderas. ¿Cuáles?

En México el monitoreo volcánico corre a cargo del Centro Nacional de Prevención de Desastres (CENAPRED) y puede dividirse en 4, el monitoreo visible con cámaras, el monitoreo sísmico con sismómetros, el monitoreo geodésico con GPS de alta resolución e inclinómetros y el monitoreo geoquímico que intenta medir la composición de los gases que exhala el volcán.

Instrumentación geofísica para el monitoreo del Popocatépetl. Fuente: CENAPRED (www.cenapred.unam.mx/es/Instrumentacion/InstVolcanica/MVolcan/RedMonitoreo/)

El monitoreo visible sencillamente nos permite ver si hay actividad o no en el volcán y el Cenapred opera una cámara de luz visible y una infraroja en la estación Altzomoni a 4000m de altura en el flanco norte del volcán. Existen también 18 sismómetros y son estos la línea de monitoreo más importante. En la animación subsecuente se ilustra como al ascender el magma por el edificio volcánico genera un aumento en la actividad sísmica. Esto se puede entender fácilmente, recuerden de la entrada sobre los tipos de volcán que el magma de los estrato-volcanes es altamente viscoso y le resulta dificil moverse, por ello cuando asciende roza, fractura y tritura la roca del interior del edifico produciendo pequeños sismos. Cuando los volcanes entran en fase eruptiva el incremento en actividad sísmica es extremadamente obvio, y por ello hay tanto sismómetros instalados en el volcán.

Otra línea de defensa son los instrumentos geodésicos, estos son aquellos que miden directamente la deformación del cono volcánico y consisten en el GPS y los inclinómetros. Utilizando GPS de alta precisión capaces de medir desplazamientos del orden de centímetros (el GPS de un automóvil tiene una precisión de varios metros) es posible medir pequeños cambios en el tamaño del volcán. Los inclinómetros, como su nombre lo indica, miden como se inclinan las laderas del volcán, y es que al llenarse el edifico con una recarga de magma, se infla y expande moviendo tanto las estaciones de GPS como los inclinómetros y de esta forma es posible escudriñar si el volcán se acerca a un nuevo episodio eruptivo.

La ultima línea de defensa es el monitoreo geoquímico que implica medir la cantidad y naturaleza de las exhalaciones del volcán. Como discutí en la entrada sobre los tipos de vulcanismo el magma contiene siempre gases en solución como vapor de agua, dióxido de carbono, dióxido de azufre y muchos otros. Conforme el magma asciende la presión que lo mantiene confinado disminuye y entonces estos gases escapan de su prisión magmática hacia la atmósfera por el cráter o fisuras en el edificio, ello es lo que se ha observado con mayor frecuencia en días recientes en el Popcatépetl. Grandes columnas de gas que ascienden a veces miles de metros por encima del volcán.

Por supuesto, es la combinación de todas estas mediciones la que guía las decisiones del nivel de alertamiento pues  cada una de ellas da distintos tipos de información. Si bien el monitoreo volcánico es una ciencia avanzada, cada volcán es diferente y cada erupción es diferente. No hay metodologías únicas para determinar exactamente cuando comenzará una erupción mayor, mas bien, con estos instrumentos lo que es posible determinar es que el riesgo ha aumentado sustancialmente. En el CENAPRED el Comité Científico Asesor evalúa todos los datos disponibles y determina el tipo de alerta. Los riesgos que se pueden esperar por un incremento en la intensidad de la actividad Eruptiva del Popocatépetl son conocidos. Existe un mapa de riesgos volcánicos elaborado por el Instituto de Geofísica de la UNAM.

Mapa de peligros volcánicos del volcán Popocatepetl. Fuente: CENAPRED.

Se puede observar en el mapa que los peligros principales son los flujos piroclásticos que son flujos de material incandescente, ceniza y rocas calientes que se pueden producir durante una erupción mayor. Otro peligro es el de los lahares que son avalanchas de lodo que descienden por los valles en las laderas del volcán. Sin embargo dado que la cubierta de hielo del Popcatépetl se ha visto disminuida en tiempos recientes creo que este peligro es menor (mas no nulo) que el de un flujo piroclástico, ambos tipos de comportamiento los discutimos aqui. De nuevo, dado que este tipo de volcán tiene magmas de altisima viscosidad los flujos de lava se confinan a las cercanías del cráter y no se espera que sean un gran peligro, no es volcán de Hollywood este muchacho. El mapa también muestra que las grandes ciudades, México, Puebla, Cuernavaca y Tlaxcala se encuentran marginalmente fuera del área donde se esperarían grandes afectaciones mas alla del inconveniente de la caida de ceniza.Sin embargo es importante estar atentos a las recomendaciones de Protección Civil.

Uno de los grandes riesgos, a mi parecer, es para la aviación. Como se observó en el caso del volcán Eyjafjallajokull en Islandia las grandes columnas de ceniza, de llegar a las partes altas de la troposfera impiden la operación segura de aeronaves. Esto porque la ceniza es en realidad pequeños fragmentos de vidrio y pueden ser extremadamente abrasivos, especialmente par los alabes de una turbina. Dada la proximidad del Popcatépetl al aeropuerto Internacional de la Ciudad de México, exhalaciones grandes de ceniza y condiciones de viento desfavorables podrían producir disrupciones en la aviación civil y comercial.

Los riesgos a causa del volcán son conocidos y existe el personal y la instrumentación suficiente para mantener al volcán bajo resguardo y a la población informada. Sin embargo han flotado muchos rumores sobre la posible conexión entre este episodio de actividad volcánica y el sismo de Ometepec de magnitud 7.4. Si bien estos dos fenómenos son hermanos de la misma familia ya que son producto de la tectónica de placas de una zona de subduccíon, no existe evidencia alguna de que los grandes sismos sean el factor que desencadena las erupciones volcánicas. Ya platicamos también que en realidad tampoco hay un incremento anómalo en la actividad sísmica es sencillamente la actividad tectónica normal de la Tierra. Vivimos en un planeta y en un país activo que constantemente esta siendo transformado por fuerzas geológicas. Los fenómenos que se viven en tiempos recientes no son mas que una expresión normal del interior pulsante de nuestro bello planeta.





¿Porqué tiembla tanto últimamente? (edición 2012)

14 04 2012

No existe evidencia de actividad sísmica anomalamente alta

Ya lo pronosticaba Molotov pero para el pesar de los chamanes, místicos y los catastrofistas no hay indicios de que este temblando más de lo normal. La Tierra sigue viento en popa, al menos en cuestiones tectónicas…

Esta es una pregunta común y una que me han hecho mucho en días recientes. Parece surgir siempre que hay un sismo grande. De hecho ya habíamos platicado de ello hace algunos ayeres en el 2010 con relación al sismo de Haití así que vale la pena visitar de nuevo la cuestión, van los numeritos

Magnitud 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 Promedio 1900-2012
8.0-9.9 1 2 1 2 4 0 1 1 1 2 1
7.0-7.9 14 14 10 9 14 12 16 23 19 4 15
6.0-6.9 140 141 140 142 178 168 144 151 185 37 134
5.0-5.9 1,203 1,515 1,693 1,712 2,074 1,768 1,896 2,069 2,276 533 1319
4.0-4.9 8,462 10,888 13,917 12,838 12,078 12,291 6,805 10,303 13,315 2,569 13,000 (estimados)
3.0-3.9 7,624 7,932 9,191 9,990 9,889 11,735 2,905 4,326 2,791 445 130,000 (estimados)
2.0-2.9 7,727 6,316 4,636 4,027 3,597 3,860 3,014 4,624 3,643 679 1,300,000 (estimados)

Tabla 1: Sismicidad anual de 2003 a la fecha y promedio de sismicidad anual para el periodo 1900-2012. Fuente: National Earthquake Information Centre (NEIC)

Las estadísticas hablan por si solas, a pesar de lo que recientemente se percibe como un incremento en la sismicidad mundial, no lo es tal. La actividad durante el 2012 no es mayor que el promedio anual.

El lector más perspicaz notará que el promedio anual estimado de sismos menores a 4.0-4.9 es mucho mayor que el realmente observado. Ello se debe a que los sismos pequeños son difíciles de medir y muchas veces pasan desapercibidos sin ser registrados por alguna red sísmica. El promedio estimado se basa en la ley de Gutenberg-Richter que indica un incremento logarítmico en el número de sismos mientras menor es la magnitud.

En fin, creo, como argumenté antes, que el incremento percibido en la sismicidad mundial se debe a la modernización de la comunicación y de las interacciones humanas. Hoy, a través de las redes sociales y del interenet sabemos lo que sucede en cada rincón del planeta casi en tiempo real. Esta sobredosis de información es lo que nos hace pensar que hay un incremento anómalo en el número de sismos. Pero mis amigos los números, frios y calculadores como son, muestran que no.