Resumen del libro Meltdown Why Our Systems Fail and What We Can Do About It por Chris Clearfield y András Tilcsik

Resumen del libro Meltdown Why Our Systems Fail and What We Can Do About It por Chris Clearfield y András Tilcsik

Resumen corto: Meltdown nos explica los riesgos a los que se enfrentan los distintos sistemas, sean centrales nucleares, páginas web, o cualquier otro y, a través de ejemplos, nos explican cómo podemos evitar que nuestros sistemas fallen. El Financial Times lo nombró uno de los mejores libros de 2018.

¿Quiénes son Chris Clearfield y András Tilcsik?

Los coautores Chris Clearfield y András Tilcsik son líderes mundiales en prevención de crisis y aportan una combinación inusual de habilidades especializadas, prestigio y credenciales académicas a su trabajo. 

Clearfield es un piloto comercial con licencia que una vez se ocupó de la previsión financiera como operador de derivados, mientras que Tilcsik ha sido reconocido como uno de los 40 profesores de negocios más importantes del mundo menores de 40 años en su puesto en la Universidad de Toronto. Entre ellos, han tenido artículos publicados en publicaciones respetadas como The Guardian, Forbes y Harvard Kennedy School Review e incluso han sido aprobados por Naciones Unidas para liderar el curso sobre gestión del riesgo de desastres en cualquier escuela de negocios.

Colección de Los mejores libros de Psicología y Desarrollo Personal(PDF)

Todo sistema puede tener fallos

Los sistemas modernos son más efectivos que nunca, sin embargo, el aumento de la complejidad ha hecho que los sistemas sean menos eficaces. Tomemos la industria financiera, por ejemplo: el cambio de la negociación cara a cara a la negociación informatizada en el mercado de valores ha ayudado a reducir los costos operativos, ha aumentado la velocidad de negociación y ha ganado más control sobre las transacciones. Pero el cambio digital ha hecho que el sistema sea más difícil de comprender y ha aumentado la posibilidad de interacciones complejas e inesperadas.

Las finanzas se han convertido en un ejemplo perfecto de lo que el profesor de sociología Charles B. Perrow llamaría un sistema complejo y estrechamente acoplado.

Perrow era un experto en organizaciones fue contratado a finales de la década de 1970 para investigar las causas de un accidente nuclear en Pensilvania. Lo que descubrió revolucionó la ciencia de los accidentes catastróficos.

Perrow identificó una combinación de pequeños errores detrás del desastre que interactuaron en un efecto dominó. En lugar de culpar a los operadores de la planta nuclear o llamarlo un hecho extraño, Perrow vio que el accidente había sido causado por características inherentes a la planta como sistema: complejidad y acoplamiento estrecho.

Acoplamiento estrecho es un término de ingeniería para cuando un sistema es implacable o tiene poca amortiguación entre sus partes. La complejidad de un sistema significa que no es lineal, es decir, que no se puede ver claramente los elementos que lo forman y todas las interacciones que pueden generar entre ellos. 

Una combinación de complejidad y acoplamiento estrecho nos lleva a lo que Perrow llama la “zona de peligro”. Aquí es donde el colapso de un sistema se vuelve muy probable.  La fórmula de complejidad / acoplamiento de Perrow revela el ADN compartido detrás de las crisis modernas; el fracaso en una industria ahora puede proporcionar lecciones en otros campos. 

Cómo lidiar con el peligro

Cuando salimos a dar una vuelta, nos abrochamos el cinturón de seguridad a pesar de que no sabemos la naturaleza exacta de cualquier accidente que pueda ocurrir. Sabemos que el peligro está ahí y que el cinturón de seguridad podría salvarnos la vida. De la misma forma, la fórmula de complejidad / acoplamiento de Perrow ayuda a prevenir errores sin tener que responder a cada una de las posibles ramificaciones.

Esto significa que podemos planificar con anticipación para reducir la complejidad, por ejemplo, aumentando la transparencia de un sistema. De no hacerlo, puede incluso provocar accidentes mortales. Tomemos como ejemplo al actor de 27 años de Star Trek, Antan Yelchin, quien, en 2016, murió al salir de su Jeep Grand Cherokee cuando el vehículo rodó y lo inmovilizó contra un pilar de ladrillos.

La razón detrás de este trágico evento fue el diseño de la palanca de cambios del coche. Era elegante, pero no mostraba si el coche estaba bien aparcado. En otras palabras, el sistema era opaco y complejo, lo que llevó a Yelchin a suponer erróneamente que el vehículo funcionaría. La tragedia podría haberse evitado si la palanca de cambios hubiera sido diseñada de manera transparente e indicara en qué modo estaba el Jeep.

La transparencia reduce la complejidad, lo que dificulta hacer algo incorrecto y más fácil darse cuenta si hemos cometido un error.

A veces, sin embargo, la transparencia no es posible. Si pensamos en una expedición para escalar el Monte Everest, hay decenas de riesgos ocultos desde grietas y rocas que caen hasta avalanchas y cambios climáticos repentinos. La montaña va a ser un sistema opaco. Por lo tanto, las empresas de montañismo solucionan pequeños problemas, como retrasos en los vuelos, problemas de suministro y molestias digestivas antes de que se conviertan en grandes crisis. Esto evita que los problemas obstaculicen la subida final, donde hay poco margen de error.

Cuando la complejidad no cambia, podemos hacer uso de “comodines”. El ingeniero nuclear convertido en consultor de gestión, Gary Miller, describe cómo salvó una cadena de panaderías de una expansión fallida al aumentar su reserva. Antes del inicio de la expansión, se dio cuenta de que su nuevo menú era demasiado complejo y dependía de una intrincada red de proveedores. Cuando se negaron a abordar esto, Miller los persuadió de que, en su lugar, relajaran su agresivo programa de lanzamiento, lo que les permitió hacer frente a los problemas cuando salieran a la superficie.

La fórmula de complejidad / acoplamiento de Perrow ayuda a determinar si un proyecto o negocio es vulnerable al fracaso y dónde. Identifica vulnerabilidades en un sistema, incluso si no puede decirme exactamente qué va a salir mal. Como dice Miller: No necesitamos predecirlo para prevenirlo.

A menudo pasamos por la vida haciendo juicios rápidos o usando nuestros instintos. No hay nada de malo en eso hasta que nos encontremos con un sistema complejo.

Los ingenieros de la planta nuclear de Fukushima Daiichi en Japón utilizaron sus instintos cuando estimaron con precisión la altura de su muro de defensa contra el tsunami. El 11 de marzo de 2011, un terremoto provocó una ola varios metros más alta de lo previsto, que inundó los generadores encargados de la refrigeración y desencadenó el peor accidente nuclear del mundo en 25 años.

Pero, ¿cómo podrían haberlo hecho mejor los ingenieros? Las defensas de este tipo son vastas y caras de construir, y como no podían construir una pared infinitamente alta, los ingenieros tuvieron que anticipar una altura que debería optimizar el coste respecto al riesgo. Para hacer esto, utilizaron un intervalo de confianza, un cálculo basado en comparar la altura de ola más alta probable y la más baja. El problema es que los humanos no somos buenos haciendo este tipo de predicciones. 

Nos cuesta entender el riesgo real asociado a una probabilidad pequeña, y muchas veces lo tratamos como si fuera casi imposible, lo cual crea fragilidad en nuestros sistemas.

Una solución es utilizar una herramienta estructurada para la toma de decisiones llamada SPIES o Estimaciones de intervalos de probabilidad subjetiva. Nos empuja a considerar una gama más amplia de resultados.

En lugar de evaluar los peores escenarios plausibles, SPIES estima la probabilidad de varios resultados dentro de todo el abanico de posibilidades. No es perfecto, pero varios estudios muestran que este método da la respuesta correcta con más frecuencia que otros métodos de pronóstico. 

Otra herramienta estructurada para la toma de decisiones es el uso de criterios predeterminados, que nos ayuda a concentrarnos en los factores que importan. Tomemos las Reglas del Tobillo de Ottawa, por ejemplo: este conjunto de criterios predeterminados se desarrolló en Canadá para reducir en un tercio el uso innecesario de radiografías de pies y tobillos por parte de los médicos.

Al centrarse en la edad, el soporte de peso y la sensibilidad de los huesos para decidir si una radiografía era necesaria, evitaron desviarse por cosas irrelevantes, como la hinchazón.

En sistemas complejos como la medicina y la predicción de tsunamis, los efectos de nuestras decisiones son difíciles de entender o de aprender, y la intuición a menudo nos falla. Ahí es cuando herramientas como SPIES y criterios predeterminados pueden interrumpir el funcionamiento habitual, lo que nos permite abordar nuestras elecciones de forma sistemática.

¿Listos para más?

Siguenos y Disfruta de Nuestros Resúmenes Gratis Directamente en tus Redes Favoritas

Nuestras Categorías de Resúmenes

Los comentarios están cerrados.