Resumen del libro Meltdown Why Our Systems Fail and What We Can Do About It por Chris Clearfield y Andr√°s Tilcsik

Resumen del libro Meltdown Why Our Systems Fail and What We Can Do About It por Chris Clearfield y Andr√°s Tilcsik

Resumen corto: Meltdown nos explica los riesgos a los que se enfrentan los distintos sistemas, sean centrales nucleares, páginas web, o cualquier otro y, a través de ejemplos, nos explican cómo podemos evitar que nuestros sistemas fallen. El Financial Times lo nombró uno de los mejores libros de 2018.

¬ŅQui√©nes son Chris Clearfield y Andr√°s Tilcsik?

Los coautores Chris Clearfield y Andr√°s Tilcsik son l√≠deres mundiales en prevenci√≥n de crisis y aportan una combinaci√≥n inusual de habilidades especializadas, prestigio y credenciales acad√©micas a su trabajo. 

Clearfield es un piloto comercial con licencia que una vez se ocup√≥ de la previsi√≥n financiera como operador de derivados, mientras que Tilcsik ha sido reconocido como uno de los 40 profesores de negocios m√°s importantes del mundo menores de 40 a√Īos en su puesto en la Universidad de Toronto. Entre ellos, han tenido art√≠culos publicados en publicaciones respetadas como The Guardian, Forbes y Harvard Kennedy School Review e incluso han sido aprobados por Naciones Unidas para liderar el curso sobre gesti√≥n del riesgo de desastres en cualquier escuela de negocios.

Colección de Los mejores libros de Productividad y Aprendizaje

Todo sistema puede tener fallos

Los sistemas modernos son más efectivos que nunca, sin embargo, el aumento de la complejidad ha hecho que los sistemas sean menos eficaces. Tomemos la industria financiera, por ejemplo: el cambio de la negociación cara a cara a la negociación informatizada en el mercado de valores ha ayudado a reducir los costos operativos, ha aumentado la velocidad de negociación y ha ganado más control sobre las transacciones. Pero el cambio digital ha hecho que el sistema sea más difícil de comprender y ha aumentado la posibilidad de interacciones complejas e inesperadas.

Las finanzas se han convertido en un ejemplo perfecto de lo que el profesor de sociología Charles B. Perrow llamaría un sistema complejo y estrechamente acoplado.

Perrow era un experto en organizaciones fue contratado a finales de la década de 1970 para investigar las causas de un accidente nuclear en Pensilvania. Lo que descubrió revolucionó la ciencia de los accidentes catastróficos.

Perrow identific√≥ una combinaci√≥n de peque√Īos errores detr√°s del desastre que interactuaron en un efecto domin√≥. En lugar de culpar a los operadores de la planta nuclear o llamarlo un hecho extra√Īo, Perrow vio que el accidente hab√≠a sido causado por caracter√≠sticas inherentes a la planta como sistema: complejidad y acoplamiento estrecho.

Acoplamiento estrecho es un t√©rmino de ingenier√≠a para cuando un sistema es implacable o tiene poca amortiguaci√≥n entre sus partes. La complejidad de un sistema significa que no es lineal, es decir, que no se puede ver claramente los elementos que lo forman y todas las interacciones que pueden generar entre ellos. 

Una combinaci√≥n de complejidad y acoplamiento estrecho nos lleva a lo que Perrow llama la ‚Äúzona de peligro‚ÄĚ. Aqu√≠ es donde el colapso de un sistema se vuelve muy probable.  La f√≥rmula de complejidad / acoplamiento de Perrow revela el ADN compartido detr√°s de las crisis modernas; el fracaso en una industria ahora puede proporcionar lecciones en otros campos. 

Cómo lidiar con el peligro

Cuando salimos a dar una vuelta, nos abrochamos el cinturón de seguridad a pesar de que no sabemos la naturaleza exacta de cualquier accidente que pueda ocurrir. Sabemos que el peligro está ahí y que el cinturón de seguridad podría salvarnos la vida. De la misma forma, la fórmula de complejidad / acoplamiento de Perrow ayuda a prevenir errores sin tener que responder a cada una de las posibles ramificaciones.

Esto significa que podemos planificar con anticipaci√≥n para reducir la complejidad, por ejemplo, aumentando la transparencia de un sistema. De no hacerlo, puede incluso provocar accidentes mortales. Tomemos como ejemplo al actor de 27 a√Īos de Star Trek, Antan Yelchin, quien, en 2016, muri√≥ al salir de su Jeep Grand Cherokee cuando el veh√≠culo rod√≥ y lo inmoviliz√≥ contra un pilar de ladrillos.

La raz√≥n detr√°s de este tr√°gico evento fue el dise√Īo de la palanca de cambios del coche. Era elegante, pero no mostraba si el coche estaba bien aparcado. En otras palabras, el sistema era opaco y complejo, lo que llev√≥ a Yelchin a suponer err√≥neamente que el veh√≠culo funcionar√≠a. La tragedia podr√≠a haberse evitado si la palanca de cambios hubiera sido dise√Īada de manera transparente e indicara en qu√© modo estaba el Jeep.

La transparencia reduce la complejidad, lo que dificulta hacer algo incorrecto y m√°s f√°cil darse cuenta si hemos cometido un error.

A veces, sin embargo, la transparencia no es posible. Si pensamos en una expedici√≥n para escalar el Monte Everest, hay decenas de riesgos ocultos desde grietas y rocas que caen hasta avalanchas y cambios clim√°ticos repentinos. La monta√Īa va a ser un sistema opaco. Por lo tanto, las empresas de monta√Īismo solucionan peque√Īos problemas, como retrasos en los vuelos, problemas de suministro y molestias digestivas antes de que se conviertan en grandes crisis. Esto evita que los problemas obstaculicen la subida final, donde hay poco margen de error.

Cuando la complejidad no cambia, podemos hacer uso de ‚Äúcomodines‚ÄĚ. El ingeniero nuclear convertido en consultor de gesti√≥n, Gary Miller, describe c√≥mo salv√≥ una cadena de panader√≠as de una expansi√≥n fallida al aumentar su reserva. Antes del inicio de la expansi√≥n, se dio cuenta de que su nuevo men√ļ era demasiado complejo y depend√≠a de una intrincada red de proveedores. Cuando se negaron a abordar esto, Miller los persuadi√≥ de que, en su lugar, relajaran su agresivo programa de lanzamiento, lo que les permiti√≥ hacer frente a los problemas cuando salieran a la superficie.

La fórmula de complejidad / acoplamiento de Perrow ayuda a determinar si un proyecto o negocio es vulnerable al fracaso y dónde. Identifica vulnerabilidades en un sistema, incluso si no puede decirme exactamente qué va a salir mal. Como dice Miller: No necesitamos predecirlo para prevenirlo.

A menudo pasamos por la vida haciendo juicios r√°pidos o usando nuestros instintos. No hay nada de malo en eso hasta que nos encontremos con un sistema complejo.

Los ingenieros de la planta nuclear de Fukushima Daiichi en Jap√≥n utilizaron sus instintos cuando estimaron con precisi√≥n la altura de su muro de defensa contra el tsunami. El 11 de marzo de 2011, un terremoto provoc√≥ una ola varios metros m√°s alta de lo previsto, que inund√≥ los generadores encargados de la refrigeraci√≥n y desencaden√≥ el peor accidente nuclear del mundo en 25 a√Īos.

Pero, ¬Ņc√≥mo podr√≠an haberlo hecho mejor los ingenieros? Las defensas de este tipo son vastas y caras de construir, y como no pod√≠an construir una pared infinitamente alta, los ingenieros tuvieron que anticipar una altura que deber√≠a optimizar el coste respecto al riesgo. Para hacer esto, utilizaron un intervalo de confianza, un c√°lculo basado en comparar la altura de ola m√°s alta probable y la m√°s baja. El problema es que los humanos no somos buenos haciendo este tipo de predicciones. 

Nos cuesta entender el riesgo real asociado a una probabilidad peque√Īa, y muchas veces lo tratamos como si fuera casi imposible, lo cual crea fragilidad en nuestros sistemas.

Una soluci√≥n es utilizar una herramienta estructurada para la toma de decisiones llamada SPIES o Estimaciones de intervalos de probabilidad subjetiva. Nos empuja a considerar una gama m√°s amplia de resultados. En lugar de evaluar los peores escenarios plausibles, SPIES estima la probabilidad de varios resultados dentro de todo el abanico de posibilidades. No es perfecto, pero varios estudios muestran que este m√©todo da la respuesta correcta con m√°s frecuencia que otros m√©todos de pron√≥stico. 

Otra herramienta estructurada para la toma de decisiones es el uso de criterios predeterminados, que nos ayuda a concentrarnos en los factores que importan. Tomemos las Reglas del Tobillo de Ottawa, por ejemplo: este conjunto de criterios predeterminados se desarrolló en Canadá para reducir en un tercio el uso innecesario de radiografías de pies y tobillos por parte de los médicos. Al centrarse en la edad, el soporte de peso y la sensibilidad de los huesos para decidir si una radiografía era necesaria, evitaron desviarse por cosas irrelevantes, como la hinchazón.

En sistemas complejos como la medicina y la predicción de tsunamis, los efectos de nuestras decisiones son difíciles de entender o de aprender, y la intuición a menudo nos falla. Ahí es cuando herramientas como SPIES y criterios predeterminados pueden interrumpir el funcionamiento habitual, lo que nos permite abordar nuestras elecciones de forma sistemática.

¬ŅListos para m√°s?

Los clientes que disfrutaron de este artículo también compraron

Nuestros Artículos sobre Sesgos Cognitivos

Los clientes que disfrutaron de este artículo también compraron

Siguenos y Disfruta de Nuestros Res√ļmenes Gratis Directamente en tus Redes Favoritas

Nuestras Categor√≠as de Res√ļmenes

Los comentarios est√°n cerrados.