Resumen del libro DeepFakes y el Infocalipsis por Nina Schick (Deep Fakes and the Infocalypse What you Urgently Need to Know)

Resumen del libro DeepFakes y el Infocalipsis por Nina Schick (Deep Fakes and the Infocalypse What you Urgently Need to Know)

Resumen corto: Deep Fakes and the Infocalypse What you Urgently Need to Know o en espa√Īol Fakes y el Infocalipsis explica los peligros de los deepfakes, material audiovisual falso pero extremadamente realista. Se basan en inteligencia artificial y tanto hackers c√≥mo estafadores ya los est√°n usando para molestar a individuos. Incluso algunos gobiernos est√°n haciendo uso de ellos para crear propaganda y no falta mucho para que se hagan comunes. Por Nina Schick

¬ŅQuien es Nina Schick?

Nina Schick es una consultora política, y locutora que se centra en estudiar la intersección entre la tecnología y la política. Fue directora de comunicaciones de Open Europe, un grupo de pensadores dedicados a estudiar reformas europeas. Schick escribe para Bloomberg, Sky, CNN, la BBC y la revista Times entre otras.

3 de las ideas principales del libro son:

  • Hoy en d√≠a es f√°cil manipular tanto las im√°genes c√≥mo los videos y los audios
  • ¬ŅQui√©n est√° usando los deepfakes?
  • El infocalipsis

Colección de Los mejores libros de Productividad y Aprendizaje

Hoy en día es fácil manipular tanto las imágenes cómo los videos y los audios

La inteligencia artificial trae consigo muchas ventajas, pero a su vez ha creado peligros que nunca nos habriamos planteado. Entre ellos destaca la capacidad de manipular im√°genes, videos y audios para crear contenido completamente falso que podr√≠a hacer mucho da√Īo.

Al principio editar im√°genes era un proceso complicado que requer√≠a horas e incluso d√≠as seg√ļn la complejidad de la imagen.

Pero con el tiempo se fue haciendo cada vez m√°s f√°cil y hoy en d√≠a hay una infinidad de aplicaciones gratis para hacerlo. Ya hace a√Īos que podemos alterar las im√°genes con programas, pero pens√°bamos que no era tan f√°cil para formatos c√≥mo el audio o video.

Hoy en día la expresión una imagen vale más que mil palabras ya no se aplica. Hoy en día ni las palabras ni las imágenes son del todo fiables. La gran capacidad de aprendizaje y automatización de la inteligencia artificial ha permitido que se desarrollen los campos de edición de video y audio a velocidades inéditas.

El método más utilizado es lo que se conoce cómo deep learning, basado principalmente en usar redes neuronales, capaz de programar, para aprender a hacer una tarea específica. Los primeros deep fake nacieron cuando un usuario presentó imágenes y videos alterados en la plataforma de Reddit.

Ya hay miles de videos de estrellas de Hollywood cuyas caras han sido sustituidas en videos porno. El foro de Reddit en el que empezó todo esto ha caido, pero ya hay una multitud de imágenes y software que permiten hacer lo mismo.

¬ŅQui√©n est√° usando los deepfakes?

Uno de los pa√≠ses cuyo uso de esta tecnolog√≠a est√° destacando es Rusia. Son famosos los bots rusos y trolls que aparecen en los comentarios de v√≠deos de Youtube, o Facebook y otra multitud de redes sociales. Esto les ha permitido participar en numerosas campa√Īas de ‚Äúdesinformaci√≥n‚ÄĚ, campa√Īas que buscan promover informaci√≥n falsa que beneficia a alg√ļn bando.

Uno de los ejemplos de estas campa√Īas fue la realizada en 1980 por un periodico llamado el Patriota. En la campa√Īa el periodico Indio, financiado por capital sovietico, public√≥ una noticia que defend√≠a que el sida fue una enfermedad creada por el gobierno americano para matar a gente. Esto se basaba en que Estados Unidos s√≠ que ten√≠a programa de dise√Īo de armas biol√≥gicas, cuyos resultados se desconocen.

Otro ejemplo fue la operación Kremlin que empezó en el 2016. Esta operación se basó en que operativos rusos actuasen cómo ciudadanos estadounidenses en las redes sociales y fuesen contra uno de los candidatos.

Pero Rusia no es sin duda el √ļnico pa√≠s que usa estas t√©cnicas, pero si el que ha tenido m√°s peso a nivel medi√°tico en estados unidos, y podemos esperar que en el futuro aumente el n√ļmero de estos ataques alrededor del mundo

El infocalipsis

La autora defiende que las democracias alrededor del mundo empiezan a desarrollar crisis de confianza tanto en sus políticos cómo en empresas y otros ciudadanos. Pero esto no se debe sólo al efecto de los deep fakes o el de otros gobiernos, sino a la audacia de mentir de muchos políticos.

Uno de los ejemplos m√°s conocidos a nivel mundial es el de Trump, aunque Espa√Īa por ejemplo cuenta con pol√≠ticos de este tipo a pu√Īados tanto en la derecha c√≥mo en la izquierda. Seg√ļn el Washington Post Trump ha mentido 18 mil veces durante su mandato y campa√Īas, esto son 6000 mentiras por a√Īo.

Seg√ļn √©l, cuando algo no concuerda con lo que defiende simplemente lo trata c√≥mo algo. Usar esta t√©cnica le permite considerar todas las noticias que salen c√≥mo si fuesen fake news. Con el crecimiento de la tecnolog√≠a de los deep fakes muchos pol√≠ticos podr√°n usar esto c√≥mo base para mentir, y sin forma de que alguien lo desmienta cuando lleguen al mismo nivel de los videos reales.

Y no solo eso, sino que ofrece una herramienta a gobiernos y empresas corruptas para eliminar a su oposición. A menos que cambiemos cómo pensamos y entendemos la información es poco probable que podamos vivir vidas normales.

Ya hay v√≠ctimas del uso negativo de este tipo de medios, c√≥mo el despido de un corresponsal de la CNN despu√©s de que saliese un video en el que ‚Äúparec√≠a que atacaba‚ÄĚ a un compa√Īero.

Pero el verdadero peligro de estas herramientas nace no de otras naciones sino de su uso dentro de la naci√≥n, en pa√≠ses con reg√≠menes autoritarios. En la India ya se han empezado a usar los deep fakes contra pol√≠ticos c√≥mo Rana Ayyub. Una serie de tweets que ‚Äúparec√≠an venir de ella‚ÄĚ y defend√≠an que odiaba la india y que estaba con Pakist√°n, redujeron su apoyo pol√≠tico, y cuando aparec√≠a un video porno con su cara cay√≥ por completo.

En Myanmar, país conocido por su duro control militar, y que tuvo una insurrección armada en el 2012 también ha demostrado el peligro de controlar la información y no poder defendernos. El resultado de un comentario falso de uno de los bandos acabó con persecuciones a nivel de todo el país. El resultado fueron 25 mil muertes.

Los clientes que disfrutaron de este libro también disfrutaron de

Siguenos y Disfruta de Nuestros Res√ļmenes Gratis Directamente en tus Redes Favoritas

Nuestras Categor√≠as de Res√ļmenes

Los comentarios est√°n cerrados.