La desinformación por IA es la gran amenaza global, según el Foro Económico Mundial

La desinformación creada con IA (o los deepfake) es la gran amenaza global a corto plazo, junto con la crisis climática, pero expertos dicen que la inteligencia artificial puede ser una aliada con regulaciones

La desinformación generada por la IA es la mayor amenaza que atenta contra la humanidad.

sáb 6 de julio de 2024 a las 0:0

TEGUCIGALPA, HONDURAS.- La desinformación impulsada por la inteligencia artificial (IA) es la mayor amenaza global, junto con la crisis climática. Así lo muestra el Foro Económico Mundial (FEM), en su informe Global Risks Report 2024 (Informe de Riesgos Globales).

El documento sitúa a la desinformación generada por la IA como el principal problema a corto plazo (2 años) y como el quinto a largo plazo (10 años).

Este fenómeno, que lidera los 10 principales problemas en el ranking sobre el panorama global de riesgos (a corto plazo), plantea amenazas significativas para la estabilidad y la legitimidad democrática en los próximos dos años. debido a que más de 3,000 millones de personas votarán.

En consecuencia, la creciente desconfianza hacia las fuentes de información, así como en los medios de comunicación y los gobiernos, profundizan las opiniones polarizadas en la sociedad. Esta dinámica crea un círculo vicioso que podría desencadenar disturbios civiles y enfrentamientos.

Y también, las autoridades enfrentan el desafío de reprimir la proliferación de información falsa sin erosionar los derechos civiles fundamentales. La inacción ante este problema también conlleva riesgos considerables.

El documento, elaborado junto con las aseguradoras Marsh McLennan y Zurich Insurance Group, recoge la percepción de 1,500 expertos sobre los peligros potenciales que enfrentará la humanidad en los próximos años (2 y 10).

En términos generales, el 54% de los encuestados pronostican cierta inestabilidad y un riesgo moderado de catástrofes globales, mientras que otro 30% espera condiciones aún más turbulentas.

“A diferencia de 2023, cuando había optimismo a largo plazo, estos resultados reflejan una perspectiva negativa para los próximos dos años que empeora durante el decenio”, recordó la directora del FEM, Saadia Zahidi.

Elecciones, una prueba

Entre los próximos dos años, cerca de 3,000 millones de personas participarán en elecciones en varios países, incluyendo Estados Unidos, India, Reino Unido, México, Indonesia y Honduras.

La presencia de desinformación en estos procesos electorales podría poner en peligro la legitimidad de los gobiernos recién elegidos y potencialmente desencadenar disturbios políticos y violencia, erosionando así estos sistemas a largo plazo, indica la investigación.

El “Informe Riesgos Globales”, con datos recopilados del 4 de septiembre al 9 de octubre de 2023, señala que “el uso generalizado de información errónea y desinformación, y las herramientas para difundirla, pueden socavar la legitimidad de los gobiernos recién elegidos”.

Y las consecuencias van más allá de política, con posibles estallidos de violencia, crímenes de odio y terrorismo, señala.

Asimismo, el impacto de la desinformación en el contexto político es igualmente preocupante. Las campañas de desinformación pueden generar desconfianza y hostilidad entre diferentes grupos, fomentando un ambiente de sospecha y división, que, a su vez, puede llevar a un aumento de la violencia y los crímenes de odio.

Los votantes, incapaces de discernir la verdad de las mentiras, podrían tomar decisiones basadas en falsedades, erosionando la confianza en las instituciones democráticas.

En India, por ejemplo, la desinformación se ha identificado como el riesgo número uno para las elecciones generales, mostrando cómo varían las preocupaciones según el contexto regional, indica el estudio Informe de Riesgos Globales 2024.

Pero el uso de la IA en la creación de desinformación también plantea serias preocupaciones éticas. La necesidad de desarrollar tecnologías y métodos para contrarrestar la desinformación se vuelve cada vez más urgente y más complejo por los diversos ecosistemas.

En ese sentido, el FME plantea que, “mediante el establecimiento de sistemas integrales, los desarrolladores pueden garantizar que la IA se despliegue de forma ética y responsable, fomentando así la confianza y promoviendo el uso beneficioso de la IA en diversos ámbitos”.

Otra alternativa para contrarrestar el impacto de la desinformación es “informándose responsablemente, que incluye la selección de medios de comunicación idóneos, fuentes primarias confiables y estar muy abiertos al debate de temas, con presencia de diversas voces, para estimular el pensamiento crítico”, indicó René Gavarrete, docente de la Escuela de Periodismo de la Universidad Nacional en San Pedro Sula.

“Instruir a la sociedad a realizarse preguntas o contrastar ante aquello que le pueda parecer inverosímil o, simplemente, ante contenidos visuales o narrativos enmarcados en intereses particulares o que sean parte de un entorno de polarización”, agregó.

Su esparcimiento

Las tecnologías de inteligencia artificial han facilitado la creación masiva de contenido sintético, desde sofisticadas imitaciones de voz hasta la generación de sitios web falsos, sin requerir habilidades especializadas.

Esta situación ha llevado a los gobiernos a implementar nuevas regulaciones que buscan abordar la desinformación en línea. Por ejemplo, “los requisitos en China para marcar con agua el contenido generado por IA pueden ayudar a identificar información falsa, incluida la información errónea no intencionada a través de contenido alucinado por IA”.

“El principal riesgo es el avance de los instrumentos utilizados para suplantar la realidad o modificarla, con la creación y alteración de imágenes, formatos audiovisuales y voces, lo cual nos obligará a dedicar más tiempo al uso de herramientas para verificación”, comentó René Gavarrete, docente de la Escuela de Periodismo.

No obstante, el ritmo de estas regulaciones podría no ser suficiente para mantenerse al día con el avance tecnológico, según el informe.

El progreso tecnológico reciente ha amplificado el volumen y la efectividad de la información falsa, haciendo que sea más difícil rastrear y atribuir su origen.

Además, según el estudio del FEM, la desinformación se está personalizando cada vez más para diferentes grupos de la sociedad, propagándose a través de plataformas de mensajería privadas como WhatsApp o WeChat.

Las implicaciones de estas campañas de desinformación son profundas y podrían amenazar los procesos democráticos, lo que desencadena la erosión de la confianza pública en la información y en las instituciones puede intensificar la polarización y socavar las libertades civiles.

Esta situación representa un desafío significativo que requiere respuestas regulatorias efectivas y un compromiso global para proteger la integridad de los procesos democráticos y la libertad de expresión, plantea el hallazgo.

Impacto social

El precio de la desinformación no se mide solamente en términos de confusión y desconfianza, también son tangibles y devastadoras.

Según el Informe Riesgos Globales 2024 del FEM, la desinformación se erige como una de las mayores amenazas de los próximos años, un problema que decenas de países no están dimensionando.

Las narrativas falsas pueden influir en elecciones, manipular el comportamiento de los votantes y sembrar la discordia social. Y la IA, en manos de actores maliciosos, se convierte en una herramienta de propaganda y censura.

Según el Foro, grupos vulnerables son especialmente susceptibles a estas campañas. La desinformación sexista perpetúa estereotipos y alimenta la misoginia, mientras que los mensajes polarizantes profundizan las divisiones existentes en la sociedad.

“Estas campañas manipulan la percepción pública, lo que provoca un daño social generalizado y profundiza las divisiones sociales existentes”, advierte la investigación.

De esta manera, “la desinformación sexista, por ejemplo, perpetúa los estereotipos y la misoginia, marginando aún más a los grupos vulnerables”.

$!La IA es capaz de crear desinformación simulando la realidad, en la que hasta los ojos más críticos puen caer en la falsedad.

La IA como aliada

El rápido desarrollo de las tecnologías de IA muchas veces supera la capacidad de supervisión de los gobiernos, provocando daños sociales, pero no todo es oscuridad en el horizonte tecnológico, dicen fuentes del equipo de verificación de EL HERALDO.

Los sistemas avanzados de IA pueden analizar patrones, uso del lenguaje y contexto para detectar información falsa y desinformación. Estas herramientas permiten moderar contenidos y verificar la autenticidad de las noticias, ofreciendo un rayo de esperanza en la batalla contra la falsedad.

“Como cualquier herramienta es un riesgo y es un beneficio, y como cualquier experiencia tecnológica siempre genera pros y contras”, consideró René Gavarrete.

“La IA empleada con propósitos aviesos es una verdadera amenaza, por lo que representa en sí, y por su posibilidad de masificación. Claro, puede llegar a abrumar, y desafiar los usos sociales”, añadió.

Algunos gobiernos y plataformas, cuyo fin es proteger la libertad de expresión y las libertades civiles, pueden no tomar medidas efectivas para frenar la desinformación y el contenido dañino.

Como resultado, la definición de “verdad” se vuelve cada vez más polémica en todas las sociedades. Tanto los actores estatales como los no estatales pueden aprovecharse de la información falsa para agravar las divisiones en la opinión pública y erosionar la confianza social.

Es por ello, que organizaciones como la Coalición para la Autenticidad y Procedencia del Contenido (C2PA) integrada por Adobe, Arm, Intel, Microsoft y TruePic están desarrollando normas técnicas para certificar el origen de los contenidos en línea, ayudando a distinguir lo real de lo falso.

El FME en ese sentido señala que “para mitigar aún más los riesgos asociados a la IA, los desarrolladores y las organizaciones deben aplicar salvaguardias sólidas, medidas de transparencia y marcos de rendición de cuentas”.

Pero el desafío de la desinformación requiere una respuesta multifacética. Además de las herramientas tecnológicas, es esencial fomentar la alfabetización mediática y el pensamiento crítico en la población.

“Las escuelas, bibliotecas y organizaciones comunitarias desempeñan un papel vital en la promoción de estas habilidades, proporcionando recursos y programas de formación para ayudar a los individuos a desarrollar la capacidad de evaluar críticamente las fuentes de información, diferenciar entre desinformación y contenido factual y tomar decisiones con conocimiento de causa”, agrega el FEM.

Caroline Klint, directora comercial para Europa de Marsh McLennan, destacó los beneficios de la IA en mejorar la productividad económica y los servicios públicos.

Sin embargo, advirtió que sin un enfoque centrado en el interés público, “la brecha digital entre países de altos y bajos ingresos causará una marcada disparidad en la distribución de beneficios y riesgos”.

La colaboración entre gobiernos, empresas tecnológicas, academia y organizaciones de la sociedad civil es fundamental.

La Alianza para la Gobernanza de la IA y la Coalición Mundial para la Seguridad Digital del Foro Económico Mundial reúne a expertos y organizaciones de todo el mundo para abordar los complejos retos relacionados con la IA, entre ellos la generación de contenidos engañosos o perjudiciales y la violación de los derechos de propiedad intelectual.

Saadia Zahidi, directora del FEM, insistió en que, aunque las perspectivas son sombrías, el futuro está en manos de los políticos y económicos para que está situación cambie.

La desinformación impulsada por la IA es una amenaza real y presente, pero no insuperable.

Expertos dicen que con un enfoque combinado de innovación tecnológica, regulación adecuada y educación mediática, se pueden mitigar sus riesgos y aprovechar sus beneficios.

El futuro de la sociedad depende de la capacidad para adaptarse y colaborar, asegurando que la verdad prevalezca en la era digital, plantean el informe.

Notas Relacionadas