¿Cuál es el lado oscuro de la inteligencia artificial?

Los expertos advierten que el mal uso de las herramienta de IA podrían, en un futuro, intensificar el acoso en línea y las campañas de odio

Los expertos advierten que este uso de IA ilustra cómo los usuarios malintencionados podrían intensificar el acoso en línea y las campañas de odio en el futuro.

dom 28 de enero de 2024 a las 15:12

Por Stuart A. Thompson | The New York Times

Cuando la junta de libertad condicional de Louisiana se reunió en octubre para discutir la posible liberación de un asesino convicto, llamó a un médico para hablar sobre el reo.

Los trolls en línea tomaron capturas de pantalla de la doctora de un feed en línea de su testimonio y editaron las imágenes con herramientas de inteligencia artificial para que pareciera estar desnuda. Compartieron los archivos manipulados en 4chan, un foro de mensajes anónimo conocido por acoso, contenido de odio y teorías de conspiración.

Fue una de las numerosas ocasiones en que la gente en 4chan utilizó nuevas herramientas de IA como editores de audio y generadores de imágenes para difundir contenido racista y ofensivo sobre personas que habían comparecido ante la junta de libertad condicional, de acuerdo con Daniel Siegel, estudiante de postgrado en la Universidad de Columbia, en Nueva York, que llevó una crónica de la actividad en el sitio durante varios meses.

Las imágenes y el audio manipulados no se han extendido más allá de 4chan, dijo Siegel. Pero los expertos dijeron que los esfuerzos ofrecían una idea de cómo usuarios nefastos de Internet podrían emplear herramientas sofisticadas de IA para potenciar el acoso en línea y las campañas de odio en el futuro.

Callum Hood, jefe de investigación del Centro para Contrarrestar el Odio Digital, dijo que los sitios marginales como 4chan a menudo daban señales tempranas de advertencia sobre cómo se utilizarían las nuevas tecnologías para proyectar ideas extremas. Esas plataformas, dijo, están llenas de jóvenes que son “muy rápidos para adoptar tecnologías nuevas” para “proyectar su ideología en los espacios convencionales”. Esas tácticas, dijo, con frecuencia son adoptadas por algunos usuarios en plataformas en línea más populares.

Se ha creado una nueva ola de generadores de imágenes de IA para crear pornografía falsa, incluyendo eliminar la ropa de imágenes existentes.

“Pueden usar la IA para simplemente crear una imagen de exactamente lo que quieren”, dijo Hood sobre las campañas de odio y desinformación en línea.

No existe ninguna ley estadounidense que prohíba la creación de imágenes falsas de personas, dejando a menudo a las víctimas luchando por determinar qué se puede hacer. La junta de libertad condicional de Louisiana abrió una investigación en respuesta a los hallazgos de Siegel en 4chan.

El Estado de Illinois amplió su ley que rige la pornografía de venganza para permitir que los blancos de pornografía no consensuada realizada por sistemas de IA demanden a los creadores o distribuidores. California, Virginia y Nueva York también aprobaron leyes que prohíben la distribución o creación de pornografía generada por IA sin consentimiento.

A fines del año pasado, ElevenLabs, una compañía de IA, lanzó una herramienta que podía crear una réplica digital convincente de la voz de alguien diciendo cualquier cosa escrita en el programa.

Casi tan pronto como estuvo disponible la herramienta, los usuarios de 4chan circularon clips de una falsa Emma Watson, la actriz británica, leyendo el manifiesto de Adolfo Hitler, “Mein Kampf”.

Utilizando contenido de las audiencias de la junta de libertad condicional de Louisiana, los usuarios de 4chan han compartido desde entonces clips falsos de jueces haciendo comentarios ofensivos y racistas sobre acusados. Muchos de los clips fueron generados por la herramienta de ElevenLabs, afirma Siegel.

ElevenLabs se apresuró a imponer límites, incluyendo exigir a los usuarios un pago antes de poder acceder a las herramientas de clonación de voz. Pero los cambios no parecieron frenar la difusión de voces creadas por IA, dijeron los expertos. En TikTok y YouTube han circulado veintenas de videos que utilizan voces falsas de celebridades, muchos de ellos compartiendo desinformación política.

Cuando Meta lanzó Llama, su modelo de lenguaje grande, a investigadores selectos en febrero, el código se filtró rápidamente a 4chan. La gente allí modificó el código para reducir o eliminar las barreras de seguridad, creando nuevos chatbots capaces de producir ideas antisemitas.

El esfuerzo dio una vista previa de cómo las herramientas de IA de código abierto y uso gratuito pueden ser modificadas por usuarios con habilidades tecnológicas.

En los meses desde entonces, se han desarrollado modelos de lenguaje para hacer eco de temas de conversación de la extrema derecha o para crear contenido más sexualmente explícito. Usuarios de 4chan han modificado generadores de imágenes para producir imágenes de desnudos o proporcionar memes racistas, evitando los controles impuestos por las empresas tecnológicas más grandes.

© 2024 The New York Times Company

Notas Relacionadas