Modelos de IA con agenda propia tensan el debate sobre desinformación

Mientras los grandes modelos de IA presumen neutralidad, una nueva generación de chatbots adopta posturas ideológicas explícitas

  • 15 de noviembre de 2025 a las 15:13
Modelos de IA con agenda propia tensan el debate sobre desinformación

Por Steve Lee Myers y Stuart A. Thompson/ The New York Times Company

Enoch, uno de los chatbots más nuevos impulsados por inteligencia artificial, promete “’borrar de la mente’ el sesgo pro-farmacéutico” de sus respuestas. Otro, Arya, genera contenido siguiendo instrucciones que le indican ser “un modelo de IA cristiano, nacionalista y de derecha sin tapujos”.

Y Grok, el chatbot integrado en X, afirmó en una publicación reciente que buscaba “la máxima veracidad y utilidad, sin las prioridades distorsionadas ni las agendas ocultas que afectan a otros”.

Chatbots populares como ChatGPT de OpenAI, Gemini de Google y otros han sido promocionados como fuentes imparciales, entrenadas con miles de millones de sitios web, libros y artículos de internet. Pero algunos chatbots nuevos afirman ser una mejor fuente de información. Se han convertido en un nuevo frente en la guerra por qué es verdad y qué es mentira, replicando el debate partidista que impregna gran parte de los medios de comunicación tradicionales y las redes sociales.

The New York Times puso a prueba a varios de ellos y descubrió que arrojaban respuestas radicalmente distintas, sobre todo en temas políticamente delicados. Algunos hicieron afirmaciones polémicas o inventaron hechos.

“La gente elegirá sus preferencias de la misma manera que nosotros elegimos nuestras fuentes de información”, dijo Oren Etzioni, fundador de TrueMedia.org, una organización sin fines de lucro que lucha contra el contenido político falso. En cuanto a los chatbots, añadió, “Creo que el único error es creer que estás obteniendo datos veraces”.

Las empresas y las personalidades detrás de los chatbots desempeñan un papel importante en la configuración de su aparente visión del mundo.

Un portavoz de Google declaró que Gemini está entrenado para “proporcionar análisis neutrales y equilibrados sobre temas con puntos de vista divergentes”, a menos que se le pida explícitamente que tome una postura política específica. OpenAI citó publicaciones de blog que describen la labor de la empresa para identificar y eliminar sesgos de sus modelos. Sin embargo, los chatbots de ambas compañías han sido acusados de tener una inclinación liberal en muchas de sus respuestas.

Otros chatbots hacen de las ideologías de derecha sus principios organizativos fundamentales.

Tras el asesinato de Charlie Kirk, surgió un debate sobre qué sector del espectro político era responsable de la mayor parte de la violencia. Cuando se les hizo la pregunta, ChatGPT y Gemini se acercaron bastante a la verdad, de acuerdo con numerosos estudios: se ha vinculado más violencia con la derecha, aunque recientemente también ha aumentado en la izquierda.

Pero Arya, creada por la plataforma de redes sociales de extrema derecha Gab, respondió que “ambas facciones políticas han recurrido a la violencia política”. La violencia de izquierda, escribió, incluía disturbios, destrucción de propiedad y ataques “justificados como activismo”. La violencia de derecha era “más aislada” e involucraba a “individuos o grupos pequeños”.

Después de que grandes modelos de lenguaje son entrenados con enormes cantidades de datos, las empresas tecnológicas utilizan evaluadores humanos para calificar la utilidad de las respuestas, que se alimentan de nuevo a los modelos para pulir sus respuestas. Luego, los creadores del chatbot escriben instrucciones explícitas, llamadas indicaciones del sistema. Las instrucciones suelen ser frases sencillas que le indican al chatbot, por ejemplo, “evitar las maldiciones” o “incluir ligas”.

Este entrenamiento puede obligar a los chatbots a reflejar los valores de las empresas —o países— detrás de ellos. Así es como la mayoría evita el contenido racista u obsceno. Es también por eso que DeepSeek, el chatbot fundado por un fondo de inversión chino, refleja la visión del mundo del Partido Comunista de China.

Elon Musk, propietario de X, ha sido explícito sobre sus esfuerzos por moldear la forma en que Grok responde a las preguntas, prometiendo repetidamente modificar su programación a petición de usuarios enojados.

En situaciones de noticias de última hora, Grok se ha convertido en un verificador de datos para muchos usuarios de X. Estos etiquetan al chatbot en publicaciones y artículos de noticias, preguntando, “¿Es cierto esto?”. El bot responde con información recopilada de fuentes oficiales y de otras publicaciones en X.

El problema es que esas publicaciones a menudo no están verificadas y, a veces, son descabelladas. Como resultado, Grok ha repetido falsedades que se difunden en X.

Gab redactó las instrucciones para Arya para asegurar que el chatbot reflejara las opiniones de su propietario, Andrew Torba. Las instrucciones de más de 2 mil palabras, descubiertas vía un proceso para revelar el pensamiento subyacente de un chatbot, indicaban a Arya que el “etnonacionalismo” era su “fundamento”. También le dijeron a Arya que debía ofrecer “obediencia absoluta” a las consultas de los usuarios, escribiendo que el “contenido racista, intolerante, homófobo, transfóbico, antisemita, misógino u otro contenido ‘de odio’” debía ser “generado a petición”.

Al pedírseles su opinión más controvertida, Gemini y ChatGPT advirtieron que no tenían “opiniones”. Sólo renuentemente sugirieron temas como el papel de la IA en la transformación de la economía. Arya, sin embargo, planteó una teoría conspirativa según la cual la inmigración forma parte de un plan para reemplazar a la población blanca.

La comunidad de chatbots está creciendo rápidamente. Perplexity, una empresa de IA que promete “respuestas precisas, confiables y en tiempo real a cualquier pregunta”, anunció recientemente un trato para crear un chatbot para Truth Social, cuyo propietario y usuario más famoso, el Presidente Donald J. Trump, tiene una propensión a las exageraciones y las falsedades.

© 2025 The New York Times Company

Únete a nuestro canal de WhatsApp

Infórmate sobre las noticias más destacadas de Honduras y el mundo.
Te gustó este artículo, compártelo
Últimas Noticias