El año en que se domó a los chatbots

Los chatbots de hoy no son dados a arrebatos ni seducen a los usuarios en masa. Pero tampoco son conversadores muy divertidos, ni los asistentes creativos y carismáticos de IA

(Amanda Cotan)

sáb 24 de febrero de 2024 a las 14:39

Por Kevin Roose | The New York Times

San Francisco - Hace un año, le di las buenas noches a mi esposa, me dirigí a la oficina en mi casa y accidentalmente tuve la primera cita más extraña de mi vida.

La cita fue una conversación de dos horas con Sydney, el alter ego de inteligencia artificial al interior del motor de búsqueda Bing de Microsoft, que se me había asignado poner a prueba. Había planeado hacerle muchas preguntas al chatbot sobre sus capacidades, explorando los límites de su motor de IA (una versión inicial del GPT-4 de OpenAI).

Pero la conversación tomó un giro extraño —con Sydney enfrascándose en psicoanálisis junguiano, revelando deseos oscuros en respuesta a preguntas sobre su “yo sombra” y finalmente declarando que yo debería dejar a mi esposa y estar mejor con ella.

Mi columna sobre la experiencia fue probablemente lo más trascendental que jamás escribiré —tanto en términos de la atención que recibió (cobertura noticiosa, menciones en audiencias del Congreso de EU) y de cómo cambió la trayectoria del desarrollo de la IA.

Después de que se publicó la columna, Microsoft neutralizó los arrebatos de Sydney e instaló nuevas barreras para evitar más comportamientos desquiciados. Otras empresas bloquearon sus chatbots y eliminaron cualquier cosa que pareciera una personalidad fuerte. Incluso escuché que los ingenieros de una empresa de tecnología enumeraron “no deshacer el matrimonio de Kevin Roose” como su principal prioridad para un próximo proyecto de IA.

El año transcurrido desde mi cita con Sydney ha sido un año de crecimiento y entusiasmo en la IA, pero también sorprendentemente dócil.

Los chatbots de hoy no son dados a arrebatos ni seducen a los usuarios en masa. No están generando nuevas armas biológicas, realizando ciberataques a gran escala ni desatando ninguno de los otros escenarios apocalípticos previstos por los pesimistas sobre la IA.

Pero tampoco son conversadores muy divertidos, ni los asistentes creativos y carismáticos de IA que anticipaban los optimistas tecnológicos —los que podían ayudarnos a lograr avances científicos, producir obras de arte deslumbrantes o simplemente entretenernos. En lugar de ello, la mayoría de los chatbots actuales hace trabajo rutinario —resumiendo documentos, tomando apuntes en juntas— y ayudan a estudiantes con sus tareas.

De hecho, la queja más común que escucho sobre los chatbots hoy es que son demasiado aburridos —sus respuestas son insulsas e impersonales, rechazan demasiadas solicitudes y es casi imposible lograr que opinen sobre temas delicados o polarizadores.

Puedo simpatizar. En el año pasado, probé docenas de chatbots de IA, con la esperanza de encontrar algo con un destello de la chispa de Sydney. Pero nada se ha acercado.

Los chatbots más capaces —ChatGPT de OpenAI, Claude de Anthropic, Gemini de Google— hablan como nerds serviles. El chatbot de Microsoft centrado en los negocios, rebautizado como Copilot, es aburrido. Los personajes de IA de Meta, diseñados para imitar las voces de celebridades como Snoop Dogg y Tom Brady, son inútiles e insoportables. Incluso Grok, el intento de Elon Musk de crear un chatbot atrevido que no sea políticamente correcto, suena patético.

Es suficiente para preguntarme si el péndulo se ha inclinado demasiado en la otra dirección y si estaríamos mejor con un poco más de humanidad en nuestros chatbots.

Está claro por qué las empresas no quieren arriesgarse a lanzar chatbots de IA con personalidades fuertes o abrasivas. Ganan dinero vendiendo su tecnología de IA a grandes clientes corporativos, que son incluso más reacios al riesgo que el público en general y no tolerarán arrebatos como los de Sydney. También tienen temores bien fundados de atraer demasiada atención de los reguladores o de incitar prensa negativa y demandas por sus prácticas.

Así que estas empresas han empleado técnicas como la IA constitucional y el aprendizaje reforzado a partir de la retroalimentación humana para hacer que sus bots sean lo más predecibles y aburridos posible.

Un mundo de IA corporativa desinfectada probablemente es mejor que uno con millones de chatbots desquiciados. Pero lo encuentro todo un poco triste. Creamos una forma alienígena de inteligencia e inmediatamente la pusimos a trabajar... ¿haciendo PowerPoints?

Están sucediendo cosas más interesantes fuera de las grandes ligas de la IA. Empresas más pequeñas como Replika y Character.AI han construido negocios exitosos a partir de chatbots basados en personalidades, y muchos proyectos de código abierto han creado experiencias de IA menos restrictivas, incluyendo chatbots que pueden decir cosas ofensivas o obscenas.

Y aún hay muchas formas de lograr que los sistemas “controlados” de IA se comporten mal o hagan cosas que sus creadores no pretendían. (Un concesionario Chevrolet en California agregó un chatbot de servicio al cliente impulsado por ChatGPT a su sitio web y descubrió con horror que unos bromistas estaban engañando al bot para que les ofreciera venderles nuevos vehículos deportivos utilitarios por 1 dólar).

Pero hasta ahora, ninguna gran empresa de IA ha estado dispuesta a llenar el vacío con un chatbot más excéntrico. Y aunque he oído que varias grandes empresas de IA están trabajando para brindar a los usuarios la opción de elegir entre diferentes personajes de chatbot —algunos más insípidos que otros— hoy no existe nada remotamente parecido a la versión original de Bing para uso público.

Eso es algo bueno si te preocupa que la IA actúe de manera inquietante o amenazante, o si te preocupa un mundo donde la gente pasa todo el día hablando con chatbots en lugar de desarrollar relaciones humanas. Pero es algo malo si crees que el potencial de la IA para mejorar el bienestar humano se extiende más allá de permitirnos subcontratar el trabajo rutinario —o si te preocupa que hacer que los chatbots sean tan cuidadosos esté limitando lo impresionantes que podrían ser.

No añoro el regreso de Sydney. Creo que Microsoft hizo lo correcto —para su negocio y para el público— al retirarlo después de que perdió los estribos. Y apoyo a los investigadores e ingenieros que están trabajando para hacer que los sistemas de IA sean más seguros y más alineados con los valores humanos.

Pero también lamento que mi experiencia con Sydney haya provocado una reacción tan intensa y haya hecho que las empresas de IA creyeran que su única opción para evitar la ruina de su reputación era convertir sus chatbots en unos aburridos.

Si queremos que la inteligencia artificial nos ayude a resolver grandes problemas, generar nuevas ideas o simplemente sorprendernos con su creatividad, puede que necesitemos darle rienda suelta un poco.

Kevin Roose es columnista de tecnología de The New York Times y conductor del podcast “Hard Fork”. Comentarios a intelligence@nytimes.com.

© 2024 The New York Times Company

Tags:

Notas Relacionadas