Tecnología

IA segura: Gigantes firman un acuerdo para un desarrollo responsable

Las principales tecnológicas, incluyendo OpenAI, Google y Meta, se unen para garantizar la transparencia y la responsabilidad en el desarrollo de la IA
21.05.2024

LOS ÁNGELES, ESTADOS UNIDOS.- Más de una decena de las empresas punteras en Inteligencia Artificial (IA) asumieron nuevos compromisos sobre el desarrollo seguro de esta tecnología durante una reunión del sector este martes en Corea del Sur, anunció el gobierno británico en un comunicado.

El acuerdo alcanzado por 16 empresas tecnológicas -- incluyendo el fabricante de ChatGPT OpenAI, Google DeepMind y Anthropic -- se basa en un consenso para un desarrollo “seguro” de esta herramienta alcanzado en la primera cumbre sobre IA celebrada en Bletchley Park en el Reino Unido el año pasado.

“Este compromiso garantiza que las principales empresas de IA del mundo ofrecerán transparencia y rendirán cuentas sobre sus planes para desarrollar una IA que sea segura”, afirmó el primer ministro británico, Rishi Sunak, en un comunicado.

¿La IA salvará a la humanidad? Un festival recuerda sus límites

El acuerdo establece que las empresas de IA que no hayan publicado como determinan los riesgos que conlleva esta tecnología, van a publicar estas directivas, indicó el gobierno británico.

También se especificarán peligros catalogados como “intolerables” y los protocolos de las empresas de tecnología para asegurarse que no se cruce este umbral.

“En los casos más extremos, las empresas se comprometieron a ‘no desarrollar o a desplegar un modelo o un sistema’, si las políticas de mitigación no pueden mantener los riesgos en un nivel tolerable”, agregó el comunicado.

Este umbral será definido con claridad en la próxima cumbre sobre IA que se celebrará en Francia en 2025.

Otros gigantes del sector que se sumaron a este convenio son las empresas estadounidenses Microsoft, Amazon, IBM y la matriz de Instagram, Meta, la compañía francesa Mistral AI y la china Zhipu.