Google, Microsoft, Anthropic y OpenAI cuatro empresas que lideran la carrera por la Inteligencia Artificial (IA) de última generación, anunciaron la creación de una nueva organización profesional para combatir los riesgos asociados a esta tecnología.
Llamada “Frontier Model Forum” -Foro del Modelo de Frontera-, se encargará de promover el “desarrollo responsable” de los modelos más sofisticados de IA y de “minimizar los riesgos potenciales”, informó un comunicado de prensa.
Los miembros se comprometen a compartir entre ellos, además con legisladores, investigadores y asociaciones, las mejores prácticas para que estos nuevos sistemas sean menos peligrosos.
El rápido despliegue de la IA generativa, a través de plataformas como ChatGPT (OpenAI), Bing (Microsoft) o Bard (Google), está causando mucha preocupación entre autoridades y la sociedad civil.
La Unión Europea (UE) está finalizando un proyecto de regulación para la IA que debería imponer obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas.
En Estados Unidos, las tensiones políticas en el Congreso impiden cualquier esfuerzo en este sentido.
La semana pasada, la administración de Joe Biden se aseguró los “compromisos” de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI para defender “tres principios” en el desarrollo de IA: Seguridad, protección y confianza.
Específicamente, se supone que deben probar sus programas con anticipación, luchar contra los ataques cibernéticos y el fraude, y encontrar la manera de marcar el contenido generado por IA, para que quede autenticado claramente como tal.
Agencias