Este 14 de junio, el Parlamento Europeo debatirá en Estrasburgo un proyecto que corresponde a la ley de inteligencia artificial (IA). Durante una visita a Alemania, Sam Altman, director de la empresa OpenAI con sede en California, que lanzó el muy discutido generador de texto ChatGPT, advirtió contra la regulación excesiva. Sin embargo, retiró su amenaza de dejar de operar ChatGPT en Europa.
En principio, crear reglas para la inteligencia artificial está bien, según el CEO de OpenAI, pero “necesitamos claridad”. Altman es un hombre muy buscado. Su palabra tiene peso en el área de IA. También fue recibido por el canciller alemán, Olaf Scholz, en Berlín.
Sin prohibiciones, solo estándares europeos
El mercado europeo sería demasiado atractivo para que los proveedores de IA lo ignoraran. “Cualquiera que quiera vender su IA aquí debe cumplir con nuestros estándares”, dice René Reparsi, miembro del Parlamento Europeo, a cargo del tema en el banco socialdemócrata. El Congreso de los Estados Unidos también está tratando de promulgar reglas para esta tecnología de autoaprendizaje.
El eurodiputado dice que también se mantiene en contacto con sus colegas de Estados Unidos. «Al final del día, queremos crear estándares significativos y no competir con otros», dice Reparsi. Las empresas tecnológicas estadounidenses tienen mucho capital, enormes cantidades de datos y una supremacía única que quieren defender. Pero esto no significa que las normas europeas impidan que las nuevas empresas de la UE desarrollen aún más la IA, opina Repasi: «El hecho de que tantos gigantes tecnológicos tengan su sede en los Estados Unidos tiene un poco más que ver con los mercados en los que operan los monopolistas que con la cuestión de donde reside la mayor innovación.»
advertencias de IA
Uno de los padres de la IA, el exempleado de Google Geoffrey Hinton, advirtió recientemente en una entrevista sobre los peligros de su propia creación. La IA generativa pronto podría ser más inteligente que los humanos que la crearon. Los cambios para el mercado laboral aún no son predecibles. Incluso los desarrolladores de sistemas y los altos directivos de Microsoft o Google admiten que ya no saben exactamente cómo funcionan las aplicaciones con inteligencia artificial. En una carta abierta, investigadores y empresarios, incluido el dueño de Twitter, Elon Musk, sugirieron tomarse un descanso hasta fin de año para poner límites al desarrollo de la IA.
La UE está respondiendo con una nueva ley que ha estado en discusión durante dos años. En principio, planea dividir las aplicaciones de IA en diferentes clases de riesgo. Se prohibirán los sistemas de alto riesgo que analicen y predigan inaceptablemente el comportamiento social de las personas. Los sistemas de riesgo deben estar sujetos a reglas y límites. Las aplicaciones simples, y esto probablemente también incluye generadores de texto como ChatGPT, no deberían estar demasiado restringidas. Sin embargo, todos los servicios que se generan con IA deben tener una marca.
ley en dos años
Hasta principios de 2025, la ley europea sobre IA no podrá entrar en vigor. Requiere la aprobación no solo del Parlamento Europeo, sino también de los 27 Estados miembros de la UE. Los desarrollos de IA como ChatGPT ni siquiera estaban en el mercado hace dos años y ya podrían haber avanzado desde que las regulaciones entraron en vigor en la UE, dice el eurodiputado Axel Voss. «Pero el desarrollo es, de hecho, tan rápido que muchos ya no cabrán cuando la ley entre en vigor», dijo a DW en abril.
Voss ha trabajado en inteligencia artificial para el partido alemán CDU durante años y es uno de los principales autores de la «Ley de Inteligencia Artificial» de la UE. Voss advierte contra operar con prohibiciones duras: «En verdad, necesitamos -por razones de competencia y porque ya estamos atrasados- más espíritu de optimismo para tratar intensamente con la IA. Pero lo que dice la mayoría del Parlamento Europeo es que la gente está motivada por miedos y preocupaciones y tratar de excluirlo todo». Los comisionados de protección de datos de los estados miembros de la UE están pidiendo una supervisión independiente de las aplicaciones de IA y más ajustes en la protección de datos.
La ley sobre IA debe ser flexible, según el eurodiputado Reparsi. La cuestión de qué es alto o bajo riesgo en IA no debe regularse en el texto de la ley en sí, sino en el anexo. Esto siempre podría modificarse rápidamente y adaptarse a los avances tecnológicos.