Exclusivo: Detrás del desafío de los legisladores de la UE para controlar ChatGPT y la IA generativa

LONDRES/ESTOCOLMO, 28 de abril (Reuters) – (Esta historia fue reescrita el 28 de abril para eliminar la palabra duplicada en el párrafo 1)

Recientemente, en febrero, la IA generativa no ocupó un lugar destacado en los planes de los legisladores de la UE para regular las tecnologías de IA como ChatGPT.

el La propuesta del bloque de 108 páginas Para la Ley AI, que se publicó hace dos años, incluyó solo una mención de la palabra «chatbot». Las referencias a contenido generado por IA se refieren en gran medida a deepfakes: imágenes o audio diseñados para hacerse pasar por humanos.

Sin embargo, a mediados de abril, los eurodiputados se apresuraron a actualizar esas reglas para seguir el ritmo de la explosión de interés en la IA generativa, que ha alimentado el miedo y la ansiedad desde que OpenAI presentó ChatGPT hace seis meses.

Esa lucha culminó el jueves con un nuevo borrador de legislación que identificó la protección de los derechos de autor como una parte clave del esfuerzo para mantener bajo control la inteligencia artificial.

Las entrevistas con cuatro legisladores y otras fuentes cercanas a los debates revelan por primera vez cómo, en el transcurso de solo 11 días, este pequeño grupo de políticos ideó lo que se convertiría en una legislación histórica, remodelando el panorama regulatorio para OpenAI y sus competidores.

El proyecto de ley no es definitivo y los abogados dicen que probablemente tardará años en entrar en vigor.

Sin embargo, la velocidad de su trabajo también es un raro ejemplo de consenso en Bruselas, que a menudo es criticado por la lentitud de la toma de decisiones.

READ  Rally del mercado: S&P 500 sube a un nivel clave mientras 5 acciones muestran señales de compra

Cambios de última hora

Desde su lanzamiento en noviembre, ChatGPT se ha convertido en la aplicación de más rápido crecimiento en la historia, lo que ha provocado una oleada de actividad de los competidores de Big Tech e inversiones en nuevas empresas de IA como Anthropic y Midjourney.

La enorme popularidad de tales aplicaciones ha llevado al jefe de la industria de la UE, Thierry Breton, y a otros a pedir la regulación de los servicios similares a ChatGPT.

Una organización respaldada por Elon Musk, el CEO multimillonario de Tesla Inc (TSLA.O) y Twitter, ha dado un paso adelante al emitir una carta de advertencia sobre los riesgos existenciales de la IA y pedir regulaciones más estrictas.

El 17 de abril, decenas de eurodiputados involucrados en la redacción de la legislación firmaron una carta abierta respaldando algunas partes de la carta de Musk e instando a los líderes mundiales a convocar una cumbre para encontrar formas de controlar el desarrollo de inteligencia artificial avanzada.

Sin embargo, el mismo día, dos de ellos, Dragos Todorac y Brando Benevi, propusieron cambios que obligarían a las empresas que generan sistemas de IA a divulgar cualquier material con derechos de autor utilizado para entrenar a sus modelos, según cuatro fuentes presentes en las reuniones, que pidieron no A. Anonimato debido a la sensibilidad de las discusiones.

Las fuentes dijeron que esta nueva y estricta propuesta contó con el apoyo de varios partidos.

Una propuesta del eurodiputado conservador Axel Voss, que obliga a las empresas a pedir permiso a los titulares de derechos antes de utilizar los datos, ha sido descartada por ser demasiado restrictiva y podría hacer descarrilar a la naciente industria.

READ  La comunidad de Corralitos usa una tirolesa para llegar a casa después de las tormentas

Después de publicar los detalles durante la próxima semana, la Unión Europea describió las leyes propuestas que podrían imponer un incómodo nivel de transparencia en una industria notoriamente reservada.

«Tengo que admitir que me sorprendió positivamente la facilidad con la que convergimos bastante en lo que debería estar en el texto de estos modelos», dijo Todorac a Reuters el viernes.

«Muestra que existe un fuerte consenso, un entendimiento común sobre cómo regular en este momento».

El comité votará sobre el acuerdo el 11 de mayo y, si tiene éxito, avanzará a la siguiente etapa de negociaciones, la trilateral, en la que los estados miembros de la UE discutirán los contenidos con la Comisión Europea y el Parlamento.

«Estamos esperando a ver si el acuerdo está vigente hasta entonces», dijo una fuente familiarizada con el asunto.

GRAN HERMANO VS. posición o terminador

Hasta hace poco, los miembros del Parlamento Europeo todavía no estaban convencidos de que la IA generativa mereciera una consideración especial.

En febrero, Todorach dijo a Reuters que la IA generativa «no se cubriría» en profundidad. «Esta es otra discusión que no creo que tratemos en este texto», dijo.

Citando los riesgos de seguridad de los datos sobre las advertencias de la inteligencia humanoide, dijo: «Tengo más miedo del Gran Hermano que de Terminator».

Pero Teodorach y sus colegas ahora están de acuerdo en que se necesitan leyes que apunten específicamente al uso de la IA generativa.

Según las nuevas propuestas dirigidas a los «modelos básicos», las empresas como OpenAI, que cuenta con el respaldo de Microsoft Corp (MSFT.O), tendrían que divulgar cualquier material protegido por derechos de autor (libros, fotografías, videos y más) utilizado para entrenar sus sistemas.

READ  manufactura de EE. UU. cerca de un mínimo de tres años; arrojar una sombra sobre la economía

Las acusaciones de infracción de derechos de autor han enfurecido a las empresas de inteligencia artificial en los últimos meses, ya que Getty Images demandó a Stable Diffusion por usar imágenes con derechos de autor para entrenar sus sistemas. OpenAI también ha enfrentado críticas por Negarse a compartir detalles del conjunto de datos utilizado para entrenar su software.

«Ha habido llamados desde fuera y dentro del parlamento para prohibir ChatGPT o clasificarlo como de alto riesgo», dijo la parlamentaria Svenja Hahn. “El compromiso final es favorable a la innovación porque no clasifica estos modelos como de ‘alto riesgo’, sino que establece requisitos de transparencia y calidad”.

Información adicional de Martin Coulter en Londres y Subanta Mukherjee en Estocolmo; Editado por Josephine Mason, Kenneth Lee y Matthew Lewis

Nuestros estándares: Principios de confianza de Thomson Reuters.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *