mayo 10, 2024

Blog de Habeas Data

Encuentra toda la información nacional e internacional sobre españa. Seleccione los temas sobre los que desea saber más

El presidente español insiste en las obligaciones para los modelos fundacionales en la ley de IA de la UE – EURACTIV.com

El presidente español insiste en las obligaciones para los modelos fundacionales en la ley de IA de la UE – EURACTIV.com

Como parte de las negociaciones sobre la legislación sobre IA, el liderazgo español del Consejo de Ministros de la UE ha desarrollado modelos fundacionales y una serie de compromisos para la IA de propósito general.

España lidera actualmente las negociaciones en nombre de los gobiernos de la UE sobre la Ley de Inteligencia Artificial, una propuesta legislativa clave para regular la IA en función de su potencial dañino. El expediente se encuentra actualmente en las etapas finales del proceso legislativo, el llamado diálogo a tres bandas entre el Consejo de la UE, el Parlamento y la Comisión.

Desde el desarrollo estelar de ChatGPT, un chatbot de renombre mundial basado en el modelo GPT-4 de OpenAI, los responsables políticos de la UE han luchado por definir cómo este tipo de inteligencia artificial debería estar cubierto por la regulación de IA de la UE.

A mediados de octubre, Euractive reveló que el pensamiento de los responsables de la formulación de políticas se está moviendo hacia un enfoque escalonado, con regímenes más estrictos para modelos fundacionales más poderosos como GPT-4. El domingo, la presidencia de España compartió la primera versión desarrollada del texto legal para comentarios con otros países de la UE, según pudo comprobar Euractive.

Modelos básicos

Un modelo fundamental se define como «un gran modelo de IA entrenado con una gran cantidad de datos, capaz de realizar de manera eficiente una amplia gama de tareas discretas, por ejemplo, video, texto, imágenes, diálogos en un lenguaje secundario, computación o generación de código informático». .

Estos modelos deben cumplir con obligaciones de transparencia, lo que significa que los proveedores de sistemas de IA deben proporcionar documentación técnica actualizada que explique las capacidades y limitaciones de los modelos subyacentes y el conjunto de componentes que deben describirse en un anexo.

READ  La ciudad de Dallas amplía el acceso lingüístico a los residentes de habla hispana

Además, los proveedores de modelos de base deben asegurarse de haber tomado las medidas adecuadas para garantizar el cumplimiento de la legislación de la UE en materia de derechos de autor, en particular, el procesamiento de datos de contenidos disponibles públicamente en línea. Cuando los titulares de derechos hayan optado por no acogerse a la excepción de derechos de autor para el procesamiento de textos y datos, incluidos los medios legibles por máquina, se requiere el consentimiento de los titulares de derechos.

Por lo tanto, los desarrolladores del Foundation Model deben implementar un sistema para respetar las decisiones de exclusión voluntaria de los creadores de contenido.

Otra obligación incluye publicar un resumen suficientemente detallado del contenido utilizado para entrenar el modelo base y cómo el proveedor gestiona los aspectos relacionados con los derechos de autor basándose en una plantilla desarrollada por la Comisión Europea.

Modelos de cimentación de alto impacto.

En la última sesión de negociación, los responsables políticos de la UE acordaron introducir un régimen más estricto para los modelos de fundaciones de «alto impacto».

Un modelo fundamental de ‘alto impacto’ se define como «cualquier modelo fundamental entrenado con grandes cantidades de datos y con complejidad, capacidades y rendimiento avanzados por encima del promedio de los modelos fundamentales que pueden distribuir riesgos sistémicos a lo largo de la cadena de valor. No de forma agregada o entorno de alto riesgo».

En un plazo de 18 meses a partir de la entrada en vigor de la Ley de IA, la Comisión adoptará actos de ejecución o delegados para especificar el umbral para clasificar un modelo fundamental como de «alto impacto» en consonancia con la evolución tecnológica y del mercado.

READ  El Alto Tribunal ha encontrado que una empresa española no debía 900.000 € en impuestos por la venta de acciones en un operador de autopistas irlandés - The Irish Times.

El Administrador de la UE designará modelos de referencia que cumplan con estos límites en consulta con la Oficina de IA.

Las disposiciones del Chapeau de la ley aclaran cómo deben interpretarse los artículos, explican qué es un modelo de IA y cómo se construye, así como la relación entre la comunidad científica, los conjuntos de datos y los modelos subyacentes y cómo pueden ser las aplicaciones de IA. construido sobre ellos.

Los deberes de estos modelos sistémicos incluyen la validación adversaria, conocida como equipo rojo. Queda por debatir cómo se aplica esta obligación de verificación a los modelos de cimientos de alto impacto comercializados como un sistema que integra componentes tradicionales similares a los de software.

Es importante destacar que los países de la UE deberían discutir si el equipo rojo debería estar integrado por expertos externos. El liderazgo supone que el proveedor puede hacer esto porque estos modelos también están sujetos a auditoría.

La Oficina de IA puede solicitar documentos que demuestren el cumplimiento del modelo con la Ley de IA y, previa solicitud razonable, exigir una auditoría independiente para evaluar el cumplimiento del modelo con la Ley de IA y cualquier compromiso asumido en virtud del Código de conducta firmado promovido. por la Comisión. Dibujar.

Una obligación marcada como «puede ser adicional» incluye exigir a los proveedores de modelos de referencia de alto impacto que establezcan un sistema para controlar los incidentes graves y las acciones correctivas relacionadas.

Además, los modelos de referencia de alto impacto deberían evaluar los riesgos sistémicos en la UE, incluidos los riesgos de la integración en el sistema de IA, al menos una vez al año desde el lanzamiento al mercado y para cualquier nueva versión lanzada.

READ  El triple de Hernández ayuda al baloncesto masculino de Spanish Fork a mantener a Springville a raya | Noticias, Deportes, Trabajos

La evaluación de riesgos incluye la difusión de contenidos ilegales o nocivos y reacciones legítimas ante incidentes importantes o perturbaciones de los procesos democráticos.

La Comisión está facultada para ajustar los cambios en los modelos de fundaciones y los modelos de fundaciones de alto impacto en función de la evolución tecnológica y del mercado.

IA de propósito general

La capa final consta de sistemas de IA de propósito general como ChatGPT, que «pueden ser sistemas basados ​​en un modelo de IA, incluir componentes adicionales como software tradicional y tener la capacidad de cumplir diversos propósitos a través de una interfaz de usuario. Para uso directo y integración con otros sistemas de IA».

El presidente español propuso obligaciones para que los proveedores de sistemas de IA de uso general utilicen el sistema para uno o más casos de uso de alto riesgo cuando celebren acuerdos de licencia con operadores económicos intermedios.

Estos deberes incluyen especificar en las instrucciones las aplicaciones de alto riesgo en las que se puede utilizar el sistema para proporcionar documentación técnica y toda la información relevante al proveedor de IA intermedio de acuerdo con los requisitos de alto riesgo.

Los proveedores de sistemas de IA de uso general también pueden prohibir determinadas aplicaciones de alto riesgo. En este caso, deberán tomar todas las medidas necesarias y proporcionadas para detectar e implementar posibles usos indebidos.

[Edited by Nathalie Weatherald]

Leer más con EURACTIV