Buenos Aires (AT) – Este miércoles 13 de marzo, el pleno del Parlamento Europeo adoptó la histórico Acta de Inteligencia Artificial con una votación de 523-46, con 49 abstenciones. De este modo, el bloque continental se convierte en la primera gran organización política en establecer reglas claras para la tecnología emergente.
Las reglas prohibirán algunas aplicaciones de IA como la puntuación social algorítmica y prácticas explotadoras, y establecerá reglas estrictas para otros sistemas de IA utilizados en situaciones consideradas “de alto riesgo”, como la educación, el trabajo o la gestión de infraestructuras críticas.
Los modelos de IA más avanzados, etiquetados como “de propósito general”, deberán observar un conjunto específico de obligaciones de mitigación y pruebas; su cumplimiento será supervisado por una unidad recién creada dentro de la Comisión Europea: la Oficina de IA.
La ley fue concebida por primera vez en 2021 antes de la explosión de herramientas de IA generativas como ChatGPT de OpenAI. El proceso de redacción estuvo marcado por tensiones latentes entre los legisladores europeos y los gobiernos de la UE, incluidos Francia y Alemania, por temor a que una regulación pudiera frenar el progreso de Europa en la carrera mundial por convertirse en un líder en IA. Otros puntos de controversia fue la posibilidad de una prohibición total de la tecnología de reconocimiento facial, que en el texto final está limitada pero no prohibida, y la estructura misma de la Oficina de IA.
Thierry Breton, el jefe del mercado interno de la Comisión Europea, dijo después de la votación que “Europa ahora es un líder en estándares globales para una IA confiable”.
Se espera que el Consejo de la UE adopte oficialmente el texto en abril, con los efectos aplicables a fines de 2024 y entrando en vigor a principios de 2025. El resto de la ley comenzará a aplicarse en 2026.
Restricciones sobre apps de inteligencia artificial
Las normativas prohíben el uso de ciertas aplicaciones de IA que vulneran los derechos ciudadanos, tales como sistemas de categorización biométrica basados en rasgos sensibles, así como la recolección indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para la creación de bases de datos de reconocimiento facial.
También se vetan el reconocimiento de emociones en entornos laborales y educativos, los sistemas de puntuación ciudadana, la aplicación de técnicas de policía predictiva basadas únicamente en perfiles individuales o en la evaluación de características personales, así como cualquier forma de IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.
Excepciones
El uso de sistemas de identificación biométrica por parte de las autoridades policiales queda previamente prohibido, salvo en situaciones claramente definidas y específicas. La utilización en tiempo real de sistemas de identificación biométrica debe estar sujeta a salvaguardias estrictas, como la restricción de su uso a un tiempo y lugar específicos, así como la autorización judicial o administrativa previa. Dichos casos podrían incluir la búsqueda dirigida de personas desaparecidas o la prevención de actos terroristas. Recurrir a estos sistemas de manera retroactiva se considera un riesgo elevado, por lo que requiere autorización judicial debido a su vinculación con delitos penales.
Obligaciones
Se establecen claras obligaciones para otros sistemas de IA considerados de alto riesgo debido a su potencial impacto negativo en la salud, seguridad, derechos fundamentales, medio ambiente, democracia y estado de derecho. Ejemplos de estos usos de alto riesgo incluyen infraestructuras críticas, educación, empleo, servicios públicos y privados esenciales (como atención médica y banca), ciertos sistemas de aplicación de la ley, gestión migratoria, justicia y procesos democráticos (como la influencia en elecciones). Estos sistemas deben evaluar y mitigar los riesgos, mantener registros de uso, ser transparentes y precisos, y contar con supervisión humana. Los ciudadanos tienen derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones de las decisiones basadas en ellos que afecten sus derechos.
Requisitos de transparencia
Los sistemas de IA de uso general y los modelos en los que se basan deben cumplir con requisitos de transparencia específicos, respetando la legislación de derechos de autor de la UE y publicando resúmenes detallados del contenido utilizado para entrenar sus modelos. Los modelos más potentes, que podrían representar riesgos sistémicos, deben cumplir con requisitos adicionales, como la realización de evaluaciones de modelos, el análisis y la mitigación de riesgos sistémicos, así como la notificación de incidentes. Además, cualquier imagen, audio o contenido de video artificial o manipulado (“deep-fakes”) debe ser claramente etiquetado como tal.
Medidas de apoyo
Por último, se establecen espacios de prueba y ensayo controlados a nivel nacional para permitir a las PYMES y startups desarrollar y entrenar IA innovadora antes de su comercialización.
Hacé tu comentario