miércoles, 13 de marzo de 2024

Buenos Aires (AT) – Este miércoles 13 de marzo, el pleno del Parlamento Europeo adoptó la  histórico Acta de Inteligencia Artificial con una votación de 523-46, con 49 abstenciones. De este modo, el bloque continental se convierte en la primera gran organización política en establecer reglas claras para la tecnología emergente.

Las reglas prohibirán algunas aplicaciones de IA como la puntuación social algorítmica y prácticas explotadoras, y establecerá reglas estrictas para otros sistemas de IA utilizados en situaciones consideradas “de alto riesgo”, como la educación, el trabajo o la gestión de infraestructuras críticas.

Los modelos de IA más avanzados, etiquetados como “de propósito general”, deberán observar un conjunto específico de obligaciones de mitigación y pruebas; su cumplimiento será supervisado por una unidad recién creada dentro de la Comisión Europea: la Oficina de IA.

La ley fue concebida por primera vez en 2021 antes de la explosión de herramientas de IA generativas como ChatGPT de OpenAI. El proceso de redacción estuvo marcado por tensiones latentes entre los legisladores europeos y los gobiernos de la UE, incluidos Francia y Alemania, por temor a que una regulación pudiera frenar el progreso de Europa en la carrera mundial por convertirse en un líder en IA. Otros puntos de controversia fue la posibilidad de una prohibición total de la tecnología de reconocimiento facial, que en el texto final está limitada pero no prohibida, y la estructura misma de la Oficina de IA.

Europa, Unión europea, Inteligencia artificial, IA, ley, legislación
El parlamento europeo aprobó una legislación histórica para la IA.

Thierry Breton, el jefe del mercado interno de la Comisión Europea, dijo después de la votación que “Europa ahora es un líder en estándares globales para una IA confiable”.

Se espera que el Consejo de la UE adopte oficialmente el texto en abril, con los efectos aplicables a fines de 2024 y entrando en vigor a principios de 2025. El resto de la ley comenzará a aplicarse en 2026.

Restricciones sobre apps de inteligencia artificial

Las normativas prohíben el uso de ciertas aplicaciones de IA que vulneran los derechos ciudadanos, tales como sistemas de categorización biométrica basados en rasgos sensibles, así como la recolección indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para la creación de bases de datos de reconocimiento facial.

También se vetan el reconocimiento de emociones en entornos laborales y educativos, los sistemas de puntuación ciudadana, la aplicación de técnicas de policía predictiva basadas únicamente en perfiles individuales o en la evaluación de características personales, así como cualquier forma de IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas.

Excepciones

El uso de sistemas de identificación biométrica por parte de las autoridades policiales queda previamente prohibido, salvo en situaciones claramente definidas y específicas. La utilización en tiempo real de sistemas de identificación biométrica debe estar sujeta a salvaguardias estrictas, como la restricción de su uso a un tiempo y lugar específicos, así como la autorización judicial o administrativa previa. Dichos casos podrían incluir la búsqueda dirigida de personas desaparecidas o la prevención de actos terroristas. Recurrir a estos sistemas de manera retroactiva se considera un riesgo elevado, por lo que requiere autorización judicial debido a su vinculación con delitos penales.

Obligaciones

Se establecen claras obligaciones para otros sistemas de IA considerados de alto riesgo debido a su potencial impacto negativo en la salud, seguridad, derechos fundamentales, medio ambiente, democracia y estado de derecho. Ejemplos de estos usos de alto riesgo incluyen infraestructuras críticas, educación, empleo, servicios públicos y privados esenciales (como atención médica y banca), ciertos sistemas de aplicación de la ley, gestión migratoria, justicia y procesos democráticos (como la influencia en elecciones). Estos sistemas deben evaluar y mitigar los riesgos, mantener registros de uso, ser transparentes y precisos, y contar con supervisión humana. Los ciudadanos tienen derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones de las decisiones basadas en ellos que afecten sus derechos.

Requisitos de transparencia

Los sistemas de IA de uso general y los modelos en los que se basan deben cumplir con requisitos de transparencia específicos, respetando la legislación de derechos de autor de la UE y publicando resúmenes detallados del contenido utilizado para entrenar sus modelos. Los modelos más potentes, que podrían representar riesgos sistémicos, deben cumplir con requisitos adicionales, como la realización de evaluaciones de modelos, el análisis y la mitigación de riesgos sistémicos, así como la notificación de incidentes. Además, cualquier imagen, audio o contenido de video artificial o manipulado (“deep-fakes”) debe ser claramente etiquetado como tal.

Medidas de apoyo

Por último, se establecen espacios de prueba y ensayo controlados a nivel nacional para permitir a las PYMES y startups desarrollar y entrenar IA innovadora antes de su comercialización.

Te puede interesar

En autos eléctricos, la calidad alemana seduce más que el precio chino

No todo es gris en la industria automotriz alemana. Un estudio revela que las principales marcas ...
24 de julio de 2024

Aldi le abre las puertas a los robots y automatiza sus ventas por Internet

Aldi, el grupo de supermercados con sede en toda Europa, habilita puntos de recogida automatizados ...
22 de julio de 2024

Helsing: el unicornio que defiende la OTAN con inteligencia artificial

Helsing, el unicornio con sede en Múnich, acaba de levantar EUR 450 millones en una nueva ronda de ...
18 de julio de 2024

Brand Finance: Nestlé pierde, pero sigue siendo la marca más valiosa

Cada año, la empresa de valoración de marcas Brand Finance pone a prueba a más de 5.000 de las ...
15 de julio de 2024

Hacé tu comentario

Por si acaso, tu email no se mostrará ;)