lunes, 19 de agosto de 2024

Buenos Aires (AT) – La Ley de Inteligencia Artificial (IA) de la Unión Europea entró en vigor el 1 de agosto, marcando un hecho importante en la regulación de tecnologías emergentes en el continente. La normativa se propone establecer límites claros sobre lo que la inteligencia artificial puede y no puede hacer en la UE.

Este marco legal, que se convierte en el primero de su tipo a nivel mundial, busca mitigar los riesgos asociados con la IA, especialmente en áreas sensibles y relacionadas con la salud.

Un análisis de expertos sobre la ley de IA

Un equipo dirigido por el profesor de informática Holger Hermanns, de la Universidad de Saarland, y la profesora de derecho Anne Lauber-Rönsberg, de la Universidad Técnica de Dresde, se ha dedicado a examinar cómo esta nueva legislación afecta el trabajo práctico de los programadores. Los resultados de su análisis ya están disponibles en el servidor de preprints arXiv.

Inteligencia artificial
Los desarrolladores de sistemas de inteligencia artificial deben familiarizarse con las nuevas normativas de la UE, especialmente cuando trabajan con aplicaciones de alto riesgo.

“La Ley de IA muestra que los políticos entendieron que la IA puede representar un peligro potencial, especialmente cuando afecta áreas sensibles o relacionadas con la salud”, afirma Hermanns en una entrevista con el medio TechXplore. La regulación establece requisitos estrictos para los sistemas de IA considerados de alto riesgo, aquellos que pueden tener un impacto significativo en la vida de las personas, como los utilizados en el ámbito de la salud, la educación o la justicia.

Sin embargo, Hermanns señala que una pregunta recurrente entre los programadores es: “Entonces, ¿qué es lo que realmente necesito saber?” Muchos de ellos no tienen tiempo o disposición para leer las 144 páginas completas del reglamento, lo que subraya la necesidad de entender rápidamente las implicaciones prácticas de la ley.

Lo que los programadores necesitan saber

En el artículo de investigación titulado “AI Act for the Working Programmer”, Hermanns y su equipo, que incluye a la estudiante de doctorado Sarah Sterz, el investigador postdoctoral Hanwei Zhang, la profesora Lauber-Rönsberg y su asistente de investigación Philip Meinel, abordan esta preocupación.

Sterz resume la conclusión principal: “En general, los desarrolladores de software y los usuarios de IA no notarán mucha diferencia. Las disposiciones de la Ley de IA solo se vuelven realmente relevantes cuando se desarrollan sistemas de IA de alto riesgo”.

La Ley de IA europea busca proteger a los futuros usuarios de un sistema de la posibilidad de que una IA los trate de manera discriminatoria, perjudicial o injusta. Hermanns explica que, si una IA no interviene en áreas sensibles, no estará sujeta a las amplias regulaciones que se aplican a los sistemas de alto riesgo. Por ejemplo, una IA que simula las reacciones de los oponentes en un videojuego puede desarrollarse y comercializarse sin que los desarrolladores deban preocuparse por la Ley de IA.

Implicaciones prácticas y ejemplos concretos

Inteligencia artificial
La nueva Ley de Inteligencia Artificial de la UE impone directrices estrictas para garantizar el uso seguro y ético de esta tecnología en el continente.

Para ilustrar lo que esto significa en la práctica, Hermanns ofrece un ejemplo: “Si se crea un software de IA con el objetivo de revisar solicitudes de empleo y potencialmente filtrar a los candidatos antes de que un profesional de recursos humanos intervenga, entonces los desarrolladores de ese software estarán sujetos a las disposiciones de la Ley de IA tan pronto como el programa se comercialice o entre en funcionamiento”. En contraste, una IA que simplemente simula comportamientos en un entorno de entretenimiento, como un videojuego, no se verá afectada por las nuevas regulaciones.

Los sistemas de alto riesgo, que incluyen software de seguimiento de solicitantes, sistemas de calificación crediticia algorítmica, software médico o programas que gestionan el acceso a instituciones educativas, deberán cumplir con un conjunto estricto de reglas.

Hermanns detalla que “los programadores deben asegurarse de que los datos de entrenamiento sean adecuados para el propósito y que la IA entrenada con ellos pueda realmente desempeñar su tarea correctamente”. Este requisito busca prevenir la discriminación derivada de sesgos en los datos de entrenamiento.

Inteligencia artificial, bots, chatGPT, periodismo

Sterz añade que “estos sistemas también deben mantener registros (logs) para que sea posible reconstruir qué eventos ocurrieron en qué momento, similar a las cajas negras que se colocan en los aviones”. Además, la ley exige que los proveedores de software documenten exhaustivamente cómo funciona el sistema, similar a un manual de usuario convencional. Esta documentación debe estar disponible para el implementador, permitiendo una supervisión adecuada durante su uso y la corrección de errores en tiempo real.

El futuro de la IA en Europa

La Ley de IA introduce una serie de restricciones significativas, pero Hermanns subraya que “la mayoría de las aplicaciones de software apenas se verán afectadas”. Las actividades que ya son ilegales hoy, como el uso de algoritmos de reconocimiento facial para interpretar emociones, seguirán estando prohibidas. Sistemas de IA no controvertidos, como los utilizados en videojuegos o en filtros de spam, no tendrán mayores cambios bajo esta nueva ley.

Un aspecto clave es que “los sistemas de alto riesgo mencionados anteriormente solo estarán sujetos a regulación legislativa cuando entren en el mercado o se pongan en funcionamiento”, agrega Sterz. No existirán restricciones para la investigación y el desarrollo, tanto en el ámbito público como en el privado. Esto asegura que el avance en el campo de la IA continúe sin mayores obstáculos, permitiendo a los investigadores y desarrolladores explorar nuevas fronteras tecnológicas.

Hermanns concluye con una perspectiva optimista sobre el impacto de la ley: “Veo poco riesgo de que Europa se quede atrás en los desarrollos internacionales como resultado de la Ley de IA”. De hecho, tanto él como sus colegas consideran que la legislación ofrece un marco adecuado y necesario para el uso de inteligencia artificial en todo el continente. “La Ley es un intento de regular la IA de una manera razonable y justa, y creemos que ha sido exitosa”, afirma Hermanns, destacando la importancia de esta regulación como un paso crucial hacia un futuro donde la IA se desarrolle de manera ética y responsable en la Unión Europea.

Te puede interesar

¿Quién es el autor del atentado que sacude a Alemania?

El responsable del ataque en un mercado navideño en Alemania había expresado posturas ...
20 de diciembre de 2024

Atentado en Magdeburgo: ya son cuatro los muertos y hay más de 200 heridos

Conmoción en Alemania: un hombre embistió con un vehículo a los asistentes de un mercado ...
20 de diciembre de 2024

Mercedes-Benz revoluciona la movilidad sostenible con pintura solar

La "Solar Coating" de Mercedes-Benz podría cambiar el futuro de los vehículos eléctricos. Esta ...
20 de diciembre de 2024

Milagro navideño en Volkswagen: acuerdo histórico con los sindicatos

Volkswagen e IG Metall logran un acuerdo que garantiza el empleo hasta 2030, evita despidos y ...
20 de diciembre de 2024

Hacé tu comentario

Por si acaso, tu email no se mostrará ;)