Buenos Aires (AT) – Los líderes estatales y gubernamentales de los siete países democráticos más grandes del mundo, conocidos como el Grupo de los Siete (G7), acordaron directrices para la regulación de la Inteligencia Artificial (IA). El acuerdo, publicado bajo la presidencia japonesa del G7, hace hincapié en la necesidad de mitigar los riesgos asociados con la IA y proteger a las personas contra su mal uso.
La iniciativa representa un llamado a la acción dirigido a proveedores de IA, como OpenAI, Microsoft y Google. Se les exige que identifiquen y minimicen los posibles riesgos asociados con sistemas de IA avanzada, como el famoso ChatGPT. Además, se enfatiza la importancia de que estos proveedores publiquen informes de transparencia de manera regular y desarrollen medidas efectivas para etiquetar el contenido generado por IA, por ejemplo mediante la inclusión de marcas de agua específicas.
Según el medio FAZ, el fundamento de estas directrices se encuentra en el “Proceso de IA de Hiroshima”, lanzado por los Ministros de Asuntos Digitales del G7 en mayo. Es un proceso en el que participaron Alemania, Estados Unidos, Canadá, Francia, el Reino Unido, Italia y Japón, y que resultó en la creación de normas internacionales y un código de conducta voluntario para los proveedores de IA. Son el primer conjunto de reglas al que los desarrolladores pueden recurrir, si bien se espera que sigan evolucionando para adaptarse a los avances tecnológicos.
Los pasos a seguir
El código de conducta se destacó como un logro en el esfuerzo por garantizar un uso seguro y ético de la IA. El Ministro de Asuntos Digitales de Alemania, Volker Wissing, subrayó la importancia de estas directrices al afirmar que los sistemas de IA avanzada no deben utilizarse para socavar democracias, manipular a las personas o respaldar actividades criminales o terroristas.
Además de los Estados del G7, la Unión Europea también está avanzando en la formulación de una legislación integral de IA. Actualmente se encuentra en un proceso de aprobación entre el Parlamento de la UE, el Consejo y la Comisión. Se espera que esta ley se finalice antes de que termine el año.
En tanto, en una cumbre sobre IA en el Reino Unido líderes políticos, empresariales y de investigación discutirán principalmente cuestiones relacionadas con la regulación. Uno de los temas clave es definir qué aplicaciones de IA deben ser consideradas de alto riesgo y, por lo tanto, estar sujetas a regulaciones más rigurosas, en tanto se busca evitar el sofocamiento del desarrollo de esta tecnología.
Recordemos que la IA tiene el potencial de desempeñar un papel fundamental en la lucha contra el cambio climático, al permitir un uso más eficiente de la energía. Además, su aplicación se extiende a campos como la administración pública, la atención médica y el análisis de datos de tráfico y fenómenos meteorológicos, aunque el procesamiento de datos necesario conlleva un alto consumo de energía.
Repercusiones de las medidas
La Comisión Europea elogió la declaración conjunta del G7. La consideró un “complemento importante” a la legislación de la UE a nivel internacional. La Presidenta de la Comisión Europea, Ursula von der Leyen, instó a los desarrolladores de IA a suscribir y aplicar el código de conducta lo antes posible.
Por su parte, el Presidente de los Estados Unidos, Joe Biden, tomó medidas concretas para una mayor regulación de la IA y emitió un decreto al respecto. Este decreto obliga a los proveedores de IA a someterse a ciertas pruebas si sus programas representan riesgos para la seguridad nacional, la salud pública o la seguridad en general. Según las directrices, los resultados de estas pruebas, diseñadas por las autoridades pertinentes, deben ser presentados al gobierno antes de que cualquier nuevo software de IA llegue al mercado. Se trata de una iniciativa que también representa un paso importante en la estrategia de aprovechar los beneficios de la IA y mitigar sus riesgos.
Hacé tu comentario