viernes, 25 de abril de 2025

Buenos Aires (AT) – Investigadores de la Universidad de Bayreuth lanzaron un proyecto pionero que analiza un terreno tan novedoso como inquietante: el uso de inteligencia artificial (IA) por parte de fuerzas de seguridad para crear “clones digitales” de personas reales, con el fin de infiltrar redes criminales. A través de técnicas como los deepfakes -contenidos audiovisuales falsificados pero realistas-, los investigadores imaginan escenarios donde fiscales o agentes encubiertos podrían simular ser miembros de una organización delictiva, suplantando digitalmente su voz, rostro y comportamiento.

Niklas Kühl, profesor de informática económica en Bayreuth, dio el puntapié inicial con un ejemplo impactante: un video en el que él mismo pide ayuda económica a su abuela. Pero lo que dice no es real. “La grabación es de una clase que dicté. Lo que no es real es lo que digo y cómo se mueven mis labios”, explicó el académico.

inteligencia artificial, deepfakes, fuerzas de seguridad, seguridad digital, ética y tecnología, justicia penal, Universidad de Bayreuth, derechos personales, investigación judicial, innovación tecnológica, Alemania 2025

La tecnología detrás del engaño

El término “deepfake” surge de la combinación entre “deep learning” (aprendizaje profundo, una técnica de IA) y “fake” (falso). En términos prácticos, un deepfake permite modificar una imagen, video o audio para que una persona parezca decir o hacer algo que nunca ocurrió. En el contexto de la seguridad, esto podría permitir a un agente hacerse pasar digitalmente por un miembro de una organización criminal, especialmente en casos donde los vínculos se desarrollan únicamente por canales virtuales.

“Primero, se necesitarían suficientes grabaciones para generar un modelo preciso de la voz y la imagen de la persona a imitar”, explicó Kühl. “A partir de ese momento, uno podría actuar como esa persona en un entorno digital”. La pregunta que el equipo se hace no es si es técnicamente posible, sino si debe permitirse que el Estado lo haga.

inteligencia artificial, deepfakes, fuerzas de seguridad, seguridad digital, ética y tecnología, justicia penal, Universidad de Bayreuth, derechos personales, investigación judicial, innovación tecnológica, Alemania 2025
El profesor Niklas Kühl simuló pedir ayuda a su abuela usando su propio deepfake.

El derecho a la identidad, en debate

Christian Rückert, profesor de derecho penal en la misma universidad, reconoce que este tipo de estrategia implica un cambio de paradigma. “Lo novedoso es que se falsifica completamente a una persona existente. Hasta donde sé, esto todavía no ocurre en las investigaciones reales en Alemania”, señaló.

Según Rückert, copiar la identidad digital de alguien constituye una intromisión directa en su derecho a la personalidad, un valor protegido por la Constitución alemana. “Estamos frente a una forma inédita de intervención estatal”, alertó. El proyecto, que durará tres años, tiene entre sus objetivos generar recomendaciones jurídicas para los legisladores y guías prácticas para fiscales.

inteligencia artificial, deepfakes, fuerzas de seguridad, seguridad digital, ética y tecnología, justicia penal, Universidad de Bayreuth, derechos personales, investigación judicial, innovación tecnológica, Alemania 2025

Más allá de la ley: los dilemas éticos

El equipo también incluyó a filósofos en la investigación. Lena Kästner, profesora de filosofía práctica, advirtió sobre el riesgo de normalizar los deepfakes en la vida cotidiana. “Si los legitimamos demasiado, podríamos generar una cultura donde cualquiera puede falsificar a cualquiera. Eso es problemático desde muchos puntos de vista”, sostuvo.

Aunque los investigadores enfatizan que el uso de estas herramientas se plantea exclusivamente para fines judiciales y bajo estrictas condiciones, admiten que la línea entre lo lícito y lo peligroso puede volverse difusa.

inteligencia artificial, deepfakes, fuerzas de seguridad, seguridad digital, ética y tecnología, justicia penal, Universidad de Bayreuth, derechos personales, investigación judicial, innovación tecnológica, Alemania 2025
“Esto es una intromisión directa en el derecho a la personalidad”, advirtió el penalista Christian Rückert.

En Alemania, actualmente no existe una legislación específica sobre el uso de deepfakes en procesos penales. Las leyes vigentes sobre agentes encubiertos no contemplan la posibilidad de suplantar identidades mediante IA. “Si uno busca en la legislación, no hay ninguna referencia explícita a estos métodos”, explicó Rückert.

Esta laguna normativa preocupa a los especialistas, que advierten que cualquier avance en el uso de estas tecnologías debe ir acompañado de un marco legal claro y transparente. El riesgo de abusos, manipulación de pruebas o vulneraciones a derechos fundamentales es real si no se establecen límites precisos.

inteligencia artificial, deepfakes, fuerzas de seguridad, seguridad digital, ética y tecnología, justicia penal, Universidad de Bayreuth, derechos personales, investigación judicial, innovación tecnológica, Alemania 2025

Tecnología al servicio del derecho… con reservas

Desde el punto de vista operativo, las ventajas son evidentes. Permitirían a las fuerzas de seguridad ingresar a entornos digitales donde es difícil operar con agentes reales, identificar a sospechosos y reunir evidencia sin exponerse físicamente. Pero todo eso, sostienen los investigadores, debe ir de la mano de controles estrictos.

El proyecto de Bayreuth, financiado con fondos públicos y articulado con fiscales y expertos en seguridad, busca justamente sentar bases responsables. No se trata de una propuesta para usar la IA de manera inmediata, sino de estudiar sus implicancias antes de que llegue al terreno real.

inteligencia artificial, deepfakes, fuerzas de seguridad, seguridad digital, ética y tecnología, justicia penal, Universidad de Bayreuth, derechos personales, investigación judicial, innovación tecnológica, Alemania 2025
La filósofa Lena Kästner alertó sobre el riesgo de naturalizar las falsificaciones digitales.

¿Y si esto se traslada a otros países?

Aunque el proyecto se desarrolla en Alemania, el debate tiene relevancia global. En América Latina, donde la inteligencia artificial empieza a ser utilizada en el ámbito judicial para tareas menores -como análisis de antecedentes o filtrado de expedientes-, la idea de usarla para crear identidades falsas aún parece lejana. Pero no por eso menos urgente. En Argentina, por ejemplo, el uso de la IA en la Justicia está en discusión, sobre todo en relación con la transparencia y la responsabilidad de los algoritmos. La aparición de estos temas en Europa anticipa dilemas que, tarde o temprano, también llegarán al Cono Sur.

Argentinisches Tageblatt, Podcast, Spotify, Spotify for Podcasters, Episodios, Wendepunkt
Te puede interesar

Scholz llama a defender Europa en el aniversario del fin de la Segunda Guerra Mundial

El aniversario del fin de la Segunda Guerra fue el último gran escenario internacional para Olaf ...
3 de mayo de 2025

Por qué las universidades alemanas le deben un ¡Gracias! a Donald Trump

Era un secreto a voces. Ahora comienza a ser una realidad: las erráticas políticas de Donald ...
3 de mayo de 2025

La AfD es declarada oficialmente como amenaza “contra la democracia”

La poderosa agencia de Seguridad Interior - Verfassungsschutz - catalogó oficialmente al partido ...
2 de mayo de 2025

Cuando la huelga fue más fuerte que los tanques: la rebelión que salvó la democracia alemana

La historia del Kapp-Putsch muestra cómo una acción coordinada desde abajo desarmó un golpe de ...
1 de mayo de 2025

Hacé tu comentario

Por si acaso, tu email no se mostrará ;)