Buenos Aires / Berlín – Los buscadores y chatbots que se basan en la inteligencia artificial (IA) no proporcionan información fiable sobre medicamentos, dado que las respuestas son inexactas, advierte un estudio de un instituto alemán de farmacología. Wahram Andrikyan, del Instituto de Farmacología y Toxicología Experimental y Clínica de la Universidad de Erlangen, en el sur de Alemania, explicó en el informe publicado en la revista “BMJ Quality & Safety” que las respuestas fueron repetidamente inexactas e incompletas y a menudo difíciles de entender. Por ello, los investigadores aconsejan precaución y reclaman que se advierta a los usuarios.
“Un hallazgo clave de nuestro estudio es que la calidad de las respuestas del chatbot aún no es suficiente para un uso seguro por parte de los usuarios“, señaló Andrikyan. “Por lo tanto, en nuestra opinión es esencial que se indique claramente que la información proporcionada por el chatbot no puede sustituir al asesoramiento profesional“, agregó.
¿Cómo se hizo el estudio?
El punto de partida del estudio fue el hecho de que los pacientes utilizan internet para informarse sobre la medicación prescrita. Por ello, en abril de 2023, los investigadores plantearon al chatbot asistido por IA del buscador Bing de Microsoft diez preguntas habituales sobre los 50 medicamentos más recetados en Estados Unidos, incluidas cuestiones sobre cómo tomarlos, efectos secundarios y contraindicaciones.
Andrikyan aclaró que, en general, el chatbot respondió a las preguntas con un alto grado de exhaustividad y precisión, pero ese no fue el caso con algunas de las consultas. “Esto supone un riesgo para los pacientes, ya que, al no tener conocimientos de medicina, no pueden evaluar por sí mismos la precisión y exhaustividad de las respuestas generadas por la IA”, comentó el experto.
El investigador subrayó que se han producido rápidos avances en los buscadores asistidos por IA con función de chatbot integrada desde que se hizo el estudio el año pasado. Sin embargo, observó que las mejoras no son suficientes y que por el momento persisten los riesgos para la seguridad de los pacientes. Sin embargo, Andrikyan cree que, como los chatbots se entrenan con diferentes conjuntos de datos, tiene sentido analizar también la seguridad y la calidad de otros sistemas tecnológicos.
(AT / dpa)
Hacé tu comentario