Sr. editor:
El uso de herramientas basadas en inteligencia artificial (IA) como ChatGPT (OpenAI, EE.UU.) está aumentando en muchas áreas del conocimiento por ser gratuito y de fácil acceso para usuarios sin experiencia técnica 1. Por ejemplo, tiene uso en educación médica 2, e incluso fue listado como autor de una producción científica 1. Malik Sallam 3, en una revisión sistemática explica los beneficios y aplicaciones en el cuidado de la salud y señala que la contribución en la escritura académica-científica obtiene el primer lugar contra otros beneficios como la búsqueda científica o práctica de cuidados de salud. Sin embargo, nos preocupan ciertas limitaciones y riesgos éticos de las herramientas basadas en IA en el ámbito de la producción científica en ciencias de la salud, que describimos a continuación.
Nuestras principales preocupaciones están basadas en la falta de continuidad y relevancia de la información a un nivel profesional, lo que se refleja cuando un usuario comenta sobre un acontecimiento o dato actual, este sistema generativo argumenta que los datos disponibles son solo hasta enero del 2022 4; lo cual disminuye la relevancia de su uso porque las ciencias de la salud evolucionan día a día y uno de los objetivos de la producción científica en salud es resolver problemas de salud vigentes. Aunque somos conscientes de que es una situación temporal que, conforme se implementen mejoras, se resolverá, la última versión creada y sucesora del GPT 3.5 abierta para el público, el GPT-4 5, aún carece de conocimientos después del corte de datos, por lo que es probable que tome una gran cantidad de tiempo y que exista un retraso en la información.
Además, tiene limitaciones en la validez de la información 6, ya que cada interacción se toma como una conversación independiente, es decir, al realizar una misma pregunta en distintas interacciones la respuesta puede ser diferente a la anterior 7. Al restarle confiabilidad, se convierte en un problema importante para las áreas de la salud donde se necesita exactitud y precisión. Asimismo, Vaishyaa et.al. 8, demuestra que el uso de ChatGPT (OpenAI, EE.UU.) requiere una verificación rigurosa debido a la inestabilidad de la información brindada. Otra situación problemática es que no cuenta con una supervisión crítica especializada de la información que provee 9, al no haber personas dedicadas a la revisión de la información a un nivel profesional, tornándose engañosa e inverosímil.
La ética médica es un pilar fundamental en la investigación, guiando a los profesionales de la salud para proteger el bienestar del paciente y preservar la relación médico-paciente. Por lo tanto, expresamos nuestra preocupación por los riesgos éticos que podría acarrear el empleo masivo de esta herramienta en todo el proceso de salud de un paciente, desde la prevención hasta la rehabilitación de la enfermedad. Aunque reconocemos los posibles beneficios de su uso, no podemos pasar por alto los errores potenciales y la necesidad de un proceso de implementación exhaustivo para establecer la responsabilidad de las acciones tomadas por la herramienta. Además, la dificultad inherente para comprender el proceso de toma de decisiones de la IA podría afectar negativamente la autonomía del paciente y la capacidad de explicar dicho proceso de manera comprensible.
En conclusión, a pesar de que modelos de lenguaje basados en inteligencia artificial como ChatGPT (OpenAI, EE.UU.) ofrecen ventajas en la búsqueda de información y tiene gran capacidad en la redacción 10, aún presentan grandes limitantes para la producción científica. Además, creemos que su uso masivo a futuro puede generar problemas éticos, debido a la posible transgresión de la autonomía del paciente, y propiciar una situaciones de desigualdad e injusticia en la producción científica entre las personas que no logren entender el funcionamiento de la IA.