SciELO - Scientific Electronic Library Online

 
vol.34 número4Calidad del aire en Perú no se ajusta a los valores recomendados por la Organización Mundial de la Salud (OMS) índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Revista Medica Herediana

versión impresa ISSN 1018-130Xversión On-line ISSN 1729-214X

Rev Med Hered vol.34 no.4 Lima oct./dic. 2023  Epub 20-Dic-2023

http://dx.doi.org/10.20453/rmh.v34i4.5157 

Cartas al editor

Sobre el uso de modelos de lenguaje basados en inteligencia artificial en la producción científica en ciencias de la salud

On the use of language models based on artificial intelligence in scientific production in health sciences

Fritz Fidel Váscones-Román1  2  3  4  , Estudiante de Medicina
http://orcid.org/0000-0001-9564-0710

Diego Fabrizio Zambrano-Sanchez1  3  , Estudiante de Medicina
http://orcid.org/0009-0001-5093-3509

Franz Jair Vera Arias1  3  , Estudiante de Medicina
http://orcid.org/0000-0003-4700-072

Anthony Gilmer Lopez-Villanueva1  , Estudiante de Medicina
http://orcid.org/0009-0002-1182-9968

1 Facultad de Medicina Alberto Hurtado, Universidad Peruana Cayetano Heredia. Lima, Perú.

2 CRONICAS Centro de Excelencia en Enfermedades Crónicas, Universidad Peruana Cayetano Heredia. Lima, Perú.

3 Sociedad Científica de Estudiantes de Medicina Cayetano Heredia (SOCEMCH). Lima, Perú.

4 Instituto de Investigación de la Altura (IIA), Universidad Peruana Cayetano Heredia. Lima, Perú.

Sr. editor:

El uso de herramientas basadas en inteligencia artificial (IA) como ChatGPT (OpenAI, EE.UU.) está aumentando en muchas áreas del conocimiento por ser gratuito y de fácil acceso para usuarios sin experiencia técnica 1. Por ejemplo, tiene uso en educación médica 2, e incluso fue listado como autor de una producción científica 1. Malik Sallam 3, en una revisión sistemática explica los beneficios y aplicaciones en el cuidado de la salud y señala que la contribución en la escritura académica-científica obtiene el primer lugar contra otros beneficios como la búsqueda científica o práctica de cuidados de salud. Sin embargo, nos preocupan ciertas limitaciones y riesgos éticos de las herramientas basadas en IA en el ámbito de la producción científica en ciencias de la salud, que describimos a continuación.

Nuestras principales preocupaciones están basadas en la falta de continuidad y relevancia de la información a un nivel profesional, lo que se refleja cuando un usuario comenta sobre un acontecimiento o dato actual, este sistema generativo argumenta que los datos disponibles son solo hasta enero del 2022 4; lo cual disminuye la relevancia de su uso porque las ciencias de la salud evolucionan día a día y uno de los objetivos de la producción científica en salud es resolver problemas de salud vigentes. Aunque somos conscientes de que es una situación temporal que, conforme se implementen mejoras, se resolverá, la última versión creada y sucesora del GPT 3.5 abierta para el público, el GPT-4 5, aún carece de conocimientos después del corte de datos, por lo que es probable que tome una gran cantidad de tiempo y que exista un retraso en la información.

Además, tiene limitaciones en la validez de la información 6, ya que cada interacción se toma como una conversación independiente, es decir, al realizar una misma pregunta en distintas interacciones la respuesta puede ser diferente a la anterior 7. Al restarle confiabilidad, se convierte en un problema importante para las áreas de la salud donde se necesita exactitud y precisión. Asimismo, Vaishyaa et.al. 8, demuestra que el uso de ChatGPT (OpenAI, EE.UU.) requiere una verificación rigurosa debido a la inestabilidad de la información brindada. Otra situación problemática es que no cuenta con una supervisión crítica especializada de la información que provee 9, al no haber personas dedicadas a la revisión de la información a un nivel profesional, tornándose engañosa e inverosímil.

La ética médica es un pilar fundamental en la investigación, guiando a los profesionales de la salud para proteger el bienestar del paciente y preservar la relación médico-paciente. Por lo tanto, expresamos nuestra preocupación por los riesgos éticos que podría acarrear el empleo masivo de esta herramienta en todo el proceso de salud de un paciente, desde la prevención hasta la rehabilitación de la enfermedad. Aunque reconocemos los posibles beneficios de su uso, no podemos pasar por alto los errores potenciales y la necesidad de un proceso de implementación exhaustivo para establecer la responsabilidad de las acciones tomadas por la herramienta. Además, la dificultad inherente para comprender el proceso de toma de decisiones de la IA podría afectar negativamente la autonomía del paciente y la capacidad de explicar dicho proceso de manera comprensible.

En conclusión, a pesar de que modelos de lenguaje basados en inteligencia artificial como ChatGPT (OpenAI, EE.UU.) ofrecen ventajas en la búsqueda de información y tiene gran capacidad en la redacción 10, aún presentan grandes limitantes para la producción científica. Además, creemos que su uso masivo a futuro puede generar problemas éticos, debido a la posible transgresión de la autonomía del paciente, y propiciar una situaciones de desigualdad e injusticia en la producción científica entre las personas que no logren entender el funcionamiento de la IA.

REFERENCIAS BIBLIOGRÁFICAS

1. Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove. Nature. 2023; 613(7945):620-621. Doi: 10.1038/d41586-023-00107-z [ Links ]

2. Kung TH, Cheatham M, Medenilla A, Sillos C, De Leon L, Elepaño C, Madriaga M, Aggabao R, Diaz-Candido G, Maningo J, Tseng V. Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. PLOS Digital Health. 2023; 2(2): e0000198. Doi: 10.1371/journal.pdig.0000198 [ Links ]

3. Sallam M. ChatGPT Utility in Healthcare Education, Research, and Practice: Systematic Review on the Promising Perspectives and Valid Concerns. Healthcare (Basel). 2023; 11(6):887. Doi: 10.3390/healthcare11060887 [ Links ]

4. Arefin SE, Heya TA. Unmasking the giant: A comprehensive evaluation of ChatGPT's proficiency in coding algorithms and data structures. arXiv.org. 2023. Doi: 10.48550/arXiv.2307.05360 [ Links ]

5. OpenAI. GPT-4. March 14, 2023. [Citado el 13 de julio del 2023]; Disponible en: https://openai.com/research/gpt-4Links ]

6. Gordijn B, Have HT. ChatGPT: evolution or revolution?. Med Health Care Philos. 2023 Mar; 26(1):1-2. Doi: 10.1007/s11019-023-10136-0 [ Links ]

7. Brown H, Lee K, Mireshghallah F, Shokri R, Tramèr F. What Does it Mean for a Language Model to Preserve Privacy? FAccT '22: Proceedings of the 2022. ACM Conference on Fairness, Accountability, and Transparency. June 2022. Pages: 2280-2292 Doi: 10.1145/3531146.3534642 [ Links ]

8. Vaishya R, Misra A, Vaish A. ChatGPT: Is this version good for healthcare and research? Diabetes Metab Syndr. 2023; 17(4):102744. doi: 10.1016/j.dsx.2023.102744. [ Links ]

9. Kitamura FC. ChatGPT Is Shaping the Future of Medical Writing But Still Requires Human Judgment. Radiology. 2023; 307(2):e230171. doi: 10.1148/radiol.230171. [ Links ]

10. Musick DW. Teaching medical ethics: a review of the literature from North American medical schools with emphasis on education. Med Health Care Philos. 1999; 2(3):239-54. doi: 10.1023/a:1009985413669. [ Links ]

Recibido: 10 de Abril de 2023; Aprobado: 28 de Septiembre de 2023

Correspondencia: Fritz Fidel Váscones Román Calle Urb. mi terruño Mz. F Lt01, Lima, Perú. Código postal 15112 fritz.vascones@upch.pe Celular: +51 946787304

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons