Reescribir el Juramento Hipocrático en la era de la inteligencia artificial: Una reflexión desde la Medicina Interna
- Dr. Vahid Nouri Kandany
- marzo 18, 2026
- Consejo Medicina Interna, Editoriales
- consejo medicina interna, Inteligencia Artificial, juramento hipocrático, medicina, Vahid Nouri Kandany
- 0 Comments
Uso de inteligencia artificial: El autor utilizó IA generativa para la organización del manuscrito, bajo su plena responsabilidad.
En marzo de 2023, miles de científicos y líderes tecnológicos, convocados por el Future of Life Institute, pidieron algo inusual: hacer una pausa, no para frenar el progreso, sino para recuperar la reflexión ética frente a un avance de la inteligencia artificial (IA) que estaba superando nuestra capacidad de responsabilidad colectiva 1.
Para la medicina, este debate es plenamente actual. La inteligencia artificial ya forma parte de la práctica clínica cotidiana, influyendo en el diagnóstico, la estratificación del riesgo y la toma de decisiones. Sin embargo, los compromisos éticos de la profesión siguen anclados a una medicina exclusivamente humana, lo que plantea una cuestión inevitable: ¿es aún suficiente el juramento hipocrático en la era de la inteligencia artificial?
No se cuestiona el valor del Juramento Hipocrático, sino su carácter dinámico. A lo largo de la historia ha sido reinterpretado para acompañar los grandes cambios de la medicina, y la irrupción de la inteligencia artificial constituye hoy un nuevo punto de inflexión que obliga a revisar la responsabilidad moral del acto médico 2.
El juramento hipocrático consagra principios irrenunciables como la beneficencia, la no maleficencia, la confidencialidad y la primacía del bienestar del paciente; no obstante, estos fueron concebidos para un acto médico esencialmente humano. Hoy, muchas decisiones se apoyan en sistemas que no sienten, no sufren y no pueden responder moralmente por sus consecuencias. La IA no puede jurar, aunque sus recomendaciones influyan de forma real en la vida de los pacientes.
Sabemos, además, que estos sistemas no son infalibles. La evidencia muestra que la IA generativa puede producir información clínicamente plausible y, al mismo tiempo, incorrecta, especialmente cuando falta una supervisión humana crítica 3. A este riesgo se suma otro menos visible pero decisivo: la opacidad algorítmica. Muchos modelos funcionan como auténticas cajas negras, cuya lógica interna resulta inaccesible para el clínico, dificultando una deliberación prudente y una rendición de cuentas transparente 4.
No todos los riesgos son técnicos. Algunos son profundamente humanos. La llamada pereza epistémica o sesgo de automatización describe la tendencia a aceptar la recomendación de una máquina para evitar el esfuerzo de cuestionarla. En entornos de alta presión asistencial, esta confianza excesiva puede erosionar, casi sin darnos cuenta, el juicio clínico independiente que define nuestra profesión 5,6.
Desde esta perspectiva, hablar de “reescribir” el juramento no significa crear un juramento para máquinas. Significa hacer explícitos los compromisos del médico cuando decide apoyarse en ellas: comprender sus límites, exigir transparencia razonable, mantener una supervisión crítica constante y asumir, sin ambigüedades, la responsabilidad final de cada decisión clínica 7–9.
En Medicina Interna, esta reflexión adquiere un significado especial. El internista trabaja en la incertidumbre, integra múltiples variables y atiende a pacientes complejos en contextos humanos concretos. En ese escenario, la IA puede ser una aliada valiosa para organizar datos y apoyar la toma de decisiones, pero no puede sustituir la prudencia clínica ni la responsabilidad ética. Defender este papel no es un gesto conservador, sino una afirmación de identidad profesional.
La dimensión social tampoco puede ignorarse. Está bien documentado que algunos algoritmos reproducen o amplifican sesgos presentes en los datos con los que fueron entrenados, afectando de forma desproporcionada a poblaciones vulnerables 10. Por ello, la justicia algorítmica debe ser una preocupación central. Del mismo modo, respetar la autonomía exige informar al paciente cuando sistemas algorítmicos participan de forma relevante en su atención, integrando esta información en un consentimiento verdaderamente informado.
Las recomendaciones de la Organización Mundial de la Salud insisten en la necesidad de garantizar supervisión humana, transparencia, rendición de cuentas y respeto a los derechos humanos en el uso de IA en salud 11. Estos principios no contradicen el espíritu hipocrático; lo actualizan. Integrarlos explícitamente en un marco similar al juramento refuerza su valor pedagógico al recordar que el médico debe formular la pregunta clínica, filtrar críticamente la información, fundamentar la decisión y asumir la responsabilidad ética final del acto médico 12.
Propuesta de Juramento Médico para la Práctica Clínica con Inteligencia Artificial
Como médico, me comprometo a ejercer mi profesión con respeto por la dignidad, la autonomía y los derechos humanos de cada paciente.
Reconozco que la inteligencia artificial puede apoyar mi práctica clínica; sin embargo, declaro que no sustituirá mi juicio profesional, mi responsabilidad ética ni mi deber de cuidado.
Utilizaré estos sistemas de manera crítica y responsable, exigiendo transparencia razonable y evitando la confianza ciega en la automatización.
Asumiré plena responsabilidad por las decisiones clínicas, aun cuando estén asistidas por algoritmos, e informaré a mis pacientes sobre su uso relevante.
Recordaré siempre que no trato datos ni predicciones, sino personas, y que la tecnología debe estar al servicio del bienestar humano.
Este juramento no pretende reemplazar el Juramento Hipocrático ni la Declaración de Ginebra. Aspira, simplemente, a hacer explícito lo esencial en un contexto nuevo: que incluso en la era de la inteligencia artificial, la responsabilidad moral del acto médico sigue siendo irrenunciablemente humana.
Tal vez la pregunta no sea si debemos reescribir el Juramento Hipocrático, sino si podemos permitirnos no detenernos a repensarlo.
Referencias
- Future of Life Institute. Policymaking in the pause: what can policymakers do now to combat risks from advanced AI systems? [Internet]. Boston: Future of Life Institute; 2023. Disponible en: https://futureoflife.org/wp-content/uploads/2023/04/FLI_Policymaking_In_The_Pause.pdf
- Meskó B, Spiegel B. A revised Hippocratic Oath for the era of digital health. J Med Internet Res. 2022;24(9):e39177. doi: https://doi.org/10.2196/39177
- Menz BD, Kuderer NM, Bacchi S, Modi ND, Chin-Yee B, Hu T, et al. Current safeguards, risk mitigation, and transparency measures of large language models against the generation of health disinformation: repeated cross-sectional analysis. BMJ. 2024;384:e078538.doi: https://doi.org/10.1136/bmj-2023-078538
- Lipton ZC. The mythos of model interpretability. Commun ACM. 2018;61(10):36–43. doi: https://doi.org/10.1145/3233231
- Parasuraman R, Riley V. Humans and automation: use, misuse, disuse, abuse. Hum Factors. 1997;39(2):230–253. doi: https://doi.org/10.1518/001872097778543886
- Skitka LJ, Mosier KL, Burdick M, Rosenblatt B. Automation bias and errors: are crews better than individuals? Int J Aviat Psychol. 2000;10(1):85–97. doi: https://doi.org/10.1207/S15327108IJAP1001_5
- Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med. 2019;25(1):44–56. doi: https://doi.org/10.1038/s41591-018-0300-7
- Maddox TM, Embí P, Gerhart J, Goldsack J, Parikh RB, Sarich TC. Generative AI in medicine: evaluating progress and challenges. N Engl J Med. 2025;392(24):2479–2483.doi: https://doi.org/10.1056/NEJMsb2503956
- Weiner EB, Dankwa-Mullan I, Nelson WA, Hassanpour S. Ethical challenges and evolving strategies in the integration of artificial intelligence into clinical practice. PLOS Digit Health. 2025;4(4):e0000810. doi: https://doi.org/10.1371/journal.pdig.0000810
- Obermeyer Z, Powers B, Vogeli C, Mullainathan S. Dissecting racial bias in an algorithm used to manage population health. Science. 2019;366(6464):447–453. doi: https://doi.org/10.1126/science.aax2342
- World Health Organization. Ethics and governance of artificial intelligence for health: guidance on large multi-modal models. Geneva: WHO; 2025. Disponible en: https://www.who.int/publications/i/item/WHO-ETHICS-AI-2025
- Kandany VN. Inteligencia artificial, deuda cognitiva y el protocolo 4F: pensar para no perder la voz propia. REVISTA ARGENTINA DE MEDICINA. 2025 Dec 29;13(4):227-8.

