La confianza es un pilar fundamental en la construcción de relaciones sólidas y estables, tanto entre individuos, como entre grupos sociales o entre personas y las tecnologías que las rodean.
Yuval Noah Harari, por ejemplo, en su obra “Sapiens”, destaca cómo la confianza ha sido clave en la capacidad humana para construir sociedades complejas a partir de creencias compartidas. Sin embargo, en la era de la inteligencia artificial (IA), y particularmente en el ámbito de la salud, la confianza enfrenta desafíos sin precedentes.
La capacidad de la IA para generar y manipular información plantea preguntas éticas fundamentales. La IA generativa, con su ilimitado potencial para fantasear, mentir y construir realidades alternativas de manera plausible y fluida, exige una revisión profunda de cómo entendemos y otorgamos nuestra confianza.
¿A quién? ¿Por qué? ¿Para qué? ¿Durante cuánto tiempo? ¿Cómo se sustituye una mentira? ¿Cómo se recompone la confianza cuando se rompe?

La preocupación surge cuando consideramos por qué, históricamente, los humanos hemos depositado nuestra confianza en figuras y sistemas que sabemos que nos han mentido. O que nos van a mentir inexorablemente.
Curiosamente, Harari reflexiona sobre cómo, a pesar de las grandes mentiras o distorsiones de la verdad, las sociedades han continuado confiando en líderes y narrativas, a menudo porque estas cumplen una función social, política o emocional más amplia. Probablemente, creer a un mentiroso genera más tranquilidad que aceptar la incertidumbre de no tener una respuesta.
En el contexto de la salud, donde la ética de la IA adquiere una relevancia crítica, este fenómeno nos lleva a cuestionar cómo podemos y debemos confiar en sistemas de IA que, potencialmente, tienen la capacidad no solo de equivocarse, sino de ser programados para engañar o sesgar la información con fines específicos. La transparencia, la responsabilidad y la verificabilidad se presentan como principios éticos clave en la gestión de esta confianza. Sin embargo, la implementación efectiva de estos principios en sistemas complejos y a menudo opacos plantea un desafío considerable.
La confianza en la IA en salud no solo implica la precisión técnica o la fiabilidad operativa de los sistemas, sino también la integridad moral de quienes los diseñan, implementan y regulan. Esto requiere un enfoque multidisciplinario que integre conocimientos técnicos con perspectivas éticas, filosóficas y sociales. La educación y el diálogo continuo entre desarrolladores de IA, profesionales de la salud, pacientes y el público en general son esenciales para construir un entendimiento compartido de lo que significa confiar en la IA y cómo esa confianza puede ser justificada, mantenida y protegida.
A nivel práctico, la implementación de sistemas de IA en salud debe ir acompañada de rigurosas evaluaciones de impacto ético, auditorías continuas y mecanismos de retroalimentación que permitan identificar y corregir rápidamente cualquier desviación de los estándares éticos. Además, es crucial fomentar la creación de marcos regulatorios que promuevan la transparencia y la responsabilidad de los desarrolladores y usuarios de IA.
En última instancia, la confianza en la IA en salud no es solo una cuestión de tecnología, sino de humanidad. La pregunta no es simplemente si podemos construir sistemas de IA en los que podamos confiar, sino cómo podemos asegurar que estos sistemas refuercen los valores humanos fundamentales, promuevan el bienestar colectivo y se utilicen de manera que respeten la dignidad y los derechos de todos los individuos.

Leave a Reply