La inteligencia artificial se ha convertido en una herramienta muy útil que alcanza ya directa o indirectamente todos los ámbitos de la vida moderna. La salud no es una excepción e indudablemente la medicina se ha beneficiado de las tecnologías digitales pero, al igual que en todos los campos, las ventajas que ofrecen también conllevan riesgos que se deben atajar.
Las herramientas de inteligencia artificial no son infalibles y, en el caso de la sanidad, su nivel de eficiencia depende de que se hayan elaborado según una serie de parámetros científicos y éticos.
La Organización Mundial de la Salud ha advertido en repetidas ocasiones que el uso inadecuado de la inteligencia artificial puede perjudicar a los pacientes mediante un diagnóstico erróneo o un tratamiento equivocado, por eso, las herramientas se pueden usar, pero las decisiones siempre deben estar a cargo de un trabajador sanitario capacitado.
El jefe de Sistemas de Información y Salud Digital de la Organización Panamericana de la Salud, Marcelo D´Agostino, habló con Noticias ONU sobre la historia de la inteligencia artificial en la medicina, sus aplicaciones actuales, riesgos y maneras de encararlos.
La historia
La inteligencia artificial empezó a usarse en la medicina hace varias décadas, pero se hizo más relevante por la transformación digital asociada a la pandemia, dice el experto. “Su utilización se remonta a la década de los 60 y 70, cuando empezaron los llamados sistemas expertos o basados en reglas lógicas, pero el principal punto de inflexión fue en 1980, cuando aparecieron los sistemas en los que las computadoras aprenden y automáticamente llevan a cabo análisis a partir de grandes cantidades de datos médicos”.
A partir de esos algoritmos con capacidad de aprender, en la década de los 90 comenzó propiamente el uso de la inteligencia artificial en la interpretación de imágenes.
“Esto fue un poco inspirado por otras tecnologías como la utilizada por la NASA para la captura de imágenes. En la medicina se empezaron a utilizar entonces también en la interpretación de imágenes, como radiografías o resonancias magnéticas”.
Después llegó otro gran movimiento, el de la inteligencia del big data, de los datos masivos, utilizada para analizar los grandes conjuntos de datos que dio lugar a lo que hoy es posible: modelos de predicciones, descubrimientos, e inclusive de fármacos.
También impulsó la medicina de precisión a partir de herramientas que analizan grandes volúmenes de datos, lo que antes era impensable. Esto sin incluir la detección temprana de enfermedades a partir de datos genéticos.
Y lo último, lo más visible después de la aparición de los chatbots o herramientas para conversar con máquinas: la gran ola de los últimos meses con el ChatGPT y otras herramientas con las que se puede conversar y a las que se puede pedir información.
Es una evolución que ha tenido subidas y bajadas, agrega el experto.
Inteligencia artificial y diagnósticos
¿Se pueden hacer diagnósticos con la inteligencia artificial? D´Agostino responde que sí, pero es enfático al aclarar que esas tecnología siempre deben ser controladas o supervisadas por seres humanos. “Es decir, no dejar que la herramienta haga el diagnóstico y confiar un 100% en ese diagnóstico, porque también se han identificado algunas fallas. Siempre tiene que estar acompañado de profesionales, siempre debe tener una serie de parámetros para que uno pueda utilizarlo como instrumento de apoyo (…) la idea es que un profesional, en última instancia, sea quien tenga la responsabilidad de diagnosticar, de tomar decisiones”.
En cuanto a la robótica quirúrgica, las cirugías asistidas por robots que buscan mayor precisión en los movimientos, así como intervenciones menos invasivas, subraya que siempre deben ser controladas por humanos.
También con el ChatGPT, que puede procesar en cuestión de segundos grandes volúmenes de información y proponer un resumen, es muy importante que haya profesionales, trabajadores de la salud que sepan cómo se deben utilizar estas herramientas.
Exceso de confianza
Sin embargo, la realidad es que existe el riesgo de que los profesionales de la salud confíen demasiado en ellas y dejen de estudiar y actualizarse por cuenta propia.
“Hoy estamos en un momento de convergencia donde hay mucho profesional y trabajador que utiliza herramientas de inteligencia artificial o que tiene acceso a estas herramientas, pero que no tuvo contacto con nada de la salud digital a lo largo de su formación profesional”, explica.
D´Agostino agrega que a medida que va pasando el tiempo, “las nuevas generaciones ya se formarán con estas herramientas como parte del proceso educativo. En este momento hay mayor riesgo (…) no necesariamente la gente tiene hoy esa capacidad de discernir entre una herramienta que puede utilizar fuentes basadas en evidencia o una herramienta que no tiene ningún tipo de sustento de evidencia científica y que no se sabe de dónde está sacando la información”.
Muchos trabajadores sanitarios usan hoy herramientas de inteligencia artificial pero no tuvieron contacto con ellas a lo largo de su formación profesional.
Por lo mismo, la OPS destaca la importancia de que se utilicen herramientas basadas en algoritmos transparentes o conocidos, de no ser así, “no se sabe lo que hay por detrás de una herramienta o software basado en inteligencia artificial. Si uno no conoce lo que hay por detrás, el riesgo es aún mayor”, puntualiza.
En este punto, D´Agostino insiste en que un profesional de la salud “tiene que asumir siempre la responsabilidad final de cualquier decisión clínica”.
Entender las herramientas
Detalla que, como ocurrió antes con la literatura científica -donde tomó años entender el acceso y distinguir las fuentes de información de calidad basadas en evidencia y revisión de pares-, en el mundo digital tomará tiempo formar una cultura en la que se entienda cómo se produjeron las herramientas tecnológicas, cuáles son sus fuentes, quién está detrás, qué tan seguras son.
Puesto que la diversidad de fuentes es prácticamente inmanejable, la Organización Mundial de la Salud y la Unión Internacional de Telecomunicaciones (UIT) trabajan unidas en la definición de todos los estándares, “del concepto de la importancia del uso de algoritmos abiertos y de acercar a las cada vez más numerosas las agencias reguladoras y comisiones de parlamentarios de los países para que puedan modificar las legislaciones, los instrumentos normativos en base a todos estos principios técnicos”.
Hasta el momento, la respuesta de los legisladores y responsables de la elaboración de políticas ha sido excelente, reporta D´Agostino. “Nos han invitado a muchas sesiones de las comisiones de salud de los parlamentos de los diferentes grupos de países en el continente americano, donde han dedicado reuniones de varios días exclusivamente para ver, entender y obtener nuestras recomendaciones de analizar la legislación vigente y la nueva legislación que se debe desarrollar para poder atender de manera segura y ética la transformación digital del sector salud, en particular la regulación del uso de algoritmos y herramientas de inteligencia artificial”.
Ética
Uno de los aspectos más sensibles en el uso de la inteligencia artificial tiene que ver con la ética.
D´Agostino cita en este terreno los daños que puede causar un algoritmo con sesgos y da el ejemplo documentado de un algoritmo desarrollado para la simulación de accidentes de tránsito que sirvió para los sistemas de seguridad de vehículos.
El modelo había sido probado, pero en la vida real morían más mujeres que hombres y cuando se analizó cómo se había hecho el algoritmo, se observó que el modelo de simulación estaba hecho para la contextura de un hombre de una determinada masa muscular. Es decir, tenía todo un sesgo de género que daba como resultado más daño a las mujeres que a los hombres.
“Desde el punto de vista de la ética, se tiene que analizar con mucha profundidad la responsabilidad moral, los daños que pueden causar los algoritmos, al igual que cuáles son los límites, cuál es la autonomía de su aplicación. Si una herramienta de inteligencia artificial puede tener autonomía a la hora de tomar una decisión o si se le circunscribe a proveer una recomendación”, señala.
Se tiene que analizar con mucha profundidad la responsabilidad moral, los daños que pueden causar los algoritmos.
Además, añade, se deben tener muy claros los marcos normativos y legales frente a los temas de privacidad, confidencialidad y el uso seguro de los datos. La OMS tiene un programa de bioética que se dedica exclusivamente a analizar esas cuestiones y la OPS publicó en 2021 los principios rectores del uso de la inteligencia artificial en la salud pública.
D´Agostino argumenta que estos principios parten de la idea de que la inteligencia artificial, desde su concepción hasta su implementación, debe centrarse en el beneficio que le puede dar a la persona siempre respetando sus derechos.
También debe haber transparencia y apertura de los algoritmos, que dejen claro cómo se hicieron, que tengan integridad científica.
“Porque hay mucho instrumento o herramienta, muchos chatbots que no necesariamente se están nutriendo de bases de datos científicas”, acota.
Otro principio rector se refiere al control, supervisión y aplicación de las tecnologías digitales por personas que se aseguren de que no haya sesgos discriminatorios de ningún tipo.
Educación digital desde la primaria
Pero el riesgo del mal uso de la inteligencia artificial no se ciñe a los trabajadores sanitarios sino que se extiende a los usuarios de internet en general, que pueden hacer cualquier consulta de salud a distintos chatbots y plataformas sin saber si la respuesta que obtendrán tiene un sustento científico ni si es adecuada para ellos.
D´Agostino apunta que los expertos en el tema han discutido mucho ese punto y saben que se trata de un fenómeno que sobrepasa a la Organización Mundial de la Salud y a cualquier otra agencia, por lo que la respuesta debe encontrarse en una alianza sólida entre el sector salud y el sector educación.
“Eso es incontrolable porque es como querer controlar la web, ya es algo que está por encima de todo y que en muchos casos tiene vida propia. Lo que pensamos que podría llegar a ser un muy buen elemento de contención es la educación desde la escuela primaria. (…) Uno de los elementos de contingencia que puede ser muy efectivo es incorporar los temas de transformación digital a lo largo de la formación de una persona en toda su vida”, dice.
Según el especialista, el problema radica en que el uso de las herramientas digitales se empieza a aprender cuando una persona ya terminó la formación universitaria e incluso certificaciones de maestría o doctorado que hoy todavía no incluyen estos elementos en todas sus dimensiones.
“La formación continua a lo largo de toda la vida de una persona podría ser un elemento de contención importante, no la solución, porque va a ser muy difícil controlar todo lo que pase en la web y en el mundo del desarrollo tecnológico. Pero si creamos esta cultura e impulsamos la educación, se puede minimizar muchísimo cualquier impacto negativo”, recalca.
Con este objetivo, la OPS trabaja con los ministerios de Educación de varios países del continente. “Tenemos muchas iniciativas. Hay un área dedicada a recursos humanos en salud, con ellos estamos implementando un programa de alfabetización digital y tenemos muchas líneas de formación que ahora estamos reforzando a partir de la aceleración de la adopción de tecnologías de información durante la pandemia”, precisa.