Se comparte un comunicado de la OMS de fecha 16 de mayo de 2023 en el cual
propugna un uso seguro y ético de la inteligencia artificial para la salud.
-------------
La Organización Mundial de la Salud (OMS) pide precaución en el uso de
herramientas que se sirven de grandes modelos lingüísticos generados por
inteligencia artificial (IA) con el fin de proteger y promover la
seguridad, autonomía y bienestar de las personas, y preservar la salud
pública.
Entre dichas herramientas se cuentan algunas de las plataformas más
pujantes, como ChatGPT, Bard, Bert y muchas otras que imitan el
razonamiento, los procesos y la producción de la comunicación humana. Su
meteórica difusión pública y creciente uso experimental en el ámbito de la
salud está generando un considerable entusiasmo en torno a su potencial
para atender necesidades de salud.
Es imperativo examinar cuidadosamente los riesgos que conlleva utilizar
dichos modelos lingüísticos en la mejora del acceso a la información de
salud, como herramienta de apoyo a la toma de decisiones, o incluso para
fomentar la capacidad de diagnóstico en entornos de escasos recursos con el
fin de proteger la salud de las personas y reducir la inequidad.
A continuación se indican algunas de las inquietudes que un examen
riguroso, necesario para que las tecnologías se utilicen de manera segura,
eficaz y ética.
- Los datos utilizados para entrenar la IA pueden estar sesgados, lo que
generaría información engañosa o inexacta que podría plantear riesgos para
la salud, la equidad y la inclusividad.
- Los grandes modelos lingüísticos generan respuestas que pueden parecen
autorizadas y plausibles para el usuario final; pero cabe la posibilidad de
que las respuestas sean totalmente incorrectas o que contengan errores
graves, especialmente las vinculadas con la salud.
- Puede que los grandes modelos lingüísticos estén entrenados con datos
para cuyo uso no se haya obtenido consentimiento previo, y que no protejan
los datos confidenciales (en particular los datos de salud) que un usuario
introduzca en una aplicación para generar una respuesta.
- Puede que tales modelos se utilicen indebidamente para generar y
difundir desinformación muy convincente en forma de contenido textual o
audiovisual que el público no puede distinguir fácilmente de contenidos de
salud fidedignos.
- Si bien la OMS tiene el compromiso de aprovechar las nuevas
tecnologías, como la IA y la salud digital, para mejorar la salud humana,
recomienda a las instancias normativas que garanticen la seguridad y
protección del paciente, a la par que las empresas tecnológicas se afanan
por comercializar los grandes modelos lingüísticos.
Más detalles en el siguiente enlace:
https://www.who.int/es/news/item/16-05-2023-who-calls-for-safe-and-ethic...
-------------
Coordinación HIFA-es
Perfil HIFA-es: Jackeline Alger, MD, PhD, es médica parasitóloga asociada
al Departamento de Laboratorio Clínico, Hospital Escuela; Directora
Ejecutiva del Instituto de Enfermedades Infecciosas y Parasitología Antonio
Vidal; Tegucigalpa, Honduras. Representante de País del Año ante HIFA para
los años 2015 y 2018. Correo electrónico: jackelinealger AT gmail.com
HIFA ESPAÑOL
Colabora a crear un mundo en el que no mueran más personas por falta de
conocimientos de cuidados de salud. Únete a
http://hifa.org/join/unase-hifa-espanol
Help create a world where people are no longer dying for lack of healthcare
knowledge - Join HIFA: www.hifa.org http://www.hifa.org