La Organización Mundial de la Salud (OMS) ha emitido recientemente una declaración en la que expone su posición con respecto al uso de herramientas de modelos grandes de lenguaje (LLM) con el objetivo de salvaguardar y promover el bienestar, la seguridad humana y la autonomía, al tiempo que se busca preservar la salud pública, en su comunicado, la OMS insta a tomar precauciones al emplear plataformas como ChatGPT, Bard o Bert, especialmente en sus implementaciones experimentales relacionadas con la salud, con el fin de atender las necesidades de las personas.
La organización enfatiza que es “imperativo” evaluar cuidadosamente los riesgos asociados al uso de los LLM, ya sea para mejorar el acceso a la información de salud, como una herramienta de apoyo en la toma de decisiones o en el diagnóstico médico en entornos con recursos limitados, con el propósito de proteger la salud de las personas.
Si bien la OMS se muestra “entusiasmada” con el uso apropiado de estas tecnologías, también señala su preocupación de que no se estén aplicando las precauciones necesarias de manera coherente, tal como se haría con cualquier otro avance novedoso.
La adopción precipitada de sistemas no probados, según la OMS, podría resultar en errores por parte de los profesionales de la salud, así como en daños a los pacientes y en la erosión de la confianza del público. Esto, a su vez, podría socavar o retrasar los posibles beneficios y usos a largo plazo de esta tecnología.
En este sentido, la OMS propone pautas para el uso de inteligencia artificial (IA) en el ámbito de la salud. Según la organización, es fundamental establecer una supervisión rigurosa para garantizar que estos avances se utilicen de manera segura, efectiva y ética.
Algunos de los puntos que se deben considerar incluyen:
- Tener en cuenta que los datos utilizados para el entrenamiento de los modelos pueden estar sesgados y proporcionar información engañosa o inexacta.
- Reconocer que los LLM generan respuestas que pueden parecer válidas para los usuarios, pero que en realidad pueden contener contenido incorrecto o errores graves.
- Valorar que los LLM pueden ser entrenados con datos para los cuales no se ha obtenido el consentimiento específico para su uso en ese propósito.
- Asegurarse de que los LLM protejan adecuadamente los datos confidenciales, como la información de salud, que los usuarios proporcionan a una plataforma para obtener respuestas.
La inteligencia artificial ya se ha utilizado en diversos campos de la medicina. Por ejemplo, se han aplicado tecnologías similares a Midjourney y DALL-E para crear un modelo capaz de diseñar nuevas proteínas que parecen ser “biofísicamente reales”.
Además, la IA se utiliza para responder a las preguntas de los pacientes, demostrando en determinados escenarios un desempeño superior al de las interacciones con los médicos.