LA EMA DA INSTRUCCIONES SOBRE EL USO DE LA IA EN LA REGULACIÓN DE MEDICAMENTOS

09/09/2024

Están dirigidas al personal de este ámbito que trabaja con modelos de lenguaje de gran tamaño (LLMs), un tipo de IA generativa


IA

El uso de la IA en el ámbito de la salud es una realidad y, aunque puede ser una gran herramienta para acelerar los procesos, las instituciones ven precisa la creación de unas instrucciones específicas para que este instrumento se u se de forma responsable y no suponga un riesgo para la población. La última entidad en dar su perspectiva ha sido la Agencia Europea del Medicamento (EMA) en colaboración con los Jefes de Agencias de Medicamentos (HMA).

La EMA ha publicado una serie de principios y recomendaciones dirigidas al personal de regulación de medicamentos, que a menudo trabaja con modelos de lenguaje de gran tamaño (LLMs), un tipo de IA generativa. Estas herramientas están diseñadas para generar textos y procesar archivos de gran tamaño y, en el caso de la regulación de medicamentos, los profesionales lo usan para agilizar tareas de su día a día, como es la consulta de documentos extensos o el cribado de datos.

Este conjunto de instrucciones, que presentará la EMA el 13 de septiembre, han sido concebidas como un "documento vivo", con la intención de que se actualicen con regularidad.

Los desafíos

A pesar de todos los beneficios que supone el uso de las IAs generativas en el ámbito de la sanidad para acelerar procesos, las instituciones han detectado una serie de desafíos que pueden poner en juego la calidad de esta labor. Uno importante a tener en cuenta es la variabilidad de los resultados, que va muy ligada a que la herramienta pueda dar a los científicos respuestas inexactas, que supongan un peligro para sus investigaciones.

Uno de los problemas que más preocupan es el de los posibles riesgos en la seguridad de datos, una materia clave en la regulación de medicamentos dado que una brecha en la protección puede llevar a la manipulación o alteración de datos, lo que puede afectar en la aprobación y el uso seguro de medicamentos o, incluso, puede traducirse en sanciones legales y pérdida de confianza en la agencia reguladora.

Los principios

El Plan de Trabajo Plurianual sobre IA de la EMA y los HMA ha sido el germen de estos principios de orientación, en el que llegan a la conclusión de que se requiere familiaridad con las herramientas y fomentar el aprendizaje continuo para mantenerse al día con este campo que se encuentra en rápida evolución.

En primer lugar, se hace hincapié en que los profesionales se informen adecuadamente sobre la aplicación de LLM que van a usar para después ajustar las instrucciones que se le dan a la IA para que no haya un filtrado de datos. También resaltan que hay que tener claro que la fuente es fiable cuando se le dan datos en bruto a la IA, puesto que "el texto oculto en los documentos copiados puede modificar el comportamiento del LLM y causar daños".

Desde la EMA aconsejan mantener un "escepticismo saludable", es decir, revisar todos los resultados que proporciona la IA para identificar si hay fallos. También es importante reescribir la información que se proporciona a la herramienta para evitar los riesgos de violación de derechos de autor. Siempre es aconsejable explicar si se ha usado la IA en la mayor parte del documento y, además, pedirle que justifique las respuestas que proporciona aportando las fuentes de las que las extrae. En el ámbito de la programación dan relevancia a que se verifique la corrección sintáctica del código cuando se ejecute.

Legislación europea

El 1 de agosto entró en vigor el Reglamento Europeo de Inteligencia Artificial (IA), un paso determinante en la normalización del uso de esta herramienta en distintos ámbitos de la sociedad, como es el de la salud. Este documento impulsado por la Comisión Europea es realmente relevante al haberse convertido en el primer código global sobre inteligencia artificial del mundo.

Con el fin de catalogar cómo de segura es una inteligencia artificial, la UE establece cuatro categorías basadas en el riesgo. Las que tienen riesgo mínimo son los sistemas de filtros online y hay un factor muy concreto, el que evalúa el "riesgo específico de transparencia", pues todas las IAs tienen que avisar a los usuarios de que son máquinas.

Los sistemas de riesgo alto tienen que cumplir unos requisitos muy estrictos, y un ejemplo de estos son los que se utilizan en contratación o para conceder préstamos. El grado más alto es el de riesgo inaceptable, la UE prohibirá las IAs que sean una clara amenaza para los derechos fundamentales de las personas.

Fuente: El Global


Volver
Contacto CEATIMEF
CEATIMEF
Plaza Paz Novoa nº 3, 2º
Oficina 11
32003 OURENSE
España
42.3401139, -7.8676287
Teléfono: 988 219 893