Un bioeticista y profesor de medicina sobre la regulación de la IA en el cuidado de la salud

La sensación de inteligencia artificial (IA) ChatGPT y rivales como BLOOM y Stable Diffusion son grandes modelos lingüísticos para los consumidores. ChatGPT ha causado especial deleite desde que apareció por primera vez en noviembre. Pero la IA más especializada ya se usa ampliamente en entornos médicos, incluso en radiología, cardiología y oftalmología. Los principales desarrollos están en camino. Med-PaLM, desarrollado por DeepMind, la firma de inteligencia artificial propiedad de Alphabet, es otro gran modelo de lenguaje. Sus 540.000 millones de parámetros se han entrenado en conjuntos de datos que abarcan exámenes médicos profesionales, investigaciones médicas y consultas de atención médica de los consumidores. Dicha tecnología significa que nuestras sociedades ahora deben considerar las mejores formas para que los médicos y la IA trabajen mejor juntos, y cómo cambiarán los roles médicos como consecuencia.

Los beneficios de la IA para la salud podrían ser enormes. Los ejemplos incluyen un diagnóstico más preciso utilizando tecnología de imagen, el diagnóstico temprano automatizado de enfermedades a través del análisis de datos de salud y no relacionados con la salud (como el historial de búsqueda en línea de una persona o los datos de manejo del teléfono) y la generación inmediata de planes clínicos para un paciente. La IA podría abaratar la atención, ya que permite nuevas formas de evaluar el riesgo de diabetes o enfermedades cardíacas, como escanear retinas en lugar de administrar numerosos análisis de sangre, por ejemplo. La IA tiene el potencial de aliviar algunos de los desafíos dejados por covid-19. Estos incluyen la caída de la productividad en los servicios de salud y los retrasos en las pruebas y la atención, entre muchos otros problemas que afectan a los sistemas de salud en todo el mundo.

A pesar de toda la promesa de la IA en la medicina, se necesita urgentemente un régimen claro para regularla y las responsabilidades que presenta. Los pacientes deben estar protegidos de los riesgos de diagnósticos incorrectos, el uso inaceptable de datos personales y algoritmos sesgados. También deben prepararse para la posible despersonalización de la atención médica si las máquinas no pueden ofrecer el tipo de empatía y compasión que se encuentran en el núcleo de la buena práctica médica. Al mismo tiempo, los reguladores de todo el mundo se enfrentan a cuestiones espinosas. La legislación tendrá que seguir el ritmo de los desarrollos tecnológicos en curso, lo que no está sucediendo en la actualidad. También deberá tener en cuenta la naturaleza dinámica de los algoritmos, que aprenden y cambian con el tiempo. Para ayudar, los reguladores deben tener en cuenta tres principios: coordinación, adaptación y responsabilidad.

En primer lugar, existe una necesidad urgente de coordinar la experiencia a nivel internacional para llenar el vacío de gobernanza. Las herramientas de inteligencia artificial se utilizarán en más y más países, por lo que los reguladores deberían comenzar a cooperar entre sí ahora. Los reguladores demostraron durante la pandemia que pueden moverse juntos y al ritmo. Esta forma de colaboración debería convertirse en la norma y basarse en la arquitectura global existente, como la Coalición Internacional de Autoridades Reguladoras de Medicamentos, que apoya a los reguladores que trabajan en temas científicos.

En segundo lugar, los enfoques de gobernanza deben ser adaptables. En la fase previa a la concesión de licencias, los entornos limitados regulatorios (donde las empresas prueban productos o servicios bajo la supervisión de un regulador) ayudarían a desarrollar la agilidad necesaria. Se pueden utilizar para determinar qué se puede y se debe hacer para garantizar la seguridad del producto, por ejemplo. Pero una variedad de preocupaciones, incluida la incertidumbre sobre las responsabilidades legales de las empresas que participan en sandboxes, significa que este enfoque no se usa con la frecuencia que debería. Entonces, el primer paso sería aclarar los derechos y obligaciones de quienes participan en las cajas de arena. Para mayor seguridad, se deben usar sandboxes junto con un proceso de autorización de mercado de «revisión continua» que fue pionero para las vacunas durante la pandemia. Esto implica completar la evaluación de una terapia prometedora en el menor tiempo posible mediante la revisión de paquetes de datos de forma escalonada.

El rendimiento de los sistemas de IA también debe evaluarse continuamente después de que un producto haya salido al mercado. Eso evitaría que los servicios de salud quedaran atrapados en patrones defectuosos y resultados injustos que perjudican a grupos particulares de personas. La Administración de Drogas y Alimentos de los Estados Unidos (FDA, por sus siglas en inglés) comenzó elaborando reglas específicas que tienen en cuenta el potencial de aprendizaje de los algoritmos después de que han sido aprobados. Esto permitiría que los productos de IA se actualicen automáticamente con el tiempo si los fabricantes presentan un protocolo bien entendido sobre cómo puede cambiar el algoritmo de un producto y luego prueban esos cambios para garantizar que el producto mantenga un nivel significativo de seguridad y eficacia. Esto garantizaría la transparencia para los usuarios y promovería los pilotos de monitoreo del desempeño en el mundo real.

En tercer lugar, se necesitan nuevos modelos comerciales y de inversión para la cooperación entre los proveedores de tecnología y los sistemas de atención médica. Los primeros quieren desarrollar productos, los segundos gestionan y analizan tesoros de datos de alta resolución. Las asociaciones son inevitables y se han probado en el pasado, con algunos fracasos notables. IBM Watson, un sistema informático lanzado con bombos y platillos como un «lanzamiento a la luna» para ayudar a mejorar la atención médica y ayudar a los médicos a realizar diagnósticos más precisos, vino y se fue. Numerosos obstáculos, incluida la incapacidad de integrarse con los datos de registros médicos electrónicos, la utilidad clínica deficiente y la desalineación de las expectativas entre médicos y tecnólogos, resultaron fatales. Una asociación entre DeepMind y el Royal Free Hospital de Londres causó controversia. La empresa obtuvo acceso a 1,6 millones de registros de pacientes del NHS sin el conocimiento de los pacientes y el caso terminó en los tribunales.

Lo que hemos aprendido de estos ejemplos es que el éxito de tales asociaciones dependerá de compromisos claros con la transparencia y la responsabilidad pública. Esto requerirá no solo claridad sobre lo que se puede lograr para los consumidores y las empresas mediante diferentes modelos comerciales, sino también un compromiso constante con médicos, pacientes, hospitales y muchos otros grupos. Los reguladores deben ser abiertos sobre los acuerdos que las empresas de tecnología harán con los sistemas de atención médica y cómo funcionará el reparto de beneficios y responsabilidades. El truco será alinear los incentivos de todos los involucrados.

La buena gobernanza de la IA debería impulsar tanto la protección de los negocios como la de los clientes, pero requerirá flexibilidad y agilidad. Tomó décadas para que la conciencia sobre el cambio climático se tradujera en acción real, y todavía no estamos haciendo lo suficiente. Dado el ritmo de la innovación, no podemos darnos el lujo de aceptar un ritmo peatonal similar en la IA.

Effy Vayena es profesora fundadora del Laboratorio de Ética y Políticas de la Salud en ETH Zurich, una universidad suiza. Andrew Morris es el director de Health Data Research UK, un instituto científico.

© 2023, The Economist Newspaper Limited. Reservados todos los derechos. De The Economist, publicado bajo licencia. El contenido original se puede encontrar en www.economist.com

Vea todas las noticias y actualizaciones tecnológicas en Live Mint.
Descargue la aplicación The Mint News para obtener actualizaciones diarias del mercado y noticias comerciales en vivo.

Más
Menos

Shayri.page

Deja un comentario