Integrar al médico en la toma de decisiones de la inteligencia artificial: cómo llevar la ética a esta disrupción tecnológica - EL ESPAÑOL

Cuenta de usuario

Premium
Servicios
El León de El Español Publicaciones S.A.
Imagen de recurso del uso de tecnologías digitales en el ámbito sanitario.
Desde hace varios años se ha ido impulsando el uso de la inteligencia artificial en el ámbito de la salud, como ayuda al diagnóstico médico o en la toma de decisiones basadas en datos para tratamientos y experiencias más personalizadas e individualizadas. Sin embargo, el despegue de esta particular confluencia se ha acelerado tras la pandemia de la covid-19, también al calor de una digitalización que cala más y más en los profesionales sanitarios.
Tanto es asi que hubo que esperar hasta junio del pasado curso para que la Organización Mundial de la Salud (OMS) publicara su primer informe en torno a la inteligencia artificial aplicada a la salud. Un documento que no sólo defendía las grandes posibilidades de esta innovación, sino que también ponía el foco en que la ética y los derechos humanos debían ocupar "un papel central en su concepción, despliegue y utilización".
El testigo de esas aspiraciones lo han recogido los gobiernos de medio mundo, especialment en Europa y España en particular. No en vano, Juan Fernando Muñoz, secretario general de Salud Digital del Ministerio de Sanidad, defendía esta semana que esta tecnología "abre posibilidades inexistentes e inimaginadas. capaces de cambiar muchos aspectos de nuestra vida. Pero es fundamental que la integración de la inteligencia artificial se realice de forma respetuosa con la dignidad de las personas y su privacidad, los principios de equidad y bienestar o la sostenibilidad".
Muñoz hacía estas reflexiones en un evento organizado por la patronal de las 'telecos', DigitalES. En dicha cita, el alto cargo aludía a la inclusión de este tema en la agenda pública, a través de la Estrategia Nacional de IA o en la creación de espacios de datos específicos para salud con Gaia-X, el fundmentos sobre el que ir explorando el resto de modelos económicos. "Y que deben ser siempre datos encontrables, accesibles, interoperables, protegidos y eticos", añadía Juan Fernando Muñoz. "Porque los datos son el sustento de la inteligencia artificial, que son siempre de las personas".
La patronal de las telecomunicaciones recoge el guante en un extenso documento en el que propone hasta 28 ideas o recomendaciones para garantizar la ética en la llegada de la inteligencia artificial al ámbito sanitario.
"El sector sanitario posee una criticidad que debe ser valorada a la hora de implantar cualquier solución de inteligencia artificial. Es decir, la dimensión ética tiene que ser parte integral de su desarrollo, pero también de su introducción y posterior seguimiento", reconoce el texto. 
Entre las propuestas del grupo de expertos convocado por esta asociación encontramos algunas referentes a la transparencia y explicabilidad de los sistemas de IA. Especialmente relevantes son las peticiones de "promover obligaciones mínimas de transparencia para aplicaciones de menor riesgo" (con el fin de que las personas tengan derecho a saber cuándo están interactuando con un sistema de IA) y la definición de criterios mínimos de explicabilidad que deban ofrecer los sistemas de IA a los profesionales sanitarios. 
También hay un capítulo orientado al debate de la privacidad de datos tan sensibles como estos. Al respecto, desde DigitalES piden "otorgar la formación y conocimientos necesarios a las empresas/centros sanitarios para asegurar el cumplimiento de la normativa en protección datos, evitando confusiones o actuaciones ilícitas fuera del margen legal", así como "incorporar mecanismos robustos de pseudoanonimización de los datos que garanticen la privacidad de éstos a la vez que pueden ser utilizados para fines de investigación de nuevos medicamentos, tratamiento de enfermedades..."
Inteligencia Artificial. Foto: Pixabay
Igualmente, el documento analiza las implicaciones en torno a la calidad del dato y la potencial discriminación de determinados colectivos. En este sentido, los expertos recomiendan "requerir a los desarrolladores de sistemas de IA la inclusión de mecanismos de control, incluyendo la intervención humana, que garanticen la no presencia de sesgo de ningún tipo en sus soluciones". Además, se pide "acelerar la interoperabilidad de sistemas, asegurando la privacidad y la calidad de los datos, para ampliar el tamaño de la muestra de información que vaya a ser procesada".
Añaden los expertos consultados aspectos relacionados con la robustez de los sistemas. En ello, el texto exige "promover la implantación de un sistema de protección o de almacenamiento (nube) que permita crear copias de seguridad y proteger los datos de pacientes ante cualquier tipo de inconveniente" y "promover un sistema de certificación para software de IA en sanidad a nivel nacional, basado en criterios objetivos de calidad de las auditorías algorítmicas e impulsar esa certificación a nivel europeo". Un terreno en auge, con certificaciones de amplio alcance ya en marcha en nuestro país (We The Humans o Eticas) que deben llegar ya a este nicho particular de actividad.
Pero quizás la recomendación más relevante de todas las incluidas en el documento es la que atañe a la supervisión humana y la responsabilidad de los profesionales médicos en una toma de decisiones donde una inteligencia artificial autónoma esté presente.
Para empezar, el texto reconoce que "es responsabilidad de todas las partes interesadas asegurarse de que los sistemas de IA se utilicen en las condiciones adecuadas y por personas debidamente capacitadas". Por ello, continúa el documento, "las personas deben mantener el control de los sistemas de atención de la salud y las decisiones médicas, de modo que la atribución de responsabilidades en caso de error de juicio del algoritmo nunca recaiga en un ente no humano".
Siguiendo estos pasos, concluye DigitalES, deberíamos ir hacia una regulación "con un enfoque basado en el riesgo necesario para fomentar la confianza en la IA sin obstaculizar su desarrollo responsable". Una normativa que diferencie entre los riesgos mayores y menores en función del daño potencial a las personas y que, además, defina sin ambigüedades los límites de responsabilidad que tendrían los desarrolladores de sistemas de IA para el ámbito sanitario. 
Migrar a un ERP: cuando en lugar de un caso de éxito tienes una historia de terror
El metaverso llega a la Universidad de Stanford: éxito tras sus primeras clases
'Smart Villages' de Castellón o cómo un alcalde puede regular la potencia de las...
Del muro de Trump a los 'perros robots': la tecnología se impone en la frontera...
Gurucall, la 'startup' que ofrece expertos a la carta en español para asesorar a...
Regístrate gratis y recibe cada mañana las noticias en tu correo
Claves para la sesión de hoy
Claves para la sesión de hoy
Así abre el Ibex 35
AntiuXixona, Lacasa... Estos son los turrones que triunfan en Navidad y los que más facturan cada año
Los D+I Innovation Awards 2021, en imágenes
El Foro Español - Mapa de la Digitalización en España, en imágenes
Las Aulas del Futuro, el primer paso para que "un 80% de las aulas estén digitalizadas dentro de dos años"
El fondo Next Tech empieza a soltar los primeros cofres del tesoro: 70 millones a K Fund
El PERTE del español prevé 1.100 millones de inversión para lograr "que la inteligencia artificial nos entienda"
Nace una digitalizadora con 6.000 actores clave para acometer la transformación total del sector agrario

Transición energética, movilidad e industria coparán el 70% de los fondos europeos a licitar en este semestre
Pep Gómez (Fever): "Hoy una compañía global puede nacer en cualquier sitio; es cuestión de preguntarse 'y por qué no"
Operar con instrumentos financieros o criptomonedas conlleva altos riesgos, incluyendo la pérdida de parte o la totalidad de la inversión, y puede ser una actividad no recomendada para todos los inversores. Los precios de las criptomonedas son extremadamente volátiles y pueden verse afectadas por factores externos como el financiero, el legal o el político. Operar con apalancamiento aumenta significativamente los riesgos de la inversión. Antes de realizar cualquier inversión en instrumentos financieros o criptomonedas debes estar informado de los riesgos asociados de operar en los mercados financieros, considerando tus objetivos de inversión, nivel de experiencia, riesgo y solicitar asesoramiento profesional en el caso de necesitarlo.
Recuerda que los datos publicados en Invertia no son necesariamente precisos ni emitidos en tiempo real. Los datos y precios contenidos en Invertia no se proveen necesariamente por ningún mercado o bolsa de valores, y pueden diferir del precio real de los mercados, por lo que no son apropiados para tomar decisión de inversión basados en ellos. Invertia no se responsabilizará en ningún caso de las pérdidas o daños provocadas por la actividad inversora que relices basándote en datos de este portal. Queda prohibido usar, guardar, reproducir, mostrar, modificar, transmitir o distribuir los datos mostrados en Invertia sin permiso explícito por parte de Invertia o del proveedor de datos. Todos los derechos de propiedad intelectual están reservados a los proveedores de datos contenidos en Invertia.

source

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Subir