Ética Programada: Una propuesta para las tecnologías médicas de IA

Ética Programada: Una propuesta para las tecnologías médicas de IA

Por Leonardo Pucheta
www.centrodebioetica.org

6 de junio de 2022

 

En un trabajo publicado en enero de 2022 en BMC Medical Ethics, titulado “Embedded ethics: a proposal for integrating ethics into the development of medical AI” (“Ética embebida: Una propuesta para integrar ética en el desarrollo de Inteligencia Artificial sanitaria”)[1] especialistas proponen una posible solución para afrontar los numerosos dilemas éticos generados por las tecnologías de Inteligencia Artificial (IA). La iniciativa aspira a incorporar “ética” a las diversas etapas de desarrollo de las mentadas tecnologías.

Una ética para la IA

La multiplicidad de aplicaciones en las que se utilizan herramientas de IA generan una variedad de situaciones dilemáticas que ocupan a especialistas del derecho y de la ética. Entre aquellos, el ámbito sanitario es probablemente allí donde mayores beneficios y riesgos se asocian a éste tipo de tecnologías.

En este contexto, los autores parten de la convicción de que es necesario disponer de herramientas concretas para anticipar, identificar y abordar los problemas éticos relacionados con las tecnologías de IA, especialmente relevante en el entorno de la relación médico-paciente, en el que se interactúa directamente con pacientes en situación de vulnerabilidad.

Para ello, la propuesta es el desarrollo de una “ética integrada” por parte de eticistas y desarrolladores, quienes habrían de interactuar durante todo el proceso de desarrollo de soluciones de IA (planificación, aprobación, diseño, programación, prueba e implementación). La consigna, así como el término «ética integrada», no es novedosa, pues se ha utilizado anteriormente para aludir a la incorporación formación filosófica en cursos de informática y data science y para la programación de principios éticos en algoritmos. La iniciativa conociste en integrar ética en el proceso completo de desarrollo de sistemas de inteligencia artificial sanitarios en orden a que “sean ética y socialmente responsables, tecnologías que beneficien y no perjudiquen a las personas y la sociedad”

Recetas conocidas

La ética integrada en la IA sería el resultado del trabajo colaborativo entre los especialistas en ética y el equipo de desarrolladores, quienes deberían aplicar enfoques establecidos tales como los lineamientos para el asesoramiento de ética clínica en entornos hospitalarios o como los aspectos éticos, legales y sociales aplicables en la investigación biomédica.

La práctica de incorporar la ética idealmente involucraría a especialistas en ética que acompañen todo el proceso de desarrollo, desde la toma de decisiones tempranas en la planificación, el diseño y la programación, hasta el apoyo a la vía regulatoria donde los desarrollos avanzan a tales etapas.

Los especialistas en ética integrados en el desarrollo de IA médica deben tener, afirman los autores, experiencia en análisis ético, por lo que serían idóneos no solo agentes formados en filosofía moral, sino también investigadores que hayan sido capacitados en campos de ciencias sociales y humanidades que se centren en el análisis de cuestiones éticas de la ciencia, la tecnología y la medicina.

Los integrantes del equipo de ética integrada, por su parte, deberían desarrollar estándares de práctica claros. Al respecto, los autores expresan que “en la actualidad, uno de los enfoques predominantes de la ética de la IA es la aplicación de principios éticos tradicionales, a menudo los que se invocan comúnmente en la ética médica, como promover autonomía, no maleficencia, beneficencia y justicia en el cuidado”. Se advierte que la alusión al principialismo de origen anglosajón no resulta novedoso y podría implicar la desatención de loas inconsistencias internas de los principios no jerarquizados propuestos.

Una ética colegiada y programada

Surge del artículo comentado que constituiría un gold standard para la integración de la ética integrada la participación de un especialista en ética o de un equipo de especialistas, como miembros integrantes del equipo de desarrollo de la IA.

Ahora bien, ello implicaría que la ética integrada, la incorporada a los sistemas de IA, respondan a priori a los principios y parámetros éticos de los integrantes del referido equipo. Es decir, la ética del algoritmo se deduciría no objetivamente de acuerdo al objeto, fin y circunstancias que en cada caso apliquen, sino de la convicción personal del programador.

Se advierte que en la sistematización y automatización de juicios éticos propuestos, aunque podrían resultar superadoras de la rigidez de normas con previsiones éticas asociadas a las tecnologías en cuestión, reflejarían una traducción de la subjetividad del programador y podría ignorar la complejidad del acto moral individual.

Ciertamente la IA y las tecnologías en general aplicadas en el ámbito médico requieren de la debida ponderación ético-jurídica, razón por la cual luce adecuada la reflexión instada por los autores. El desafío en lo sucesivo será ofrecer esquemas que permitan semejante valoración pero integrando todas las aristas de las complejas situaciones dilemáticas que son objeto de la biomedicina contemporánea.

[1] McLennan, S., Fiske, A., Tigard, D. et al. Embedded ethics: a proposal for integrating ethics into the development of medical AI. BMC Med Ethics 23, 6 (2022). https://doi.org/10.1186/s12910-022-00746-3