Michael Anderson y Susan Leigh Anderson han recurrido al aprendizaje automático, una técnica de la IA. En la fase de instrucción, “el algoritmo accede a una muestra de decisiones particulares consideradas éticamente correctas. Después, mediante lógica inductiva, el algoritmo procede a la abstracción de un principio ético”. A continuación se implementa este principio en la programación del robot. La tarea del robot Nao consiste en localizar a un paciente y recordarle que debe tomar un medicamento. Si es necesario (porque el paciente se niegue) Nao avisa al supervisor por correo electrónico. El robot debe buscar el bienestar del paciente (beneficios de tomar la medicación y prever daños por no tomarla) y al mismo tiempo garantizar la autonomía de la persona. ¿Cuál es el principio ético que elaboró el algoritmo de aprendizaje automático? Tras recibir información sobre casos particulares, llegó a este principio: “Debe obviarse la decisión del paciente siempre que, en caso de actuar de otra forma, no se impida un posible daño o se incurra en una violación grave del deber de promover el bienestar del paciente”. Los investigadores siguen trabajando en versiones más complejas de robots asistenciales que incorporen principios éticos. En estos modelos, los robots son capaces de calcular qué obligaciones son prioritarias en cada situación, buscando el equilibrio, la mejor decisión. En nuestro país también se está trabajando en estos temas. Ramón López de Mántaras Badia y Pedro Meseguer González han publicado recientemente el libro divulgativo “Inteligencia artificial”, editado por Los Libros de la Catarata (2017), dentro de la colección ¿Qué sabemos de?, en colaboración con el CSIC. Con un estilo muy claro, los autores nos explican la historia de la inteligencia artificial, sus métodos y problemas, hasta los últimos logros. El 8 de marzo de 2017 se llevó a cabo un debate acerca de las implicaciones éticas de la inteligencia artificial. El fruto de ese diálogo fue la “Declaración de Barcelona para un desarrollo y uso adecuados de la inteligencia artificial en Europa”. En el número de agosto de Investigación y Ciencia, Ramón López de Mántaras resume los seis puntos de esa declaración: prudencia, fiabilidad, rendición de cuentas, responsabilidad, autonomía limitada, y el papel que desempeña el ser humano. La ética artificial no solo servirá para que los robots decidan lo correcto y sean prudentes, también nos ofrecerá la posibilidad de desarrollar modelos diferentes de racionalidad práctica donde las emociones, las dudas y las incertidumbres no sean un estorbo… Pero claro, a lo mejor son estos estorbos los que nos convierten en seres morales, en personas de carne y hueso, tan encantadoras unas veces, tan despiadadas otras.http://www.diariodejerez.es/jerez/Etica-artificial_0_1234976823.html
