La inteligencia artificial (IA) es uno de los proyectos científicos y tecnológicos más ambiciosos de la humanidad. Pretende diseñar máquinas inteligentes. Aunque alcanzar una inteligencia artificial de tipo general como la humana, flexible y consciente, todavía parece estar lejos, ya hay sistemas que resuelven problemas concretos, robots que realizan tareas que exigen cierto grado de racionalidad. Y tenemos que convivir con esos dispositivos, ya sean vehículos autónomos, gestores financieros o buscadores en internet. Si las máquinas toman decisiones, sean conscientes o no, habrá que ir pensando en una ética para estos dispositivos, una ética artificial. Los robots autónomos nos plantean nuevos retos técnicos y filosóficos. Y la comunidad científica se ha puesto manos a la obra. Michael Anderson, profesor de informática en la Universidad de Hartford y Susan Leigh Anderson, profesora emérita de filosofía en la Universidad de Connecticut, promovieron en 2005 el primer simposio internacional sobre ética artificial. En “Ética para robots” (Investigación y ciencia, diciembre de 2010) nos explican cómo han programado a Nao, el primer robot que utiliza un principio ético. Según estos investigadores, las tres leyes de la robótica de Asimov no son suficientes para abordar una ética artificial. Recordemos cuáles eran: 1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un humano sufra daño. 2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si dichas órdenes entran en conflicto con la Primera Ley. 3. Un robot debe proteger su propia existencia, siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley. Michael Anderson y Susan Leigh Anderson han recurrido al aprendizaje automático, una técnica de la IA. En la fase de instrucción, “el algoritmo accede a una muestra de decisiones particulares consideradas éticamente correctas. Después, mediante lógica inductiva, el algoritmo procede a la abstracción de un principio ético”. A continuación se implementa este principio en la programación del robot. La tarea del robot Nao consiste en localizar a un paciente y recordarle que debe tomar un medicamento. Si es necesario (porque el paciente se niegue) Nao avisa al supervisor por correo electrónico. El robot debe buscar el bienestar del paciente (beneficios de tomar la medicación y prever daños por no tomarla) y al mismo tiempo garantizar la autonomía de la persona. ¿Cuál es el principio ético que elaboró el algoritmo de aprendizaje automático? Tras recibir información sobre casos particulares, llegó a este principio: “Debe obviarse la decisión del paciente siempre que, en caso de actuar de otra forma, no se impida un posible daño o se incurra en una violación grave del deber de promover el bienestar del paciente”. Los investigadores siguen trabajando en versiones más complejas de robots asistenciales que incorporen principios éticos. En estos modelos, los robots son capaces de calcular qué obligaciones son prioritarias en cada situación, buscando el equilibrio, la mejor decisión. En nuestro país también se está trabajando en estos temas. Ramón López de Mántaras Badia y Pedro Meseguer González han publicado recientemente el libro divulgativo “Inteligencia artificial”, editado por Los Libros de la Catarata (2017), dentro de la colección ¿Qué sabemos de?, en colaboración con el CSIC. Con un estilo muy claro, los autores nos explican la historia de la inteligencia artificial, sus métodos y problemas, hasta los últimos logros. El 8 de marzo de 2017 se llevó a cabo un debate acerca de las implicaciones éticas de la inteligencia artificial. El fruto de ese diálogo fue la “Declaración de Barcelona para un desarrollo y uso adecuados de la inteligencia artificial en Europa”. En el número de agosto de Investigación y Ciencia, Ramón López de Mántaras resume los seis puntos de esa declaración: prudencia, fiabilidad, rendición de cuentas, responsabilidad, autonomía limitada, y el papel que desempeña el ser humano. La ética artificial no solo servirá para que los robots decidan lo correcto y sean prudentes, también nos ofrecerá la posibilidad de desarrollar modelos diferentes de racionalidad práctica donde las emociones, las dudas y las incertidumbres no sean un estorbo… Pero claro, a lo mejor son estos estorbos los que nos convierten en seres morales, en personas de carne y hueso, tan encantadoras unas veces, tan despiadadas otras.
http://www.diariodejerez.es/jerez/Etica-artificial_0_1234976823.html