La carrera por definir los principios básicos de la ética de la inteligencia artificial del futuro no ha hecho más que comenzar. En abril de 2019 la Unión Europea publicó sus ‘Directrices por una inteligencia artificial confiable’. Un mes más tarde la OCDE publicaba su ‘Recomendación del Consejo de Inteligencia Artificial’, a la par que Pekín publicaba sus ‘Principios sobre la IA de Pekín’.
Todos llevan años trabajando en sus respectivas propuestas sobre un uso ético de la IA, y han recomendado encarecidamente “cooperación internacional” de sus principios. Para liar aún más la maraña, el Foro Económico Mundial confirmó la creación de un “Consejo de IA”, también en mayo, para una mejor gobernanza. Parece que hay stock de principios éticos, ¿o no?
La ética de la IA, según la OCDE
El texto íntegro ‘Recommendation of the Council on Artificial Intelligence’ (22 mayo 2019) de la OCDE es relativamente largo y está escrito en lenguaje burocrático. Aunque podríamos resumir el ya de por sí “sucinto” resumen en una línea: una inteligencia artificial basada en las personas y el planeta, alineado con los derechos humanos y la diversidad, presidida por la transparencia y robusta y fiable.
Tras una lectura en profundidad, destaca un principio de las tres leyes de la robótica de Isaac Asimov, además del botón de la muerte que la eurodiputada Mady Delvaux propuso en 2015 con su proyecto de informe al Parlamento Europeo. También el cuidado medioambiental y la diversidad, que están presentes en varias secciones del documento original.
Estos principios tienen el respaldo de la Comisión Europea; también de los 36 países de la OCDE, así como Argentina, Brasil, Colombia, Costa Rica, Perú y Rumanía, expertos internacionales y buena parte de la comunidad tecnológica (occidental).
Los principios de Asilomar, redactados en 2017 tras la conferencia del mismo nombre en California, con el apoyo del Future of Life Institute, son bastante parecidos. Ahora, ¿qué hay de los valores orientales?
La ética de la IA, según Pekín
La casualidad ha hecho que en mayo la Academia de Inteligencia Artificial de Pekín (BAAI) publicase sus ‘Principios sobre la IA de Pekín’ el pasado 28 de mayo. En su redacción han participado el Ministerio de Ciencia y Tecnología de China, el Gobierno municipal de Pekín, así como compañías tecnológicas. Son más compactas que las de la OCDE y casi vienen resumidas en sus tres verticales:
- Investigación y desarrollo: haz el bien, para la humanidad, con responsabilidad y control de riesgos, de forma ética, diversa e inclusiva, abierta y compartida;
- Uso: de forma sabia y correcta, mediante consentimiento informado [de los usuarios], y con educación y capacitación;
- Gobierno: que optimice el empleo, creando armonía y cooperación, de forma adaptativa y moderada [para garantizar que sea beneficioso para la sociedad y la naturaleza], holística y con estrategias a largo plazo.
Lo cierto es que se parecen bastante entre sí. Aunque no exista una ética universal, algo que discutimos abajo, sí que existe cierta tendencia global a unos valores mínimos básicos. Y es muy probable que si del Foro Económico Mundial surge un nuevo manifiesto este sea similar.
¿Kant o Bentham? Una ética global, please
Cuando se analiza la ética de las máquinas, tendemos a los casos extremos. Lógico, dado que es en ellos en los que más dudas surgen. Por ejemplo, en la conducción autónoma se habla mucho del dilema del tranvía. ¿Y qué hay de actos violentos como un atraco? ¿Cómo programo una máquina si hay gente en peligro? Las respuestas hay que darlas antesde que ocurran.
Ponemos de manifiesto un problema que José Ignacio Latorre destaca en su libro ‘Ética para las máquinas’ (2019). Un grupo de encapuchados empiezan a disparar a inocentes en el atraco a un banco. La sucursal tiene un sistema inteligente dotado de munición real. ¿Debería disparar a los atracadores?
Las tres leyes de la robótica entrarían en bucle y servirían de poco, así que recurrimos a la filosofía.
- Immanuel Kant (XVIII) y su imperativo categórico (seguro que nos suena del colegio) nos recuerdan que “matar es siempre malo”. Las armas nunca se dispararían contra los atracadores, y seguirían muriendo inocentes.
- El utilitarismo de Jeremy Bentham (también del XVIII) trataría de maximizar la felicidad para el mayor número de personas posibles. Si programamos las armas con esta disciplina, es probable que dispare a los atracadores.
Dos corrientes filosóficas, ambas occidentales y del mismo siglo, y comportamientos completamente diferentes. Quizá los principios éticos de la IA haya que programarlos tan laxos como los nuestros.
A fin de cuentas, la misma persona podría debatirse entre dos soluciones dispares a un mismo problema y encontrar éticas ambas, y enfrentarse al mismo dilema unos días después y comprobar que ninguna de ellas le sirve. Aunque dotar de potencia de fuego a una máquina no parece muy inteligente, aunque esta simule serlo.
Una ética que se adelanta a los problemas
De ahí que a menudo se use el comodín de evitar el problema a priori. Por ejemplo, armas con tranquilizantes para la situación anterior. Sin muertos o heridos. O mecanismos que impidan que un coche llegue a elevada velocidad a una intersección para el caso del tranvía, gracias a una ciudad tan hiperconectada que algo así resulte imposible.
Evitar que la situación límite mucho antes de que tenga lugar. Eliminar los sesgos antes de que puedan influir en las aplicaciones que los usan. Aunque esto no es fácil, y de ahí que hagan falta reglas básicas que seguir a la hora de programar o comercializar un producto como el Huawei P30 Pro, que posee su propio chip Kirin de inteligencia artificial.
Aunque no siempre se puede prever un problema, y por eso a menudo se menciona la resiliencia, la diversidad o tener como centro a los humanos, las propiedades emergentes no pueden ser predichas. Nadie podía imaginarse cómo iba a cambiar el mundo con el uso del smartphone, por ejemplo. Y muy pocos han sido capaces de analizar la futura brecha de IA, si la hubiera.
Imágenes | Wikimedia, iStock/Vera Tikhonova, Rod Long, iStock/kentoh