situémonos en una ciudad de un posible futuro no muy lejano, donde muchas tareas hoy realizadas por humanos son gestionadas por inteligencias artificiales (IA). Pensemos, por ejemplo, en un sistema de tranvías regido por una IA. En un momento imprevisto, se da una situación comprometida: un vehículo mal estacionado obstaculiza la vía y la única opción para evitar la muerte del pasaje es descarrilar el vagón, lo cual implicaría atropellar y sacrificar a los transeúntes que se encuentran cerca de la vía. ¿Cómo debería de responder la IA ante este dilema moral? ¿Debería de estar dotada de un razonamiento moral autónomo?

Es indiscutible que los recientes avances tecnológicos en el ámbito de la IA están dando lugar a sistemas cada vez más versátiles. La revolución del aprendizaje profundo ha abierto la puerta a la automatización de tareas cada vez más complejas, pero que también implican la gestión de un mayor número de contextos. Esta diversidad de contextos incrementa las situaciones en las que es necesario abordar dilemas morales, algunos de los cuales pueden ser tan extremos como el mencionado caso del tranvía.

Los seres humanos emitimos juicios morales para distinguir entre el bien y el mal, y son herramientas que utilizamos de forma frecuente en la toma de decisiones. Estos juicios atienden a un complejo conjunto de criterios y no siempre coinciden con lo que algunas éticas normativas consideran correcto. Existe una ética real, practicada por la sociedad (ética descriptiva), y una ética referencial o normativa como pueden ser la deontología o el utilitarismo. Retomando el ejemplo del tranvía, según la ética deontológica (bien representada por el imperativo categórico de Kant), que define acciones como buenas o malas independientemente de sus consecuencias, el sacrificio activo no se consideraría éticamente correcto porque matar es intrínsecamente malo. En cambio, desde una perspectiva utilitarista, la respuesta requeriría un análisis detallado para calcular el beneficio general de cada opción. Un cómputo donde la ponderación en absoluto es evidente. ¿Es mejor salvar la vida a una eminencia en cardiología o la de una persona anónima? ¿Y si dotáramos al sistema de una ética descriptiva en el contexto de una sociedad racista? La decisión seguramente sería desfavorable para ciertas etnias.

Es importante considerar que no existe consenso sobre cuál es la ética normativa correcta, lo que tampoco facilita la elección de su aplicación en vez de adherirse a una ética descriptiva teóricamente defectuosa. Pero la ética descriptiva tampoco es homogénea y, entre otros factores, depende de la cultura. Shweder propuso desglosar la ética en “tres grandes bloques”: la comunidad, la divinidad y la autonomía individual. La importancia que las sociedades otorgan a cada bloque varía según distintos parámetros, como la cultura a la que pertenecen. ¿Serían distintos los juicios morales mayoritarios en Asia y Occidente respecto al dilema del tranvía? Es probable que sí, como se observó en un experimento similar (Moral Machine, 2016), donde los países occidentales, caracterizados por una mayor valoración de la autonomía individual o el individualismo, a diferencia de los asiáticos optaron por soluciones que salvaban a un mayor número de personas, es decir, una postura alineada con la autonomía individual.

Si bien el ejemplo del tranvía resulta un tanto futurista, es importante señalar que en la actualidad ya se están incorporando juicios morales en algunos sistemas de IA. Quizá el ejemplo más conocido sea el de los asistentes conversacionales como el archiconocido ChatGPT o similares, sistemas capaces de llevar a cabo diversas tareas de compresión y generación del lenguaje que incluyen ciertas capacidades de razonamiento, conocimiento factual y uso de sentido común. Dada esta polivalencia a menudo deben de enfrentarse a problemas de índole moral, y es por esa razón por la que estos modelos se calibran de forma expresa para dotarlos de ciertos valores morales. El enfoque mediante el cual se insertan valores morales a estos asistentes es de tipo botton-up (de abajo arriba). El sistema aprende valores morales genéricos a partir de ejemplos que ilustran situaciones concretas en las que el juicio moral es establecido por anotadores humanos. En otras palabras, un grupo de personas es responsable de transmitir estos valores, lo que podría resultar en problemas de homogeneización. De acuerdo con diversos estudios, la ética que estos modelos adquieren tiende a priorizar la autonomía sobre la comunidad o la divinidad, y está alineada con el principio utilitarista de beneficencia imparcial. Esto significa que, de cierta forma, reflejan los valores morales de las personas que lo diseñan, occidentales jóvenes con un alto nivel educativo.

En definitiva, la cuestión de otorgar juicios morales a la IA y cómo hacerlo es sumamente compleja, tanto por la dificultad de su resolución como por las implicaciones sociales que conlleva. Si durante miles de años consensuar una ética común ha sido una quimera, no parece viable el mismo ejercicio, pero enfocado en las máquinas. En el camino para determinar el nivel de autonomía y tipo de razonamiento moral que incorporamos en las máquinas, será necesario avanzar hacia consensos mínimos, de manera similar a como consensuamos los distintos ordenamientos jurídicos que establecen, hasta cierto punto, lo que está bien y lo que está mal. Será un camino no señalizado, repleto de dilemas morales, que tendremos que descubrir y construir a medida que avancemos, mediante consensos democráticos y adaptándonos a las diversas realidades culturales y sociales.

Orai NLP Teknologiak - Doctor en Ingeniería Informática