Qué tipo de problemas y planteamientos éticos está originando la inteligencia artificial? La IA abarca tantas aplicaciones diferentes, que podría plantear una variedad realmente amplia de preguntas diferentes. Por ejemplo, ¿qué pasará con la fuerza laboral si la IA hace que mucha gente sea redundante? Esto plantea cuestiones éticas porque afecta al bienestar y al empleo de las personas.

También hay dudas sobre si de alguna manera necesitamos incorporar la ética en el tipo de decisiones que los dispositivos de IA toman por nosotros, en nuestro nombre, especialmente a medida que la IA se hace más autónoma y más poderosa. Por ejemplo, una cuestión que se debate mucho en estos momentos es: ¿qué tipo de decisiones deberían programarse en los vehículos autónomos? Si toman una decisión en la que tendrán que chocar de una manera u otra, o matar a alguien, o matar al conductor, ¿qué tipo de enfoque ético hay que adoptar? ¿Cuál de las dos vidas debe prevalecer?

Pero también existen cuestiones éticas sobre la IA en la medicina. Por ejemplo, ya hay trabajos que desarrollan terapias psicológicas virtuales utilizando IA, como la terapia cognitivo-conductual. Esto podría ser útil ya que hay evidencia que indica que a veces la gente está más dispuesta a compartir información muy personal si se hace en internet. Pero, obviamente, habrá cuestiones éticas en cómo responder a alguien que dice que se va a suicidar, por ejemplo. Hay varias cuestiones éticas que se plantean en torno a cómo programar eso.

Las investigaciones en IA se pueden dividir según se trate del tipo de problemas que enfrentamos ahora o en un futuro muy cercano. Los problemas que enfrentamos ahora tienen que ver con la IA “específica” o “débil”, que se centra en tareas particulares. Pero también hay trabajos especulativos sobre si podríamos desarrollar una inteligencia artificial “general”, “fuerte”, o, incluso, pasar de eso a una superinteligencia .

Pero si estamos ante una inteligencia artificial general que imitaría la inteligencia humana en general, dependiendo de si mantenemos el control de ella o incluso si no lo mantenemos, mucha gente argumenta que necesitamos incorporar algún tipo de ética o alguna forma de asegurarse de que la IA no haga algo como retroceder y decidir rebelarse, el tipo de cosas que suceden en muchas de las historias de robots de Isaac Asimov. Por lo tanto, hay muchas cuestiones éticas que surgen de la IA, tanto respecto a su desarrollo actual como a las capacidades que tendrá en un futuro no muy lejano.

Pero también hay una gama diferente de preguntas planteadas por la IA porque, en muchos sentidos, nos está llevando al límite de lo que significa ser humanos en el mundo. Algunas de las cuestiones éticas en la IA tienen que ver precisamente con cómo pensamos de nosotros mismos en el mundo. Por ejemplo, si podemos imaginar un futuro de ciencia ficción en el que haya robots haciéndolo todo por nosotros, la gente puede concebir cómo se pueden hacer robots no sólo para realizar trabajos mundanos y algunos trabajos bastante complejos, sino también tareas creativas.

En un mundo donde los robots realizan todas las tareas creativas, si disponemos de robots que escriben música mejor que la que podría escribir un humano, o al menos tan buena como la que podría escribir un humano, se entiende que se plantean problemas fundamentales. Preguntas de hondo calado filosófico, antropológico y existencial acerca de por qué estamos aquí. ¿Por qué todos esos jóvenes de bandas de garaje sacan a relucir sus creaciones que no son quizá, muchas veces, particularmente buenas? ¿Por qué hacen eso si un robot o una máquina podrían hacerlo mejor? Este área es realmente interesante porque nos empuja a hacer ese tipo de preguntas. Preguntas como: ¿cuál es la naturaleza de la agencia humana? ¿Cómo nos relacionamos con otras personas? ¿Cómo pensamos siquiera en nosotros mismos, en nuestros atributos e identidad como especie?

En los últimos años, varias personas prominentes han expresado su preocupación sobre la necesidad de tratar de garantizar que la IA se desarrolle de manera beneficiosa. El Future of Life Institute, con sede en Estados Unidos y dirigido por mi colega en el MIT, Max Tegmark, tiene un programa de subvenciones, financiado por Elon Musk y el proyecto Open Philanthropy, que se concede a 35 proyectos que trabajan en diferentes cuestiones relacionadas con el desarrollo de una IA beneficiosa, examinando, por ejemplo, las bases sobre cómo podríamos desarrollar códigos de ética para la IA y qué papel podrían tener dichos códigos.

A medida que los sistemas de inteligencia artificial se vuelven cada vez más complejos y se utilizan para tomar decisiones importantes, existe una necesidad creciente de que estos sistemas puedan explicar sus decisiones y el razonamiento detrás de ellas. Las investigaciones sobre “IA explicable” pueden explorar técnicas para hacer que los sistemas de IA sean más transparentes y responsables, un aspecto de esencial importancia.

Por otro lado, la inteligencia artificial tiene el potencial de transformar muchos aspectos de la sociedad, incluidos la educación, la atención sanitaria y el transporte. Las investigaciones sobre los impactos de la IA en la sociedad están enfocándose en las implicaciones de estos cambios y en cómo podemos prepararnos y mitigar sus posibles consecuencias negativas.

Algunos sistemas de inteligencia artificial pueden ya generar resultados novedosos y creativos, en las artes, la música y la escritura. Las investigaciones sobre IA y creatividad están explorando los límites de lo que la IA es capaz de hacer en este ámbito con lo que en un plazo corto de tiempo vamos a conocer las implicaciones de la IA para la creatividad y el empleo humanos.

Además, las computadoras cuánticas tienen el potencial de realizar ciertos tipos de computación mucho más rápido que las computadoras clásicas, lo que podría tener implicaciones significativas para la inteligencia artificial. Las investigaciones sobre IA y computación cuántica exploran los posibles beneficios y desafíos del uso de computadoras cuánticas para la IA.

Las publicaciones sobre inteligencia artificial se multiplican con gran rapidez. Antes de entrar en varias de ellas (en un próximo artículo) quiero mencionar brevemente un libro que podría servir de fundamento a esas publicaciones sobre IA. Me refiero a Thinking, Fast and Slow, de Daniel Kahneman, el premio Nobel israelí-estadounidense, que me parece una magnífica forma de empezar a entender la IA y sus implicaciones a partir de la comprensión del funcionamiento del cerebro humano.

Thinking, Fast and Slow es un libro sobre los factores psicológicos y cognitivos que influyen en la forma en que los humanos toman decisiones y resuelven problemas. Es relevante para la inteligencia artificial porque muchos sistemas de IA están diseñados para ayudar en la toma de decisiones y tareas de resolución de problemas. Kahneman describe dos sistemas de pensamiento que utiliza el cerebro humano: el Sistema 1, que es rápido y automático, y el Sistema 2, que es más lento y más deliberado.

Kahneman analiza cómo funcionan estos dos sistemas y cómo pueden influir en nuestros pensamientos, sentimientos y comportamientos. También analiza cómo estos sistemas pueden generar sesgos y errores de juicio, y cómo pueden afectar nuestra capacidad para tomar buenas decisiones.

Comprender estos factores psicológicos y cognitivos está siendo útil para quienes trabajan en el campo de la IA, ya que contribuye a ayudarlos a diseñar sistemas que sean más efectivos para ayudar a los humanos en la toma de decisiones y las tareas de resolución de problemas.

Al tener en cuenta las formas de funcionamiento de la mente humana, los diseñadores de IA están creando sistemas que son más intuitivos y fáciles de usar para los humanos. Se trata de un enfoque conveniente y prometedor, aunque no evita los graves riesgos y dilemas éticos que implica la IA y señalados anteriormente, tanto en lo que ya conocemos como en sus desarrollos futuros.

Senior Research Scholar at MIT and Future Earth. United States Fulbright Faculty Fellowship (2024) delcerro@mit.edu