donostia - ¿Qué sabemos de la inteligencia artificial?

-Sabemos muy bien cómo conseguir que una inteligencia artificial haga una tarea muy concreta, muy específica, bien delimitada, pero no tenemos ni idea prácticamente de cómo hacer inteligencias artificiales multitarea, que sepan hacer una variedad amplia de cosas distintas, que es básicamente lo que hacemos los humanos. Que aunque nos especialicemos en algo, tenemos una capacidad amplia de tomar decisiones en ámbitos muy distintos. Ese es el tipo de inteligencia artificial que en absoluto es una realidad.

Bill Gates ha comparado la inteligencia artificial con la energía nuclear, en cuanto a oportunidades y riesgos. ¿Qué opinión le merece esa afirmación?

-Estoy de acuerdo. Hay una corriente a nivel internacional muy importante que promueve desarrollar inteligencias artificiales teniendo en cuenta valores humanos y aplicaciones positivas, pero como todas las tecnologías, son de doble uso y tiene dos caras. Y aparte de las grandes ventajas, de hacernos la vida más fácil, alargarnos la vida..., porque se puede mejorar en aspectos médicos: diagnóstico, tratamiento médico? Hay muchísimas realidades ya en este sentido para ayudar al profesional; no para sustituirle, ¡ojo!. Esto es muy importante. Todo aquel proceso de toma de decisiones es susceptible de ser mejorado con estas herramientas. Pero también se pueden usar, y se están desarrollando aplicaciones que van precisamente en sentido contrario, para controlar a la ciudadanía.

En China, por ejemplo.

-Clarísimo, pero no solo en China. Incluso en España hay sistemas que se están empezando a usar, como Veripol, una herramienta de la Policía para detectar denuncias falsas. En ningún lugar he visto un análisis serio de esta herramienta y se está utilizando de una manera que plantea dudas en cuanto a la privacidad de los individuos. Y también sabemos que hay países que están invirtiendo grandes cantidades de dinero en lo que llaman armas letales autónomas.

Inquietante.

-Muchísimo. Muchos pensamos que esto habría que regularlo, pero me temo que las cosas no van por ahí. Hay muchos intereses económicos. Ya ha empezado una guerra armamentística, en el sentido de desarrollar estas armas autónomas.

Parece que el desarrollo de esta tecnología está en plena ebullición y, sin embargo, socialmente vivimos ajenos a ello. Con la energía nuclear hubo debate, ¿por qué no lo ha habido ahora? ¿Cedemos terreno sobre el control de estas herramientas?

-El debate social, que ahora sí que está encima de la mesa, llega tarde. Yo creo que se están planteando cosas ahora que se podrían haber planteado hace diez años o más. Lo que ha hecho que se dispare más ahora las alarmas, son estas aplicaciones recientes, lo que se llama aprendizaje profundo, que permite, analizando grandes cantidades de datos, adelantar patrones de comportamiento o hacer reconocimiento de caras.

¿Llegarán algún día a detectar emociones o sentimientos?

-Bueno, pero ese no es el problema ahora. El problema es que hay sistemas de reconocimiento facial que pueden pensar que tu cara tiene similitudes suficientes con una cara que está en una base de datos de personas sospechosas. Sistemas que actualmente arrojan un 80% de falsos positivos. El sistema se equivoca y sin embargo se está utilizando alegremente. Hay una falta de prudencia grande. Y a pesar de eso, se están utilizando en policías de todo el mundo, ya de forma rutinaria. Por eso digo que hemos reaccionado tarde y que nos falta ojo crítico. Estos sistemas no se deberían poder implementar sin haber hecho antes una comprobaciones y haber testado que cumple una serie de requisitos en cuanto a derechos humanos.

¿Alguien ha frenado ese debate social o simplemente hemos estado entretenidos con otras cosas?

-Hasta hace siete u ocho años, prácticamente nadie hablaba de inteligencia artificial, parece que no existía. No estaba en el día a día de los medios de comunicación. Es cierto que ha habido un crecimiento exponencial de aplicaciones de inteligencia artificial en unos años, pero no es una cosa de hoy. Yo estoy en la inteligencia artificial desde 1976 y hace 20 años ya había firmado algunas cartas abiertas alertando de sus peligros. Había una asociación internacional de informáticos por la responsabilidad social. Es decir, nos preocupábamos. Ya en 1983 hubo una mesa redonda de debate en Karlsruhe, en Alemania, sobre las aplicaciones de la inteligencia artificial en el contexto militar. Y se hablaba de posibles futuros robots soldados. Entonces todavía parecía ciencia ficción.

Pero hoy no lo es.

-No es ciencia ficción y ahora tenemos los drones además. Se están usando cada día en Irak y Afganistán por parte del ejército de EEUU, telecontrolados por personas, para localizar un objetivo y disparar.

¿Y un dron que hoy es teledirigido, mañana podría ser autónomo y decidir por sí mismo si tiene que disparar o no?

-En estos momentos es posible. Es un tema de investigación y desarrollo en los países que tienen más inversión en temas militares, como EEUU, Rusia, Israel, Francia... Se está trabajando con inversiones multimillonarias para que estos drones puedan tomar decisiones por sí mismos, lo cual es terrorífico. Porque ni hoy día, ni apuesto que en muchos años, la inteligencia artificial será capaz de discernir los matices necesarios para tomar una decisión así. Incluso en las guerras hay unas leyes y pensar que un sistema de inteligencia artificial, de forma completamente autónoma, sin asistencia humana, pueda tener en cuenta todos esos matices, es complicado. Incluso llegando al extremo de que estuviesen tan desarrollados, me pregunto: ¿Es digno delegar la capacidad, la decisión absoluta de matar en una máquina? Eso se escapa de la tecnología, es más de moral, de ética, de filosofía.

¿Cómo puede afectar la inteligencia artificial en lo laboral?

-Aquí también tenemos un problema encima de la mesa. Es cierto que hay un sector importante en el ámbito de desarrollo de la inteligencia artificial, que sostiene que la tecnología lo que hace es transformar, no necesariamente sustituir completamente. En el sentido de que creará más puestos de trabajo, posiblemente, de los que va a quitar. Pero incluso en ese caso, esto no sucederá de la noche a la mañana y ahí habrá un periodo de años en que la gente lo va a pasar mal. Como no tomemos medidas ya, para esta transformación del mercado laboral, estamos mal. Hay que cambiar incluso la Educación.

¿Podremos vivir de las máquinas algún día? ¿Deberían cotizar los robots a la Seguridad Social?

-A más de diez años vista me cuesta hacer predicciones, pero es posible que en un plazo de tiempo no corto, se haya desarrollado tanto la inteligencia artificial que muchas tareas de las que hacemos nosotros, se puedan automatizar.

Otros piensan que existe el riesgo de que nos convirtamos en mascotas o esclavos de las máquinas.

-Eso yo ya no lo veo tan claro. Algunos creen que habrá súper inteligencias que nos harán obsoletos completamente para 2040, que nos superarán en tantísimas cosas que entonces no seremos necesarios. Estos son los transhumanistas. Yo creo que están equivocados. No estoy de acuerdo con ellos en que todo crezca exponencialmente. Por ejemplo, la calidad de la inteligencia de los algoritmos de inteligencia artificial no crece exponencialmente, ni mucho menos.

¿Qué me dice de los móviles? ¿Llevamos la amenaza en el bolsillo?

-Con esto (coge el móvil) ya estamos renunciando a muchas cosas, privacidad, etcétera. El móvil cada vez es más intermediario hacia la inteligencia artificial. Es decir, aquí dentro no hay inteligencia artificial, pero realiza una transmisión de información de la que se nutre la inteligencia artificial. Aún así, de lo que sí estoy convencido es de que no es transmisor de sabiduría. Lo que sí tienen todos estos artilugios es que son muy útiles.

¿Teme que el control de la inteligencia artificial avanzada quede en manos de los ricos?

-Si se llegara a algunas inteligencias artificiales súper sofisticadas, ¿quién podrá permitirse esto? Por ejemplo, al nivel de retrasar el envejecimiento o para no desarrollar ciertas enfermedades. Se podría generar una gran separación entre una inmensa mayoría de la sociedad que no podrá beneficiarse de eso y una elite que sí podrá.

En biomedicina hay comités de ética y una comunidad científica que marca la pauta. ¿La hay aquí?

-No hay el equivalente, que haría falta. Que un organismo internacional regule todo esto es muy difícil. Yo soy pesimista, incluso en cuanto que Naciones Unidas llegue a prohibir las armas autónomas. Hay muchos intereses. Ahora hay solo 30 países que están a favor de prohibir las armas autónomas y no hay ninguna potencia entre ellas. España, por ejemplo, no está por la prohibición. Y eso que hay mucha presión por parte de la comunidad científica para que se prohíban. En la estrategia europea de inteligencia artificial se menciona muchísimo la ética y se dice que se tiene que hacer inteligencia artificial centrada en el ser humano, que esté siempre implicado en los procesos de decisión, que la toma autónoma de decisiones de una máquina no sea una excusa para eludir responsabilidades. Porque claro, si algo va mal... ¿Quién es responsable si la máquina es totalmente autónoma?

¿Y quién lo es?

-Para mí es obvio. Por muy autónomo que sea un coche, lo que no podemos admitir es que nadie pueda ser responsable. Hay gente que habla de dotar de personalidad electrónica a los elementos autónomos, pero yo estoy en contra de eso porque es quitarse la responsabilidad de acciones humanas que están detrás de su diseño y su aplicación.

Aparquemos lo malo. He leído que se desarrollarán sistemas de ayuda que personalicen la educación.

-Eso se está investigando ya. Hay algunos prototipos para personalizar completamente la educación en función de tus habilidades y la velocidad con la que aprendes. Pero como herramienta de ayuda a un profesor, no de sustitución de un ser humano. Lo que no puede ser es dejar la educación en manos de la inteligencia artificial y que tú desde casa hagas todo y pretendas que te vayas a formar como persona sin salir de tu habitación, porque un programa te va tutorizando. Porque un elemento imprescindible es la socialización.

¿Ha sentido miedo de la inteligencia artificial en algún momento?

-Ahora sí. Últimamente estoy mucho más preocupado que hace 20 años porque estoy viendo, y no soy el único, que las cosas no están yendo por donde deberían ir. El control de la gente, todo esto de las fake news, y la manipulación de las personas a todos los niveles, incluso a nivel político... Para mí, hemos abierto toda la caja de Pandora y todo arranca de Internet, hace muchos años. Para mí hay un antes de lo que es la humanidad, que nos ha cambiado la vida a todos. Vivimos muy acelerados, estresados, Dudo de que este modo en el que vivimos sea sostenible.

Pero vamos a tener que convivir con la inteligencia artificial...

-La inteligencia artificial está aquí para quedarse. Pero el objetivo científico, que son las inteligencias artificiales multitareas, sigue estando sin resolver ni de lejos. Estamos muy lejos de eso. La inteligencia artificial que ya está aquí es esa más limitada, específica, que solo sabe hacer una cosa muy bien, pero es muy útil. A plazo corto, no espero ver algo mucho más espectacular que lo que tenemos. Puede ser que leamos mañana que un ordenador sea el mejor del mundo jugando a no que sé, como hemos visto con el ajedrez o como estamos viendo ya con el póquer, pero a mí esto no me va a impresionar. Empezaremos a ver inteligencias, no tan generales como la inteligencia humana, pero sí generales, en unos diez o quince años.