La ONU advirtió ayer sobre los peligros que conlleva el uso de la Inteligencia Artificial (IA) y pidió a las empresas que sean responsables. “Pienso que es muy preocupante (...). La IA es una tecnología que puede traer grandes beneficios en educación y ciencias. Sin embargo, las empresas deben responsabilizarse en la forma que esta información se publica porque se puede hacer un mal uso de ella”, declaró en una rueda de prensa el portavoz de la Secretaría General de Naciones Unidas, Stéphane Dujarric.

Dujarric expresó sus preocupaciones en referencia a programas de inteligencia artificial como ChatGPT, que han conseguido alterar imágenes, replicar voces y crear textos de forma que pueden aumentar “la violencia y la desinformación”. Ejemplo de ello son las fotos creadas por la propia IA del papa Francisco llevando un chaquetón y unas zapatillas deportivas blancas, o la creación de unas imágenes de Trump siendo detenido.

El portavoz del organismo señaló que uno de los problemas radica en que el sector tecnológico opera fuera de los controles gubernamentales de forma mayoritaria, y explicó que la ONU ha organizado reuniones entre los gobiernos, el sector privado y la sociedad civil para intentar garantizar que no se abuse de esta tecnología. Además, aseguró que el secretario general de Naciones Unidas, António Guterres, lleva tiempo advirtiendo al respecto. “La inteligencia artificial viene con la promesa de mejorar el acceso a la sanidad, a acelerar el desarrollo económico y otros beneficios. Pero también podemos ver los peligros: un mundo con menos privacidad, menos intervención y responsabilidad humana y donde la desigualdad de ingresos se amplía y el acceso al trabajo se reduce para millones de personas”, dijo Guterres en mayo de 2019.

Paso al frente de Italia

En este contexto, Italia dispuso ayer el bloqueo “con efecto inmediato” de la herramienta de Inteligencia Artificial ChatGPT, de la tecnológica estadounidense OpenAI, acusándola de no respetar la ley de protección de datos de los consumidores. El garante italiano para la Protección de Datos Personales aseguró en un comunicado que ha abierto una investigación y que, entretanto, el bloqueo se mantendrá hasta que ChatGPT “no respete la disciplina de la privacidad”.

El popular ChatGPT ha sido desarrollado por la compañía OpenIA de Estados Unidos, donde varias organizaciones han pedido también su suspensión por recelar de estos experimentos con Inteligencia Artificial.

El organismo italiano informó de que este chat, el más conocido de la emergente inteligencia artificial, capaz de simular conversaciones humanas, sufrió el pasado 20 de marzo una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados. En su disposición, el garante italiano destacó “la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI”. Además, alegó que las informaciones generadas por ChatGPT “no siempre corresponden” a la realidad.