Adimen artifizialeko (IA) chatbot-en tararik handienetako bat da, batzuetan, erantzun ondo egituratuak ematen dituztela, baina erabat okerrak, teknologiaren industrian "haluzinazio" gisa ezagutzen dena, eta orain, adituek horiek desagerrarazteko erronka dute.

Joan den udazkenean teknologia hori zabaldu zenetik, milioika pertsona hasi dira egunero txat horiek erabiltzen, besteak beste, posta elektroniko bat idazteko, oporrak antolatzeko, informazioa bilatzeko edo gai zehatzei buruz ikasteko.

Hala ere, erantzunen zehaztasunari buruzko ziurgabetasunak kezka sortzen du bai erabiltzaileengan, bai zerbitzu horiek eskaintzen dituzten ikertzaile eta enpresengan.

Erantzun asaldatzaileak edo asmatuak

Haluzinazio mota horren adibide asko daude, eta ezagunenen artean daude otsailean hainbat pertsonak "Sydney"-rekin, Bing-en alter egoarekin, Microsoft-en Chatbot jaurti eta gutxira izan zituzten elkarrizketak.

Kasu batean, Sydneyk New York Timesko kazetari bati aitortu zion gizakia izan nahi zuela, suntsitzailea izan nahi zuela eta txateatzen ari zen pertsonaz maiteminduta zegoela.

Beste "haluzinazio" sonatuenetako bat Googleren Bard txatbotarena izan zen, zeinak James Webb teleskopio espazialari buruzko akats batekin promozio-bideoa egin baitzuen.

Ez dirudi enpresa batek ere patinatzeetatik askatuko duenik: OpenAIko txatbotak, ChatGPTk, abokatu bati akatsa eragin zion, abokatuak epaiketa batean erabili zituen legezko aurrekari guztiz asmatuak sortu baitzituen harentzat, baina atzeman egin zuten, eta, orain, zigorrak jarri behar izan dizkie.

Haluzinaziorik gabe ez dago sormenik

Algoritmo konplexu bati esker funtzionatzen du IA sortzaileak. Algoritmo horrek aztertzen du nola elkartzen dituzten hitzak gizakiek Interneten dagoen informazio-kopuru handia oinarri hartuta, baina ez dago programatuta haien erantzunak benetakoak diren erabakitzeko.

"Haluzinazio" horiek ez dira hain errazak errotik ateratzeko, sistema beraren parte baitira, eta sistema horrek aukera ematen baitie botei sortzaile izateko eta errepikatu gabeko elkarrizketak edo istorioak sortzeko. Hau da, IAren ezaugarri hori kentzen edo geldiarazten bada, ez litzateke hain erraza izango txatak edozein estilotan poemak sortzea, txisteak sortzea edo ideiak iradokitzea.

"Haluzinazio horiek bereziki arazotsuak dira zenbait urrats arrazoitzea eskatzen denean, akats logiko bakar bat nahikoa baita askoz ere irtenbide handiagoa bilatzeko", zehaztu du OpenAI azterlan batean Bing eta ChatGPT txatetako teknologiaren atzean dagoen enpresak.

Erraldoi teknologikoen kezka

Microsoft eta Google, IA duten chatbot-en erreferentziazko konpainia izateko lehian dabiltzan bi teknologia-erraldoi handiek, akats horiek saihesteko neurriak probatu dituzte; Microsoft-ek Bing-ek erantzun ditzakeen galderen kopurua mugatzen saiatu da, "haluzinazio" distopikoenak elkarrizketa luzeagoetan agertzen zirela detektatu ondoren.

Bestalde, Googlek bere chatbot-teknologia erabiliz bilaketa-emaitzak sortzen dituenean, bilaketa bat egiten du bilatzaile tradizionalean; bi teknologiek lortutako erantzunak konparatzen ditu, eta erantzuna berdina ez bada, IAren emaitza ere ez da agertzen.

Hori dela eta, bere chatbot-a ez da hain sortzailea, eta, beraz, ez da poemak idazteko edo elkarrizketak izateko lehiakideak bezain ona, baina ez dago akatsaren eraginpean.

"Alorrak (IA sortzaileak) oraindik ez ditu konpondu haluzinazioen arazoak. Eredu guztiek dute arazo hori" esan zuen Googleko zuzendari exekutiboak, Sundar Pichaik, apirilean CBSrekin egindako elkarrizketa batean.

Bi bat baino hobeto

Massachusettseko Teknologia Institutuko (MIT) "Faktoritatea eta arrazoibidea hobetuz hizkuntza-ereduetan, eztabaida multiagentearen bidez" izeneko azterlanak proposatzen duen konponbideetako bat da, gizaki bati erantzun baino lehen, zenbait txatbot "eztabaidatzea", erantzun zuzenari buruz.

Chatbot-ek galdera berari erantzun ugari ematen badizkiote, lehenbizi erantzun zuzena zein den adostu behar dute.

Bestalde, Cambridgeko ikertzaile-talde batek honako hau adierazi du bere artikuluan: "SelfCheckGPT: Caja beltzeko haluzinazioak detektatzea, hizkuntza-eredu sortzaileetarako baliabiderik gabe" (LLM)". Hain zuzen ere, IA gutxiago okertzen laguntzen duen teknika bat galdera bera egitea da, erantzuna beti berdina den edo ez ikusteko.

Beste aditu batzuek, hala nola Geoffrey Hintonek, IAko "aitabitxi" izendatu zutenak eta bere ibilbidearen zati bat Googlen izan zuenak, uste dute "haluzinazioak" kontrolatuko direla gutxiago gerta daitezen, baina ezin direla erabat desegin.