Mis on AI hallutsinatsioon ja miks on seda oluline mõista?

Mis on AI hallutsinatsioon?

Tehisintellekt on viimaste aastate jooksul saanud inimeste tööelus uueks tiimikaaslaseks. Aidates meil kõiksugu tekste kirjutada, ideid põrgatada ja struktureerida, andmeid analüüsida ja tülikalt pikkadest raportitest kokkuvõtteid teha. Ausalt öeldes on tehisintellekt kaaskollegina päris tore ja mugav. Aga nagu iga hea asjaga, kaasnevad ka tehisintellekti kasutamisega omad riskid.

Üks selline nähtus, millest ikka räägitakse, on AI hallutsinatsioon. Vaatame natukene teemasse sisse, sest AI tööriistade kasutajana tasub AI “hallutsineerimisega” kursis olla ja arvestada.

Mis on hallutsinatsioon ja miks see tekib?

“Hallutsinatsioon” on lai mõiste, mis kirjeldab teatud tüüpi vigu, mida teevad suured keelemudelid (LLM). Suured keelemudelid toidavad vestlusroboteid nagu ChatGPT või Gemini ning nad genereerivad vastuseid, ennustades korduvalt “mis on tõenäoline järgmine sõna” vastuseks sinu küsimustele. Sisuliselt tähendab see seda, et nad loovad vastuseid, ennustades kõige tõenäolisemat järgmist sõna. Nad lähtuvad sinu senisest vestlusest ja tohutust tekstimassist, millega neid on treenitud. See tähendab, et:

  • mudel ei tea, kas konkreetne väide on faktiliselt tõene,

  • mudelil ei ole “aru saamist” või “taju” meie soovist,

  • genereerimine põhineb mustritel, mitte teadmistel.

Tulemuseks võivad olla kõlavalt esitatud, kuid sisuliselt valed vastused. See ongi hallutsinatsioon. Tead ju küll, et mõnikord mainib tööriist tõe pähe uuringut. Kõik tundub tip-top, kuni avastad, et ohoo, seda linki, millele ta suunab lihtsalt pole olemas.

Kas uued mudelid teevad rohkem vigu?

Eeldaks ju, et mida uuem mudel, seda targem ta on. Tegelikult – mitte alati. Viimased testid näitavad, et mõned uued keelemudeli versioonid (näiteks OpenAI o3 ja o4-mini) teevad rohkem vigu kui nende eelkäijad (o1). Konkreetse näitena on eelpool mainitud testides välja toodud, et avalikult kättesaadavate faktide kokkuvõtmisel hallutsineeris o3 33% juhtudest, o4-mini 48% juhtudest, samas kui o1 hallutsinatsioonimäär oli 16%. Samas OpenAI esindaja sõnul ei ole hallutsinatsioonid nendes mudelites olemuslikult rohkem levinud. Samas töötavad nad ise aktiivselt o3 ja o4-mini mudelitel hallutsineerimismäärade vähendamise nimel. Väga mustvalgeid järeldusi siin teha ei saa. Võib lihtsalt nentida, et areng ei ole tehnoloogias alati lineaarne.

 

Kas hallutsinatsioon on ainus probleem?

Ei, kindlasti mitte. AI mudelid võivad:

  • toetuda vananenud või ebausaldusväärsele infole,

  • genereerida sisult ebatäpseid või eksitavaid viiteid,

  • mõista valesti konteksti või küsimuse eesmärki.

Seega on hallutsinatsioonid vaid üks osa laiemast riskist, mida tuleb arvestada ärikriitilistes protsessides, kus kasutatakse AI-tööriistu. Ja mõned teadlased arvavad, et tegelikkuses ei peaks AI mudelite puhul niivõrd kasutama sõna “hallutsinatsioon” kui et rääkima vigade puhul matemaatilisest terminit nagu “hälve”. Kuna enamuse ajast on süsteemid töökindlad ja usaldusväärsed. Viidatakse ka, et sõnana viitab “hallutsinatsioon” millegi sellise tajumisele, mida tegelikult pole, samas kui suured keelemudelid (LLM-id) ei taju midagi. Inimesed tajuvad.

Kas hallutsinatsiooni probleemist saab üldse lahti?

AI-arendajad lootsid, et iga uus versioon parandab puudujääke. Aga tegelikkus on keerulisem. Hallutsinatsioonide määr pole aja jooksul vähenenud ning nagu uuemate mudelite puhul näha, siis see hoopis kasvab. Ilmselt peame nentima tegelikkust, et vestlusrobotite puhul me neid täielikult ei vabane kunagi. AI on väga osav abiline, aga mitte eksimatu. Selleks, et faktipõhist teavet näiteks viitamispõhiselt saada, tuleb kasutada teistsuguseid tööriistu.

Kuidas siis targalt kasutada?

AI võib palju ära teha. Ta võib aidata sul mingeid töid alustada, luua struktuuri või anda mõtteid, kust edasi minna. Aga ta ei vastuta sinu eest. Mina lähtun oma töös lihtsast põhimõttest: kas AI vastust on lihtsam ja kiirem kontrollida kui nullist ise alustada?Kui jah, siis võib kasutada. Kui ei, siis tasub mõelda, kas see ülesanne sobib üldse tehisintellekti pärusmaale. Hallutsinatsioonid on selle tööriista loomulik osa ja mida teadlikumalt sa neid arvestad, seda rohkem saad kasu.

Kui sul on tunne, et tahaks AI-tööriistu oma tiimis rohkem rakendada, aga ei tea veel täpselt, kust alustada või kuidas neid turvaliselt kasutusele võtta, siis kirjuta mulle. Vaatame koos tehisintellekti teemad üle. Olen AI koolitaja, kelle fookus on praktilistel tööprotsessidel, turvalisel rakendamisel ja töötajate teadlikkuse kasvatamisel.

Organisatsioonis baaskoolituse korraldamiseks võta ühendust ja aitan sul planeerida ning läbi viia sinu inimeste vajadustele vastava koolituse: https://www.empler.ee/sisekoolitused/

Keiu Kaitsa

Keiu Kaitsa

Projektijuht ja koolitaja

5217065

Loe minust lähemalt https://empler.ee/minu-lugu/

Täpsem ülevaade teenusest:https://empler.ee/ai-koolitused/ ja vaata ka https://www.productory.eu/
Artikli märkis ära ka Finatsuudised.ee portaal

Jaga artiklit:

Facebook
LinkedIn

Teised postitused:

AI assistent

AI assistent – personaliinimese nutikas töövahend

AI lahenduste rakendamine personalivaldkonnas ei tähenda tingimata mitmete uute süsteemide juurutamist ega olemasolevate tööprotsesside täielikku ümberkujundamist. Tulemuslikum on alustada tööülesannete kaardistamisest, keskendudes küsimustele: millised tegevused

Võta ühendust