Dva kocke, na jednoj piše AI, a na donjoj kocki, na jednoj strani štrikla, a na drugoj znak za netačno. Pored je lupa.

Ne verujte slepo veštačkoj inteligenciji, jer ume da „halucinira”, greši i laže

    Sadržaj:
  • 1. Samo osam procenata
  • 2. Kratak pregled AI laži i halucinacija
  • 3. Koliko ljudi proverava AI odgovore?
  • 4. Pouke za kompanije i pojedince

Alati veštačke inteligencije svega nekoliko godina nalaze se u ljudskoj svakodnevici. OpenAI-jev alat ChatGPT, recimo, ovog meseca puni samo tri godine i zvanično ga sedmično koristi 800 miliona ljudi. Kao poređenje, nije naodmet podsetiti se na podatak kada je veliki pretraživač Google počeo s radom – bila je to 1998, početkom septembra.

Verovati ili ne AI alatima?

Samo osam procenata

Mnogi korisnici već su se uverili da ne mogu da veruju aplikacijama veštačke inteligencije zasnovanim na velikim jezičkim modelima (LLM), kao što je ChatGPT, da će dati tačne informacije. Ovakve „neverne Tome” proveravaju svaki odgovor koji dobiju od AI alata. Za kratko vreme otkako postoje, već smo svedoci brojnih primera u kojima su četbotovi „halucinirali”, nudili pogrešne odgovore i lagali korisnike, što je ponekad rezultiralo ozbiljnim posledicama.

Ali, nedavni izveštaj kompanije Exploding Topics, specijalizovane za analizu trendova, navodi da samo mizernih osam procenata ljudi zaista proverava odgovore koje dobija od AI sistema, uprkos svesti o problemima sa AI „halucinacijama” i skepticizmu korisnika prema ovim alatima.

Kratak pregled AI laži i halucinacija

Očigledna ljudska pasivnost i lenjost u proveri AI odgovora još je šokantnija, kada se uzme u obzir koliko je primera dezinformacija zasnovanih na veštačkoj inteligenciji već dospelo u medije. Neki od njih su smešni, pa i opasni – poput situacija kada je AI savetovala korisnike da u hranu dodaju kamenje ili lepak, do primera da nije dala tačan odgovor koliko je slova u jednoj reči.

Ali, bilo je i odgovora koji su sobom doneli ozbiljnije posledice. Na primer, kompanija za programske alate Cursor izgubila je klijente kada je njen AI četbot za korisničku podršku objavio nepostojeću promenu politike, navode iz Exploding Topics.

Veštačka inteligencija ne „halucinira” samo slučajno. Ponekad aktivno izmišlja lažne dokaze da bi podržala pogrešne odgovore. Kada je investitor Bred Feld pitao AI o sopstvenoj karijeri, model je pogrešno tvrdio da je on član upravnog odbora jedne kompanije. Kada ga je Feld osporio, AI je napravio čitav izmišljeni blogpost na Feldovom sajtu, s lažnim linkovima kao „dokazom”.

Psihijatar Robin Emsli pisao je o tome kako je ChatGPT pogrešno citirao ili potpuno izmislio naučne studije kako bi potkrepio svoje tvrdnje. Neki advokati su čak videli svoje predmete odbačene, jer su u podnescima navodili nepostojeće presedane koje je AI izmislio. Nebrojeno je sličnih primera.

Kako je Feld rekao:

„Postoji razlika između greške i laganja. Kao što fraza kaže – svaki kupac mora da se pazi”.

Koliko ljudi proverava AI odgovore?

Alati kao što su ChatGPT ili Google Gemini ne samo da mogu da pogreše već ponekad svesno generišu neistine. Ipak, korisnici očigledno ne slede Feldov savet da budu oprezni.

Istraživanje Exploding Topics-a, sprovedeno na 1.000 korisnika interneta, pokazalo je da je 75 odsto ispitanika lično iskusilo problem sa tzv. AI „pregledima” koji se sada pojavljuju na vrhu mnogih Google pretraga.

Najčešće zamerke su bile:

  • netačan ili obmanjujući sadržaj (42,1 odsto)
  • nedostatak konteksta (35,8 odsto)
  • pristrasni ili jednostrani odgovori (31,5 odsto)
  • štetni ili opasni saveti (16,7 odsto).

Zanimljivo je da 21 odsto korisnika nikada ne veruje ovim rezultatima AI pretrage, a još je zanimljivije da više od 40 odsto retko ili nikada ne klikće na izvorne linkove iz AI pregleda (samo 7,7 odsto to uvek čini).

Pouke za kompanije i pojedince

Glavna urednica Exploding Topics-a Kler Brodli kaže da ovi brojevi treba da budu poziv na akciju, i posebno se obraća poslovnim ljudima i liderima koji donose odluke:

„Jasno je da ne možemo računati na to da će ljudi čitati sadržaj i proveravati činjenice. Kompanije moraju da budu spremne da optimizuju svoj sadržaj za AI pretrage, inače rizikuju da AI, poput Gemini-ja, sam ʼpovežeʼ činjenice.

Za preduzetnike je ovo važan signal: pretražite Google koristeći ključne izraze povezane s vašim biznisom i pogledajte šta AI prikazuje u sekciji pretrage. Vrlo je moguće da vaši klijenti završavaju pretragu upravo tamo. Ako niste zadovoljni onim što oni mogu videti, vreme je da reagujete.”

Glavna poruka: Pazite se

Najveća lekcija potvrđuje savet investitora – ne verujte slepo AI-ju.

Da, primamljivo je uštedeti vreme i prihvatiti sve što AI ponudi, ali svi dokazi ukazuju da su odgovori često puni grešaka i dezinformacija. To je činjenica koja se pokazuje svakodnevno.

Kao preduzetnik, neko ko vodi svoj posao, ili ste lider koji donosi važne odluke, treba da budete posebno pažljivi: proveravajte linkove, izvore i citate koje AI navodi. Previše poverenja u AI može lako da vam napravi mnogo problema, da vas osramoti ili poruši ugled među saradnicima i klijentima.

Tako da je glavna poruka i istraživača i veštijih korisnika alata veštačke inteligencije – pazite se, i svemu što vam se ponudi pristupajte kritički.