Slušaj vest

OpenAI je upravo predstavio sledeću generaciju svojih AI modela, o3 i o4-mini, najavljujući zapanjujuće napretke u rešavanju problema, matematici, programiranju i vizuelnoj analizi. Međutim, iza sjajnih naslova i hrabrih tvrdnji krije se uznemirujuća istina, ovi novi modeli haluciniraju više nego ikada ranije.

shutterstock-openai-2.jpg
Foto: Shutterstock

Da, dobro ste pročitali. Iako se predstavljaju kao pametniji i sposobniji, modeli o3 i o4-mini znatno češće izmišljaju činjenice, daju netačne informacije i to sa potpunim samopouzdanjem. To je šokantan korak unazad u industriji koja se već dugo bori sa jednim od najvećih problema veštačke inteligencije, halucinacijama.

Još zabrinjavajuće, ovaj novi talas netačnosti prekida prethodni trend u kojem su svaka nova verzija i model bili sve pouzdaniji i precizniji. Sada izgleda da OpenAI ide u pogrešnom pravcu.

shutterstock-openai-3.jpg
Foto: Shutterstock

Lažno samopouzdanje u punom sjaju

Interni testovi OpenAI-ja pokazuju da modeli o3 i o4-mini haluciniraju znatno više od svojih prethodnika, uključujući modele kao što su o1, o1-mini, pa čak i o3-mini koji je objavljen početkom godine. Na jednom od testova, model o3 je zabeležio stopu halucinacija od 33 odsto, skoro duplo više nego prethodni modeli.

Još gore, o4-mini je premašio tu brojku sa neverovatnih 48 odsto halucinacija. Jedan od mogućih razloga? Reč je o manjem modelu, sa manje znanja o svetu, što ga čini sklonijim izmišljanju kako bi popunio praznine.

shutterstock_OpenAI (3).jpg
Foto: Shutterstock

Tehnički izveštaj kompanije priznaje da još uvek ne znaju tačno zašto se ovo dešava. „Potrebna su dodatna istraživanja,“ navodi se u izveštaju, što ne uliva previše poverenja korisnicima i programerima.

A problem nije samo u netačnim odgovorima, već i u tome koliko samouvereno modeli brane svoje greške. Jedna organizacija koja prati rad AI sistema izvestila je da o3 ne samo da izmišlja odgovore, već ih i opravdava kada ga korisnik suoči sa greškom, čak tvrdeći da koristi eksterni MacBook Pro za izvođenje proračuna, pa zatim kopira rezultate u ChatGPT.

shutterstock_OpenAI (2).jpg
Foto: Shutterstock

Fikcija prerušena u činjenice

U nekim slučajevima, model generiše potpuno izmišljene linkove ka nepostojećim veb-sajtovima, obmanjujući korisnike prividom preciznosti. To je fikcija predstavljena kao činjenica, i događa se sve češće.

OpenAI, s druge strane, ne zatvara oči pred ovim problemima. Portparol kompanije, Niko Feliks, potvrdio je da je smanjenje halucinacija i dalje „ključna oblast istraživanja“ i da kompanija intenzivno radi na poboljšanju tačnosti i pouzdanosti.

Ali nemojte se zavaravati, ovi novi modeli možda izgledaju kao veliki korak napred, ali sa sobom donose zabrinjavajući porast dezinformacija koje generiše veštačka inteligencija. U trci za pametnijim mašinama, OpenAI je možda stvorio nešto moćnije, ali istovremeno i daleko manje pouzdano.