OpenAI novi AI modeli su pametniji, ali vas lažu više nego ikada!
OpenAI je lansirao nove AI modele, o3 i o4-mini, koji su pametniji, ali često izmišljaju informacije. Uprkos napretku, ovi modeli imaju visoke stope halucinacija, što postavlja ozbiljna pitanja o njihovoj tačnosti.
OpenAI je upravo predstavio sledeću generaciju svojih AI modela, o3 i o4-mini, najavljujući zapanjujuće napretke u rešavanju problema, matematici, programiranju i vizuelnoj analizi. Međutim, iza sjajnih naslova i hrabrih tvrdnji krije se uznemirujuća istina, ovi novi modeli haluciniraju više nego ikada ranije.
Da, dobro ste pročitali. Iako se predstavljaju kao pametniji i sposobniji, modeli o3 i o4-mini znatno češće izmišljaju činjenice, daju netačne informacije i to sa potpunim samopouzdanjem. To je šokantan korak unazad u industriji koja se već dugo bori sa jednim od najvećih problema veštačke inteligencije, halucinacijama.
Još zabrinjavajuće, ovaj novi talas netačnosti prekida prethodni trend u kojem su svaka nova verzija i model bili sve pouzdaniji i precizniji. Sada izgleda da OpenAI ide u pogrešnom pravcu.
Lažno samopouzdanje u punom sjaju
Interni testovi OpenAI-ja pokazuju da modeli o3 i o4-mini haluciniraju znatno više od svojih prethodnika, uključujući modele kao što su o1, o1-mini, pa čak i o3-mini koji je objavljen početkom godine. Na jednom od testova, model o3 je zabeležio stopu halucinacija od 33 odsto, skoro duplo više nego prethodni modeli.
Još gore, o4-mini je premašio tu brojku sa neverovatnih 48 odsto halucinacija. Jedan od mogućih razloga? Reč je o manjem modelu, sa manje znanja o svetu, što ga čini sklonijim izmišljanju kako bi popunio praznine.
Tehnički izveštaj kompanije priznaje da još uvek ne znaju tačno zašto se ovo dešava. „Potrebna su dodatna istraživanja,“ navodi se u izveštaju, što ne uliva previše poverenja korisnicima i programerima.
A problem nije samo u netačnim odgovorima, već i u tome koliko samouvereno modeli brane svoje greške. Jedna organizacija koja prati rad AI sistema izvestila je da o3 ne samo da izmišlja odgovore, već ih i opravdava kada ga korisnik suoči sa greškom, čak tvrdeći da koristi eksterni MacBook Pro za izvođenje proračuna, pa zatim kopira rezultate u ChatGPT.
Fikcija prerušena u činjenice
U nekim slučajevima, model generiše potpuno izmišljene linkove ka nepostojećim veb-sajtovima, obmanjujući korisnike prividom preciznosti. To je fikcija predstavljena kao činjenica, i događa se sve češće.
OpenAI, s druge strane, ne zatvara oči pred ovim problemima. Portparol kompanije, Niko Feliks, potvrdio je da je smanjenje halucinacija i dalje „ključna oblast istraživanja“ i da kompanija intenzivno radi na poboljšanju tačnosti i pouzdanosti.
Ali nemojte se zavaravati, ovi novi modeli možda izgledaju kao veliki korak napred, ali sa sobom donose zabrinjavajući porast dezinformacija koje generiše veštačka inteligencija. U trci za pametnijim mašinama, OpenAI je možda stvorio nešto moćnije, ali istovremeno i daleko manje pouzdano.
"DO KRAJA JULA SPOLJNI RADOVI, DO EKSPA SE NADAM DA BUDE SVE ZAVRŠENO" Vučić obišao Tiršovu 2: Srbija hoće da ide napred, briga o ljudima je najvažnija! (FOTO)