Slušaj vest

OpenAI je nedavno lansirao o3 i o4-mini AI modele, koji u svojim oblastima predstavljaju svojevrsna remek-dela. Međutim, novi AI modeli i dalje haluciniraju, odnosno izmišljaju stvari, a prema navodima te halucinacije su učestalije nego kod OpenAI-jevih starijih modela.

Prema internim testovima, koje je sproveo OpenAI, o3 i o4-mini (koji se nazivaju i takozvanim modelima rasuđivanja) haluciniraju češće nego kompanijini prethodni modeli – o1, o1-mini i o3-mini, kao i kompanijin tradicionalni nerasuđujući modeli kao što je GPT-4o.

AI weather (1).jpg
veštačka inteligencija Foto: Shutterstock

Ono što posebno zabrinjava, OpenAI ne zna šta prouzrokuje ove probleme.

U svom tehničkom izveštaju za o3 i o4-mini, OpenAI kaže da je potrebno više istraživanja da bi se razumelo zašto se halucinacije pogoršavaju sa svakim novim modelom rasuđivanja. O3 i o4-mini imaju bolje rezultate u nekim oblastima, uključujući zadatke vezane za kodiranje i matematiku. Ali pošto ukupno iznose više tvrdnji, često su dovedeni do toga da iznose "više tačnijih tvrdnji, kao i netačnih/haluciniranih tvrdnji", prema izveštaju.

U poslednjih godinu dana, šira industrija veštačke inteligencije se okrenula ka fokusiranju na modele rasuđivanja nakon što su tehnike za poboljšanje tradicionalnih AI modela počele da pokazuju sve manju produktivnost. Rezonovanje poboljšava performanse modela na različitim zadacima bez potrebe za ogromnim količinama računara i podataka tokom obuke.

Ipak, čini se da rasuđivanje takođe može dovesti do više halucinacija - što predstavlja dodatni izazov.

(Kurir.rs/ Informer)

Bonus video: Veštačka inteligencija nikada neće moći da zameni ljudski faktor

"Veštačka inteligencija nikada neće moći da zameni ljudski faktor!" Stručnjaci tvrde: Nikada ne sme postati zamena za ljudsku stručnost Izvor: Kurir televizija