veštačka inteligencija

Upozorenje bivših istraživača OpenAI "Ovo može izazvati katastrofu"

Shutterstock

Dvojica bivših istraživača iz OpenAI-a, Vilijam Saunders i Danijel Kokotajlo, upozorili su na moguće ozbiljne posledice koje bi mogle da nastanu ukoliko se zanemari bezbednost u razvoju veštačke inteligencije.

Ovi istraživači sada javno kritikuju svoju bivšu kompaniju zbog njenog protivljenja zakonu SB 1047 u Kaliforniji, koji predlaže rigorozne mere bezbednosti, uključujući i uvođenje tzv. "prekidača za isključivanje" u AI sisteme.

Shutterstock 
foto: Shutterstock

U pismu upućenom guverneru Kalifornije Gevinu Njusomu, Saunders i Kokotajlo izrazili su razočaranje što OpenAI ne podržava ovaj zakon. Prema njihovim rečima, oni su napustili kompaniju jer su izgubili poverenje u njen pristup bezbednom razvoju AI tehnologije. Smatraju da ignorisanje ovakvih bezbednosnih mera može dovesti do "katastrofe za širu javnost".

Iako je Sem Altman, generalni direktor OpenAI-a, više puta javno podržavao ideju regulacije AI, Saunders i Kokotajlo navode da kompanija zapravo odbija da podrži konkretne zakonske predloge kada oni dođu na dnevni red.

Shutterstock 
foto: Shutterstock

OpenAI je u izjavi za medije osporio ove tvrdnje, naglašavajući da veruju kako regulacija AI treba da bude sprovedena na saveznom nivou, a ne kroz individualne zakone na nivou država, kako bi se obezbedio dosledan pristup i liderstvo SAD-a u globalnom kontekstu.

Međutim, bivši istraživači ostaju skeptični prema ovom stavu, sumnjajući da kompanija ima i druge razloge za protivljenje zakonu SB 1047. Oni smatraju da je neophodno da se ovaj zakon usvoji kako bi se osigurala bezbednost u razvoju AI tehnologije, čak i ako to znači preduzimanje koraka pre nego što federalna regulacija bude uspostavljena.

Izvor: Telegraf/BI/Kurir/Darko Mulic