OpenAI je najavio značajne promene u svojoj praksi bezbednosti, uključujući uspostavljanje novog nezavisnog odbora za nadzor. Ovaj potez dolazi sa značajnim pomakom: izvršni direktor Sem Altman više nije deo odbora za bezbednost, što označava odstupanje od prethodne strukture.

Novoformiranim Komitetom za sigurnost i bezbednost (SSC) predsedavaće Zico Kolter, direktor odeljenja za mašinsko učenje na Univerzitetu Karnegi Melon. Ostali ključni članovi su generalni direktor Quora Adam D'Angelo, penzionisani general američke vojske Pol Nakasone i Nikol Seligman, bivša potpredsednica i generalni savetnik kompanije Sony Corporation.

shutterstock-2237655783.jpg
Shutterstock 

Ovaj novi komitet zamenjuje prethodni Komitet za bezbednost koji je formiran u junu 2024. godine, koji je uključio Altmana među svoje članove. Prvobitni komitet je imao zadatak da da preporuke o kritičnim bezbednosnim odlukama za OpenAI projekte i operacije.

Odgovornosti SSC-a sada prevazilaze preporuke. Imaće ovlašćenje da nadgleda bezbednosne procene za izdavanje glavnih modela i vrši nadzor nad lansiranjem modela. Najvažnije je to što će komitet imati ovlašćenje da odloži puštanje projekta sve dok se na adekvatan način ne reše bezbednosni problemi.

yt-printscreen-altman.jpg
printscreen YT 

Ovo restrukturiranje je usledilo nakon perioda kontrole u ​​vezi sa posvećenošću OpenAI bezbednosti veštačke inteligencije. Kompanija se u prošlosti suočavala sa kritikama zbog raspuštanja svog tima za Superalignment i odlazaka ključnog osoblja fokusiranog na bezbednost. Čini se da je uklanjanje Altmana iz komiteta za bezbednost pokušaj da se reši zabrinutost zbog potencijalnih sukoba interesa u nadzoru bezbednosti kompanije.

Najnovija inicijativa OpenAI za bezbednost takođe uključuje planove za poboljšanje bezbednosnih mera, povećanje transparentnosti njihovog rada i saradnju sa spoljnim organizacijama. Kompanija je već postigla sporazume sa institutima za bezbednost veštačke inteligencije SAD i Velike Britanije o saradnji na istraživanju novih bezbednosnih rizika od veštačke inteligencije i standarda za pouzdanu AI.