Ključni čovek OpenAI više nije tako ključan: Oni mogu da blokiraju sve!

Nov odbor kompanije sada ima moć da koči lansiranje novih AI modela.

Youtube/Cambridge Union/Shutterstock

OpenAI je najavio značajne promene u svojoj praksi bezbednosti, uključujući uspostavljanje novog nezavisnog odbora za nadzor. Ovaj potez dolazi sa značajnim pomakom: izvršni direktor Sem Altman više nije deo odbora za bezbednost, što označava odstupanje od prethodne strukture.

Novoformiranim Komitetom za sigurnost i bezbednost (SSC) predsedavaće Zico Kolter, direktor odeljenja za mašinsko učenje na Univerzitetu Karnegi Melon. Ostali ključni članovi su generalni direktor Quora Adam D'Angelo, penzionisani general američke vojske Pol Nakasone i Nikol Seligman, bivša potpredsednica i generalni savetnik kompanije Sony Corporation.

Shutterstock 

Ovaj novi komitet zamenjuje prethodni Komitet za bezbednost koji je formiran u junu 2024. godine, koji je uključio Altmana među svoje članove. Prvobitni komitet je imao zadatak da da preporuke o kritičnim bezbednosnim odlukama za OpenAI projekte i operacije.

Odgovornosti SSC-a sada prevazilaze preporuke. Imaće ovlašćenje da nadgleda bezbednosne procene za izdavanje glavnih modela i vrši nadzor nad lansiranjem modela. Najvažnije je to što će komitet imati ovlašćenje da odloži puštanje projekta sve dok se na adekvatan način ne reše bezbednosni problemi.

printscreen YT 

Ovo restrukturiranje je usledilo nakon perioda kontrole u ​​vezi sa posvećenošću OpenAI bezbednosti veštačke inteligencije. Kompanija se u prošlosti suočavala sa kritikama zbog raspuštanja svog tima za Superalignment i odlazaka ključnog osoblja fokusiranog na bezbednost. Čini se da je uklanjanje Altmana iz komiteta za bezbednost pokušaj da se reši zabrinutost zbog potencijalnih sukoba interesa u nadzoru bezbednosti kompanije.

Najnovija inicijativa OpenAI za bezbednost takođe uključuje planove za poboljšanje bezbednosnih mera, povećanje transparentnosti njihovog rada i saradnju sa spoljnim organizacijama. Kompanija je već postigla sporazume sa institutima za bezbednost veštačke inteligencije SAD i Velike Britanije o saradnji na istraživanju novih bezbednosnih rizika od veštačke inteligencije i standarda za pouzdanu AI.