KONTROLIŠITE DA LI OPENAI KORISTI VAŠE PODATKE KAO IZVORE: Posle mora optužbi, kompanija nudi rešenje - "Media Manager"

Shutterstock

OpenAI kaže da razvija alat koji će kreatorima omogućiti da bolje kontrolišu kako se njihov sadržaj koristi u obuci generativne veštačke inteligencije.

Alat, nazvan Media Manager, omogućiće kreatorima i vlasnicima sadržaja da identifikuju svoja dela u OpenAI-ju i navedu kako žele da ti radovi budu uključeni ili isključeni iz AI istraživanja i obuke.

Cilj je da se alatka uspostavi do 2025. godine, kaže OpenAI, jer kompanija radi sa „kreatorima, vlasnicima sadržaja i regulatorima“ u pravcu standarda, možda preko upravnog odbora industrije kome se nedavno pridružio.

Shutterstock 
foto: Shutterstock

„Ovo će zahtevati najsavremenije istraživanje mašinskog učenja kako bismo napravili prvi alat te vrste koji će nam pomoći da identifikujemo tekst, slike, audio i video zaštićene autorskim pravima u više izvora i odražavamo preferencije kreatora“, napisao je OpenAI u postu na blogu. „Vremenom planiramo da uvedemo dodatne opcije i funkcije.“

Čini se da je Media Manager, bez obzira na to u kom obliku na kraju, odgovor OpenAI na sve veće kritike njegovog pristupa razvoju AI, koji se u velikoj meri oslanja na prikupljanje javno dostupnih podataka sa weba.

Shutterstock 
foto: Shutterstock

Nedavno je osam istaknutih američkih novina, uključujući Chicago Tribune, tužilo OpenAI za kršenje IP-a u vezi sa korišćenjem generativne AI od strane kompanije, optužujući OpenAI za krađu članaka za obuku generativnih AI modela koje je potom komercijalizovao bez kompenzacije - ili kreditiranja - izvornih publikacija.

Generativni modeli veštačke inteligencije uključujući OpenAI - vrste modela koji mogu da analiziraju i generišu tekst, slike, video zapise i još mnogo toga obučeni su na ogromnom broju primera koji se obično dobijaju sa javnih sajtova i skupova podataka.

Shutterstock 
foto: Shutterstock

OpenAI i drugi proizvođači generativne veštačke inteligencije tvrde da poštena upotreba, pravna doktrina koja dozvoljava korišćenje dela zaštićenih autorskim pravima da bi se napravila sekundarna kreacija sve dok je transformativna, štiti njihovu praksu javnih podataka i njihovog korišćenja za obuku modela.

Nedavno je OpenAI tvrdio da bi bilo nemoguće stvoriti korisne AI modele bez materijala zaštićenog autorskim pravima. U nastojanju da umiri kritičare i odbrani se od budućih tužbi, OpenAI je preduzeo korake da se sastane sa kreatorima sadržaja negde na sredini.

Shutterstock 
foto: Shutterstock

OpenAI je prošle godine dozvolio umetnicima da se „oslobode“ i uklone svoj rad iz skupova podataka koje kompanija koristi za obuku svojih modela za generisanje slika.

Kompanija takođe dozvoljava vlasnicima web lokacija da putem standarda robots.tkt, koji daje uputstva o web lokacijama botovima koji indeksiraju web, naznače da li sadržaj na njihovoj web lokaciji može da se skrejpuje radi obučavanja AI modela. OpenAI nastavlja da potpisuje ugovore o licenciranju sa velikim vlasnicima sadržaja, uključujući novinske organizacije, biblioteke medija i sajtove za pitanja i odgovore kao što je Stack Overflow.

Shutterstock 
foto: Shutterstock

NEKI KREATORI KAŽU DA OPENAI NIJE OTIŠAO DOVOLJNO DALEKO

Umetnici su opisali OpenAI-jev tok rada za onemogućavanje slika, koji zahteva podnošenje pojedinačne kopije svake slike koja će biti uklonjena zajedno sa opisom, kao težak.

OpenAI navodno plaća relativno malo licenciranju sadržaja. Kao što OpenAI sam priznaje u blog postu, trenutna rešenja kompanije se ne bave scenarijima u kojima se radovi kreatora citiraju, remiksuju ili ponovo postavljaju na platforme koje ne kontrolišu.

Shutterstock 
foto: Shutterstock

Osim OpenAI-ja, veliki broj trećih strana pokušava da izgradi univerzalne alate za onemogućavanje upotrebe za generativnu veštačku inteligenciju.

Startup Spavning AI, čiji partneri uključuju Stabiliti AI i Hugging Face, nudi aplikaciju koja identifikuje i prati IP adrese robota kako bi blokirali pokušaje scrapinga, kao i bazu podataka u kojoj umetnici mogu da registruju svoje radove kako bi zabranili obuku prodavaca koji odluče da poštuju zahteva.

StegAI i Imatag pomažu kreatorima da uspostave vlasništvo nad svojim slikama primenom vodenih žigova neprimetnih za ljudsko oko. A Nightshade, projekat sa Univerziteta u Čikagu, „truje“ podatke o slikama kako bi ih učinio beskorisnim ili ometajući obuku AI modela.