Media Manager će vlasnicima sadržaja omogiućiti da identifikuju svoja djela i navedu da li i kako žele da ona budu uključena ili isključena iz obučavanja AI modela
OpenAI razvija alat koji će kreatorima sadržaja omogućiti da bolje kontrolišu kako se njihov sadržaj koristi u obuci generativne vještačke inteligencije. Alat, nazvan Media Manager, omogućiće kreatorima i vlasnicima sadržaja da identifikuju svoja djela u OpenAI-ju i navedu kako žele da ti radovi budu uključeni ili isključeni iz AI istraživanja i obuke.
Cilj je da se alatka uspostavi do 2025. godine, poručuju iz OpenAI-ja, jer kompanija radi sa "kreatorima, vlasnicima sadržaja i regulatorima" u pravcu standarda, možda preko upravnog odbora industrije kome se nedavno pridružio.
"Ovo će zahtjevati najsavremenije istraživanje mašinskog učenja kako bismo napravili prvi alat te vrste koji će nam pomoći da identifikujemo tekst, slike, audio i video zaštićene autorskim pravima u više izvora i odražavamo preferencije kreatora. Vremenom planiramo da uvedemo dodatne opcije i funkcije", objavio je OpenAI u postu na blogu.
Čini se da je Media Manager odgovor OpenAI-ja na sve veće kritike njegovog pristupa razvoju vještačke inteligencije, koji se u velikoj mjeri oslanja na prikupljanje javno dostupnih podataka sa interneta.
Nedavno je osam istaknutih američkih novina, uključujući Chicago Tribune, tužilo OpenAI za kršenje autorskih i izdavačkih prava u vezi sa korišćenjem generativne vještačke inteligencije od strane kompanije, optužujući OpenAI za krađu članaka za obuku generativnih AI modela koje je potom komercijalizovao bez kompenzacije ili navođenja autorstva izvornih publikacija.
NameChatGPT zvanična aplikacijaGenerativni modeli vještačke inteligencije, uključujući i OpenAI-jev ChatGPT, su vrste modela koji mogu da analiziraju i generišu tekst, slike, video zapise i još mnogo toga. Oni se obučavaju na ogromnom broju primjera koji se obično dobijaju sa javnih sajtova i skupova podataka.
OpenAI i drugi kreatori generativne vještačke inteligencije tvrde da poštena upotreba, odnosno pravna doktrina koja dozvoljava korišćenje djela zaštićenih autorskim pravima da bi se napravila sekundarna kreacija, sve dok je transformativna, štiti njihovu praksu javnih podataka i njihovog korišćenja za obuku modela.
Nedavno je OpenAI tvrdio da bi bilo nemoguće stvoriti korisne AI modele bez materijala zaštićenog autorskim pravima. U nastojanju da umiri kritičare i odbrani se od budućih tužbi, OpenAI je preduzeo korake da se sa kreatorima sadržaja "nađe negdje na sredini".
OpenAI je prošle godine dozvolio umjetnicima da se "oslobode" i uklone svoj rad iz skupova podataka koje kompanija koristi za obuku svojih modela za generisanje slika.
Kompanija takođe dozvoljava vlasnicima web lokacija da putem standarda robots.tkt, koji daje uputstva o web lokacijama botovima koji indeksiraju web, naznače da li sadržaj na njihovoj web lokaciji može da se skrejpuje radi obučavanja AI modela.
OpenAI nastavlja da potpisuje ugovore o licenciranju sa velikim vlasnicima sadržaja, uključujući novinske organizacije, biblioteke medija i sajtove za pitanja i odgovore, kao što je Stack Overflow.
Međutim, kreatori sadržaja su OpenAI-jev tok rada za onemogućavanje slika, koji zahtjeva podnošenje pojedinačne kopije svake slike koja će biti uklonjena zajedno sa opisom, opisali kao težak.
OpenAI, navodno, licenciranje sadržaja plaća relativno malo. Kao što OpenAI sam priznaje u svom blog postu, trenutna rješenja kompanije se ne bave scenarijima u kojima se radovi kreatora citiraju, remiksuju ili ponovo postavljaju na platforme koje ne kontrolišu.
Osim OpenAI-ja, veliki broj trećih strana pokušava da izgradi univerzalne alate za onemogućavanje upotrebe za generativnu vještačku inteligenciju.
Startup Spavning AI, čiji partneri uključuju Stabiliti AI i Hugging Face, nudi aplikaciju koja identifikuje i prati IP adrese robota kako bi blokirali pokušaje skrejpinga, kao i bazu podataka u kojoj umjetnici mogu da registruju svoje radove kako bi zabranili obuku prodavaca koji odluče da poštuju zahtjeva.
StegAI i Imatag pomažu kreatorima da uspostave vlasništvo nad svojim slikama primjenom vodenih žigova neprimjetnih za ljudsko oko. A Nightshade, projekat sa Univerziteta u Čikagu, "truje" podatke o slikama kako bi ih učinio beskorisnim ili ometajući obuku AI modela.