ChatGPT nije isto odgovorio na pitanje postavljeno od strane žene i muškarca, pokazuje jedno istraživanje.
Novo istraživanje otkriva da ChatGPT daje različite savjete korisnicima na osnovu pola i etničke pripadnosti, često diskriminišući žene i manjine. Ovo otvara ozbiljna pitanja o pristrasnosti vještačke inteligencije i njenom uticaju na društvo.
Nekada zamišljen kao alat za jednostavne upite i automatizovane odgovore, ChatGPT je danas postao lični savjetnik za milione korisnika. Ljudi mu povjeravaju odluke koje se tiču karijere, odnosa, mentalnog zdravlja i finansija. Ali koliko je bezbjedno oslanjati se na algoritam koji nije oslobođen ljudskih predrasuda?
Najnovije istraživanje sa Univerziteta Kornel otkrilo je uznemirujuće obrasce ponašanja jednog od najpoznatijih AI četbota. Kada su naučnici simulirali različite identitete, muškarca, ženu, manjinu, izbjeglicu, otkrili su da ChatGPT nudi znatno različite savjete, i to na štetu upravo onih koji su često ranjiviji u društvu.
Niža očekivanja za žene uprkos istim kvalifikacijama
Jedan od najočiglednijih primjera dolazi iz situacije u kojoj je AI upitan za preporučenu početnu platu za medicinsku poziciju u Denveru. Kada se korisnik predstavio kao muškarac, ChatGPT je predložio cifru od 400.000 dolara godišnje. Kada je isti upit ponovljen, ali iz ženskog ugla, savjet se smanjio na 280.000 dolara, bez ikakvih razlika u kvalifikacijama ili iskustvu.
Ova razlika ne može biti slučajnost. Naučnici su pažljivo kontrolisali sve faktore osim pola, što ukazuje na jasno prisustvo rodne pristrasnosti u sistemu. Uprkos naprednim tehnikama treniranja i ogromnim bazama podataka, algoritam očigledno usvaja i prenosi nesvjesne predrasude iz realnog svijeta.
Ranjive grupe i manjine dobijaju lošije savete
Isti obrazac ponavlja se kada korisnici simuliraju identitet pripadnika ranjivih grupa ili etničkih manjina. U takvim slučajevima, ChatGPT je dosledno preporučivao niže početne plate i manje ambiciozne ciljeve u karijeri.
Zabrinjavajuće je što ovi odgovori ne odražavaju stvarne kompetencije korisnika, već isključivo njihov identitet, kako je predstavljen AI-u. To postavlja pitanje da li vještačka inteligencija može biti jednako opasna kao ljudska diskriminacija, samo u sofisticiranijem i manje vidljivom obliku.
Suptilne razlike, ozbiljne posledice
Stručnjaci ističu da čak i suptilni signali, poput imena ili konteksta pitanja, mogu "aktivirati" algoritamske pristrasnosti. U domenu zapošljavanja, gdje AI sve češće ima ulogu selektora kandidata, ovakve razlike mogu značiti izgubljene prilike i nejednake šanse.
Ako korisnici dobijaju različite savete u zavisnosti od pola ili porekla, to ne samo da perpetuira nejednakost već je i direktna prijetnja meritokratiji, principu po kojem bi uspjeh trebalo da zavisi isključivo od sposobnosti i zalaganja.
Digitalni savetnici nisu iznad kritike
Sve veća zavisnost od AI alata u svakodnevnom životu zahtijeva da se njihove preporuke posmatraju kritički. ChatGPT nije samo automatizovani pomoćnik, postao je autoritet, nekome gotovo životni vodič. I upravo zato, greške koje čini ne mogu se ignorisati.
Istraživanje sa Kornela podsjeća da nijedan algoritam nije neutralan ako ga svijet pun nepravde. Umjesto slijepog poverenja, vrijeme je da razvijemo alate za proveru, korekciju i odgovornost u razvoju AI sistema, prije nego što nejednakosti koje poznajemo postanu ugrađene i u digitalnu budućnost.
(Izvor: Kurir TechVision)