Googleova etička politika umjetne inteligencije: Promjene koje izazivaju zabrinutost
Uvod u promjene
Google je nedavno ažurirao svoju javnu etičku politiku vezanu uz umjetnu inteligenciju (AI), uklanjajući klauzule koje su ranije zabranjivale korištenje tehnologije za razvoj oružja i nadzora. Ove promjene izazvale su brojne rasprave unutar tehnološke zajednice s obzirom na važnost etičkog razvoja AI tehnologija.
Prijašnje etičke smjernice
Kada je Google prvi put objavio svoje principe AI 2018. godine, tvrtka je jasno definirala određene granice u primjeni svoje tehnologije. Jedna od ključnih smjernica bila je odbacivanje upotrebe AI u svrhe koje uključuju oružje ili druge tehnologije namijenjene nanošenju štete. Također su se opirali razvoju tehnologija koje bi mogle preći međunarodne norme, naglašavajući važnost etike u razvoju i primjeni AI.
Ažuriranje principa
U ažuriranoj verziji principa, koja je sada dostupna javnosti, ovaj specifični jezik je uklonjen, što sugerira promjenu u smjeru kojeg se Google odlučio pridržavati. Ova strategija dolazi u vrijeme kada se umjetna inteligencija brzo razvija, a praksa za njen razvoj i primjenu još uvijek zaostaje. Postavlja se pitanje što to znači za budućnost etičkih smjernica u tech industriji.
Konkurencija i geopolitički kontekst
Kako AI postaje sve prisutnija u različitim industrijama, tako raste i globalna konkurencija. U nedavnom blogu, James Manyika, potpredsjednik za istraživanje, istaknuo je da "demokracije trebaju voditi u razvoju AI, vođene temeljnim vrijednostima poput slobode, jednakosti i poštovanja ljudskih prava". Ova rečenica ukazuje na prepoznatu potrebu za etičkim pristupom u okruženju koje se brzo mijenja.
Suradnja za etički AI
Google-ov stav se također fokusira na ideju suradnje između kompanija, vlada i organizacija koje dijele iste vrijednosti. Cilj je razvoja AI koji bi "štitio ljude, promicao globalni rast i podržavao nacionalnu sigurnost". Ova izjava može se interpretirati kao poziv na zajedništvo u brizi oko etičkih implikacija koje AI donosi.
Odziv zajednice i zaposlenika
Povratak na 2018. godinu, Google je odlučio ne sudjelovati u ugovoru s Pentagonom koji se procijenjuje na 10 milijardi dolara, navodeći da "nisu mogli biti sigurni da će se to uskladiti s njihovim principima AI". Ovaj potez rezultirao je peticijom preko 4.000 zaposlenika, koji su tražili jasniju politiku koja naglašava neprihvatljivost razvoja tehnologije za ratne svrhe.
Završne misli
Ove promjene u Googleovoj etičkoj politici otvaraju vrata za raspravu o tome kako će veliki tehnološki igrači usmjeravati razvoj umjetne inteligencije u budućnosti. Dok se industrija suočava s izazovima trenutnog geopolitičkog konteksta, jasno je da će etički standardi i dalje biti na prekretnici između inovacije i odgovornosti.