Potencijalni rizici umjetne inteligencije
Koji su potencijalni rizici umjetne inteligencije?
Umjetna inteligencija, ili AI kako se također često naziva, tema je o kojoj se mnogo raspravljalo u posljednjem desetljeću. Brzo se razvija, čineći tijek rada većine poduzeća lakšim i učinkovitijim. Čak iu svakodnevnom životu mnogih ljudi AI je pokazao veliki potencijal i već se implementira u mnoge različite aplikacije, čineći život lakšim i manje kompliciranim. Umjetna inteligencija nam je donijela mnoge prednosti, a znanost utire put za još mnogo toga pa se sa sigurnošću može reći da će umjetna inteligencija biti nezamjenjiva u budućnosti, ako već nije.
No kao što svaka medalja ima dvije strane, tako ih ima i AI. Ova tehnologija također dolazi s mnogim potencijalnim rizicima i nedostacima. Mnogi stručnjaci i tehnički mozgovi našeg vremena izražavaju zabrinutost zbog problema koje bi umjetna inteligencija mogla prouzročiti u budućnosti i stoga moramo biti oprezni u rješavanju tih problema dok ih je još moguće ispraviti. Što mislimo pod tim?
Mnogo je stvari koje treba uzeti u obzir u vezi s tim konkretnim pitanjima. U ovom ćemo članku pokušati opisati neke od rizika koje bi zapanjujuće brzi razvoj umjetne inteligencije mogao donijeti našem svijetu i koje mjere je potrebno poduzeti kako bismo pratili i usmjeravali taj napredak u pravom smjeru.
1. Poslovi
Sigurni smo da su svi već imali priliku čuti ili čitati o potencijalnoj poslastici koju bi strojevi i automatizacija mogli predstavljati radnim mjestima stare škole, temeljenim na ljudima. Neki ljudi mogu patiti od različitih stupnjeva tjeskobe zbog strojeva koji im kradu posao. Taj bi strah mogao biti opravdan, automatizacija posla je veliki rizik za mnoge ljude: oko 25 % Amerikanaca moglo bi izgubiti posao jer će ih u jednom trenutku strojevi moći zamijeniti. Osobito su rizična radna mjesta s niskim plaćama na kojima osoba obavlja ponavljajuće zadatke, poput poslova u administraciji ili posluživanju hrane. Međutim, čak i neki ljudi sa sveučilišnom diplomom su u opasnosti, napredni algoritmi strojnog učenja mogli bi ih zamijeniti na nekim složenim radnim pozicijama jer postaju sve profinjeniji, posebno korištenjem neuronskih mreža i dubokog učenja.
Ali ne možemo baš reći da će roboti potpuno istisnuti ljude s tržišta rada. Zaposlenici će se jednostavno morati prilagoditi, educirati i pronaći način rada u suradnji s umjetnom inteligencijom, koristeći njezinu učinkovitost i mehaničku logiku na najbolji mogući način. Umjetna inteligencija još uvijek nije savršena, na primjer, nije u stanju donositi odluke, tako da će ljudski faktor i dalje biti presudan kada radite zajedno sa strojevima.
Mnogo je tehnologija temeljenih na umjetnoj inteligenciji koje koriste automatizirana rješenja koja se moraju obučavati, a ta obuka ovisi o ljudskom unosu. Dobar primjer za to su strojni prijevodi koji dobivaju podatke iz velikog broja prijevoda koje generiraju ljudi. Još jedan dobar primjer je softver za prijepis koji dobiva podatke o obuci iz točnih prijepisa koje su napravili profesionalni ljudi. Na taj se način softver malo po malo poboljšava, usavršavajući svoje algoritme kroz primjere iz stvarnog života. Ljudski prepisivači imaju koristi od softvera jer im pomaže da brže izrađuju prijepise. Softver generira grubu verziju prijepisa, koju zatim uređuje i ispravlja prepisivač. To štedi puno vremena, a znači da će na kraju konačni proizvod biti isporučen brže i točniji.
2. Problem pristranosti
Sjajna stvar kod algoritama je to što uvijek donose poštene, nepristrane odluke, u oštrom kontrastu sa subjektivnim i emocionalnim ljudima. Ili jesu? Istina je da proces donošenja odluka bilo kojeg automatiziranog softvera ovisi o podacima na kojima je obučen. Dakle, postoji rizik od diskriminacije u slučajevima kada npr. određeni segment stanovništva nije dovoljno zastupljen u korištenim podacima. Softver za prepoznavanje lica već se istražuje zbog nekih od ovih problema, već je bilo slučajeva pristranosti.
Jedan sjajan primjer koliko umjetna inteligencija može biti pristrana je COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Ovo je alat za procjenu rizika i potreba za predviđanje rizika od recidivizma među počiniteljima. Ovaj alat temeljen na algoritmu je istražen i rezultati su pokazali da su podaci COMPAS-a bili ozbiljno rasno pristrani. Na primjer, prema podacima, vjerojatnije je da će Afroamerikanci optuženici biti netočno ocijenjeni da imaju veći rizik od recidivizma nego druge rase. Algoritam je također bio sklon činiti suprotnu pogrešku s ljudima bijele rase.
Dakle, što se dogodilo ovdje? Algoritam ovisi o podacima pa ako su podaci pristrani, softver će također vjerojatno dati pristrane rezultate. Ponekad to također ima veze s načinom na koji su podaci prikupljeni.
Tehnologija automatskog prepoznavanja govora također može biti pristrana ovisno o spolu ili rasi zbog činjenice da podaci o obuci nisu nužno odabrani u smislu koji bi osigurao dovoljnu inkluzivnost.
3. Briga o sigurnosti
Postoje neki problemi s umjetnom inteligencijom koji su toliko opasni da mogu dovesti do nesreća. Jedan od istaknutijih primjera primijenjene AI tehnologije je samovozeći automobil. Mnogi stručnjaci smatraju da je to budućnost transporta. No ono što priječi trenutno uvođenje samovozećih automobila u promet su njegovi kvarovi koji mogu ugroziti živote putnika i pješaka. Još uvijek je aktualna rasprava o prijetnji koju bi autonomna vozila mogla predstavljati na cestama. Ima ljudi koji misle da bi moglo biti manje nesreća kada bi se samovozeći automobili pustili na ceste. S druge strane, postoje studije koje su pokazale da mogu uzrokovati mnogo sudara, jer će se mnoge njihove radnje temeljiti na preferencijama koje je postavio vozač. Sada je na dizajnerima da biraju između sigurnosti i života ljudi i preferencija vozača (poput prosječne brzine i nekih drugih navika u vožnji). Glavni cilj samovozećih automobila u svakom slučaju trebao bi biti smanjenje automobilskih nesreća, kroz implementaciju učinkovitih AI algoritama i naprednih senzora koji mogu detektirati, pa čak i predvidjeti sve moguće prometne scenarije. Međutim, stvarni život je uvijek kompliciraniji od bilo kojeg programa, pa su ograničenja ove tehnologije još uvijek jedan od ograničavajućih faktora za njezinu široku primjenu. Drugi problem je faktor povjerenja. Za mnoge ljude s godinama i godinama vozačkog iskustva, stavljanje cjelokupnog povjerenja u digitalne ruke moglo bi se smatrati činom simbolične kapitulacije pred digitalnim trendovima. U svakom slučaju, dok se sve to ne riješi, neka napredna tehnološka rješenja već su implementirana u novije automobile, a ljudski vozači mogu imati koristi od raznih senzora, rješenja za potpomognuto kočenje i tempomata.
4. Zlonamjerne svrhe
Tehnologija bi trebala služiti potrebama ljudi i koristiti se kako bi im živote učinila lakšim, ugodnijim i trebala bi uštedjeti svačije dragocjeno vrijeme. Ali ponekad se AI tehnologija također koristi u zlonamjerne svrhe, na način koji predstavlja značajan rizik za našu fizičku, digitalnu i političku sigurnost.
- Fizička sigurnost: Jedan potencijalni rizik od umjetne inteligencije, koji isprva zvuči prilično dramatično i mogao bi vas naježiti do kostiju je potencijalni rat između tehnološki naprednih zemalja, koji provode autonomni sustavi oružja programirani da ubijaju na najučinkovitiji i najnemilosrdniji način. Zbog toga je izuzetno važno regulirati razvoj takve vojne tehnologije putem ugovora, propisa i sankcija, kako bi se čovječanstvo zaštitilo od zlokobnog rizika ratovanja temeljenog na umjetnoj inteligenciji.
- Digitalna sigurnost: Hakeri su već prijetnja našoj digitalnoj sigurnosti i AI softver već se koristi za napredno hakiranje. S razvojem takvog softvera, hakeri će biti učinkovitiji u svojim nedjelima, a naš online identitet bit će osjetljiviji na krađu. Privatnost vaših osobnih podataka može biti još više ugrožena suptilnim zlonamjernim softverom koji pokreće AI i koji je još opasniji korištenjem dubinskog učenja. Zamislite digitalnog lopova, koji vreba iza vaših omiljenih programa, postaje sve lukaviji iz dana u dan, uči na milijunima stvarnih primjera korištenja softvera i smišlja složene krađe identiteta na temelju tih podataka.
- Politička sigurnost: u turbulentnom vremenu u kojem živimo, strah od lažnih vijesti i prijevarnih snimaka sasvim je opravdan. Umjetna inteligencija bi mogla napraviti mnogo štete automatiziranim kampanjama dezinformiranja, što može biti iznimno opasno tijekom izbora.
Dakle, da zaključimo, mogli bismo se zapitati koliko nam umjetna inteligencija može naštetiti i može li čovječanstvu učiniti više štete nego koristi.
Stručnjaci tvrde da će etički razvoj i regulatorna tijela igrati glavnu ulogu kada je riječ o ublažavanju nedostataka koje bi umjetna inteligencija mogla prouzročiti našim životima. Što god da se dogodi, sigurni smo da će to imati ogroman utjecaj na naš svijet u budućnosti.
Softver za prepoznavanje govora, temeljen na naprednim AI protokolima, već se koristi i donosi mnoge prednosti poslovnom svijetu: tijek rada je brži i jednostavniji. Gglot je veliki igrač na ovom polju i puno ulažemo u daljnji razvoj naše tehnologije.