Potencijalni rizici umjetne inteligencije

Koji su potencijalni rizici umjetne inteligencije?

Umjetna inteligencija, ili AI kako je također često nazivaju, tema je o kojoj se mnogo raspravljalo u posljednjoj deceniji. Brzo se razvija, čineći radni tok većine preduzeća lakšim i efikasnijim. Čak iu svakodnevnom životu mnogih ljudi AI je pokazao veliki potencijal i već se implementira u mnogo različitih aplikacija, čineći život lakšim i manje kompliciranim. AI nam je donio mnoge prednosti i nauka utire put za još mnogo toga, tako da se može sa sigurnošću reći da će AI biti nezamjenjiv u budućnosti, ako već nije.

Ali kao što svaka medalja ima dvije strane, tako i AI. Ova tehnologija također ima mnoge potencijalne rizike i nedostatke. Mnogi stručnjaci i tehnički glavni umovi našeg vremena izražavaju svoju zabrinutost zbog problema koje bi AI mogla uzrokovati u budućnosti i stoga moramo biti oprezni da se pozabavimo ovim problemima dok se još uvijek mogu ispraviti. Šta mislimo pod tim?

Postoji mnogo stvari koje treba razmotriti u vezi sa ovim konkretnim pitanjima. U ovom članku pokušaćemo da opišemo neke od rizika koje bi blistavo brz razvoj veštačke inteligencije mogao doneti našem svetu i koje mere je potrebno preduzeti da bismo pratili i vodili taj napredak u pravom smeru.

1. Poslovi

Bez naslova 1 3

Sigurni smo da su svi već imali priliku čuti ili pročitati o potencijalnoj poslastici koju bi mašine i automatizacija mogle predstavljati starim školskim radnim mjestima zasnovanim na ljudima. Neki ljudi mogu patiti od različitih stepena anksioznosti zbog mašina koje im kradu posao. Taj strah bi mogao biti osnovan, automatizacija poslova je veliki rizik za mnoge ljude: oko 25% Amerikanaca moglo bi izgubiti posao jer će ih u nekom trenutku mašine moći zamijeniti. Posebno su rizična radna mjesta s niskim plaćama na kojima osoba obavlja zadatke koji se ponavljaju, kao što su poslovi u administraciji ili ugostiteljstvu. Međutim, čak i neki diplomirani studenti su u opasnosti, napredni algoritmi mašinskog učenja mogli bi ih zamijeniti na nekim složenim radnim pozicijama jer postaju sve rafiniraniji, posebno korištenjem neuronskih mreža i dubokog učenja.

Ali ne možemo stvarno reći da će roboti u potpunosti istisnuti ljude sa tržišta rada. Zaposleni će jednostavno morati da se prilagode, educiraju i pronađu način rada sarađujući sa AI, koristeći na najbolji mogući način njegovu efikasnost i mehaničku logiku. AI još uvijek nije savršen, na primjer, nije u stanju da prosuđuje, tako da će ljudski faktor i dalje biti odlučujući kada radite zajedno sa mašinama.

Postoji mnogo tehnologije zasnovane na AI koja koristi automatizovana rešenja koja treba obučiti i ova obuka zavisi od ljudskog doprinosa. Dobar primjer za to su strojni prijevodi koji dobivaju input od velikog broja prijevoda koje je napravio čovjek. Još jedan dobar primjer je softver za transkripciju koji dobija podatke o obuci iz tačnih transkripcija koje su uradili profesionalni ljudski prepisivači. Na ovaj način softver se malo po malo poboljšava, usavršavajući svoje algoritme kroz primjere iz stvarnog života. Ljudski prepisivači imaju koristi od softvera jer im pomaže da transkripte brže naprave. Softver generiše grubu, nacrt verziju transkripta, koju zatim uređuje i ispravlja prepisivač. To štedi puno vremena, a znači da će na kraju konačni proizvod biti brže isporučen i točniji.

2. Problem pristrasnosti

Odlična stvar kod algoritama je to što oni uvijek donose poštene, nepristrasne odluke, u oštroj suprotnosti sa subjektivnim i emocionalnim ljudima. Ili oni? Istina je da proces donošenja odluka bilo kog automatizovanog softvera zavisi od podataka na kojima je obučen. Dakle, postoji rizik od diskriminacije u slučajevima kada na primjer određeni segment stanovništva nije dovoljno zastupljen u korištenim podacima. Softver za prepoznavanje lica se već istražuje za neke od ovih problema, slučajevi pristranosti su se već dogodili.

Jedan sjajan primjer koliko umjetna inteligencija može biti pristrasna je COMPAS (Profiliranje upravljanja popravnim prestupnicima za alternativne sankcije). Ovo je alat za procjenu rizika i potreba za predviđanje rizika od recidivizma među prestupnicima. Ovaj alat baziran na algoritmu je istražen i rezultati su pokazali da su podaci COMPAS-a ozbiljno rasno pristrasni. Na primjer, prema podacima, veća je vjerovatnoća da će optuženi Afroamerikanci biti pogrešno ocijenjeni da imaju veći rizik od recidiva nego druge rase. Algoritam je takođe imao tendenciju da napravi suprotnu grešku kod ljudi bele rase.

Šta se ovde dogodilo? Algoritam ovisi o podacima, tako da ako su podaci pristrasni, softver će vjerovatno dati i pristrasne rezultate. Ponekad to takođe ima neke veze sa načinom na koji su podaci prikupljeni.

Tehnologija automatskog prepoznavanja govora također može biti pristrasna ovisno o spolu ili rasi zbog činjenice da podaci o obuci nisu nužno odabrani u stvarima koje bi osigurale dovoljno inkluzivnosti.

3. Sigurnosni problemi

Bez naslova 2 2

Postoje neki problemi s umjetnom inteligencijom koji su toliko opasni da mogu dovesti do nesreća. Jedan od istaknutijih primjera primijenjene AI tehnologije je auto koji se samostalno vozi. Mnogi stručnjaci smatraju da je to budućnost transporta. Ali ono što koči trenutno uvođenje samovozećih automobila u saobraćaj jesu njihovi kvarovi koji mogu ugroziti život putnika i pješaka. Debata o opasnosti koju autonomna vozila mogu predstavljati na cestama i dalje je vrlo aktuelna. Ima ljudi koji misle da bi moglo biti manje nesreća kada bi se na cesti dozvolilo samovozećim automobilima. S druge strane, postoje studije koje su pokazale da mogu uzrokovati mnogo sudara, jer će mnoge njihove radnje biti zasnovane na preferencijama koje postavlja vozač. Sada je na dizajnerima da biraju između sigurnosti i života ljudi i preferencija vozača (poput prosječne brzine i nekih drugih vozačkih navika). Glavni cilj samovozećih automobila u svakom slučaju treba da bude smanjenje saobraćajnih nesreća, kroz implementaciju efikasnih AI algoritama i naprednih senzora koji mogu detektovati, pa čak i predvideti sve moguće saobraćajne scenarije. Međutim, stvarni život je uvijek složeniji od bilo kojeg programa, pa su ograničenja ove tehnologije i dalje jedan od ograničavajućih faktora za njenu široku primjenu. Drugi problem je faktor povjerenja. Za mnoge ljude s godinama i godinama vozačkog iskustva, prepuštanje cjelokupnog povjerenja u digitalne ruke može se smatrati činom simboličke kapitulacije pred digitalnim trendovima. U svakom slučaju, dok se sve ovo ne riješi, neka napredna tehnološka rješenja su već implementirana u novije automobile, a ljudski vozači mogu imati koristi od raznih senzora, rješenja za potpomognuto kočenje i tempomata.

4. Zlonamjerne svrhe

Tehnologija treba da služi potrebama ljudi i da se koristi da im život učini lakšim, ugodnijim i treba da uštedi svačije dragocjeno vrijeme. Ali ponekad se AI tehnologija također koristi u zlonamjerne svrhe, na način koji predstavlja značajan rizik za našu fizičku, digitalnu i političku sigurnost.

  • Fizička sigurnost: Jedan potencijalni rizik od umjetne inteligencije, koji na prvu zvuči prilično dramatično i koji bi vas mogao odmrznuti do kostiju, je potencijalni rat između tehnološki naprednih zemalja, koji vode autonomni sistemi oružja programirani da ubijaju na najefikasniji i nemilosrdni način. Zbog toga je izuzetno važno regulirati razvoj takve vojne tehnologije putem ugovora, propisa i sankcija, kako bi se čovječanstvo zaštitilo od zlokobnog rizika ratovanja zasnovanog na umjetnoj inteligenciji.
  • Digitalna sigurnost: Hakeri su već prijetnja našoj digitalnoj sigurnosti i AI softver se već koristi za napredno hakiranje. Sa razvojem takvog softvera, hakeri će biti efikasniji u svojim nedjelima, a naš online identitet će biti podložniji krađi. Privatnost vaših ličnih podataka može biti još više ugrožena suptilnim zlonamjernim softverom, pokretanim AI-om i još opasnijom upotrebom dubokog učenja. Zamislite digitalnog lopova, koji vreba u pozadini vaših omiljenih programa, postaje lukaviji iz dana u dan, uči iz miliona stvarnih primjera korištenja softvera i pravi složene krađe identiteta na osnovu tih podataka.
Bez naslova 3 2
  • Politička sigurnost: u turbulentnim vremenima u kojima živimo, strah od lažnih vijesti i lažnih snimaka sasvim je opravdan. AI bi mogao napraviti veliku štetu automatskim kampanjama dezinformacija, koje mogu biti izuzetno opasne tokom izbora.

Dakle, da zaključimo, mogli bismo se zapitati koliko bi nam umjetna inteligencija mogla nanijeti štetu i može li učiniti više štete nego koristi čovječanstvu.

Stručnjaci navode da će etički razvoj i regulatorna tijela igrati glavnu ulogu kada je riječ o ublažavanju nedostataka koje bi umjetna inteligencija mogla uzrokovati našim životima. Šta god da se desi, sigurni smo da će to imati ogroman uticaj na naš svet u budućnosti.

Softver za prepoznavanje govora, zasnovan na naprednim AI protokolima, već se koristi i donosi mnoge prednosti poslovnom svijetu: tijek rada je brži i jednostavniji. Gglot je veliki igrač u ovoj oblasti i mi jako ulažemo u dalji razvoj naše tehnologije.