Potencialna tveganja umetne inteligence

Kakšna so nekatera potencialna tveganja umetne inteligence?

Umetna inteligenca ali AI, kot jo pogosto imenujejo, je tema, o kateri se v zadnjem desetletju veliko razpravlja. Hitro se razvija, zaradi česar je potek dela večine podjetij lažji in učinkovitejši. Tudi v vsakdanjem življenju mnogih ljudi je umetna inteligenca pokazala velik potencial in se že izvaja v številnih različnih aplikacijah, s čimer je življenje lažje in manj zapleteno. Umetna inteligenca nam je prinesla veliko prednosti in znanost utira pot za veliko več, zato lahko z gotovostjo trdimo, da bo umetna inteligenca v prihodnosti nepogrešljiva, če že ni.

Toda tako kot ima vsaka medalja dve plati, ima tudi umetna inteligenca. Ta tehnologija prinaša tudi veliko možnih tveganj in slabosti. Številni strokovnjaki in tehnični mojstri našega časa izražajo zaskrbljenost zaradi težav, ki bi jih umetna inteligenca lahko povzročila v prihodnosti, zato moramo biti previdni pri reševanju teh težav, dokler jih je še mogoče popraviti. Kaj mislimo s tem?

V zvezi s temi vprašanji je treba upoštevati veliko stvari. V tem članku bomo poskušali opisati nekatera tveganja, ki bi jih osupljivo hiter razvoj umetne inteligence lahko prinesel v naš svet, in katere ukrepe je treba sprejeti, da bi spremljali in usmerjali ta napredek v pravo smer.

1. Delovna mesta

Brez naslova 13

Prepričani smo, da je že vsakdo imel priložnost slišati ali prebrati o potencialni poslastici, ki bi jo lahko stroji in avtomatizacija predstavljali za delovna mesta stare šole, ki temeljijo na ljudeh. Nekateri ljudje lahko trpijo zaradi različnih stopenj tesnobe zaradi strojev, ki jim kradejo delo. Ta strah je lahko utemeljen, avtomatizacija dela je veliko tveganje za mnoge ljudi: približno 25 % Američanov bi lahko izgubilo službo, ker jih bodo na neki točki lahko nadomestili stroji. Še posebej ogrožena so delovna mesta z nizko plačo, kjer oseba opravlja ponavljajoče se naloge, kot so službe v upravi ali gostinski strežbi. Vendar pa so tudi nekateri univerzitetni diplomanti ogroženi, napredni algoritmi strojnega učenja bi jih morda lahko nadomestili na nekaterih kompleksnih delovnih mestih, ker postajajo vse bolj izpopolnjeni, zlasti z uporabo nevronskih mrež in globokega učenja.

Ne moremo pa zares reči, da bodo roboti popolnoma izrinili ljudi s trga dela. Zaposleni se bodo morali preprosto prilagoditi, izobraževati in poiskati način dela v sodelovanju z umetno inteligenco ter čim bolje izkoristiti njeno učinkovitost in mehansko logiko. Umetna inteligenca še vedno ni popolna, na primer ne more presojati, zato bo človeški dejavnik še vedno odločilen pri delu skupaj s stroji.

Obstaja veliko tehnologij, ki temeljijo na umetni inteligenci in uporabljajo avtomatizirane rešitve, ki jih je treba usposobiti in to usposabljanje je odvisno od človeškega vložka. Dober primer za to so strojni prevodi, ki pridobivajo podatke iz velikega števila prevodov, ki jih ustvari človek. Še en dober primer je programska oprema za prepisovanje, ki pridobi podatke o usposabljanju iz natančnih prepisov, ki jih opravijo profesionalni prepisovalci. Na ta način se programska oprema postopoma izboljšuje in izpopolnjuje svoje algoritme s primeri iz resničnega življenja. Človeški prepisovalci imajo koristi od programske opreme, ker jim pomaga narediti prepise hitreje. Programska oprema ustvari grobo, osnutek različice prepisa, ki ga nato prepisovalec uredi in popravi. To prihrani veliko časa in pomeni, da bo na koncu končni izdelek dostavljen hitreje in bo bolj natančen.

2. Problem pristranskosti

Odlična stvar pri algoritmih je, da vedno sprejemajo poštene, nepristranske odločitve, v ostrem nasprotju s subjektivnimi in čustvenimi ljudmi. Ali pa? Resnica je, da je postopek odločanja katere koli avtomatizirane programske opreme odvisen od podatkov, na podlagi katerih je bila usposobljena. Torej obstaja nevarnost diskriminacije v primerih, ko na primer določen segment prebivalstva v uporabljenih podatkih ni dovolj zastopan. Programsko opremo za prepoznavanje obrazov že preiskujejo za nekatere od teh težav, primeri pristranskosti so se že pojavili.

Eden odličnih primerov, kako pristranska je lahko umetna inteligenca, je COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). To je orodje za oceno tveganja in potreb za napovedovanje tveganja ponovitve med storilci kaznivih dejanj. To orodje, ki temelji na algoritmu, so raziskali in rezultati so pokazali, da so bili podatki COMPAS resno rasno pristranski. Na primer, glede na podatke je bilo večja verjetnost, da bodo afroameriški obtoženci nepravilno ocenjeni, da imajo večje tveganje ponovitve kot druge rase. Algoritem je prav tako delal nasprotno napako pri ljudeh bele rase.

Torej, kaj se je zgodilo tukaj? Algoritem je odvisen od podatkov, tako da če so podatki pristranski, bo programska oprema verjetno dala tudi pristranske rezultate. Včasih je to povezano tudi s tem, kako so bili podatki zbrani.

Tehnologija avtomatiziranega prepoznavanja govora je lahko tudi pristranska glede na spol ali raso zaradi dejstva, da podatki o usposabljanju niso nujno izbrani tako, da bi zagotovili dovolj vključevanja.

3. Varnostni pomisleki

Brez naslova 2 2

Obstaja nekaj težav z umetno inteligenco, ki so tako nevarne, da lahko povzročijo nesreče. Eden vidnejših primerov uporabljene tehnologije umetne inteligence je samovozeči avtomobil. Mnogi strokovnjaki verjamejo, da je to prihodnost transporta. Toda glavna stvar, ki ovira takojšnjo uvedbo samovozečih avtomobilov v promet, so njihove okvare, ki lahko ogrozijo življenja potnikov in pešcev. Razprava o nevarnosti, ki bi jo lahko avtonomna vozila predstavljala na cestah, je še vedno zelo aktualna. Obstajajo ljudje, ki menijo, da bi bilo nesreč manj, če bi bili na cesti dovoljeni samovozeči avtomobili. Po drugi strani pa obstajajo študije, ki so pokazale, da lahko povzročijo veliko prometnih nesreč, saj bo veliko njihovih dejanj temeljilo na preferencah, ki jih določi voznik. Zdaj je na oblikovalcih, da izbirajo med varnostjo in življenjem ljudi ter preferencami voznikov (kot so povprečna hitrost in nekatere druge vozne navade). Glavni cilj samovozečih avtomobilov bi moralo biti v vsakem primeru zmanjšanje avtomobilskih nesreč z implementacijo učinkovitih algoritmov umetne inteligence in naprednih senzorjev, ki lahko zaznajo in celo predvidijo morebitne prometne scenarije. Resnično življenje pa je vedno bolj zapleteno od katerega koli programa, zato so omejitve te tehnologije še vedno eden od omejujočih dejavnikov za njeno široko uveljavitev. Druga težava je faktor zaupanja. Za mnoge ljudi z leti in leti vozniških izkušenj lahko predajanje vsega zaupanja digitalnim rokam razumejo kot dejanje simbolične kapitulacije pred digitalnimi trendi. Kakorkoli že, dokler se vse to ne reši, so nekatere napredne tehnološke rešitve že implementirane v novejše avtomobile, človeškim voznikom pa so na voljo različni senzorji, rešitve za pomoč pri zaviranju in tempomati.

4. Zlonamerni nameni

Tehnologija bi morala služiti potrebam ljudi in se uporabljati za lažje, prijetnejše življenje ter prihraniti dragoceni čas vseh. Toda včasih se tehnologija umetne inteligence uporablja tudi za zlonamerne namene, na način, ki predstavlja veliko tveganje za našo fizično, digitalno in politično varnost.

  • Fizična varnost: eno od možnih tveganj umetne inteligence, ki se na prvi pogled sliši precej dramatično in bi vam lahko zmrazilo v kosti, je morebitna vojna med tehnološko naprednimi državami, ki jo izvajajo avtonomni orožni sistemi, programirani za ubijanje na najbolj učinkovit in neusmiljen način. Zato je izredno pomembno urediti razvoj takšne vojaške tehnologije s pogodbami, predpisi in sankcijami, da bi zaščitili človeštvo pred zloveščim tveganjem vojskovanja na osnovi umetne inteligence.
  • Digitalna varnost: Hekerji že ogrožajo našo digitalno varnost in programska oprema AI se že uporablja za napredno vdiranje. Z razvojem takšne programske opreme bodo hekerji učinkovitejši pri svojih zlorabah, naša spletna identiteta pa bo bolj ranljiva za krajo. Zasebnost vaših osebnih podatkov je lahko še bolj ogrožena s subtilno zlonamerno programsko opremo, ki jo poganja umetna inteligenca in je zaradi uporabe globokega učenja še bolj nevarna. Predstavljajte si digitalnega tatu, ki se skriva za vašimi najljubšimi programi, postaja iz dneva v dan bolj zvit, se uči iz milijonov primerov uporabe programske opreme v resničnem življenju in na podlagi teh podatkov oblikuje zapletene kraje identitete.
Brez naslova 3 2
  • Politična varnost: v turbulentnem času, v katerem živimo, je strah pred lažnimi novicami in goljufivimi posnetki povsem upravičen. Umetna inteligenca bi lahko naredila veliko škode z avtomatiziranimi dezinformacijskimi kampanjami, ki so med volitvami lahko izjemno nevarne.

Za konec bi se lahko vprašali, koliko škode nam lahko naredi umetna inteligenca in ali lahko človeštvu naredi več škode kot koristi.

Strokovnjaki trdijo, da bodo etični razvojni in regulativni organi igrali pomembno vlogo pri blaženju slabosti, ki bi jih umetna inteligenca lahko povzročila našim življenjem. Karkoli se zgodi, smo prepričani, da bo imelo velik vpliv na naš svet v prihodnosti.

Programska oprema za prepoznavanje govora, ki temelji na naprednih protokolih AI, se že uporablja in prinaša veliko prednosti v poslovni svet: delovni tokovi so hitrejši in enostavnejši. Gglot je velik igralec na tem področju in veliko vlagamo v nadaljnji razvoj naše tehnologije.