Galimas dirbtinio intelekto pavojus
Kokie yra galimi dirbtinio intelekto pavojai?
Dirbtinis intelektas arba AI, kaip jis taip pat dažnai vadinamas, yra tema, apie kurią pastarąjį dešimtmetį buvo daug diskutuojama. Ji sparčiai vystosi, todėl daugumos įmonių darbo eiga tampa lengvesnė ir efektyvesnė. Net ir kasdieniame daugelio žmonių gyvenime AI parodė didelį potencialą ir jau yra įdiegtas daugelyje skirtingų programų, todėl gyvenimas tampa lengvesnis ir sudėtingesnis. DI mums atnešė daug pranašumų, o mokslas atveria kelią dar daugiau, todėl galima drąsiai teigti, kad dirbtinis intelektas bus būtinas ateityje, jei to dar nepadarėte.
Bet kaip kiekvienas medalis turi dvi puses, taip ir AI. Ši technologija taip pat turi daug galimų pavojų ir trūkumų. Daugelis mūsų laikų ekspertų ir techninių sumanytojų išreiškia susirūpinimą dėl problemų, kurias AI gali sukelti ateityje, todėl turime būti atsargūs ir spręsti šias problemas, kol jas dar galima ištaisyti. Ką mes tuo norime pasakyti?
Kalbant apie šiuos konkrečius klausimus, reikia atsižvelgti į daugybę dalykų. Šiame straipsnyje pabandysime apibūdinti kai kurias rizikas, kurias mūsų pasauliui gali sukelti akinamai greitas AI vystymasis, ir kokių priemonių reikia imtis, kad būtų galima stebėti ir nukreipti šią pažangą tinkama linkme.
1. Darbai
Esame tikri, kad visi jau turėjo galimybę išgirsti ar perskaityti apie galimą malonumą, kurį mašinos ir automatika gali pasiūlyti senosios mokyklos, žmonių darbo vietose. Kai kurie žmonės gali kentėti nuo įvairaus laipsnio nerimo dėl mašinų, vagiančių jų darbus. Ta baimė gali būti pagrįsta, darbo automatizavimas yra didelė rizika daugeliui žmonių: apie 25 % amerikiečių gali netekti darbo, nes tam tikru momentu mašinos galės jas pakeisti. Ypatingą pavojų kelia mažo atlyginimo pareigos, kuriose asmuo atlieka pasikartojančias užduotis, pavyzdžiui, administracijos ar maitinimo tarnybos. Tačiau net kai kuriems universitetų absolventams gresia pavojus, pažangūs mašininio mokymosi algoritmai gali juos pakeisti kai kuriose sudėtingose darbo vietose, nes jie tampa vis tobulesni, ypač naudojant neuroninius tinklus ir gilųjį mokymąsi.
Tačiau tikrai negalime sakyti, kad robotai visiškai išstums žmones iš darbo rinkos. Darbuotojai tiesiog turės prisitaikyti, lavintis ir rasti būdą dirbti bendradarbiaudami su AI, kuo geriau išnaudodami jo efektyvumą ir mechaninę logiką. AI vis dar nėra tobulas, pavyzdžiui, jis negali priimti sprendimo, todėl dirbant kartu su mašinomis žmogiškasis faktorius vis tiek bus lemiamas.
Yra daug dirbtiniu intelektu pagrįstų technologijų, kurios naudoja automatizuotus sprendimus, kuriuos reikia apmokyti, ir šis mokymas priklauso nuo žmogaus indėlio. Puikus pavyzdys yra mašininiai vertimai, kuriuos įneša daug žmogaus sukurtų vertimų. Kitas geras pavyzdys yra transkripcijos programinė įranga, kuri treniruočių duomenis gauna iš tikslių transkripcijos, atliktų profesionalių žmonių transkribuotojų. Tokiu būdu programinė įranga po truputį tobulinama, tobulinant jos algoritmus pasitelkiant realius pavyzdžius. Žmonėms perrašinėtojams ši programinė įranga naudinga, nes ji padeda greičiau atlikti nuorašus. Programinė įranga sukuria apytikslę nuorašo juodraštinę versiją, kurią vėliau redaguoja ir pataiso transkribuotojas. Tai sutaupo daug laiko ir reiškia, kad galiausiai galutinis produktas bus pristatytas greičiau ir bus tikslesnis.
2. Šališkumo problema
Puikus algoritmų pranašumas yra tai, kad jie visada priima teisingus, nešališkus sprendimus, o tai labai skiriasi nuo subjektyvių ir emocingų žmonių. Arba jie? Tiesa ta, kad bet kokios automatizuotos programinės įrangos sprendimų priėmimo procesas priklauso nuo duomenų, kuriuos jie buvo išmokyti. Taigi, tais atvejais, kai, pavyzdžiui, tam tikram gyventojų sluoksniui naudojamuose duomenyse atstovaujama nepakankamai, kyla diskriminacijos rizika. Veido atpažinimo programinė įranga jau tiriama dėl kai kurių iš šių problemų, jau pasitaikė šališkumo atvejų.
Puikus pavyzdys, kaip dirbtinis intelektas gali būti šališkas, yra COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Tai rizikos ir poreikių vertinimo priemonė, skirta numatyti nusikaltėlių pakartotinio nusikaltimo riziką. Šis algoritmu pagrįstas įrankis buvo ištirtas ir rezultatai parodė, kad COMPAS duomenys buvo labai neobjektyvūs dėl rasės. Pavyzdžiui, remiantis duomenimis, afroamerikiečiai kaltinamieji dažniau buvo neteisingai įvertinti kaip turintys didesnę pakartotinio nusikaltimo riziką nei kitų rasių atstovai. Algoritmas taip pat buvo linkęs daryti priešingą klaidą su baltosios rasės žmonėmis.
Taigi, kas čia atsitiko? Algoritmas priklauso nuo duomenų, todėl jei duomenys yra šališki, programinė įranga taip pat pateiks šališkus rezultatus. Kartais tai taip pat yra susiję su tuo, kaip buvo renkami duomenys.
Automatizuota kalbos atpažinimo technologija taip pat gali būti šališka, atsižvelgiant į lytį ar rasę, nes treniruočių duomenys nebūtinai parenkami tokia medžiaga, kuri užtikrintų pakankamą įtraukimą.
3. Susirūpinimas dėl saugos
Yra keletas dirbtinio intelekto problemų, kurios yra tokios pavojingos, kad gali sukelti avarijas. Vienas ryškesnių taikomosios AI technologijos pavyzdžių yra savarankiškai važiuojantis automobilis. Daugelis ekspertų mano, kad tai yra transporto ateitis. Tačiau pagrindinis dalykas, trukdantis nedelsiant pradėti savavaldžių automobilių eismą, yra jų gedimai, galintys kelti pavojų keleivių ir pėsčiųjų gyvybei. Diskusijos dėl autonominių transporto priemonių galimos grėsmės keliuose vis dar labai aktualios. Yra manančių, kad nelaimingų atsitikimų galėtų būti mažiau, jei kelyje būtų leidžiami savaeigiai automobiliai. Kita vertus, yra tyrimų, kurie parodė, kad jie gali sukelti daugybę avarijų, nes daugelis jų veiksmų bus pagrįsti vairuotojo nustatytomis nuostatomis. Dabar dizaineriai turi pasirinkti tarp saugumo ir žmonių gyvenimo bei vairuotojo pageidavimų (pvz., vidutinio greičio ir kai kurių kitų vairavimo įpročių). Pagrindinis savaeigių automobilių tikslas bet kuriuo atveju turėtų būti automobilių avarijų mažinimas, diegiant efektyvius AI algoritmus ir pažangius jutiklius, galinčius aptikti ir net numatyti bet kokius galimus eismo scenarijus. Tačiau realus gyvenimas visada yra sudėtingesnis nei bet kuri programa, todėl šios technologijos apribojimai vis dar yra vienas iš ribojančių veiksnių, ribojančių jos platų diegimą. Kita problema – pasitikėjimo faktorius. Daugeliui žmonių, turinčių ilgametę vairavimo patirtį, viso pasitikėjimo perdavimas į skaitmenines rankas gali būti vertinamas kaip simbolinis pasidavimas skaitmeninėms tendencijoms. Bet kuriuo atveju, kol visa tai nebus išspręsta, kai kurie pažangūs technologiniai sprendimai jau buvo įdiegti naujesniuose automobiliuose, o žmonės vairuotojai gali pasinaudoti įvairiais jutikliais, pagalbiniais stabdymo sprendimais ir pastovaus greičio palaikymo sistema.
4. Kenkėjiški tikslai
Technologijos turėtų tenkinti žmonių poreikius ir būti naudojamos, kad jų gyvenimas būtų lengvesnis, malonesnis, o tai turėtų sutaupyti kiekvieno brangų laiką. Tačiau kartais AI technologija taip pat buvo naudojama kenkėjiškiems tikslams, o tai kelia didelį pavojų mūsų fiziniam, skaitmeniniam ir politiniam saugumui.
- Fizinis saugumas: Viena iš galimų dirbtinio intelekto pavojų, kuri iš pradžių skamba gana dramatiškai ir gali atšalti iki kaulų smegenų, yra galimas karas tarp technologiškai pažengusių šalių, vykdomas autonominėmis ginklų sistemomis, užprogramuotomis žudyti efektyviausiu ir negailestingiausiu būdu. Štai kodėl labai svarbu reguliuoti tokių karinių technologijų plėtrą sutartimis, taisyklėmis ir sankcijomis, kad žmonija būtų apsaugota nuo grėsmingos DI pagrįsto karo pavojaus.
- Skaitmeninis saugumas: įsilaužėliai jau kelia grėsmę mūsų skaitmeninei saugai, o dirbtinio intelekto programinė įranga jau naudojama pažangiam įsilaužimui. Sukūrus tokią programinę įrangą, įsilaužėliai bus efektyvesni savo nusižengimams, o mūsų internetinė tapatybė bus labiau pažeidžiama vagysčių. Jūsų asmeninių duomenų privatumas gali būti dar labiau pažeistas dėl subtilios kenkėjiškos programinės įrangos, kurią palaiko dirbtinis intelektas, o naudojant gilųjį mokymąsi gali būti dar pavojingiau. Įsivaizduokite skaitmeninį vagį, kuris slepiasi jūsų mėgstamų programų gale, kasdien tampa vis gudresnis, mokosi iš milijonų realių programinės įrangos naudojimo pavyzdžių ir, remdamasis šiais duomenimis, kuria sudėtingas tapatybės vagystes.
- Politinis saugumas: neramiais laikais, kuriais gyvename, baimė dėl netikrų naujienų ir apgaulingų įrašų yra visiškai pagrįsta. AI gali padaryti daug žalos automatizuotomis dezinformacijos kampanijomis, kurios gali būti itin pavojingos per rinkimus.
Taigi, apibendrinant, galime savęs paklausti, kiek žalos mums gali padaryti dirbtinis intelektas ir ar jis gali padaryti žmonijai daugiau žalos nei naudos.
Ekspertai teigia, kad etiška plėtra ir reguliavimo institucijos atliks pagrindinį vaidmenį mažinant trūkumus, kuriuos dirbtinis intelektas gali sukelti mūsų gyvenimui. Kad ir kas nutiktų, esame tikri, kad tai turės didžiulį poveikį mūsų pasauliui ateityje.
Kalbos atpažinimo programinė įranga, pagrįsta pažangiais AI protokolais, jau naudojama ir verslo pasauliui suteikia daug privalumų: darbo eigos greitesnės ir paprastesnės. Gglot yra didelis žaidėjas šioje srityje ir mes daug investuojame į tolesnį savo technologijų vystymą.