Adimen artifizialaren arrisku potentzialak

Zeintzuk dira Adimen Artifizialaren arrisku potentzial batzuk?

Adimen artifiziala, edo AI-a ere aipatu ohi den bezala, azken hamarkadan asko eztabaidatu den gaia da. Bizkor garatzen ari da, eta negozio gehienen lan-fluxua errazten eta eraginkorragoa da. Nahiz eta jende askoren eguneroko bizitzan IAk potentzial handia erakutsi du eta dagoeneko aplikazio ezberdin askotan ezartzen ari da, bizitza errazten eta gutxiago konplikatuz. AI abantaila asko ekarri dizkigu eta zientziak askoz gehiago etortzeko bidea zabaltzen ari da, beraz, seguru esan daiteke AI ezinbestekoa izango dela etorkizunean, dagoeneko ez bada.

Baina domina bakoitzak bi alde dituen bezala, AI ere baditu. Teknologia honek arrisku eta desabantaila potentzial ugari ditu. Gure garaiko aditu eta buru tekniko askok AI-ak etorkizunean sor ditzakeen arazoen inguruko kezkak adierazten ari dira eta, beraz, kontuz ibili behar dugu arazo horiei aurre egiteko, oraindik zuzendu daitezkeen bitartean. Zer esan nahi dugu horrekin?

Gauza asko kontuan hartu behar dira gai zehatz horiei dagokienez. Artikulu honetan AIren garapen izugarri azkarrak gure munduari ekar diezazkiokeen arrisku batzuk deskribatzen saiatuko gara eta aurrerapen hori norabide egokian kontrolatzeko eta bideratzeko zein neurri hartu behar diren deskribatzen saiatuko gara.

1. Lanpostuak

Izenbururik gabe 1 3

Ziur gaude denek dagoeneko aukera izan zutela makinek eta automatizazioak eskola zaharreko lantokietan, gizakietan oinarritutakoei, izan diezaieketen tratuari buruz entzuteko edo irakurtzeko. Pertsona batzuek euren lana lapurtzen duten makinek antsietate-maila ezberdina izan dezakete. Beldur hori ondo egon liteke, lan-automatizazioa arrisku handia da jende askorentzat: amerikarren % 25 inguruk lana gal dezake uneren batean makinak ordezkatu ahal izango dituztelako. Batez ere arriskuan daude soldata baxuko lanpostuak, zeinetan pertsona batek zeregin errepikakorrak egiten dituen, hala nola administrazioko lanak edo janari-zerbitzuetako lanak. Hala ere, unibertsitateko tituludun batzuk arriskuan egon arren, ikaskuntza automatikoko algoritmo aurreratuek laneko postu konplexu batzuetan ordezkatzeko gai izan daitezke, gero eta finagoak direlako, batez ere sare neuronalak eta ikaskuntza sakona erabiliz.

Baina ezin dugu esan robotek gizakiak lan-merkatutik erabat kanporatuko dituztenik. Langileek moldatu, hezi eta lan egiteko modu bat aurkitu beharko dute AIarekin lankidetzan, bere eraginkortasuna eta logika mekanikoa ahalik eta ondoen aprobetxatuz. Inteligentzia artificiala ez da oraindik perfektua, adibidez, ezin du epai-deiak egiteko, beraz, giza faktorea erabakigarria izango da oraindik makinekin batera lan egitean.

AI oinarritutako teknologia asko dago trebatu behar diren soluzio automatizatuak erabiltzen dituena eta prestakuntza hori giza ekarpenaren araberakoa da. Horren adibide onak dira gizakiak sortutako itzulpen ugariren ekarpena lortzen duten itzulpen automatikoak. Beste adibide on bat transkripzio-softwarea da, prestakuntza-datuak giza transkripzio profesionalek egindako transkripzio zehatzetatik lortzen dituena. Modu honetan softwarea pixkanaka hobetzen doa, bere algoritmoak bizitza errealeko adibideen bidez hobetuz. Giza transkriptzaileak softwareari etekina ateratzen die transkripzioak azkarrago egiten laguntzen dielako. Softwareak transkripzioaren zirriborro laburra sortzen du, eta gero transkriptzaileak editatu eta zuzentzen du. Horrek denbora asko aurrezten du, eta azkenean azken produktua azkarrago entregatuko dela eta zehatzagoa izango dela esan nahi du.

2. Alborapenaren arazoa

Algoritmoen gauza bikaina da beti erabaki justuak eta alboratuak hartzen dituztela, gizaki subjektibo eta emozionalekiko kontraste nabarmenean. Edo dute? Egia esan, edozein software automatizaturen erabakiak hartzeko prozesua trebatu diren datuen araberakoa da. Beraz, diskriminazio arriskua dago erabilitako datuetan, adibidez, biztanleriaren segmentu jakin bat nahikoa ordezkatuta ez dagoen kasuetan. Aurpegi-ezagutzarako softwarea ikertzen ari da dagoeneko arazo horietako batzuengatik, alborapen kasuak jada gertatu ziren.

Adimen artifiziala nola alboratuta izan daitekeen erakusten duen adibide bikaina COMPAS da (Zigor alternatiboetarako delitugileen kudeaketaren profila). Arriskuak eta beharrak ebaluatzeko tresna bat da, delitugileen artean berriro errepikatzeko arriskua aurreikusteko. Algoritmoetan oinarritutako tresna hau ikertu zen eta emaitzek erakutsi dute COMPASen datuak arraza-alborapen handia zutela. Esaterako, datuen arabera, afroamerikar auzipetuek beste arraza batzuek baino gehiago errepikatzeko arrisku handiagoa zutela gaizki epaitu zuten. Algoritmoak ere arraza zuriko jendearekin kontrako akatsa egiteko joera zuen.

Orduan, zer gertatu da hemen? Algoritmoa datuen araberakoa da, beraz, datuak alboratuak badira, softwareak emaitza alboratuak ere emango ditu ziurrenik. Batzuetan, datuak nola bildu zirenarekin ere badu zerikusirik.

Ahots-aitorpen automatizatuaren teknologia ere alboragarria izan daiteke generoaren edo arrazaren arabera, izan ere, prestakuntza-datuak ez direlako nahitaez aukeratzen nahiko inklusibotasuna bermatuko lukeen gaian.

3. Segurtasun kezkak

Izenbururik gabe 2 2

Adimen artifizialarekin badaude arazo batzuk, hain arriskutsuak ezen istripuak sor ditzaketenak. Aplikaturiko AI teknologiaren adibide nabarmenenetako bat auto gidatzen duen autoa da. Aditu askok uste dute hori dela garraioaren etorkizuna. Baina auto gidatzen diren autoak trafikoan berehala ezartzea oztopatzen duen gauza nagusia bidaiarien eta oinezkoen bizitza arriskuan jar dezaketen akatsak dira. Ibilgailu autonomoek errepideetan izan dezaketen mehatxuari buruzko eztabaida oso gaurkoa da oraindik. Bada jendea autoak gidatzen utziz gero istripu gutxiago egon daitezkeela uste duena. Bestalde, istripu asko eragin ditzaketela frogatu duten ikerketak daude, haien ekintza asko gidariak ezarritako lehentasunetan oinarrituta egongo direlako. Orain diseinatzaileen esku dago segurtasunaren eta pertsonen bizitzaren eta gidarien hobespenen artean aukeratzea (batez besteko abiadura eta gidatzeko beste ohitura batzuk, esaterako). Nolanahi ere, auto gidatzen duten autoen helburu nagusia ibilgailuen istripuak murriztea izan beharko luke, AI algoritmo eraginkorren eta sentsore aurreratuen ezarpenaren bidez, zirkulazio-egoera posibleak detektatu eta are iragar ditzaketenak. Hala ere, bizitza erreala edozein programa baino korapilatsuagoa da beti, eta, beraz, teknologia honen mugak oraindik ezartzeko faktore mugatzaileetako bat dira. Beste arazo bat konfiantza faktorea da. Urteak eta urteak gidatzeko esperientzia duten jende askorentzat, konfiantza guztia esku digitaletan jartzea joera digitalen kapituluazio sinbolikotzat har daiteke. Edonola ere, hori guztia konpondu arte, dagoeneko auto berrienetan konponbide teknologiko aurreratu batzuk ezarri dira, eta giza gidariek hainbat sentsore, lagundutako balazta soluzio eta gurutzaldi-kontrolen abantailak izan ditzakete.

4. Helburu gaiztoak

Teknologiak pertsonen beharrei erantzun behar die eta haien bizitza errazagoa, atseginagoa izan dadin eta guztion denbora preziatua aurreztu behar du. Baina batzuetan AI teknologia helburu maltzuretarako ere erabili izan da, gure segurtasun fisiko, digital eta politikorako arrisku handia eragiten duen moduan.

  • Segurtasun fisikoa: AIren arrisku potentzial bat, hasiera batean nahiko dramatikoa dirudi eta hezurretaraino hoztu dezakeena, herrialde teknologikoki aurreratuen arteko gerra potentziala da, modu eraginkorrenean eta gupidagabean hiltzeko programatutako arma-sistema autonomoek burutua. Horregatik, oso garrantzitsua da teknologia militar horren garapena itun, arau eta zigorren bidez arautzea, gizateria AI oinarritutako gerraren arrisku larritik babesteko.
  • Segurtasun digitala: Hackerrak dagoeneko mehatxu bat dira gure segurtasun digitalarentzat eta AI softwarea dagoeneko erabiltzen ari da hacking aurreratuetarako. Halako softwarearen garapenarekin, hackerrak eraginkorragoak izango dira beren hutsegiteetan eta gure lineako identitatea lapurretaren aurrean ahulagoa izango da. Zure datu pertsonalen pribatutasuna are gehiago arriskuan jar daiteke malware sotilen bidez, AI-k bultzatuta eta are arriskutsuagoa deep learning-aren erabileraren bidez. Imajinatu lapur digital bat, zure programa gogokoen atzealdean ezkutuan, egunetik egunera maltzuragoa bihurtzen, software-erabileraren bizitza errealeko milioika adibideetatik ikasten eta datu horietan oinarrituta identitate lapurreta konplexuak egiten.
Izenbururik gabe 3 2
  • Segurtasun politikoa: bizi dugun garai nahasietan, albiste faltsuei eta iruzurrezko grabazioei beldurra nahiko justifikatuta dago. AIk kalte handia egin dezake desinformazio kanpaina automatizatuen bidez, eta hori oso arriskutsua izan daiteke hauteskundeetan.

Beraz, bukatzeko, geure buruari galdetu genioke zenbat kalte egin diezaiokeen adimen artifizialak eta gizakiari on baino kalte gehiago egin diezaiokeen.

Adimen artifizialak gure bizitzan sor ditzakeen eragozpenak arintzeko orduan garapen etikoak eta erakunde arautzaileak zeresan handia izango dutela diote adituek. Gertatzen dena, ziur gaude etorkizunean gure munduan eragin handia izango duela.

Hizketa ezagutzeko softwarea, AI protokolo aurreratuetan oinarritutakoa, erabiltzen ari da dagoeneko, eta abantaila ugari ekartzen dizkio negozio munduari: lan-fluxuak azkarragoak eta sinpleagoak dira. Gglot eragile handia da arlo honetan eta gure teknologia gehiago garatzeko inbertsio handia egiten ari gara.