Tekoälyn mahdolliset riskit

Mitä ovat tekoälyn mahdolliset riskit?

Tekoäly tai tekoäly, kuten sitä myös usein kutsutaan, on aihe, josta on keskusteltu paljon viimeisen vuosikymmenen aikana. Se kehittyy nopeasti, mikä tekee useimpien yritysten työnkulusta helpompaa ja tehokkaampaa. Jopa monien ihmisten jokapäiväisessä elämässä tekoäly on osoittanut suurta potentiaalia ja se on jo otettu käyttöön monissa eri sovelluksissa, mikä tekee elämästä helpompaa ja vähemmän monimutkaista. Tekoäly on tuonut meille monia etuja, ja tiede tasoittaa tietä paljon tulevalle, joten on turvallista sanoa, että tekoäly on korvaamaton tulevaisuudessa, ellei se jo ole.

Mutta kuten jokaisella mitalilla on kaksi puolta, niin myös tekoälyllä on. Tämä tekniikka sisältää myös monia mahdollisia riskejä ja haittoja. Monet aikamme asiantuntijat ja tekniset suunnittelijat ilmaisevat huolensa ongelmista, joita tekoäly saattaa aiheuttaa tulevaisuudessa, ja siksi meidän on oltava varovaisia näiden ongelmien ratkaisemisessa, kun ne ovat vielä korjattavissa. Mitä tarkoitamme sillä?

On monia asioita, jotka on otettava huomioon näissä erityiskysymyksissä. Tässä artikkelissa yritämme kuvata joitain riskejä, joita tekoälyn häikäisevän nopea kehitys saattaa tuoda maailmallemme ja mitä toimenpiteitä on toteutettava, jotta edistymistä voidaan seurata ja ohjata oikeaan suuntaan.

1. Työpaikat

Nimetön 13

Olemme varmoja, että jokaisella oli jo mahdollisuus kuulla tai lukea mahdollisesta herkkupalasta, jonka koneet ja automaatio voivat tarjota vanhan koulukunnan ihmispohjaisille työpaikoille. Jotkut ihmiset saattavat kärsiä eriasteisesta ahdistuksesta koneiden varastamisesta heidän työpaikkansa. Pelko saattaa olla perusteltua, työn automaatio on suuri riski monille ihmisille: noin 25 % amerikkalaisista saattaa menettää työnsä, koska jossain vaiheessa koneet pystyvät korvaamaan ne. Erityisen vaarassa ovat matalapalkkaiset tehtävät, joissa henkilö tekee toistuvia tehtäviä, kuten hallinto- tai ravintolatyöt. Jopa jotkin korkeakoulututkinnon suorittaneet ovat kuitenkin vaarassa, kehittyneet koneoppimisalgoritmit saattavat kyetä korvaamaan heidät joissakin monimutkaisissa työtehtävissä, koska ne ovat yhä hienostuneempia, erityisesti hermoverkkojen ja syväoppimisen ansiosta.

Emme kuitenkaan voi sanoa, että robotit syrjäyttäisivät ihmiset kokonaan työmarkkinoilta. Työntekijöiden on vain sopeuduttava, koulutettava itseään ja löydettävä tapa työskennellä tekemällä yhteistyötä tekoälyn kanssa, hyödyntäen sen tehokkuutta ja mekaanista logiikkaa parhaalla mahdollisella tavalla. Tekoäly ei ole vieläkään täydellinen, esimerkiksi se ei osaa tehdä tuomioita, joten inhimillinen tekijä on silti ratkaiseva koneiden rinnalla työskennellessä.

On olemassa paljon tekoälypohjaista teknologiaa, joka käyttää automatisoituja ratkaisuja, joita on koulutettava, ja tämä koulutus riippuu ihmisen panoksesta. Hyvä esimerkki tästä ovat konekäännökset, jotka saavat panoksensa suuresta määrästä ihmisen tekemiä käännöksiä. Toinen hyvä esimerkki on transkriptioohjelmisto, joka saa harjoitustiedot ammattimaisten transkriptioiden suorittamista tarkoista transkriptioista. Näin ohjelmisto kehittyy pikkuhiljaa jalostaa algoritmejaan tosielämän esimerkein. Ihmisten kirjoittajat hyötyvät ohjelmistosta, koska se auttaa heitä tekemään transkriptioita nopeammin. Ohjelmisto luo karkean, luonnosversion transkriptiosta, jota sitten muokkaa ja korjaa transkriptio. Tämä säästää paljon aikaa ja tarkoittaa, että lopputuote toimitetaan nopeammin ja on tarkempi.

2. Erotteluongelma

Erinomaista algoritmeissa on, että ne tekevät aina oikeudenmukaisia, puolueettomia päätöksiä jyrkästi subjektiivisten ja emotionaalisten ihmisten kanssa. Vai tekevätkö he? Totuus on, että minkä tahansa automatisoidun ohjelmiston päätöksentekoprosessi riippuu tiedoista, joihin ne on koulutettu. Syrjintäriski on siis olemassa tilanteissa, joissa esimerkiksi jokin väestönosa ei ole riittävästi edustettuna käytetyissä tiedoissa. Kasvojentunnistusohjelmistoja tutkitaan jo joidenkin näistä ongelmista, ja harhaa on jo esiintynyt.

Yksi loistava esimerkki siitä, kuinka puolueellinen tekoäly voi olla, on COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Tämä on riskien ja tarpeiden arviointityökalu rikosten uusimisriskin ennustamiseen. Tätä algoritmipohjaista työkalua tutkittiin ja tulokset ovat osoittaneet, että COMPAS-tiedot olivat vakavasti rasistisia. Esimerkiksi tietojen mukaan afroamerikkalaissyytetyillä arvioitiin todennäköisemmin virheellisesti olevan suurempi riski uusiutumiseen kuin muilla roduilla. Algoritmilla oli myös taipumus tehdä päinvastainen virhe valkoisen rodun ihmisten kanssa.

Joten mitä täällä tapahtui? Algoritmi on tiedosta riippuvainen, joten jos tiedot ovat puolueellisia, ohjelmisto antaa todennäköisesti myös puolueellisia tuloksia. Joskus se liittyy myös siihen, miten tiedot kerättiin.

Automaattinen puheentunnistustekniikka voi myös olla puolueellinen sukupuolen tai rodun mukaan, koska harjoitusdataa ei välttämättä valita aineessa, joka varmistaisi riittävän osallisuuden.

3. Turvallisuusnäkökohdat

Nimetön 2 2

Tekoälyyn liittyy joitakin ongelmia, jotka ovat niin vaarallisia, että ne voivat johtaa onnettomuuksiin. Yksi näkyvimmistä esimerkeistä sovelletusta tekoälytekniikasta on itseajava auto. Monet asiantuntijat uskovat, että tämä on liikenteen tulevaisuus. Mutta tärkein asia, joka haittaa itseohjautuvien autojen välitöntä käyttöönottoa liikenteessä, ovat sen toimintahäiriöt, jotka voivat vaarantaa matkustajien ja jalankulkijoiden hengen. Keskustelu uhista, joita autonomiset ajoneuvot voivat aiheuttaa teillä, on edelleen hyvin ajankohtaista. Jotkut ajattelevat, että onnettomuuksia voisi tapahtua vähemmän, jos itse ajavat autot sallittaisiin tiellä. Toisaalta on tutkimuksia, jotka ovat osoittaneet, että ne saattavat aiheuttaa paljon kolareita, koska monet heidän toiminnastaan perustuvat kuljettajan asettamiin mieltymyksiin. Nyt on suunnittelijoiden tehtävä valita turvallisuuden ja ihmisten elämän ja kuljettajan mieltymysten välillä (kuten keskinopeus ja jotkut muut ajotottumukset). Itseohjautuvien autojen päätavoitteena tulisi joka tapauksessa olla auto-onnettomuuksien vähentäminen tehokkaiden tekoälyalgoritmien ja kehittyneiden anturien avulla, jotka pystyvät havaitsemaan ja jopa ennustamaan mahdolliset liikenneskenaariot. Tosielämä on kuitenkin aina monimutkaisempaa kuin mikään ohjelma, joten tämän tekniikan rajoitukset ovat edelleen yksi sen laajalle levinneelle käyttöönotolle rajoittavista tekijöistä. Toinen ongelma on luottamustekijä. Monille ihmisille, joilla on vuosien ja vuosien ajokokemus, kaiken luottamuksen siirtäminen digitaalisiin käsiin voidaan nähdä symbolisena antautumisena digitaalisille trendeille. Joka tapauksessa, kunnes kaikki tämä on ratkaistu, joitain edistyksellisiä teknisiä ratkaisuja on jo otettu käyttöön uudemmissa autoissa, ja ihmiskuljettajat voivat hyötyä erilaisista antureista, avusteisista jarrutusratkaisuista ja vakionopeudensäätimestä.

4. Haitalliset tarkoitukset

Teknologian tulee palvella ihmisten tarpeita ja tehdä heidän elämästään helpompaa, nautinnollisempaa ja sen pitäisi säästää kaikkien arvokasta aikaa. Mutta joskus tekoälytekniikkaa on käytetty myös haitallisiin tarkoituksiin tavalla, joka muodostaa merkittävän riskin fyysiselle, digitaaliselle ja poliittiselle turvallisuudellemme.

  • Fyysinen turvallisuus: Yksi mahdollinen tekoälyn riski, joka kuulostaa aluksi melko dramaattiselta ja saattaa jäädyttää sinut luihin asti, on mahdollinen sota teknologisesti kehittyneiden maiden välillä, jonka toteuttavat autonomiset asejärjestelmät, jotka on ohjelmoitu tappamaan tehokkaimmalla ja häikäilemättömällä tavalla. Tästä syystä on äärimmäisen tärkeää säännellä tällaisen sotilasteknologian kehitystä sopimusten, määräysten ja sanktioiden avulla, jotta ihmiskunta voidaan suojella tekoälyyn perustuvan sodankäynnin pahaenteiseltä riskiltä.
  • Digitaalinen turvallisuus: Hakkerit ovat jo uhka digitaaliselle turvallisuudellemme, ja tekoälyohjelmistoja käytetään jo edistyneeseen hakkerointiin. Tällaisten ohjelmistojen kehityksen myötä hakkerit ovat tehokkaampia väärinteoissaan ja verkkoidentiteettimme on alttiimpi varkauksille. Henkilötietojesi yksityisyys saattaa vaarantua vieläkin enemmän hienovaraisten, tekoälyllä varustettujen haittaohjelmien avulla ja tehdä entistä vaarallisemmaksi syvän oppimisen ansiosta. Kuvittele digitaalinen varas, joka väijyy suosikkiohjelmiesi takana ja joka tulee päivä päivältä ovelammaksi, oppii miljoonista tosielämän esimerkeistä ohjelmistojen käytöstä ja luo monimutkaisia identiteettivarkauksia näiden tietojen perusteella.
Nimetön 3 2
  • Poliittinen turvallisuus: elämme myrskyisinä aikoina valeuutisten ja petollisten tallenteiden pelko on aivan perusteltua. Tekoäly voi aiheuttaa paljon vahinkoa automatisoiduilla disinformaatiokampanjoilla, mikä voi olla erittäin vaarallista vaalien aikana.

Lopuksi voimme kysyä itseltämme, kuinka paljon vahinkoa tekoäly voi aiheuttaa meille ja voiko siitä olla enemmän haittaa kuin hyötyä ihmiskunnalle.

Asiantuntijat toteavat, että eettisellä kehityksellä ja sääntelyelimillä on tärkeä rooli tekoälyn elämäämme mahdollisesti aiheuttamien haittojen lieventämisessä. Tapahtuipa mitä tahansa, olemme varmoja, että sillä on valtava vaikutus maailmaamme tulevaisuudessa.

Kehittyneisiin tekoälyprotokolliin perustuva puheentunnistusohjelmisto on jo käytössä, ja se tuo monia etuja yritysmaailmaan: työnkulku on nopeampaa ja yksinkertaisempaa. Gglot on suuri toimija tällä alalla ja panostamme voimakkaasti teknologiamme kehittämiseen.