Potensielle risikoer ved kunstig intelligens
Hva er noen potensielle risikoer ved kunstig intelligens?
Kunstig intelligens, eller AI som det også ofte omtales, er et tema som har blitt diskutert mye det siste tiåret. Den utvikler seg raskt, noe som gjør arbeidsflyten til de fleste virksomheter enklere og mer effektiv. Selv i hverdagen til mange mennesker har AI vist stort potensial og blir allerede implementert i mange forskjellige apper, noe som gjør livet enklere og mindre komplisert. AI har gitt oss mange fordeler, og vitenskapen baner vei for mye mer som kommer, så det er trygt å si at AI vil være uunnværlig i fremtiden, hvis det ikke allerede er det.
Men akkurat som hver medalje har to sider, har AI det også. Denne teknologien kommer også med mange potensielle risikoer og ulemper. Mange eksperter og tekniske masterminds i vår tid uttrykker sine bekymringer over problemene AI kan forårsake i fremtiden, og derfor må vi være forsiktige med å løse disse problemene mens de fortsatt er i stand til å bli rettet. Hva mener vi med det?
Det er mange ting som må vurderes i forhold til disse spesielle problemene. I denne artikkelen vil vi prøve å beskrive noen av risikoene som den blendende raske utviklingen av kunstig intelligens kan føre til vår verden, og hvilke tiltak som må tas for å overvåke og lede fremgangen i riktig retning.
1. Jobber
Vi er sikre på at alle allerede har hatt muligheten til å høre eller lese om den potensielle godbiten som maskiner og automatisering kan by på for gammeldagse, menneskebaserte arbeidsplasser. Noen mennesker kan lide av ulike grader av angst for maskiner som stjeler jobben deres. Denne frykten kan være velbegrunnet, jobbautomatisering er en stor risiko for mange mennesker: Omtrent 25 % av amerikanerne kan miste jobben fordi maskiner på et tidspunkt vil kunne erstatte dem. Spesielt utsatt er lavlønnsstillinger der en person utfører repeterende oppgaver, som jobber i administrasjon eller matservering. Men selv noen universitetsutdannede er i faresonen, avanserte maskinlæringsalgoritmer kan kanskje erstatte dem i noen komplekse arbeidsstillinger fordi de blir mer raffinerte, spesielt gjennom bruk av nevrale nettverk og dyp læring.
Men vi kan egentlig ikke si at roboter helt vil presse ut mennesker fra arbeidsmarkedet. Ansatte må ganske enkelt justere, utdanne seg og finne en måte å jobbe på ved å samarbeide med AI, og utnytte effektiviteten og den mekaniske logikken best mulig. AI er fortsatt ikke perfekt, for eksempel er den ikke i stand til å foreta dømmekraft, så den menneskelige faktoren vil fortsatt være avgjørende når du arbeider ved siden av maskiner.
Det er mye AI-basert teknologi som bruker automatiserte løsninger som må trenes, og denne opplæringen avhenger av menneskelig innspill. Et godt eksempel på dette er maskinoversettelser som får input fra et stort antall menneskeskapte oversettelser. Et annet godt eksempel er transkripsjonsprogramvare som henter treningsdataene fra nøyaktige transkripsjoner utført av profesjonelle menneskelige transkriberere. På denne måten blir programvaren forbedret litt etter litt, og forbedrer algoritmene gjennom eksempler fra det virkelige liv. Menneskelige transkriberere drar nytte av programvaren fordi den hjelper dem å gjøre transkripsjoner raskere. Programvaren genererer en grov utkastversjon av transkripsjonen, som deretter redigeres og korrigeres av transkriberen. Dette sparer mye tid, og gjør at sluttproduktet til slutt blir levert raskere og blir mer nøyaktig.
2. Problemet med skjevhet
En flott ting med algoritmer er at de alltid tar rettferdige, ikke-partiske beslutninger, i skarp kontrast til subjektive og emosjonelle mennesker. Eller gjør de det? Sannheten er at beslutningsprosessen for all automatisert programvare avhenger av dataene de har blitt trent på. Så det er en risiko for diskriminering i tilfeller der for eksempel et visst segment av befolkningen ikke er representert nok i de brukte dataene. Ansiktsgjenkjenningsprogramvare blir allerede undersøkt for noen av disse problemene, tilfeller av skjevhet har allerede oppstått.
Et godt eksempel på hvor partisk den kunstige intelligensen kan være, er COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Dette er et risiko-og-behovsvurderingsverktøy for å forutsi tilbakefallsrisiko blant lovbrytere. Dette algoritmebaserte verktøyet ble undersøkt og resultater har vist at COMPAS-dataene var alvorlig rasistisk partisk. For eksempel, ifølge dataene, var det mer sannsynlig at afroamerikanske tiltalte ble feilaktig bedømt til å ha høyere risiko for tilbakefall enn andre raser. Algoritmen hadde også en tendens til å gjøre den motsatte feilen med mennesker av hvit rase.
Så, hva skjedde her? Algoritmen er dataavhengig, så hvis dataene er partiske, vil programvaren sannsynligvis også gi partiske resultater. Noen ganger har det også noe å gjøre med hvordan dataene ble samlet inn.
Automatisert talegjenkjenningsteknologi kan også være forutinntatt avhengig av kjønn eller rase på grunn av det faktum at treningsdata ikke nødvendigvis velges i materie som vil sikre nok inkluderendehet.
3. Sikkerhetshensyn
Det er noen problemer med kunstig intelligens som er så farlige at de kan føre til ulykker. Et av de mer fremtredende eksemplene på anvendt AI-teknologi er den selvkjørende bilen. Mange eksperter mener at dette er fremtidens transport. Men det viktigste som hindrer den umiddelbare implementeringen av selvkjørende biler i trafikken er funksjonsfeilene som kan sette livet til passasjerer og fotgjengere i fare. Debatten om trusselen som autonome kjøretøy kan utgjøre på veiene er fortsatt svært aktuell. Det er folk som tror at det kan bli færre ulykker dersom selvkjørende biler ble tillatt på veien. På den annen side er det studier som har vist at de kan forårsake mange krasj, fordi mange av handlingene deres vil være basert på preferansene satt av sjåføren. Nå er det opp til designerne å velge mellom sikkerhet og folks liv og førerpreferanser (som gjennomsnittshastighet og noen andre kjørevaner). Hovedmålet med selvkjørende biler bør uansett være reduksjon av bilulykker, gjennom implementering av effektive AI-algoritmer og avanserte sensorer som kan oppdage og til og med forutsi eventuelle trafikkscenarier. Imidlertid er det virkelige liv alltid mer komplisert enn et hvilket som helst program, så begrensningene til denne teknologien er fortsatt en av de begrensende faktorene for dens utbredte implementering. Et annet problem er tillitsfaktoren. For mange mennesker med mange års kjøreerfaring, kan det å sette all tillit i digitale hender bli sett på som en symbolsk kapitulasjon for digitale trender. Uansett, inntil alt dette er løst, er noen avanserte teknologiske løsninger allerede implementert i nyere biler, og menneskelige sjåfører kan dra nytte av ulike sensorer, assisterte bremseløsninger og cruisekontroller.
4. Ondsinnede formål
Teknologi skal tjene folks behov og brukes til å gjøre livet deres enklere, morsommere og det skal spare alles dyrebare tid. Men noen ganger har AI-teknologi også blitt brukt til ondsinnede formål, på en måte som utgjør en betydelig risiko for vår fysiske, digitale og politiske sikkerhet.
- Fysisk sikkerhet: En potensiell risiko ved AI, som høres ganske dramatisk ut til å begynne med og som kan kjøle deg ned til beinet, er en potensiell krig mellom teknologisk avanserte land, utført av autonome våpensystemer programmert til å drepe på den mest effektive og hensynsløse måten. Dette er grunnen til at det er ekstremt viktig å regulere utviklingen av slik militær teknologi gjennom traktater, forskrifter og sanksjoner, for å beskytte menneskeheten mot den illevarslende risikoen for AI-basert krigføring.
- Digital sikkerhet: Hackere er allerede en trussel mot vår digitale sikkerhet, og AI-programvare brukes allerede til avansert hacking. Med utviklingen av slik programvare vil hackere være mer effektive i sine ugjerninger og vår online identitet vil være mer sårbar for tyveri. Personvernet til dine personlige data kan bli kompromittert enda mer gjennom subtil skadelig programvare, drevet av AI og gjort enda farligere gjennom bruk av dyp læring. Se for deg en digital tyv, som lurer bak i favorittprogrammene dine, blir mer utspekulert dag for dag, lærer av millioner av virkelige eksempler på programvarebruk og lager komplekse identitetstyverier basert på disse dataene.
- Politisk trygghet: i den turbulente tiden vi lever i, er frykten for falske nyheter og svindelopptak ganske berettiget. AI kan gjøre mye skade av automatiserte desinformasjonskampanjer, som kan være ekstremt farlige under valg.
Så for å konkludere, kan vi spørre oss selv hvor mye skade kunstig intelligens kan gjøre for oss og kan den gjøre mer skade enn godt for menneskeheten.
Eksperter uttaler at etisk utvikling og reguleringsorganer vil spille en stor rolle når det gjelder å redusere ulempene som kunstig intelligens kan forårsake for livene våre. Uansett hva som skjer, er vi sikre på at det vil ha en enorm innvirkning på vår verden i fremtiden.
Talegjenkjenningsprogramvare, basert på avanserte AI-protokoller, er allerede i bruk, og det gir mange fordeler til forretningsverdenen: arbeidsflyter er raskere og enklere. Gglot er en stor aktør på dette feltet og vi investerer mye i å utvikle teknologien vår videre.