Potentiella risker för artificiell intelligens

Vad är några potentiella risker med artificiell intelligens?

Artificiell intelligens, eller AI som det också ofta kallas för, är ett ämne som har diskuterats mycket under det senaste decenniet. Den utvecklas snabbt, vilket gör arbetsflödet för de flesta företag enklare och effektivare. Även i vardagslivet hos många människor har AI visat stor potential och implementeras redan i många olika appar, vilket gör livet enklare och mindre komplicerat. AI har gett oss många fördelar och vetenskapen banar väg för mycket mer att komma, så det är säkert att säga att AI kommer att vara oumbärlig i framtiden, om det inte redan är det.

Men precis som varje medalj har två sidor, så gör AI det också. Denna teknik har också många potentiella risker och nackdelar. Många experter och tekniska hjärnor från vår tid uttrycker sin oro över de problem som AI kan orsaka i framtiden och därför måste vi vara försiktiga med att ta itu med dessa frågor medan de fortfarande kan korrigeras. Vad menar vi med det?

Det finns många saker som måste övervägas när det gäller just dessa frågor. I den här artikeln kommer vi att försöka beskriva några av de risker som den bländande snabba utvecklingen av AI kan medföra i vår värld och vilka åtgärder som måste vidtas för att övervaka och styra dessa framsteg i rätt riktning.

1. Jobb

Namnlös 1 3

Vi är säkra på att alla redan har haft möjlighet att höra eller läsa om den potentiella godis som maskiner och automatisering kan ge för gamla skolor, mänskliga arbetsplatser. Vissa människor kan drabbas av olika ångest för att maskiner stjäl sina jobb. Den rädslan kan vara välgrundad, jobbautomation är en stor risk för många människor: cirka 25% av amerikanerna kan förlora sitt jobb för att någon gång kommer maskiner att kunna ersätta dem. Särskilt i fara är låglönepositioner där en person utför repetitiva uppgifter, som jobb inom administration eller matservice. Men även vissa universitetskandidater är i riskzonen, avancerade maskininlärningsalgoritmer kan kanske ersätta dem i vissa komplexa arbetspositioner eftersom de blir mer förfinade, särskilt genom användning av neurala nätverk och djupinlärning.

Men vi kan inte riktigt säga att robotar helt kommer att driva ut människor från arbetsmarknaden. Anställda måste helt enkelt anpassa sig, utbilda sig och hitta ett sätt att arbeta genom att samarbeta med AI och utnyttja dess effektivitet och mekaniska logik på bästa möjliga sätt. AI är fortfarande inte perfekt, till exempel är det inte möjligt att ringa dom, så den mänskliga faktorn kommer fortfarande att vara avgörande när man arbetar tillsammans med maskiner.

Det finns en hel del AI-baserad teknik som använder automatiserade lösningar som behöver utbildas och denna utbildning beror på mänsklig insats. Ett bra exempel för detta är maskinöversättningar som får input från ett stort antal mänskliga genererade översättningar. Ett annat bra exempel är transkriptionsprogramvara som får träningsdata från exakta transkriptioner gjorda av professionella mänskliga transkriberare. På det här sättet förbättras programvaran lite efter lite och förädlar dess algoritmer genom exempel på verkliga livet. Mänskliga transkriberare drar nytta av programvaran eftersom det hjälper dem att göra transkriptioner snabbare. Programvaran genererar en grov utkastversion av transkriptet, som sedan redigeras och korrigeras av transkriberaren. Detta sparar mycket tid och innebär att slutprodukten i slutändan kommer att levereras snabbare och blir mer exakt.

2. Problemet med partiskhet

En bra sak med algoritmer är att de alltid tar rättvisa, partiska beslut, i skarp kontrast till subjektiva och emotionella människor. Eller gör de det? Sanningen är att beslutsprocessen för automatiserad programvara beror på vilken information de har tränat på. Det finns alltså en risk för diskriminering vid tillfällen då till exempel en viss del av befolkningen inte är tillräckligt representerad i de använda uppgifterna. Program för ansiktsigenkänning undersöks redan för några av dessa problem, fall av fördomar har redan inträffat.

Ett bra exempel på hur partisk artificiell intelligens kan vara är COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Detta är ett verktyg för bedömning av risker och behov för att förutsäga risken för återfall bland brottslingar. Detta algoritmbaserade verktyg undersöktes och resultaten har visat att COMPAS-data var allvarligt rasistiska. Till exempel, enligt uppgifterna, var det mer sannolikt att afroamerikanska anklagade felaktigt bedömdes ha högre risk för återfall än andra raser. Algoritmen tenderade också att göra det motsatta misstaget med människor av vit ras.

Så, vad hände här? Algoritmen är databeroende, så om data är partiska kommer programvaran sannolikt också att ge partiska resultat. Ibland har det också något att göra med hur uppgifterna samlades in.

Automatiserad teknik för taligenkänning kan också vara partisk beroende på kön eller ras på grund av att träningsdata inte nödvändigtvis väljs i frågor som skulle säkerställa tillräcklig inkludering.

3. Säkerhetsproblem

Namnlös 2 2

Det finns några problem med artificiell intelligens som är så farliga att de kan leda till olyckor. Ett av de mer framträdande exemplen på tillämpad AI-teknik är den självkörande bilen. Många experter tror att detta är transportens framtid. Men det viktigaste som hindrar det omedelbara införandet av självkörande bilar i trafiken är dess funktionsstörningar som kan äventyra passagerarnas och fotgängares liv. Debatten om hotet som autonoma fordon kan utgöra på vägarna är fortfarande mycket aktuell. Det finns människor som tror att det kan bli färre olyckor om självkörande bilar tillåts på vägen. Å andra sidan finns det studier som har visat att de kan orsaka massor av kraschar, eftersom många av deras handlingar kommer att baseras på de inställningar som föraren har ställt in. Nu är det upp till konstruktörerna att välja mellan säkerhet och människors liv och förarens preferenser (som medelhastighet och andra körvanor). Huvudmålet för självkörande bilar bör i alla fall vara minskningen av bilolyckor genom implementering av effektiva AI-algoritmer och avancerade sensorer som kan upptäcka och till och med förutsäga eventuella trafikscenarier. Det verkliga livet är dock alltid mer komplicerat än alla program, så begränsningarna av denna teknik är fortfarande en av de begränsande faktorerna för dess omfattande implementering. Ett annat problem är förtroendefaktorn. För många människor med många års erfarenhet av att köra, kan allt förtroende i digitala händer ses som en handling av symbolisk kapitulation till digitala trender. Hur som helst, tills allt detta har lösts, har vissa avancerade tekniska lösningar redan implementerats i nyare bilar, och mänskliga förare kan dra nytta av olika sensorer, assisterade bromslösningar och farthållare.

4. Skadliga syften

Teknik bör tjäna människors behov och användas för att göra deras liv enklare, roligare och det bör spara allas dyrbara tid. Men ibland har AI-teknik också använts för skadliga ändamål, på ett sätt som utgör en betydande risk för vår fysiska, digitala och politiska säkerhet.

  • Fysisk säkerhet: En potentiell risk för AI, som låter ganska dramatisk till en början och kan kyla dig till dina ben är ett potentiellt krig mellan tekniskt avancerade länder, utfört av autonoma vapensystem som är programmerade att döda på det mest effektiva och hänsynslösa sättet. Det är därför det är oerhört viktigt att reglera utvecklingen av sådan militär teknik genom fördrag, förordningar och sanktioner för att skydda mänskligheten från den allvarliga risken för AI-baserad krigföring.
  • Digital säkerhet: Hackare är redan ett hot mot vår digitala säkerhet och AI-programvara används redan för avancerad hacking. Med utvecklingen av sådan programvara kommer hackare att bli effektivare i sina gärningar och vår online-identitet kommer att vara mer utsatt för stöld. Sekretessen för dina personuppgifter kan äventyras ännu mer genom subtil skadlig programvara, drivs av AI och görs ännu farligare genom användning av djupinlärning. Föreställ dig en digital tjuv som lurar på baksidan av dina favoritprogram, blir mer listig dag för dag, lär dig av miljoner verkliga exempel på programvaran och skapar komplexa identitetsstölder baserade på den informationen.
Namnlös 3 2
  • Politisk säkerhet: i de turbulenta tider vi lever i är rädslan för falska nyheter och bedrägliga inspelningar rättfärdigade. AI kan göra mycket skada genom automatiserade desinformationskampanjer, vilket kan vara extremt farligt under valet.

Så för att avsluta kan vi fråga oss själva hur mycket skada artificiell intelligens kan göra för oss och kan den göra mer skada än nytta för mänskligheten.

Experter säger att etiska utvecklings- och tillsynsorgan kommer att spela en viktig roll när det gäller att mildra de nackdelar som artificiell intelligens kan orsaka våra liv. Oavsett vad som händer är vi säkra på att det kommer att få en enorm inverkan på vår värld i framtiden.

Taligenkänningsprogramvara, baserat på avancerade AI-protokoll, används redan och det ger många fördelar för näringslivet: arbetsflöden är snabbare och enklare. Gglot är en stor aktör inom detta område och vi investerar kraftigt i att utveckla vår teknik ytterligare.