Potentielle risici ved kunstig intelligens

Hvad er nogle potentielle risici ved kunstig intelligens?

Kunstig intelligens, eller AI, som det også ofte omtales, er et emne, der er blevet diskuteret meget i det sidste årti. Det udvikler sig hurtigt, hvilket gør arbejdsgangen i de fleste virksomheder lettere og mere effektiv. Selv i mange menneskers hverdag har AI vist et stort potentiale og implementeres allerede i mange forskellige apps, hvilket gør livet lettere og mindre kompliceret. AI har medført mange fordele for os, og videnskaben baner vejen for meget mere, så det er sikkert at sige, at AI vil være uundværlig i fremtiden, hvis det ikke allerede er tilfældet.

Men ligesom hver medalje har to sider, gør AI det også. Denne teknologi har også mange potentielle risici og ulemper. Mange eksperter og tekniske hjerner fra vores tid udtrykker deres bekymringer over de problemer, som AI kan forårsage i fremtiden, og derfor skal vi være forsigtige med at løse disse problemer, mens de stadig er i stand til at blive rettet. Hvad mener vi med det?

Der er mange ting, der skal overvejes med hensyn til disse særlige problemer. I denne artikel vil vi forsøge at beskrive nogle af de risici, som den blændende hurtige udvikling af AI kan medføre i vores verden, og hvilken foranstaltning der skal træffes for at overvåge og styre disse fremskridt i den rigtige retning.

1. Job

Uden titel 13

Vi er sikre på, at alle allerede har haft mulighed for at høre eller læse om den potentielle godbid, som maskiner og automatisering kan give til gamle skole, menneskelige arbejdspladser. Nogle mennesker kan lide af forskellige grader af angst for maskiner, der stjæler deres job. Denne frygt kan være velbegrundet, jobautomatisering er en stor risiko for mange mennesker: ca. 25% af amerikanerne mister muligvis deres job, fordi maskiner på et tidspunkt kan erstatte dem. Især i fare er lavtlønnsstillinger, hvor en person udfører gentagne opgaver, såsom job inden for administration eller mad-service. Men selv nogle universitetsuddannede er i fare, avancerede maskinindlæringsalgoritmer kan muligvis erstatte dem i nogle komplekse arbejdsstillinger, fordi de bliver mere raffinerede, især ved brug af neurale netværk og dyb læring.

Men vi kan ikke rigtig sige, at robotter helt vil skubbe mennesker ud af jobmarkedet. Medarbejdere bliver simpelthen nødt til at tilpasse sig, uddanne sig selv og finde en måde at arbejde på ved at samarbejde med AI for at gøre den bedst mulige brug af dens effektivitet og mekaniske logik. AI er stadig ikke perfekt, for eksempel er det ikke i stand til at foretage dømmekald, så den menneskelige faktor vil stadig være afgørende, når man arbejder sammen med maskiner.

Der er en masse AI-baseret teknologi, der bruger automatiserede løsninger, der skal trænes, og denne træning afhænger af menneskelig input. Et godt eksempel på dette er maskinoversættelser, som får input fra et stort antal menneskeskabte oversættelser. Et andet godt eksempel er transkriptionssoftware, der får træningsdataene fra nøjagtige transkriptioner udført af professionelle menneskelige transkriberere. På denne måde forbedres softwaren lidt efter lidt og forbedrer dens algoritmer gennem eksempler fra det virkelige liv. Menneskelige transkriberere drager fordel af softwaren, fordi det hjælper dem med at gøre udskrifter hurtigere. Softwaren genererer en grov kladdeversion af udskriften, som derefter redigeres og korrigeres af transkriberingen. Dette sparer meget tid og betyder, at det endelige produkt til sidst vil blive leveret hurtigere og bliver mere præcist.

2. Problemet med bias

En god ting ved algoritmer er, at de altid træffer retfærdige, ikke-partiske beslutninger i skarp kontrast til subjektive og følelsesmæssige mennesker. Eller gør de det? Sandheden er, at beslutningsprocessen for enhver automatiseret software afhænger af de data, de er blevet undervist i. Så der er risiko for diskrimination i lejligheder, hvor f.eks. Et bestemt segment af befolkningen ikke er repræsenteret nok i de anvendte data. Ansigtsgenkendelsessoftware er allerede ved at blive undersøgt for nogle af disse problemer, der er allerede sket tilfælde af bias.

Et godt eksempel på hvor partisk den kunstige intelligens kan være, er COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Dette er et værktøj til vurdering af risiko og behov til forudsigelse af tilbagevendende risiko blandt lovovertrædere. Dette algoritmebaserede værktøj blev undersøgt, og resultaterne har vist, at COMPAS-dataene var alvorligt racefordrevne. For eksempel, ifølge dataene, var afroamerikanske tiltalte mere tilbøjelige til at blive bedømt forkert for at have en højere risiko for tilbagevenden end andre racer. Algoritmen havde også en tendens til at begå den modsatte fejl med folk af hvidt race.

Så hvad skete der her? Algoritmen er dataafhængig, så hvis dataene er partiske, vil softwaren sandsynligvis også give partiske resultater. Nogle gange har det også noget at gøre med, hvordan dataene blev indsamlet.

Automatiseret talegenkendelsesteknologi kan også være forudindtaget afhængigt af køn eller race på grund af det faktum, at træningsdata ikke nødvendigvis er valgt i sager, der ville sikre tilstrækkelig inklusivitet.

3. Sikkerhedsmæssige problemer

Uden titel 2 2

Der er nogle problemer med kunstig intelligens, der er så farlige, at de kan føre til ulykker. Et af de mere fremtrædende eksempler på anvendt AI-teknologi er den selvkørende bil. Mange eksperter mener, at dette er fremtiden for transport. Men det vigtigste, der hindrer den øjeblikkelige implementering af selvkørende biler i trafikken, er dens funktionsfejl, der kan bringe passagerers og fodgængeres liv i fare. Debatten om den trussel, som autonome køretøjer kan udgøre på vejene, er stadig meget aktuel. Der er mennesker, der tror, at der kunne være færre ulykker, hvis selvkørende biler fik lov til at køre på vejen. På den anden side er der undersøgelser, der har vist, at de kan forårsage mange nedbrud, fordi mange af deres handlinger vil være baseret på de præferencer, der er indstillet af driveren. Nu er det op til designerne at vælge mellem sikkerhed og folks liv og rytterpræferencer (som gennemsnitshastighed og nogle andre kørselsvaner). Hovedmålet med selvkørende biler skal under alle omstændigheder være reduktion af bilulykker gennem implementering af effektive AI-algoritmer og avancerede sensorer, der kan opdage og endda forudsige eventuelle trafikscenarier. Imidlertid er det virkelige liv altid mere kompliceret end ethvert program, så begrænsningerne ved denne teknologi er stadig en af de begrænsende faktorer for dets udbredte implementering. Et andet problem er tillidsfaktoren. For mange mennesker med års og års køreerfaring kan det være en handling med symbolsk kapitulation til digitale tendenser at sætte al tillid i digitale hænder. Under alle omstændigheder, indtil alt dette er løst, er der allerede implementeret nogle avancerede teknologiske løsninger i nyere biler, og menneskelige chauffører kan drage fordel af forskellige sensorer, assisterede bremseløsninger og fartpilot.

4. Ondsindede formål

Teknologi skal tjene folks behov og bruges til at gøre deres liv lettere, sjovere, og det skal spare alles dyrebare tid. Men nogle gange er AI-teknologi også blevet brugt til ondsindede formål på en måde, der udgør en betydelig risiko for vores fysiske, digitale og politiske sikkerhed.

  • Fysisk sikkerhed: En potentiel risiko for AI, der i første omgang lyder ret dramatisk og måske afkøler dig til dine knogler, er en potentiel krig mellem teknologisk avancerede lande udført af autonome våbensystemer programmeret til at dræbe på den mest effektive og hensynsløse måde. Derfor er det ekstremt vigtigt at regulere udviklingen af sådan militær teknologi gennem traktater, regler og sanktioner for at beskytte menneskeheden mod den ildevarslende risiko for AI-baseret krigsførelse.
  • Digital sikkerhed: Hackere er allerede en trussel mod vores digitale sikkerhed, og AI-software bruges allerede til avanceret hacking. Med udviklingen af sådan software vil hackere være mere effektive i deres ugjerninger, og vores online identitet vil være mere sårbar over for tyveri. Privatlivets fred for dine personlige data kan blive kompromitteret endnu mere gennem subtil malware, drevet af AI og gjort endnu farligere ved brug af dyb læring. Forestil dig en digital tyv, der lurer på bagsiden af dine yndlingsprogrammer, bliver mere snedig dag for dag, lær af millioner eksempler på virkeligheden af softwareanvendelse og udform komplekse identitetstyverier baseret på disse data.
Uden titel 3 2
  • Politisk sikkerhed: i de turbulente tider, vi lever i, er frygten for falske nyheder og falske optagelser ret berettiget. AI kan gøre meget skade ved automatiserede desinformationskampagner, som kan være yderst farlige under valg.

Så for at konkludere kan vi spørge os selv, hvor meget skade kunstig intelligens kan gøre for os, og kan den gøre mere skade end gavn for menneskeheden.

Eksperter siger, at etiske udviklings- og reguleringsorganer vil spille en vigtig rolle, når det kommer til at afbøde de ulemper, som kunstig intelligens kan medføre for vores liv. Uanset hvad der sker, er vi sikre på, at det vil have en enorm indflydelse på vores verden i fremtiden.

Talegenkendelsessoftware, der er baseret på avancerede AI-protokoller, bruges allerede, og det giver mange fordele for erhvervslivet: arbejdsgange er hurtigere og enklere. Gglot er en stor spiller inden for dette felt, og vi investerer meget i at udvikle vores teknologi yderligere.