Potentiële risico's van kunstmatige intelligentie

Wat zijn enkele mogelijke risico's van kunstmatige intelligentie?

Kunstmatige intelligentie, of de AI zoals het ook vaak wordt genoemd, is een onderwerp dat de afgelopen tien jaar veel is besproken. Het ontwikkelt zich snel, waardoor de workflow van de meeste bedrijven eenvoudiger en efficiënter wordt. Zelfs in het dagelijkse leven van veel mensen heeft AI een groot potentieel getoond en wordt het al in veel verschillende apps geïmplementeerd, waardoor het leven gemakkelijker en minder gecompliceerd wordt. AI heeft ons veel voordelen opgeleverd en de wetenschap maakt de weg vrij voor nog veel meer, dus het is veilig om te zeggen dat AI in de toekomst onmisbaar zal zijn, als het dat al niet is.

Maar net zoals elke medaille twee kanten heeft, heeft AI dat ook. Deze technologie brengt ook veel potentiële risico's en nadelen met zich mee. Veel experts en technische meesterbreinen van onze tijd uiten hun bezorgdheid over de problemen die AI in de toekomst zou kunnen veroorzaken en daarom moeten we voorzichtig zijn met het aanpakken van deze problemen zolang ze nog kunnen worden verholpen. Wat bedoelen we daarmee?

Er zijn veel dingen die moeten worden overwogen met betrekking tot deze specifieke problemen. In dit artikel zullen we proberen een aantal risico's te beschrijven die de verbluffend snelle ontwikkeling van AI voor onze wereld met zich mee kan brengen en welke maatregelen moeten worden genomen om die voortgang in de goede richting te volgen en te begeleiden.

1. Banen

Zonder titel 1 3

We zijn er zeker van dat iedereen al de gelegenheid heeft gehad om te horen of te lezen over de mogelijke traktatie die machines en automatisering kunnen bieden op oude, menselijke werkplekken. Sommige mensen kunnen in verschillende mate bang zijn dat machines hun baan stelen. Die angst is misschien gegrond, baanautomatisering is voor veel mensen een groot risico: ongeveer 25% van de Amerikanen zou zijn baan kunnen verliezen omdat machines ze op een gegeven moment zullen kunnen vervangen. Vooral laagbetaalde functies lopen gevaar waarin iemand repetitieve taken uitvoert, zoals banen in de administratie of de horeca. Maar zelfs sommige universitair afgestudeerden lopen risico, geavanceerde algoritmen voor machine learning kunnen ze misschien vervangen in sommige complexe werkposities omdat ze steeds verfijnder worden, vooral door het gebruik van neurale netwerken en deep learning.

Maar we kunnen niet echt zeggen dat robots mensen volledig van de arbeidsmarkt zullen verdrijven. Werknemers zullen zich eenvoudig moeten aanpassen, zichzelf moeten opleiden en een manier moeten vinden om te werken door samen te werken met AI, waarbij ze optimaal gebruik moeten maken van de efficiëntie en mechanische logica ervan. AI is nog niet perfect, het is bijvoorbeeld niet in staat om een oordeel te vellen, dus de menselijke factor zal nog steeds doorslaggevend zijn bij het werken naast machines.

Er is veel op AI gebaseerde technologie die gebruikmaakt van geautomatiseerde oplossingen die moeten worden getraind en deze training is afhankelijk van menselijke input. Een goed voorbeeld hiervan zijn machinevertalingen die input halen uit een groot aantal door mensen gegenereerde vertalingen. Een ander goed voorbeeld is transcriptiesoftware die de trainingsgegevens haalt uit nauwkeurige transcripties die zijn uitgevoerd door professionele menselijke transcribenten. Op deze manier wordt de software beetje bij beetje verbeterd en worden de algoritmen verfijnd aan de hand van voorbeelden uit de praktijk. Menselijke transcribenten hebben baat bij de software omdat het hen helpt om transcripties sneller te maken. De software genereert een ruwe conceptversie van het transcript, die vervolgens wordt bewerkt en gecorrigeerd door de transcriber. Dit scheelt veel tijd en betekent dat het uiteindelijke product uiteindelijk sneller en nauwkeuriger wordt geleverd.

2. Het probleem van vooringenomenheid

Het mooie van algoritmen is dat ze altijd eerlijke, niet-vooringenomen beslissingen nemen, in schril contrast met subjectieve en emotionele mensen. Of doen ze? De waarheid is dat het besluitvormingsproces van geautomatiseerde software afhangt van de gegevens waarop ze zijn getraind. Er is dus een risico op discriminatie in gevallen waarin bijvoorbeeld een bepaald deel van de bevolking niet voldoende vertegenwoordigd is in de gebruikte gegevens. Gezichtsherkenningssoftware wordt al onderzocht voor sommige van deze problemen, er zijn al gevallen van vertekening opgetreden.

Een goed voorbeeld van hoe bevooroordeeld de kunstmatige intelligentie kan zijn, is COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Dit is een hulpmiddel voor het beoordelen van risico's en behoeften om het recidiverisico onder daders te voorspellen. Deze op algoritmen gebaseerde tool werd onderzocht en de resultaten hebben aangetoond dat de COMPAS-gegevens ernstig raciaal bevooroordeeld waren. Volgens de gegevens hadden Afrikaans-Amerikaanse beklaagden bijvoorbeeld meer kans om ten onrechte te worden beoordeeld als een hoger risico op recidive dan andere rassen. Het algoritme maakte ook de tegenovergestelde fout bij mensen van blank ras.

Dus wat is er hier gebeurd? Het algoritme is gegevensafhankelijk, dus als de gegevens vertekend zijn, zal de software waarschijnlijk ook vertekende resultaten geven. Soms heeft het ook iets te maken met hoe de gegevens zijn verzameld.

Geautomatiseerde spraakherkenningstechnologie kan ook vertekend zijn, afhankelijk van geslacht of ras, omdat trainingsgegevens niet noodzakelijkerwijs worden geselecteerd op basis van materie die voor voldoende inclusiviteit zou zorgen.

3. Veiligheidsproblemen

Zonder titel 2 2

Er zijn enkele problemen met kunstmatige intelligentie die zo gevaarlijk zijn dat ze tot ongelukken kunnen leiden. Een van de meer prominente voorbeelden van toegepaste AI-technologie is de zelfrijdende auto. Veel experts zijn van mening dat dit de toekomst van transport is. Maar het belangrijkste dat de onmiddellijke implementatie van zelfrijdende auto's in het verkeer belemmert, zijn de storingen die het leven van passagiers en voetgangers in gevaar kunnen brengen. De discussie over de dreiging die autonome voertuigen op de weg zouden kunnen vormen, is nog steeds zeer actueel. Er zijn mensen die denken dat er minder ongelukken zouden kunnen gebeuren als zelfrijdende auto's de weg op zouden mogen. Aan de andere kant zijn er onderzoeken die hebben aangetoond dat ze veel crashes kunnen veroorzaken, omdat veel van hun acties gebaseerd zijn op de voorkeuren die door de bestuurder zijn ingesteld. Nu is het aan de ontwerpers om te kiezen tussen veiligheid en het leven van mensen en de voorkeuren van de berijder (zoals gemiddelde snelheid en enkele andere rijgewoonten). Het belangrijkste doel van zelfrijdende auto's zou in ieder geval het terugdringen van auto-ongelukken moeten zijn, door de implementatie van efficiënte AI-algoritmen en geavanceerde sensoren die mogelijke verkeersscenario's kunnen detecteren en zelfs voorspellen. Het echte leven is echter altijd ingewikkelder dan welk programma dan ook, dus de beperkingen van deze technologie zijn nog steeds een van de beperkende factoren voor de wijdverbreide implementatie ervan. Een ander probleem is de factor vertrouwen. Voor veel mensen met jarenlange rijervaring kan het vertrouwen in digitale handen worden gezien als een symbolische capitulatie voor digitale trends. In ieder geval, totdat dit allemaal is opgelost, zijn er al enkele geavanceerde technologische oplossingen geïmplementeerd in nieuwere auto's en kunnen menselijke chauffeurs profiteren van verschillende sensoren, ondersteunde remoplossingen en cruise control.

4. Kwaadaardige doeleinden

Technologie moet in de behoeften van mensen voorzien en worden gebruikt om hun leven gemakkelijker en aangenamer te maken en het zou ieders kostbare tijd moeten besparen. Maar soms wordt AI-technologie ook gebruikt voor kwaadaardige doeleinden, op een manier die een aanzienlijk risico vormt voor onze fysieke, digitale en politieke veiligheid.

  • Fysieke beveiliging: een mogelijk risico van AI, dat in eerste instantie behoorlijk dramatisch klinkt en je tot op je botten kan doen afkoelen, is een potentiële oorlog tussen technologisch geavanceerde landen, uitgevoerd door autonome wapensystemen die zijn geprogrammeerd om op de meest efficiënte en meedogenloze manier te doden. Daarom is het buitengewoon belangrijk om de ontwikkeling van dergelijke militaire technologie te reguleren door middel van verdragen, voorschriften en sancties, om de mensheid te beschermen tegen het onheilspellende risico van op AI gebaseerde oorlogsvoering.
  • Digitale beveiliging: Hackers vormen al een bedreiging voor onze digitale veiligheid en AI-software wordt al gebruikt voor geavanceerde hacking. Met de ontwikkeling van dergelijke software zullen hackers efficiënter zijn in hun misdaden en wordt onze online identiteit kwetsbaarder voor diefstal. De privacy van uw persoonlijke gegevens kan nog meer worden aangetast door subtiele malware, mogelijk gemaakt door AI en nog gevaarlijker gemaakt door het gebruik van deep learning. Stel je een digitale dief voor, die achter je favoriete programma's op de loer ligt, elke dag sluwer wordt, lerend van miljoenen praktijkvoorbeelden van softwaregebruik en complexe identiteitsdiefstallen bedenkt op basis van die gegevens.
Zonder titel 3 2
  • Politieke veiligheid: in de turbulente tijden waarin we leven, is de angst voor nepnieuws en frauduleuze opnames terecht. AI zou veel schade kunnen aanrichten door geautomatiseerde desinformatiecampagnes, die tijdens verkiezingen extreem gevaarlijk kunnen zijn.

Tot slot kunnen we ons afvragen hoeveel schade kunstmatige intelligentie ons kan aanrichten en kan het de mensheid meer kwaad dan goed doen.

Deskundigen stellen dat ethische ontwikkeling en regelgevende instanties een belangrijke rol zullen spelen als het gaat om het verminderen van de nadelen die kunstmatige intelligentie in ons leven kan veroorzaken. Wat er ook gebeurt, we zijn er zeker van dat het in de toekomst een enorme impact zal hebben op onze wereld.

Spraakherkenningssoftware, gebaseerd op geavanceerde AI-protocollen, wordt al gebruikt en biedt veel voordelen voor de zakenwereld: workflows zijn sneller en eenvoudiger. Gglot is een grote speler op dit gebied en we investeren fors in de verdere ontwikkeling van onze technologie.