A mesterséges intelligencia lehetséges kockázatai
Melyek a mesterséges intelligencia lehetséges kockázatai?
A mesterséges intelligencia, vagy a mesterséges intelligencia, amire gyakran hivatkoznak, olyan téma, amelyről sokat beszéltek az elmúlt évtizedben. Gyorsan fejlődik, megkönnyítve és hatékonyabbá téve a legtöbb vállalkozás munkafolyamatát. A mesterséges intelligencia sok ember mindennapjaiban is nagy potenciált mutatott, és már számos alkalmazásban megvalósul, megkönnyítve és kevésbé bonyolítva az életet. Az AI számos előnyt hozott számunkra, és a tudomány sokkal több utat nyit meg előttünk, így nyugodtan kijelenthetjük, hogy az AI a jövőben nélkülözhetetlen lesz, ha még nem.
De ahogy minden éremnek két oldala van, ugyanúgy az AI-nek is. Ez a technológia számos lehetséges kockázattal és hátránnyal is jár. Korunk számos szakértője és műszaki ötletgazdája kifejezi aggodalmát az AI által a jövőben esetlegesen felmerülő problémák miatt, ezért körültekintően kell kezelnünk ezeket a problémákat, miközben ezek még javíthatók. Mit értünk ez alatt?
Nagyon sok dolgot kell figyelembe venni e konkrét kérdésekkel kapcsolatban. Ebben a cikkben megpróbálunk leírni néhány kockázatot, amelyet az AI káprázatosan gyors fejlődése jelenthet a világunkban, és milyen intézkedéseket kell hozni annak érdekében, hogy nyomon kövessük és irányítsuk a haladást a megfelelő irányba.
1. Munkák
Biztosak vagyunk abban, hogy mindenkinek volt már lehetősége hallani vagy olvasni a gépek és az automatizálás potenciális csemegéiről a régi iskolai, emberi alapú munkahelyeken. Vannak, akik különböző fokú szorongást szenvedhetnek a munkájukat ellopó gépek miatt. Ez a félelem megalapozott lehet, a munka automatizálása sok ember számára nagy kockázatot jelent: az amerikaiak mintegy 25% -a elveszítheti munkáját, mert egy bizonyos ponton a gépek képesek lesznek pótolni őket. Különösen veszélyeztetettek az alacsony bérű munkakörök, amelyekben egy személy ismétlődő feladatokat lát el, például adminisztrációs vagy étkezési munkákat. Azonban még néhány egyetemi végzettségű is veszélyben van, a fejlett gépi tanulási algoritmusok képesek lehetnek helyettesíteni őket néhány összetett munkakörben, mert egyre finomabbak, különösen az idegi hálózatok és a mély tanulás révén.
De nem igazán mondhatjuk, hogy a robotok teljesen kiszorítják az embereket a munkaerőpiacról. Az alkalmazottaknak egyszerűen alkalmazkodniuk kell, képezniük kell magukat, és meg kell találniuk a munkavégzés módját az AI-vel való együttműködés révén, a lehető legjobban kihasználva annak hatékonyságát és mechanikai logikáját. Az AI még mindig nem tökéletes, például nem képes ítéletet hívni, ezért az emberi tényező továbbra is meghatározó lesz a gépek mellett végzett munkában.
Nagyon sok AI-alapú technológia használ automatizált megoldásokat, amelyeket ki kell képezni, és ez a képzés emberi hozzájáruláson múlik. Jó példa erre a gépi fordítás, amely nagyszámú ember által generált fordításból nyer be információt. Egy másik jó példa az átírási szoftver, amely a képzési adatokat professzionális emberi átírók által végzett pontos átírásokból szerzi be. Így a szoftver apránként tovább fejlődik, valós életpéldákon keresztül finomítja algoritmusait. Az emberi átírók számára előnyös a szoftver, mert segít nekik az átírások gyorsabb elkészítésében. A szoftver elkészíti az átirat durva, vázlatos változatát, amelyet az átíró szerkeszt és javít. Ez sok időt takarít meg, és azt jelenti, hogy a végén a végterméket gyorsabban szállítjuk és pontosabb lesz.
2. Az elfogultság problémája
Az algoritmusok nagyszerű tulajdonsága, hogy mindig tisztességes, elfogulatlan döntéseket hoznak, szemben a szubjektív és érzelmi emberekkel. Vagy nem? Az az igazság, hogy bármely automatizált szoftver döntéshozatali folyamata azoktól az adatoktól függ, amelyekre betanították őket. Tehát fennáll a megkülönböztetés kockázata olyan esetekben, amikor például a népesség egy bizonyos szegmense nincs eléggé képviselve a felhasznált adatokban. Az arcfelismerő szoftvert már vizsgálják e problémák egy része miatt, elfogultsági esetek már előfordultak.
Az egyik nagyszerű példa arra, hogy a mesterséges intelligencia mennyire lehet elfogult, a COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Ez egy kockázat-és szükségletértékelő eszköz az elkövetők körében a bűnismétlés kockázatának előrejelzéséhez. Ezt az algoritmuson alapuló eszközt megvizsgálták, és az eredmények azt mutatták, hogy a COMPAS adatai faji szempontból súlyosan elfogultak voltak. Például az adatok szerint az afro-amerikai vádlottakról vélhetően tévesen ítélték meg úgy, hogy nagyobb a visszaesés kockázata, mint más fajoknál. Az algoritmus ellentétes hibát követett el a fehér fajú embereknél is.
Mi történt itt? Az algoritmus adatfüggő, így ha az adatok elfogultak, akkor a szoftver valószínűleg elfogult eredményeket is ad. Néha annak is köze van az adatok gyűjtéséhez.
Az automatizált beszédfelismerési technológia nemtől vagy fajtól függően is elfogult lehet, mivel az edzésadatokat nem feltétlenül választják ki olyan anyagokban, amelyek biztosítanák a kellő befogadhatóságot.
3. Biztonsági aggályok
A mesterséges intelligenciával kapcsolatban vannak olyan problémák, amelyek annyira veszélyesek, hogy balesethez vezethetnek. Az alkalmazott mesterséges intelligencia-technológia egyik kiemelkedőbb példája az önvezető autó. Sok szakértő úgy véli, hogy ez a szállítás jövője. De a legfontosabb dolog, amely akadályozza az önvezető autók azonnali forgalomba hozatalát, azok működési zavarai, amelyek veszélyeztethetik az utasok és a gyalogosok életét. A vita arról a fenyegetésről, amelyet az autonóm járművek jelenthetnek az utakon, még mindig nagyon aktuális. Vannak emberek, akik úgy gondolják, hogy kevesebb baleset történhet, ha önvezető autókat engednek az útra. Másrészt vannak olyan tanulmányok, amelyek kimutatták, hogy sok összeomlást okozhatnak, mert sok műveletük az illesztőprogram által megadott preferenciákon fog alapulni. Most a tervezőknek kell választaniuk a biztonság, az emberek élete és a versenyzői preferenciák (például az átlagos sebesség és néhány más vezetési szokás) között. Az önvezető autók fő céljának mindenképpen az autóbalesetek csökkentésének kell lennie, hatékony AI-algoritmusok és fejlett szenzorok alkalmazásával, amelyek képesek észlelni és akár megjósolni az esetleges forgalmi forgatókönyveket. A valós élet azonban mindig bonyolultabb, mint bármelyik program, így ennek a technológiának a korlátai továbbra is az egyik korlátozó tényező széles körű megvalósításához. Egy másik probléma a bizalom tényezője. Sok, évekig tartó vezetési gyakorlattal rendelkező ember számára a bizalom digitális kezekbe adása a digitális trendek iránti szimbolikus kapitulációnak tekinthető. Mindenesetre, amíg mindez nem oldódik meg, néhány fejlett technológiai megoldást már megvalósítottak az újabb autókban, és az emberi vezetők számára előnyös lehet a különféle érzékelők, segédfékezési megoldások és sebességtartó automatika.
4. Rosszindulatú célok
A technológiának ki kell szolgálnia az emberek igényeit, és fel kell használni az életük megkönnyítésére, élvezetesebbé tételére, és mindenkinek meg kell spórolnia az értékes időt. De néha az AI technológiát rosszindulatú célokra is alkalmazták, olyan módon, amely jelentős kockázatot jelent fizikai, digitális és politikai biztonságunkra.
- Fizikai biztonság: A mesterséges intelligencia egyik lehetséges kockázata, amely elsőre drámai módon hangzik, és csontokig lehűthet, a technológiailag fejlett országok közötti potenciális háború, amelyet a leghatékonyabb és legkíméletlenebb módon megölni programozott autonóm fegyverrendszerek hajtanak végre. Ezért rendkívül fontos az ilyen haditechnika fejlődését szerződések, rendeletek és szankciók útján szabályozni annak érdekében, hogy az emberiséget megóvjuk az AI-alapú háborúskodás baljós kockázatától.
- Digitális biztonság: A hackerek már veszélyt jelentenek digitális biztonságunkra, és az AI szoftvert már használják a fejlett hackeléshez. Az ilyen szoftverek fejlesztésével a hackerek hatékonyabban fogják elkövetni vétkeiket, és online identitásunk sebezhetőbb lesz a lopásokkal szemben. Személyes adatainak titkosságát még inkább veszélyeztetheti az intelligens mesterséges intelligencia által működtetett finom malware, és a mély tanulás révén még veszélyesebbé teheti. Képzeljen el egy digitális tolvajt, aki a kedvenc programjai hátterében lapul, napról napra ravaszabbá válik, a szoftverhasználat millió valós példájából tanul és az adatok alapján összetett identitáslopásokat készít.
- Politikai biztonság: a zűrös időkben, amelyben élünk, az álhírektől és a csalárd felvételektől való félelem teljesen indokolt. Az AI nagy kárt okozhat automatizált dezinformációs kampányokkal, amelyek rendkívül veszélyesek lehetnek a választások során.
Összefoglalva tehát azt kérdezhetjük magunktól, hogy a mesterséges intelligencia mekkora kárt okozhat nekünk, és több kárt okozhat-e az emberiségnek.
Szakértők kijelentik, hogy az etikai fejlődés és a szabályozó testületek fontos szerepet játszanak a mesterséges intelligencia által az életünkben esetlegesen okozott hátrányok enyhítésében. Bármi is történik, biztosak vagyunk benne, hogy ez a jövőben hatalmas hatással lesz világunkra.
A fejlett mesterséges intelligencia protokollokon alapuló beszédfelismerő szoftver már használatban van, amely számos előnnyel jár az üzleti világban: a munkafolyamatok gyorsabbak és egyszerűbbek. A Gglot nagy szereplő ezen a területen, és jelentős összegeket fektetünk be technológiánk továbbfejlesztésébe.