Riscuri potențiale ale inteligenței artificiale
Care sunt unele riscuri potențiale ale inteligenței artificiale?
Inteligența artificială, sau AI, așa cum este adesea menționată, este un subiect despre care s-a discutat mult în ultimul deceniu. Se dezvoltă rapid, făcând fluxul de lucru al majorității companiilor mai ușor și mai eficient. Chiar și în viața de zi cu zi a multor oameni AI a arătat un potențial mare și este deja implementat în multe aplicații diferite, făcând viața mai ușoară și mai puțin complicată. Inteligența artificială ne-a adus multe avantaje, iar știința deschide calea pentru multe altele, așa că este sigur să spunem că IA va fi indispensabilă în viitor, dacă nu este deja.
Dar, așa cum fiecare medalie are două fețe, la fel și AI. Această tehnologie vine, de asemenea, cu multe riscuri și dezavantaje potențiale. Mulți experți și minți tehnici ai timpului nostru își exprimă îngrijorarea cu privire la problemele pe care AI le-ar putea cauza în viitor și, prin urmare, trebuie să fim atenți să abordăm aceste probleme cât timp ele pot fi corectate. Ce vrem să spunem prin asta?
Există o mulțime de lucruri care trebuie luate în considerare cu privire la aceste probleme specifice. În acest articol vom încerca să descriem câteva dintre riscurile pe care dezvoltarea uluitor de rapidă a IA le-ar putea aduce lumii noastre și ce măsuri trebuie luate pentru a monitoriza și ghida acel progres în direcția corectă.
1. Locuri de muncă
Suntem siguri că toată lumea a avut deja ocazia să audă sau să citească despre potențialul tratament pe care mașinile și automatizările l-ar putea oferi locurilor de muncă bazate pe oameni, de școală veche. Unii oameni ar putea suferi de diferite grade de anxietate în legătură cu mașinile care le fură locurile de muncă. Această teamă ar putea fi întemeiată, automatizarea locurilor de muncă reprezintă un risc mare pentru mulți oameni: aproximativ 25 % dintre americani și-ar putea pierde locul de muncă, deoarece la un moment dat mașinile le vor putea înlocui. Mai ales riscate sunt posturile cu salarii mici în care o persoană face sarcini repetitive, cum ar fi locuri de muncă în administrație sau în alimentație. Cu toate acestea, chiar și unii absolvenți de universități sunt expuși riscului, algoritmii avansati de învățare automată ar putea fi capabili să-i înlocuiască în unele posturi de lucru complexe, deoarece devin din ce în ce mai rafinați, în special prin utilizarea rețelelor neuronale și a învățării profunde.
Dar nu putem spune cu adevărat că roboții vor împinge complet oamenii de pe piața muncii. Angajații vor trebui pur și simplu să se adapteze, să se educe și să găsească o modalitate de a lucra cooperând cu AI, folosind cât mai bine eficiența și logica mecanică a acesteia. Inteligența artificială nu este încă perfectă, de exemplu, nu este capabilă să facă apeluri de judecată, așa că factorul uman va fi în continuare decisiv atunci când se lucrează alături de mașini.
Există o mulțime de tehnologie bazată pe inteligență artificială care utilizează soluții automate care trebuie instruite, iar această pregătire depinde de aportul uman. Un bun exemplu în acest sens sunt traducerile automate care obțin informații dintr-un număr mare de traduceri generate de oameni. Un alt exemplu bun este software-ul de transcripție care obține datele de antrenament din transcripții precise realizate de transcrieri umani profesioniști. În acest fel, software-ul este îmbunătățit încetul cu încetul, perfecționându-și algoritmii prin exemple din viața reală. Transcrierii umani beneficiază de software deoarece îi ajută să facă transcrieri mai rapid. Software-ul generează o versiune brută a transcripției, care este apoi editată și corectată de transcriptor. Acest lucru economisește mult timp și înseamnă că în final produsul final va fi livrat mai rapid și va fi mai precis.
2. Problema părtinirii
Un lucru grozav la algoritmi este că ei iau întotdeauna decizii corecte, nepărtinitoare, în contrast puternic cu oamenii subiectivi și emoționali. Sau ei? Adevărul este că procesul decizional al oricărui software automatizat depinde de datele pe care au fost instruiți. Deci, există riscul discriminării în ocaziile în care de exemplu un anumit segment al populației nu este suficient reprezentat în datele utilizate. Software-ul de recunoaștere facială este deja investigat pentru unele dintre aceste probleme, cazuri de părtinire au apărut deja.
Un exemplu excelent de cât de părtinitoare poate fi inteligența artificială este COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Acesta este un instrument de evaluare a riscurilor și a nevoilor pentru prezicerea riscului de recidivă în rândul infractorilor. Acest instrument bazat pe algoritm a fost investigat, iar rezultatele au arătat că datele COMPAS erau serios părtinitoare din punct de vedere rasial. De exemplu, conform datelor, inculpații afro-americani erau mai susceptibili de a fi considerați incorect ca având un risc mai mare de recidivă decât alte rase. Algoritmul tindea să facă și greșeala opusă cu oamenii de rasă albă.
Deci, ce sa întâmplat aici? Algoritmul depinde de date, așa că dacă datele sunt părtinitoare, software-ul va da probabil și rezultate părtinitoare. Uneori are de-a face și cu modul în care au fost colectate datele.
Tehnologia de recunoaștere automată a vorbirii poate fi, de asemenea, părtinitoare în funcție de sex sau rasă, din cauza faptului că datele de antrenament nu sunt neapărat selectate în materie care ar asigura suficientă incluziune.
3. Probleme de siguranță
Există unele probleme cu inteligența artificială care sunt atât de periculoase încât pot duce la accidente. Unul dintre cele mai proeminente exemple de tehnologie AI aplicată este mașina cu conducere autonomă. Mulți experți cred că acesta este viitorul transporturilor. Dar principalul lucru care împiedică implementarea imediată a mașinilor cu conducere autonomă în trafic sunt defecțiunile acestora, care ar putea pune în pericol viața pasagerilor și a pietonilor. Dezbaterea asupra amenințării pe care vehiculele autonome ar putea reprezenta pe drumuri este încă foarte actuală. Există oameni care cred că ar putea fi mai puține accidente dacă s-ar permite circulația mașinilor cu conducere autonomă. Pe de altă parte, există studii care au arătat că pot provoca o mulțime de accidente, deoarece multe dintre acțiunile lor se vor baza pe preferințele stabilite de șofer. Acum este la latitudinea designerilor să aleagă între siguranță și viața oamenilor și preferințele pilotului (cum ar fi viteza medie și alte obiceiuri de condus). Scopul principal al mașinilor cu conducere autonomă ar trebui în orice caz să fie reducerea accidentelor auto, prin implementarea unor algoritmi AI eficienți și senzori avansați care pot detecta și chiar prezice orice posibile scenarii de trafic. Cu toate acestea, viața reală este întotdeauna mai complicată decât orice program, astfel încât limitările acestei tehnologii sunt încă unul dintre factorii limitativi pentru implementarea sa pe scară largă. O altă problemă este factorul de încredere. Pentru mulți oameni cu ani și ani de experiență de conducere, acordarea toată încrederea în mâinile digitale ar putea fi văzută ca un act de capitulare simbolică față de tendințele digitale. În orice caz, până la rezolvarea tuturor acestor lucruri, unele soluții tehnologice avansate au fost deja implementate în mașinile mai noi, iar șoferii umani pot beneficia de diverși senzori, soluții de frânare asistată și cruise control.
4. Scopuri rău intenționate
Tehnologia ar trebui să servească nevoilor oamenilor și să fie folosită pentru a le face viața mai ușoară, mai plăcută și ar trebui să economisească timp prețios al tuturor. Dar uneori tehnologia AI a fost folosită și în scopuri rău intenționate, într-un mod care prezintă un risc semnificativ pentru securitatea noastră fizică, digitală și politică.
- Securitate fizică: Un risc potențial al AI, care sună destul de dramatic la început și care te-ar putea înghesui până la oase este un potențial război între țări avansate din punct de vedere tehnologic, desfășurat de sisteme de arme autonome programate să ucidă în cel mai eficient și nemilos mod. Acesta este motivul pentru care este extrem de important să reglementăm dezvoltarea unei astfel de tehnologii militare prin tratate, reglementări și sancțiuni, pentru a proteja umanitatea de riscul amenințător al războiului bazat pe inteligența artificială.
- Securitate digitală: Hackerii reprezintă deja o amenințare pentru siguranța noastră digitală, iar software-ul AI este deja folosit pentru hacking avansat. Odată cu dezvoltarea unui astfel de software, hackerii vor fi mai eficienți în faptele lor, iar identitatea noastră online va fi mai vulnerabilă la furt. Confidențialitatea datelor dvs. personale ar putea fi compromisă și mai mult prin malware subtil, alimentat de AI și făcut și mai periculoasă prin utilizarea învățării profunde. Imaginează-ți un hoț digital, pândind în spatele programelor tale preferate, devenind tot mai viclean pe zi ce trece, învățând din milioane de exemple reale de utilizare a software-ului și creând furturi complexe de identitate pe baza acestor date.
- Securitate politică: în vremurile tulburi pe care le trăim, teama de știri false și înregistrări frauduloase este destul de justificată. Inteligența artificială ar putea face multe daune prin campanii automate de dezinformare, care pot fi extrem de periculoase în timpul alegerilor.
Așa că, pentru a încheia, ne-am putea întreba cât de multe daune ne-ar putea face inteligența artificială și poate face mai mult rău decât bine omenirii.
Experții afirmă că dezvoltarea etică și organismele de reglementare vor juca un rol major atunci când vine vorba de atenuarea dezavantajelor pe care inteligența artificială le-ar putea cauza vieților noastre. Orice s-ar întâmpla, suntem siguri că va avea un impact uriaș asupra lumii noastre în viitor.
Software-ul de recunoaștere a vorbirii, bazat pe protocoale AI avansate, este deja folosit și aduce multe avantaje lumii de afaceri: fluxurile de lucru sunt mai rapide și mai simple. Gglot este un jucător important în acest domeniu și investim masiv în dezvoltarea tehnologiei noastre în continuare.