Süni intellektin potensial riskləri
Süni intellektin bəzi potensial riskləri hansılardır?
Süni intellekt və ya tez-tez xatırlandığı kimi AI, son on ildə çox müzakirə olunan bir mövzudur. O, sürətlə inkişaf edir, əksər müəssisələrin iş prosesini asanlaşdırır və daha səmərəli edir. Hətta bir çox insanın gündəlik həyatında süni intellekt böyük potensial nümayiş etdirib və artıq bir çox müxtəlif proqramlarda tətbiq olunur, bununla da həyatı asanlaşdırır və daha az mürəkkəbləşdirir. Süni intellekt bizə bir çox üstünlüklər gətirdi və elm daha çox şeyə yol açır, ona görə də əminliklə demək olar ki, süni intellekt gələcəkdə əvəzolunmaz olacaqdır.
Amma hər medalın iki tərəfi olduğu kimi, süni intellekt də var. Bu texnologiya həm də bir çox potensial risk və çatışmazlıqlarla gəlir. Dövrümüzün bir çox ekspertləri və texniki ustaları süni intellektin gələcəkdə yarada biləcəyi problemlərlə bağlı narahatlıqlarını ifadə edirlər və buna görə də biz bu problemləri həll etmək üçün diqqətli olmalıyıq. Bununla nə demək istəyirik?
Bu xüsusi məsələlərlə bağlı nəzərə alınmalı olan çox şey var. Bu yazıda biz süni intellektin göz qamaşdıran sürətlə inkişafının dünyamıza gətirə biləcəyi bəzi riskləri və bu tərəqqiyə nəzarət etmək və düzgün istiqamətə yönəltmək üçün hansı tədbirlərin görülməli olduğunu təsvir etməyə çalışacağıq.
1. İş yerləri
Əminik ki, hər kəsin maşınların və avtomatlaşdırmanın köhnə məktəbə, insan əsaslı iş yerlərinə təqdim edə biləcəyi potensial müalicə haqqında eşitmək və ya oxumaq imkanı var idi. Bəzi insanlar maşınların işlərini oğurlaması ilə bağlı müxtəlif dərəcədə narahatlıq keçirə bilər. Bu qorxu əsaslı ola bilər, işin avtomatlaşdırılması bir çox insanlar üçün böyük riskdir: amerikalıların təxminən 25%-i işini itirə bilər, çünki nə vaxtsa maşınlar onları əvəz edə biləcək. Xüsusilə risk altında olan aşağı maaşlı vəzifələrdir ki, burada bir adam təkrarlanan tapşırıqları yerinə yetirir, məsələn, idarəetmə və ya yemək xidməti. Bununla belə, hətta bəzi universitet məzunları risk altındadır, qabaqcıl maşın öyrənmə alqoritmləri bəzi mürəkkəb iş mövqelərində onları əvəz edə bilər, çünki onlar xüsusilə neyron şəbəkələrdən istifadə və dərin öyrənmə yolu ilə daha da təkmilləşirlər.
Ancaq robotların insanları iş bazarından tamamilə sıxışdıracağını deyə bilmərik. İşçilər sadəcə olaraq süni intellektlə əməkdaşlıq edərək, onun səmərəliliyindən və mexaniki məntiqindən ən yaxşı şəkildə istifadə edərək, uyğunlaşmalı, özlərini öyrətməli və işləməyin yolunu tapmalı olacaqlar. Süni intellekt hələ də mükəmməl deyil, məsələn, mühakimə yürütmək iqtidarında deyil, buna görə də maşınlarla işləyərkən insan amili hələ də həlledici olacaq.
Təlim edilməli olan avtomatlaşdırılmış həllərdən istifadə edən bir çox AI əsaslı texnologiya var və bu təlim insan girişindən asılıdır. Bunun üçün yaxşı nümunə çoxlu sayda insan tərəfindən yaradılan tərcümələrdən daxil olan maşın tərcümələridir. Başqa bir yaxşı nümunə, peşəkar insan transkriptorları tərəfindən edilən dəqiq transkripsiyalardan təlim məlumatlarını əldə edən transkripsiya proqramıdır. Bu yolla proqram real həyat nümunələri vasitəsilə alqoritmlərini təkmilləşdirərək tədricən təkmilləşir. İnsan transkriptçiləri proqram təminatından faydalanır, çünki bu, transkriptləri daha sürətli etməyə kömək edir. Proqram transkriptin təxmini, qaralama versiyasını yaradır, sonra transkriptçi tərəfindən redaktə edilir və düzəldilir. Bu, çox vaxta qənaət edir və nəticədə son məhsulun daha sürətli çatdırılması və daha dəqiq olması deməkdir.
2. Qərəz problemi
Alqoritmlərin əla cəhəti odur ki, onlar subyektiv və emosional insanlardan kəskin fərqli olaraq həmişə ədalətli, qeyri-obyektiv qərarlar verirlər. Yoxsa onlar? Həqiqət budur ki, hər hansı bir avtomatlaşdırılmış proqram təminatının qərar vermə prosesi onların öyrədildiyi məlumatlardan asılıdır. Beləliklə, məsələn, istifadə olunan məlumatlarda əhalinin müəyyən bir hissəsinin kifayət qədər təmsil olunmadığı hallarda ayrı-seçkilik riski var. Üz tanıma proqramı artıq bu problemlərin bəziləri üçün araşdırılır, qərəzlilik halları artıq baş verib.
Süni intellektin nə qədər qərəzli olduğuna dair gözəl nümunələrdən biri COMPAS-dır (Alternativ Sanksiyalar üçün İslahedici Cinayətkar İdarəetmə Profili). Bu, cinayətkarlar arasında təkrar cinayət riskinin proqnozlaşdırılması üçün risk və ehtiyacların qiymətləndirilməsi vasitəsidir. Bu alqoritmə əsaslanan alət araşdırıldı və nəticələr COMPAS məlumatlarının ciddi şəkildə irqi qərəzli olduğunu göstərdi. Məsələn, məlumatlara görə, afro-amerikalı müttəhimlər digər irqlərə nisbətən daha yüksək təkrar cinayət riskinə malik olduqlarına dair səhv mühakimə olunma ehtimalı daha yüksək idi. Alqoritm ağ irqdən olan insanlarla da əks səhvə yol verirdi.
Yaxşı, burada nə baş verdi? Alqoritm məlumatdan asılıdır, buna görə də məlumatlar qərəzlidirsə, proqram təminatı da qərəzli nəticələr verəcəkdir. Bəzən məlumatların necə toplandığı ilə də əlaqəsi olur.
Avtomatlaşdırılmış Nitqin Tanınması texnologiyası həmçinin cinsdən və ya irqdən asılı olaraq qərəzli ola bilər, çünki təlim məlumatlarının kifayət qədər inklüzivliyi təmin edəcək məsələdə mütləq seçilməməsi.
3. Təhlükəsizliklə bağlı narahatlıqlar
Süni intellektlə bağlı bəzi problemlər var ki, onlar qəzalara səbəb ola biləcək qədər təhlükəlidir. Tətbiq olunan süni intellekt texnologiyasının ən bariz nümunələrindən biri özünü idarə edən avtomobildir. Bir çox ekspertlər hesab edir ki, bu, nəqliyyatın gələcəyidir. Lakin avtonəqliyyat vasitələrinin dərhal hərəkətə keçməsinə mane olan əsas məqam onun sərnişinlərin və piyadaların həyatına təhlükə yarada biləcək nasazlıqlarıdır. Avtonom nəqliyyat vasitələrinin yollarda hansı təhlükə yarada biləcəyi ilə bağlı müzakirələr hələ də aktualdır. Özünü idarə edən avtomobillərə yol verilsəydi, qəzaların daha az ola biləcəyini düşünənlər də var. Digər tərəfdən, onların çoxlu qəzalara səbəb ola biləcəyini göstərən araşdırmalar var, çünki onların bir çox hərəkətləri sürücünün təyin etdiyi seçimlərə əsaslanacaq. İndi təhlükəsizlik və insanların həyatı və atlı üstünlükləri (orta sürət və bəzi digər sürücülük vərdişləri kimi) arasında seçim etmək dizaynerlərin ixtiyarındadır. Özünü idarə edən avtomobillərin əsas məqsədi istənilən halda mümkün yol hərəkəti ssenarilərini aşkar edə və hətta proqnozlaşdıra bilən səmərəli süni intellekt alqoritmlərinin və qabaqcıl sensorların tətbiqi vasitəsilə avtomobil qəzalarının azaldılması olmalıdır. Bununla belə, real həyat həmişə istənilən proqramdan daha mürəkkəbdir, ona görə də bu texnologiyanın məhdudiyyətləri hələ də onun geniş tətbiqi üçün məhdudlaşdırıcı amillərdən biridir. Digər problem inam faktorudur. İllər və illərlə sürücülük təcrübəsi olan bir çox insanlar üçün bütün etibarı rəqəmsal əllərə vermək rəqəmsal tendensiyalara simvolik təslim olmaq aktı kimi görünə bilər. Hər halda, bütün bunlar həll olunana qədər bəzi qabaqcıl texnoloji həllər artıq daha yeni avtomobillərdə tətbiq edilib və insan sürücüləri müxtəlif sensorlar, köməkçi əyləc həlləri və kruiz kontrollarından faydalana bilərlər.
4. Zərərli məqsədlər
Texnologiya insanların ehtiyaclarına xidmət etməli və onların həyatını asanlaşdırmaq, daha əyləncəli etmək üçün istifadə edilməli və hər kəsin qiymətli vaxtına qənaət etməlidir. Lakin bəzən süni intellekt texnologiyası fiziki, rəqəmsal və siyasi təhlükəsizliyimiz üçün əhəmiyyətli risklər yaradaraq zərərli məqsədlər üçün də istifadə olunur.
- Fiziki təhlükəsizlik: İlk baxışda olduqca dramatik səslənən və sizi sümüklərinizdən soyuda biləcək potensial süni intellekt riski, texnoloji cəhətdən inkişaf etmiş ölkələr arasında, ən səmərəli və amansız şəkildə öldürmək üçün proqramlaşdırılmış avtonom silah sistemləri tərəfindən həyata keçirilən potensial müharibədir. Buna görə də bəşəriyyəti süni intellektə əsaslanan müharibənin qorxunc riskindən qorumaq üçün bu cür hərbi texnologiyanın inkişafını müqavilələr, qaydalar və sanksiyalar vasitəsilə tənzimləmək son dərəcə vacibdir.
- Rəqəmsal təhlükəsizlik: Hakerlər artıq rəqəmsal təhlükəsizliyimiz üçün təhdiddir və AI proqramı artıq qabaqcıl hakerlik üçün istifadə olunur. Bu cür proqram təminatının inkişafı ilə hakerlər öz pis əməllərində daha səmərəli olacaq və onlayn şəxsiyyətimiz oğurluğa qarşı daha həssas olacaq. Şəxsi məlumatlarınızın məxfiliyi süni intellekt tərəfindən dəstəklənən və dərin öyrənmənin istifadəsi ilə daha da təhlükəli olan incə zərərli proqramlar vasitəsilə daha da pozula bilər. Təsəvvür edin ki, sevimli proqramlarınızın arxasında gizlənən, gündən-günə daha hiyləgərləşən, proqram təminatının istifadəsinə dair milyonlarla real həyat nümunələrindən öyrənən və bu məlumatlar əsasında mürəkkəb şəxsiyyət oğurluqları hazırlayan rəqəmsal oğru.
- Siyasi təhlükəsizlik: yaşadığımız təlatümlü dövrdə saxta xəbərlər və saxta səs yazıları qorxusu tamamilə haqlıdır. Süni intellekt seçkilər zamanı son dərəcə təhlükəli ola bilən avtomatlaşdırılmış dezinformasiya kampaniyaları ilə çox zərər verə bilər.
Beləliklə, yekunlaşdırmaq üçün özümüzdən soruşa bilərik ki, süni intellekt bizə nə qədər zərər verə bilər və bəşəriyyətə xeyirdən çox zərər verə bilər.
Mütəxəssislər bildirirlər ki, süni intellektin həyatımıza gətirə biləcəyi mənfi cəhətlərin aradan qaldırılmasına gəldikdə, etik inkişaf və tənzimləyici orqanlar böyük rol oynayacaq. Nə olursa olsun, biz əminik ki, gələcəkdə dünyamıza çox böyük təsir göstərəcək.
Qabaqcıl AI protokollarına əsaslanan nitqin tanınması proqramı artıq istifadə olunur və o, iş dünyasına bir çox üstünlüklər gətirir: iş axını daha sürətli və sadədir. Gglot bu sahədə böyük oyunçudur və biz texnologiyamızı daha da inkişaf etdirməyə böyük sərmayə qoyuruq.