Жасанды интеллекттің ықтимал тәуекелдері

Жасанды интеллекттің кейбір ықтимал қауіптері қандай?

Жасанды интеллект немесе оны жиі атайтын AI - соңғы онжылдықта көп талқыланған тақырып. Ол қарқынды дамып, көптеген кәсіпорындардың жұмыс процесін жеңілдетіп, тиімдірек етеді. Тіпті көптеген адамдардың күнделікті өмірінде AI үлкен әлеуетті көрсетті және қазірдің өзінде көптеген әртүрлі қолданбаларда енгізіліп жатыр, бұл өмірді жеңілдетеді және қиындатады. AI бізге көптеген артықшылықтар әкелді және ғылым әлі де көп нәрсеге жол ашуда, сондықтан AI болашақта өте қажет болады деп айтуға болады, егер ол әлі жоқ болса.

Бірақ әрбір медальдың екі жағы болатыны сияқты, AI да бар. Бұл технология көптеген ықтимал қауіптер мен кемшіліктермен бірге келеді. Біздің заманымыздың көптеген сарапшылары мен техникалық шеберлері AI болашақта тудыруы мүмкін мәселелерге алаңдаушылық білдіруде, сондықтан біз бұл мәселелерді әлі де түзетуге болатын кезде мұқият шешуіміз керек. Мұнымен нені айтамыз?

Осы нақты мәселелерге қатысты көптеген нәрселерді ескеру қажет. Бұл мақалада біз AI-ның таңқаларлық жылдам дамуы біздің әлемге әкелуі мүмкін тәуекелдердің кейбірін сипаттауға тырысамыз және бұл прогресті дұрыс бағытта бақылап, бағыттау үшін қандай шара қолдану керек.

1. Жұмыс орындары

Атаусыз 1 3

Машиналар мен автоматиканың ескі мектепке, адамға негізделген жұмыс орындарына бере алатын әлеуетті емі туралы естуге немесе оқуға барлығының мүмкіндігі болғанына сенімдіміз. Кейбір адамдар машиналарды өз жұмысын ұрлайтынына байланысты әртүрлі дәрежедегі алаңдаушылықтан зардап шегуі мүмкін. Бұл қорқыныш негізді болуы мүмкін, жұмысты автоматтандыру көптеген адамдар үшін үлкен қауіп: американдықтардың шамамен 25% -ы жұмысынан айырылуы мүмкін, өйткені бір сәтте машиналар оларды алмастыра алады. Әсіресе, адам әкімшіліктегі жұмыс немесе азық-түлік қызметі сияқты қайталанатын тапсырмаларды орындайтын төмен жалақы алатын лауазымдар тәуекелге ұшырайды. Дегенмен, тіпті кейбір университет түлектеріне қауіп төнеді, машиналық оқытудың жетілдірілген алгоритмдері оларды кейбір күрделі жұмыс орындарында алмастыра алады, өйткені олар әсіресе нейрондық желілер мен терең оқытуды пайдалану арқылы жетілдіріліп келеді.

Бірақ роботтар адамдарды еңбек нарығынан толығымен ығыстырады деп айта алмаймыз. Қызметкерлерге жай ғана бейімделуі, өзін-өзі тәрбиелеуі және оның тиімділігі мен механикалық логикасын барынша пайдалана отырып, AI-мен ынтымақтасу арқылы жұмыс істеу жолын табу керек болады. AI әлі де мінсіз емес, мысалы, ол шешім қабылдауға қабілетті емес, сондықтан машиналармен қатар жұмыс істегенде адам факторы әлі де шешуші болады.

Оқытуды қажет ететін автоматтандырылған шешімдерді пайдаланатын AI негізіндегі көптеген технологиялар бар және бұл оқыту адамның енгізуіне байланысты. Бұған жақсы мысал - адам жасаған аудармалардың көп бөлігінен кіріс алатын машиналық аудармалар. Тағы бір жақсы мысал - кәсіби адам транскрипторлары жасаған дәл транскрипциялардан оқу деректерін алатын транскрипция бағдарламалық құралы. Осылайша бағдарламалық қамтамасыз ету бірте-бірте жетілдіріліп, нақты өмірлік мысалдар арқылы алгоритмдерін нақтылайды. Адам транскрипторлары бағдарламалық жасақтаманың пайдасын көреді, себебі ол транскрипттерді жылдам жасауға көмектеседі. Бағдарламалық жасақтама транскрипттің өрескел, жоба нұсқасын жасайды, содан кейін оны транскриптор өңдейді және түзетеді. Бұл көп уақытты үнемдейді және түпкілікті өнім тезірек жеткізіледі және дәлірек болады дегенді білдіреді.

2. Біржақтылық мәселесі

Алгоритмдердің тамаша қасиеті - олар әрқашан субъективті және эмоционалды адамдарға қарағанда әділ, бейтарап шешімдер қабылдайды. Әлде олар? Шындығында, кез келген автоматтандырылған бағдарламалық жасақтаманың шешім қабылдау процесі олар оқытылған деректерге байланысты. Осылайша, мысалы, халықтың белгілі бір бөлігі пайдаланылған деректерде жеткілікті түрде көрсетілмеген жағдайда кемсіту қаупі бар. Бет-әлпетті тану бағдарламалық жасақтамасы осы мәселелердің кейбірі үшін қазірдің өзінде зерттелуде, бұрмалану жағдайлары бұрыннан болған.

Жасанды интеллект қаншалықты бейтарап болуы мүмкін екендігінің тамаша мысалы COMPAS (баламалы санкциялар үшін түзетуші құқық бұзушыны басқару профилі). Бұл қылмыскерлер арасындағы қайталану қаупін болжауға арналған тәуекел мен қажеттілікті бағалау құралы. Бұл алгоритмге негізделген құрал зерттелді және нәтижелер COMPAS деректерінің нәсілдік тұрғыдан айтарлықтай бейтарап екенін көрсетті. Мысалы, мәліметтерге сәйкес, афроамерикалық айыпталушылардың басқа нәсілдерге қарағанда қайталану қаупі жоғары екендігі туралы қате шешім қабылдау ықтималдығы жоғары. Алгоритм ақ нәсілдің адамдарымен де керісінше қателесуге бейім болды.

Сонымен, мұнда не болды? Алгоритм деректерге тәуелді, сондықтан деректер біржақты болса, бағдарламалық құрал да біржақты нәтижелер беруі мүмкін. Кейде бұл деректердің қалай жиналғанымен де байланысты.

Автоматтандырылған сөзді тану технологиясы жыныстық немесе нәсілге байланысты біржақты болуы мүмкін, себебі жаттығу деректері жеткілікті түрде қамтылуды қамтамасыз ететін мәселеде міндетті түрде таңдалмайды.

3. Қауіпсіздік мәселелері

Атаусыз 2 2

Жасанды интеллектке қатысты кейбір мәселелер бар, олар соншалықты қауіпті, олар жазатайым оқиғаларға әкелуі мүмкін. Қолданбалы AI технологиясының ең көрнекті мысалдарының бірі - өздігінен жүретін көлік. Көптеген сарапшылар бұл көліктің болашағы деп есептейді. Бірақ өздігінен басқарылатын көліктерді қозғалысқа дереу енгізуге кедергі келтіретін ең бастысы - жолаушылар мен жаяу жүргіншілердің өміріне қауіп төндіруі мүмкін ақаулар. Автономды көліктердің жолдарда қандай қауіп төндіретіні туралы пікірталас әлі де өзекті. Жолда өздігінен жүретін көліктерге рұқсат етілсе, апат аз болар еді деп ойлайтындар бар. Екінші жағынан, олардың көптеген апаттар тудыруы мүмкін екенін көрсеткен зерттеулер бар, өйткені олардың әрекеттерінің көпшілігі жүргізуші орнатқан қалауларға негізделеді. Енді дизайнерлер қауіпсіздік пен адамдардың өмірі мен шабандоз қалаулары арасында (мысалы, орташа жылдамдық пен басқа көлік жүргізу әдеттері) таңдау жасайды. Кез келген жағдайда өздігінен жүретін автомобильдердің негізгі мақсаты кез келген ықтимал қозғалыс сценарийлерін анықтай алатын және тіпті болжай алатын тиімді AI алгоритмдері мен жетілдірілген сенсорларды енгізу арқылы автомобиль апаттарын азайту болуы керек. Дегенмен, нақты өмір әрқашан кез келген бағдарламаға қарағанда күрделірек, сондықтан бұл технологияның шектеулері әлі де оны кеңінен енгізуді шектейтін факторлардың бірі болып табылады. Тағы бір мәселе – сенім факторы. Көптеген жылдар және жылдар бойы жүргізу тәжірибесі бар көптеген адамдар үшін барлық сенімдерді цифрлық қолдарға беру цифрлық трендтерге символдық түрде берілу әрекеті ретінде қарастырылуы мүмкін. Қалай болғанда да, мұның бәрі шешілмейінше, кейбір озық технологиялық шешімдер жаңа көліктерге енгізілген және адам жүргізушілер әртүрлі сенсорлардан, көмекші тежеу шешімдерінен және круиздік бақылаулардан пайда көре алады.

4. Зиянды мақсаттар

Технология адамдардың қажеттіліктеріне қызмет етіп, олардың өмірін жеңілдету, рахаттандыру үшін қолданылуы керек және ол әркімнің қымбат уақытын үнемдеуі керек. Бірақ кейде AI технологиясы физикалық, цифрлық және саяси қауіпсіздігімізге айтарлықтай қауіп төндіретін зиянды мақсаттарда да қолданылады.

  • Физикалық қауіпсіздік: Басында өте әсерлі болып көрінетін және сізді сүйегіңізге дейін салқындатуы мүмкін AI-ның бір ықтимал қаупі - бұл ең тиімді және аяусыз түрде өлтіруге бағдарламаланған автономды қару жүйелері арқылы жүзеге асырылатын технологиялық дамыған елдер арасындағы ықтимал соғыс. Сондықтан адамзатты AI негізіндегі соғыстың қауіпті қауіп-қатерінен қорғау үшін осындай әскери технологияның дамуын келісімдер, ережелер және санкциялар арқылы реттеу өте маңызды.
  • Цифрлық қауіпсіздік: хакерлер қазірдің өзінде сандық қауіпсіздігімізге қауіп төндіруде және AI бағдарламалық жасақтамасы жетілдірілген бұзу үшін қазірдің өзінде пайдаланылады. Мұндай бағдарламалық жасақтаманың дамуымен хакерлер өздерінің теріс әрекеттерінде тиімдірек болады және біздің онлайн жеке тұлғамыз ұрлыққа көбірек осал болады. Жеке деректеріңіздің құпиялылығы жасанды интеллектпен жұмыс істейтін және терең оқытуды пайдалану арқылы одан да қауіпті болуы мүмкін нәзік зиянды бағдарлама арқылы одан да көп бұзылуы мүмкін. Таңдаулы бағдарламаларыңыздың артында жасырынып, күннен-күнге айлакер болып, бағдарламалық жасақтаманы пайдаланудың миллиондаған нақты мысалдарынан үйреніп, сол деректерге негізделген күрделі жеке басын ұрлауды жасайтын цифрлық ұры елестетіңіз.
Атаусыз 3 2
  • Саяси қауіпсіздік: біз өмір сүріп жатқан аласапыран заманда жалған жаңалықтар мен жалған жазбалардан қорқу әбден орынды. AI сайлау кезінде өте қауіпті болуы мүмкін автоматтандырылған ақпарат тарату науқандары арқылы көп зиян келтіруі мүмкін.

Қорытындылай келе, біз өзімізден жасанды интеллект бізге қаншалықты зиян тигізуі мүмкін және ол адамзатқа пайдасынан гөрі көп зиян тигізе ме деп сұрай аламыз.

Сарапшылар жасанды интеллект біздің өмірімізге әкелуі мүмкін кемшіліктерді азайтуға келгенде этикалық даму және реттеуші органдар маңызды рөл атқаратынын айтады. Қандай жағдай болмасын, оның болашақта біздің әлемге үлкен әсер ететініне сенімдіміз.

Жетілдірілген AI протоколдарына негізделген сөзді тану бағдарламалық құралы қазірдің өзінде қолданылуда және ол бизнес әлеміне көптеген артықшылықтар береді: жұмыс процестері жылдамырақ және қарапайым. Gglot - бұл саладағы үлкен ойыншы және біз технологиямызды одан әрі дамытуға көп қаражат жұмсаймыз.