Потенцијални ризици вештачке интелигенције

Који су потенцијални ризици вештачке интелигенције?

Вештачка интелигенција, или АИ како се такође често назива, тема је о којој се много расправљало у последњој деценији. Брзо се развија, чинећи радни ток већине предузећа лакшим и ефикаснијим. Чак иу свакодневном животу многих људи АИ је показао велики потенцијал и већ се примењује у многим различитим апликацијама, чинећи живот лакшим и мање компликованим. АИ нам је донела многе предности и наука утире пут за још много тога, тако да се може са сигурношћу рећи да ће вештачка интелигенција бити неопходна у будућности, ако већ није.

Али као што свака медаља има две стране, тако и АИ. Ова технологија такође има много потенцијалних ризика и недостатака. Многи стручњаци и технички главни умови нашег времена изражавају своју забринутост због проблема које би вештачка интелигенција могла да изазове у будућности и стога морамо да будемо опрезни да решимо ове проблеме док се још увек могу исправити. Шта под тим подразумевамо?

Постоји много ствари које треба размотрити у вези са овим конкретним питањима. У овом чланку покушаћемо да опишемо неке од ризика које би блиставо брз развој вештачке интелигенције могао да донесе нашем свету и које мере треба предузети да бисмо пратили и водили тај напредак у правом смеру.

1. Послови

Без наслова 13

Сигурни смо да су сви већ имали прилику да чују или прочитају о потенцијалној посластици коју машине и аутоматизација могу представљати старим школским радним местима заснованим на људима. Неки људи могу патити од различитих степена анксиозности због машина које им краду посао. Тај страх би могао бити основан, аутоматизација послова је велики ризик за многе људе: око 25% Американаца могло би да изгуби посао јер ће у неком тренутку машине моћи да их замене. Посебно су угрожене позиције са ниским платама на којима особа обавља задатке који се понављају, као што су послови у администрацији или угоститељству. Међутим, чак и неки дипломци универзитета су у опасности, напредни алгоритми машинског учења би могли да их замене на неким сложеним радним позицијама јер постају све рафиниранији, посебно коришћењем неуронских мрежа и дубоког учења.

Али не можемо заиста рећи да ће роботи потпуно избацити људе са тржишта рада. Запослени ће једноставно морати да се прилагоде, образују и пронађу начин рада сарађујући са вештачком интелигенцијом, користећи њену ефикасност и механичку логику на најбољи могући начин. АИ још увек није савршен, на пример, није у стању да доноси одлуке, тако да ће људски фактор и даље бити одлучујући када радите заједно са машинама.

Постоји много технологије засноване на вештачкој интелигенцији која користи аутоматизована решења која треба обучити и ова обука зависи од људског доприноса. Добар пример за ово су машински преводи који добијају инпут од великог броја превода које је направио човек. Још један добар пример је софтвер за транскрипцију који добија податке о обуци из тачних транскрипција које су урадили професионални људски преписивачи. На овај начин се софтвер мало по мало побољшава, усавршавајући своје алгоритме кроз примере из стварног живота. Људски преписивачи имају користи од софтвера јер им помаже да брже ураде транскрипте. Софтвер генерише грубу, нацртну верзију транскрипта, коју затим уређује и исправља преписивач. Ово штеди много времена и значи да ће на крају коначни производ бити испоручен брже и тачније.

2. Проблем пристрасности

Одлична ствар код алгоритама је то што они увек доносе поштене, непристрасне одлуке, у оштрој супротности са субјективним и емоционалним људима. Или они? Истина је да процес доношења одлука било ког аутоматизованог софтвера зависи од података на којима су они обучени. Дакле, постоји ризик од дискриминације у случајевима када на пример одређени сегмент становништва није довољно заступљен у коришћеним подацима. Софтвер за препознавање лица се већ истражује за неке од ових проблема, случајеви пристрасности су се већ десили.

Један сјајан пример колико вештачка интелигенција може бити пристрасна је ЦОМПАС (Профилирање управљања поправним преступницима за алтернативне санкције). Ово је алат за процену ризика и потреба за предвиђање ризика од рецидивизма међу преступницима. Овај алат заснован на алгоритму је истражен и резултати су показали да су подаци ЦОМПАС-а озбиљно расно пристрасни. На пример, према подацима, већа је вероватноћа да ће оптужени Афроамериканци бити погрешно оцењени да имају већи ризик од рецидива него друге расе. Алгоритам је такође имао тенденцију да направи супротну грешку код људи беле расе.

Па, шта се десило овде? Алгоритам зависи од података, тако да ако су подаци пристрасни, софтвер ће вероватно дати и пристрасне резултате. Понекад то такође има неке везе са начином на који су подаци прикупљени.

Технологија аутоматског препознавања говора такође може бити пристрасна у зависности од пола или расе због чињенице да подаци о обуци нису нужно одабрани у стварима које би обезбедиле довољно инклузивности.

3. Безбедносна брига

Без наслова 2 2

Постоје неки проблеми са вештачком интелигенцијом који су толико опасни да могу довести до несрећа. Један од истакнутијих примера примењене АИ технологије је ауто који се самостално вози. Многи стручњаци сматрају да је то будућност транспорта. Али оно што отежава тренутно увођење самовозећих аутомобила у саобраћај јесу њихови кварови који могу угрозити живот путника и пешака. Дебата о опасности коју аутономна возила могу представљати на путевима је и даље веома актуелна. Има људи који мисле да би могло бити мање несрећа када би самовозећи аутомобили били дозвољени на путу. С друге стране, постоје студије које су показале да могу изазвати много судара, јер ће многе њихове радње бити засноване на преференцијама које поставља возач. Сада је на дизајнерима да бирају између безбедности и живота људи и преференција возача (попут просечне брзине и неких других навика у вожњи). Главни циљ самовозећих аутомобила у сваком случају треба да буде смањење саобраћајних незгода, кроз примену ефикасних АИ алгоритама и напредних сензора који могу да открију, па чак и предвиде све могуће саобраћајне сценарије. Међутим, стварни живот је увек компликованији од било ког програма, па су ограничења ове технологије и даље један од ограничавајућих фактора за њену широку примену. Други проблем је фактор поверења. За многе људе са годинама и годинама возачког искуства, препуштање целокупног поверења у дигиталне руке може се посматрати као чин симболичке капитулације пред дигиталним трендовима. У сваком случају, док се све ово не реши, нека напредна технолошка решења су већ имплементирана у новије аутомобиле, а људски возачи могу имати користи од разних сензора, решења за потпомогнуто кочење и темпомата.

4. Злонамерне сврхе

Технологија треба да служи потребама људи и да се користи да им живот учини лакшим, пријатнијим и треба да уштеди свачије драгоцено време. Али понекад се технологија вештачке интелигенције такође користи у злонамерне сврхе, на начин који представља значајан ризик по нашу физичку, дигиталну и политичку безбедност.

  • Физичка безбедност: Један потенцијални ризик од вештачке интелигенције, који на први поглед звучи прилично драматично и који би вас могао одмрзнути до костију, је потенцијални рат између технолошки напредних земаља, који воде аутономни системи оружја програмирани да убијају на најефикаснији и немилосрдни начин. Због тога је изузетно важно регулисати развој такве војне технологије путем уговора, прописа и санкција, како би се човечанство заштитило од злокобног ризика ратовања заснованог на вештачкој интелигенцији.
  • Дигитална безбедност: Хакери су већ претња нашој дигиталној безбедности, а софтвер вештачке интелигенције се већ користи за напредно хаковање. Са развојем таквог софтвера, хакери ће бити ефикаснији у својим злоделима, а наш онлајн идентитет ће бити подложнији крађи. Приватност ваших личних података може бити још више угрожена суптилним злонамерним софтвером, који покреће вештачка интелигенција и учинити још опаснијом коришћењем дубоког учења. Замислите дигиталног лопова, који вреба у позадини ваших омиљених програма, постаје лукавији из дана у дан, учи из милиона стварних примера коришћења софтвера и прави сложене крађе идентитета на основу тих података.
Без наслова 3 2
  • Политичка безбедност: у турбулентним временима у којима живимо, страх од лажних вести и лажних снимака је сасвим оправдан. АИ би могла да направи велику штету аутоматизованим кампањама дезинформисања, које могу бити изузетно опасне током избора.

Дакле, да закључимо, могли бисмо да се запитамо колико штете вештачка интелигенција може да нам нанесе и да ли може да направи више штете него користи човечанству.

Стручњаци наводе да ће етички развој и регулаторна тела играти главну улогу када је у питању ублажавање недостатака које вештачка интелигенција може да изазове нашим животима. Шта год да се деси, сигурни смо да ће то имати огроман утицај на наш свет у будућности.

Софтвер за препознавање говора, заснован на напредним АИ протоколима, већ се користи и доноси многе предности пословном свету: токови посла су бржи и једноставнији. Гглот је велики играч у овој области и ми увелико улажемо у даљи развој наше технологије.