Патэнцыйныя рызыкі штучнага інтэлекту
Якія некаторыя патэнцыйныя рызыкі штучнага інтэлекту?
Штучны інтэлект, або ІІ, як яго таксама часта называюць, - гэта тэма, якая шмат абмяркоўвалася ў апошняе дзесяцігоддзе. Ён хутка развіваецца, што робіць працоўны працэс большасці прадпрыемстваў прасцейшым і больш эфектыўным. Нават у паўсядзённым жыцці многіх людзей штучны інтэлект прадэманстраваў вялікі патэнцыял і ўжо ўкараняецца ў мноства розных праграм, што робіць жыццё прасцейшым і менш складаным. ШІ прынёс нам шмат пераваг, і навука пракладвае шлях для значна большага, таму можна з упэўненасцю сказаць, што ШІ стане незаменным у будучыні, калі ён яшчэ не стаў незаменным.
Але як кожны медаль мае два бакі, так і ІІ. Гэтая тэхналогія таксама мае шмат магчымых рызык і недахопаў. Многія эксперты і тэхнічныя натхняльнікі нашага часу выказваюць сваю заклапочанасць з нагоды праблем, якія штучны інтэлект можа выклікаць у будучыні, і таму мы павінны быць асцярожнымі, каб вырашыць гэтыя праблемы, пакуль іх яшчэ можна выправіць. Што мы маем на ўвазе?
Ёсць шмат рэчаў, якія неабходна ўлічваць у дачыненні да гэтых канкрэтных пытанняў. У гэтым артыкуле мы паспрабуем апісаць некаторыя рызыкі, якія ашаламляльна хуткае развіццё штучнага інтэлекту можа прынесці нашаму свету, і якія меры неабходна прыняць, каб кантраляваць і накіроўваць гэты прагрэс у правільным кірунку.
1. Працоўныя месцы
Мы ўпэўненыя, што кожны ўжо меў магчымасць пачуць або прачытаць пра патэнцыйную асалоду, якую машыны і аўтаматызацыя могуць прынесці старой школе, заснаванай на працоўных месцах чалавека. Некаторыя людзі могуць пакутаваць ад рознай ступені трывогі з нагоды таго, што машыны крадуць іх працу. Гэты страх можа быць цалкам абгрунтаваным, аўтаматызацыя працы з'яўляецца вялікай рызыкай для многіх людзей: каля 25% амерыканцаў могуць страціць працу, таму што ў нейкі момант машыны змогуць іх замяніць. Асабліва схільныя рызыцы нізкааплатныя пасады, на якіх чалавек выконвае паўтаральныя задачы, напрыклад, працу ў адміністрацыі або грамадскае харчаванне. Тым не менш, нават некаторыя выпускнікі універсітэтаў знаходзяцца ў групе рызыкі, удасканаленыя алгарытмы машыннага навучання могуць замяніць іх на некаторых складаных працоўных пасадах, таму што яны становяцца ўсё больш удасканаленымі, асабліва дзякуючы выкарыстанню нейронавых сетак і глыбокага навучання.
Але мы не можам сказаць, што робаты цалкам выцесняць людзей з рынку працы. Супрацоўнікам проста трэба будзе прыстасавацца, навучыцца і знайсці спосаб працаваць, супрацоўнічаючы з ІІ, найлепшым чынам выкарыстоўваючы яго эфектыўнасць і механічную логіку. ШІ ўсё яшчэ не ідэальны, напрыклад, ён не здольны выносіць меркаванні, таму чалавечы фактар усё роўна будзе вырашальным пры працы разам з машынамі.
Існуе шмат тэхналогій на аснове штучнага інтэлекту, якія выкарыстоўваюць аўтаматызаваныя рашэнні, якія трэба навучаць, і гэта навучанне залежыць ад укладу чалавека. Добрым прыкладам для гэтага з'яўляюцца машынныя пераклады, якія атрымліваюць увод ад вялікай колькасці перакладаў, створаных чалавекам. Яшчэ адзін добры прыклад - праграмнае забеспячэнне для транскрыпцыі, якое атрымлівае навучальныя даныя з дакладнай транскрыпцыі, зробленай прафесійнымі транскрыптарамі. Такім чынам праграмнае забеспячэнне паступова ўдасканальваецца, удасканальваючы свае алгарытмы на прыкладах з рэальнага жыцця. Перапісчыкі-людзі атрымліваюць карысць ад праграмнага забеспячэння, таму што яно дапамагае ім рабіць расшыфроўкі хутчэй. Праграмнае забеспячэнне стварае прыблізную чарнавую версію стэнаграмы, якую потым рэдагуе і выпраўляе транскрыптар. Гэта эканоміць шмат часу і азначае, што ў канчатковым выніку канчатковы прадукт будзе дастаўлены хутчэй і будзе больш дакладным.
2. Праблема прадузятасці
Выдатная рэч алгарытмаў у тым, што яны заўсёды прымаюць справядлівыя, непрадузятыя рашэнні, у рэзкім кантрасце з суб'ектыўнымі і эмацыйнымі людзьмі. Ці яны? Праўда ў тым, што працэс прыняцця рашэнняў любога аўтаматызаванага праграмнага забеспячэння залежыць ад даных, на якіх яны навучаліся. Такім чынам, існуе рызыка дыскрымінацыі ў тых выпадках, калі, напрыклад, пэўная частка насельніцтва недастаткова прадстаўлена ў выкарыстоўваных дадзеных. Праграмнае забеспячэнне для распазнання асоб ужо расследуецца на прадмет некаторых з гэтых праблем, выпадкі прадузятасці ўжо адбываліся.
Адным з выдатных прыкладаў таго, наколькі неаб'ектыўным можа быць штучны інтэлект, з'яўляецца COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Гэта інструмент ацэнкі рызыкі і патрэбаў для прагназавання рызыкі рэцыдыву сярод правапарушальнікаў. Гэты інструмент, заснаваны на алгарытме, быў даследаваны, і вынікі паказалі, што дадзеныя COMPAS былі сур'ёзна расава прадузятымі. Напрыклад, згодна з дадзенымі, афраамерыканцы, падсудныя, часцей за ўсё памылкова ацэньваліся як людзі з больш высокім рызыкай рэцыдыву, чым прадстаўнікі іншых рас. Алгарытм таксама меў тэндэнцыю рабіць адваротную памылку з людзьмі белай расы.
Такім чынам, што тут здарылася? Алгарытм залежыць ад даных, таму, калі даныя неаб'ектыўныя, праграмнае забеспячэнне, верагодна, таксама дасць неаб'ектыўныя вынікі. Часам гэта таксама звязана з тым, як былі сабраныя даныя.
Тэхналогія аўтаматызаванага распазнання маўлення таксама можа быць прадузята ў залежнасці ад полу або расы з-за таго, што навучальныя даныя неабавязкова выбіраюцца так, каб забяспечыць дастатковую інклюзіўнасць.
3. Праблемы бяспекі
Ёсць некаторыя праблемы са штучным інтэлектам, якія настолькі небяспечныя, што могуць прывесці да няшчасных выпадкаў. Адным з найбольш яркіх прыкладаў прымянення тэхналогіі штучнага інтэлекту з'яўляецца беспілотны аўтамабіль. Многія эксперты лічаць, што гэта будучыня транспарту. Але галоўнае, што перашкаджае неадкладнаму ўкараненню беспілотных аўтамабіляў у рух, гэта іх няспраўнасці, якія могуць паставіць пад пагрозу жыццё пасажыраў і пешаходаў. Дыскусія аб тым, якую пагрозу могуць прадстаўляць аўтаномныя транспартныя сродкі на дарогах, застаецца вельмі актуальнай. Ёсць людзі, якія лічаць, што аварый было б менш, калі б на дарогах пускалі беспілотныя аўтамабілі. З іншага боку, ёсць даследаванні, якія паказалі, што яны могуць выклікаць шмат аварый, таму што многія з іх дзеянняў будуць заснаваныя на перавагах, устаноўленых кіроўцам. Цяпер за дызайнерамі залежыць выбар паміж бяспекай і жыццём людзей і перавагамі гоншчыкаў (напрыклад, сярэдняй хуткасцю і некаторымі іншымі звычкамі ваджэння). Галоўнай мэтай беспілотных аўтамабіляў у любым выпадку павінна быць зніжэнне колькасці аўтамабільных аварый за кошт укаранення эфектыўных алгарытмаў штучнага інтэлекту і ўдасканаленых датчыкаў, якія могуць выяўляць і нават прадказваць любыя магчымыя сцэнары дарожнага руху. Аднак рэальнае жыццё заўсёды больш складанае, чым любая праграма, таму абмежаванні гэтай тэхналогіі па-ранейшаму з'яўляюцца адным з абмежавальных фактараў для яе шырокага ўкаранення. Яшчэ адна праблема — фактар даверу. Для многіх людзей з шматгадовым вопытам ваджэння перадача ўсяго даверу ў лічбавыя рукі можа разглядацца як акт сімвалічнай капітуляцыі перад лічбавымі тэндэнцыямі. У любым выпадку, пакуль усё гэта не будзе вырашана, некаторыя перадавыя тэхналагічныя рашэнні ўжо ўкаранёны ў новых аўтамабілях, і кіроўцы-людзі могуць атрымаць выгаду з розных датчыкаў, рашэнняў дапамогі пры тармажэнні і круіз-кантролю.
4. Шкодныя мэты
Тэхналогіі павінны абслугоўваць патрэбы людзей і выкарыстоўвацца для таго, каб зрабіць іх жыццё прасцейшым, прыемнейшым, а таксама эканоміць каштоўны час. Але часам тэхналогія штучнага інтэлекту таксама выкарыстоўваецца ў зламысных мэтах такім чынам, што стварае значную небяспеку для нашай фізічнай, лічбавай і палітычнай бяспекі.
- Фізічная бяспека: адна з патэнцыйных рызык штучнага інтэлекту, якая спачатку гучыць даволі драматычна і можа прастудзіць вас да касцей, - гэта патэнцыйная вайна паміж тэхналагічна развітымі краінамі, якая вядзецца аўтаномнымі сістэмамі зброі, запраграмаванымі на забойства найбольш эфектыўным і бязлітасным спосабам. Вось чаму надзвычай важна рэгуляваць развіццё такіх ваенных тэхналогій з дапамогай дагавораў, правілаў і санкцый, каб засцерагчы чалавецтва ад злавеснай рызыкі вайны на аснове штучнага інтэлекту.
- Лічбавая бяспека: хакеры ўжо ўяўляюць пагрозу нашай лічбавай бяспецы, і праграмнае забеспячэнне штучнага інтэлекту ўжо выкарыстоўваецца для прасунутага ўзлому. З распрацоўкай такога праграмнага забеспячэння хакеры будуць больш эфектыўнымі ў сваіх злачынствах, а наша ідэнтычнасць у Інтэрнэце стане больш уразлівай для крадзяжоў. Канфідэнцыяльнасць вашых асабістых даных можа быць яшчэ больш парушана з-за хітрых шкоднасных праграм, якія працуюць на аснове штучнага інтэлекту і становяцца яшчэ больш небяспечнымі праз выкарыстанне глыбокага навучання. Уявіце сабе лічбавага злодзея, які хаваецца за вашымі любімымі праграмамі, з кожным днём становіцца ўсё больш хітрым, вучыцца на мільёнах рэальных прыкладаў выкарыстання праграмнага забеспячэння і распрацоўвае складаныя крадзяжы асабістых дадзеных на аснове гэтых даных.
- Палітычная бяспека: у неспакойны час, у якім мы жывем, страх перад фальшывымі навінамі і фальшывымі запісамі цалкам апраўданы. ІІ можа нанесці вялікую шкоду аўтаматызаваным дэзінфармацыйным кампаніям, што можа быць надзвычай небяспечным падчас выбараў.
Такім чынам, у заключэнне мы маглі б спытаць сябе, якую шкоду можа нанесці нам штучны інтэлект і ці можа ён прынесці чалавецтву больш шкоды, чым карысці.
Эксперты сцвярджаюць, што этычнае развіццё і рэгулюючыя органы будуць гуляць важную ролю, калі справа даходзіць да змякчэння недахопаў, якія штучны інтэлект можа нанесці нашаму жыццю. Што б ні здарылася, мы ўпэўненыя, што гэта акажа вялікі ўплыў на наш свет у будучыні.
Праграмнае забеспячэнне для распазнання маўлення, заснаванае на перадавых пратаколах штучнага інтэлекту, ужо выкарыстоўваецца, і яно прыносіць шмат пераваг у дзелавы свет: працоўныя працэсы больш хуткія і прасцейшыя. Gglot з'яўляецца буйным гульцом у гэтай галіне, і мы ўкладваем значныя сродкі ў далейшае развіццё нашай тэхналогіі.