Потенциални рискове от изкуствения интелект

Какви са някои потенциални рискове от изкуствения интелект?

Изкуственият интелект или AI, както често се споменава, е тема, която се обсъжда много през последното десетилетие. Той се развива бързо, което прави работния процес на повечето фирми по-лесен и по-ефективен. Дори в ежедневието на много хора AI е показал голям потенциал и вече се внедрява в много различни приложения, правейки живота по-лесен и по-малко сложен. AI ни донесе много предимства и науката проправя пътя за много повече, така че е безопасно да се каже, че AI ще бъде незаменим в бъдеще, ако вече не е.

Но както всеки медал има две страни, така и AI. Тази технология идва и с много потенциални рискове и недостатъци. Много експерти и технически ръководители на нашето време изразяват своята загриженост относно проблемите, които изкуственият интелект може да причини в бъдеще и затова трябва да внимаваме да се заемем с тези проблеми, докато все още могат да бъдат коригирани. Какво имаме предвид с това?

Има много неща, които трябва да се вземат предвид по отношение на тези конкретни въпроси. В тази статия ще се опитаме да опишем някои от рисковете, които ослепително бързото развитие на AI може да донесе на нашия свят и какви мерки трябва да се вземат, за да се наблюдава и насочва този напредък в правилната посока.

1. Работни места

Без заглавие 1 3

Сигурни сме, че всеки вече е имал възможността да чуе или прочете за потенциалното удоволствие, което машините и автоматизацията биха могли да предоставят на старата школа, човешки работни места. Някои хора може да страдат от различна степен на безпокойство относно машините, които крадат работата им. Този страх може да е основателен, автоматизацията на работата е голям риск за много хора: около 25% от американците може да загубят работата си, защото в един момент машините ще могат да ги заменят. Особено изложени на риск са позициите с ниско заплащане, на които човек изпълнява повтарящи се задачи, като работа в администрация или ресторантьорство. Въпреки това, дори някои висшисти са изложени на риск, усъвършенстваните алгоритми за машинно обучение може да са в състояние да ги заменят на някои сложни работни позиции, тъй като те стават все по-усъвършенствани, особено чрез използването на невронни мрежи и дълбоко обучение.

Но не можем да кажем, че роботите напълно ще изтласкат хората от пазара на труда. Служителите просто ще трябва да се приспособят, да се образоват и да намерят начин да работят, като си сътрудничат с AI, използвайки възможно най-добре неговата ефективност и механична логика. AI все още не е перфектен, например не е в състояние да прави преценки, така че човешкият фактор все още ще бъде решаващ, когато работите заедно с машини.

Има много технологии, базирани на AI, които използват автоматизирани решения, които трябва да бъдат обучени и това обучение зависи от човешкия принос. Добър пример за това са машинните преводи, които получават информация от голям брой генерирани от човека преводи. Друг добър пример е софтуерът за транскрипция, който получава данните за обучение от точни транскрипции, направени от професионални транскрибирачи. По този начин софтуерът се подобрява малко по малко, усъвършенствайки своите алгоритми чрез примери от реалния живот. Човешките транскриптори се възползват от софтуера, защото им помага да правят преписи по-бързо. Софтуерът генерира груба, чернова версия на преписа, която след това се редактира и коригира от преписвача. Това спестява много време и означава, че в крайна сметка крайният продукт ще бъде доставен по-бързо и ще бъде по-точен.

2. Проблемът с пристрастията

Страхотно нещо за алгоритмите е, че те винаги вземат справедливи, непредубедени решения, в рязък контраст със субективните и емоционални хора. Или го правят? Истината е, че процесът на вземане на решения на всеки автоматизиран софтуер зависи от данните, върху които е бил обучен. Така че съществува риск от дискриминация в случаите, когато например определен сегмент от населението не е достатъчно представен в използваните данни. Софтуерът за лицево разпознаване вече се проучва за някои от тези проблеми, вече са възникнали случаи на пристрастия.

Един чудесен пример за това колко предубеден може да бъде изкуственият интелект е COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Това е инструмент за оценка на риска и нуждите за прогнозиране на риска от рецидив сред нарушителите. Този базиран на алгоритъм инструмент беше изследван и резултатите показаха, че данните от COMPAS са сериозно расово предубедени. Например, според данните, афро-американските обвиняеми е по-вероятно да бъдат неправилно преценени, че имат по-висок риск от рецидивизъм, отколкото други раси. Алгоритъмът също е склонен да прави обратната грешка с хора от бялата раса.

И така, какво се случи тук? Алгоритъмът зависи от данните, така че ако данните са пристрастни, софтуерът вероятно също ще даде пристрастия. Понякога също има нещо общо с това как са събрани данните.

Технологията за автоматизирано разпознаване на реч също може да бъде предубедена в зависимост от пола или расата поради факта, че данните за обучението не са непременно избрани по въпрос, който би осигурил достатъчно приобщаване.

3. Съображения за безопасност

Без заглавие 2 2

Има някои проблеми с изкуствения интелект, които са толкова опасни, че могат да доведат до инциденти. Един от най-ярките примери за приложена AI технология е самоуправляващата се кола. Много експерти смятат, че това е бъдещето на транспорта. Но основното нещо, което пречи на незабавното внедряване на самоуправляващите се автомобили в движението, са неизправностите им, които могат да застрашат живота на пътниците и пешеходците. Дебатът за заплахата, която автономните превозни средства могат да представляват по пътищата, все още е много актуален. Има хора, които смятат, че може да има по-малко инциденти, ако се допускат самоуправляващите се коли по пътищата. От друга страна, има проучвания, които показват, че те могат да причинят много катастрофи, тъй като много от техните действия ще се основават на предпочитанията, зададени от водача. Сега остава на дизайнерите да избират между безопасността и живота на хората и предпочитанията на водача (като средна скорост и някои други навици на шофиране). Основната цел на самоуправляващите се автомобили във всеки случай трябва да бъде намаляването на автомобилните произшествия чрез внедряването на ефективни AI алгоритми и усъвършенствани сензори, които могат да открият и дори да предскажат всякакви възможни сценарии на трафика. Реалният живот обаче винаги е по-сложен от която и да е програма, така че ограниченията на тази технология все още са един от ограничаващите фактори за нейното широко разпространение. Друг проблем е факторът доверие. За много хора с години и години шофьорски опит, пускането на цялото доверие в цифрови ръце може да се разглежда като акт на символична капитулация пред цифровите тенденции. Във всеки случай, докато всичко това бъде решено, някои усъвършенствани технологични решения вече са внедрени в по-новите автомобили и хората-шофьори могат да се възползват от различни сензори, решения за подпомагане на спирането и круиз контрол.

4. Злонамерени цели

Технологията трябва да служи на нуждите на хората и да се използва, за да направи живота им по-лесен, по-приятен и трябва да пести ценното време на всички. Но понякога AI технологията се използва и за злонамерени цели по начин, който представлява значителен риск за нашата физическа, цифрова и политическа сигурност.

  • Физическа сигурност: Един потенциален риск от ИИ, който звучи доста драматично в началото и може да ви смрази до костите, е потенциална война между технологично напреднали държави, водена от автономни оръжейни системи, програмирани да убиват по най-ефективния и безмилостен начин. Ето защо е изключително важно да се регулира развитието на такива военни технологии чрез договори, разпоредби и санкции, за да се предпази човечеството от зловещия риск от война, базирана на ИИ.
  • Цифрова сигурност: Хакерите вече са заплаха за нашата цифрова безопасност и софтуерът с изкуствен интелект вече се използва за усъвършенствано хакване. С разработването на такъв софтуер хакерите ще бъдат по-ефективни в злоупотребите си и нашата онлайн самоличност ще бъде по-уязвима за кражба. Поверителността на вашите лични данни може да бъде компрометирана още повече чрез фин злонамерен софтуер, захранван от AI и направен още по-опасен чрез използването на дълбоко обучение. Представете си дигитален крадец, дебнещ зад любимите ви програми, ставащ по-хитър от ден на ден, учейки се от милиони реални примери за използване на софтуер и създавайки сложни кражби на самоличност въз основа на тези данни.
Без заглавие 3 2
  • Политическа сигурност: в бурните времена, в които живеем, страхът от фалшиви новини и измамни записи е напълно оправдан. AI може да причини много щети чрез автоматизирани кампании за дезинформация, които могат да бъдат изключително опасни по време на избори.

И така, в заключение, може да се запитаме колко щети може да ни причини изкуственият интелект и може ли да причини повече вреда, отколкото полза на човечеството.

Експертите заявяват, че етичното развитие и регулаторните органи ще играят основна роля, когато става въпрос за смекчаване на недостатъците, които изкуственият интелект може да причини на живота ни. Каквото и да се случи, ние сме сигурни, че ще има огромно влияние върху нашия свят в бъдеще.

Софтуерът за разпознаване на реч, базиран на усъвършенствани AI протоколи, вече се използва и носи много предимства в света на бизнеса: работните процеси са по-бързи и по-прости. Gglot е голям играч в тази област и ние инвестираме сериозно в по-нататъшното развитие на нашата технология.