Потенцијални ризици од вештачката интелигенција

Кои се некои потенцијални ризици од вештачката интелигенција?

Вештачката интелигенција, или вештачката интелигенција, како што исто така често се нарекува, е тема за која многу се дискутира во последната деценија. Се развива брзо, што го прави работниот тек на повеќето бизниси полесен и поефикасен. Дури и во секојдневниот живот на многу луѓе, вештачката интелигенција покажа голем потенцијал и веќе се имплементира во многу различни апликации, што го прави животот полесен и помалку комплициран. Вештачката интелигенција ни донесе многу предности и науката го отвора патот за многу повеќе што следуваат, така што слободно може да се каже дека вештачката интелигенција ќе биде неопходна во иднина, ако веќе не е.

Но, како што секој медал има две страни, така и вештачката интелигенција. Оваа технологија, исто така, доаѓа со многу потенцијални ризици и недостатоци. Многу експерти и технички организатори на нашето време ја изразуваат својата загриженост за проблемите што вештачката интелигенција би можела да ги предизвика во иднина и затоа треба да бидеме внимателни да ги решиме овие прашања додека тие сè уште можат да се поправат. Што мислиме со тоа?

Има многу работи што треба да се земат предвид во однос на овие конкретни прашања. Во оваа статија ќе се обидеме да опишеме некои од ризиците што блескаво брзиот развој на вештачката интелигенција може да ги донесе во нашиот свет и какви мерки треба да се преземат за да се следи и води тој напредок во вистинската насока.

1. Работни места

Без наслов 1 3

Сигурни сме дека сите веќе имаа можност да слушнат или прочитаат за потенцијалниот третман што машините и автоматиката можат да го претстават на старите училишта, работни места базирани на луѓе. Некои луѓе може да страдаат од различни степени на вознемиреност за машините кои им ги крадат работните места. Тој страв може да е основан, автоматизацијата на работните места е голем ризик за многу луѓе: околу 25% од Американците би можеле да ја загубат работата бидејќи во одреден момент машините ќе можат да ги заменат. Посебно се изложени на ризик позициите со ниски плати во кои едно лице извршува задачи што се повторуваат, како што се работни места во администрацијата или услугата за храна. Сепак, дури и некои дипломирани универзитети се изложени на ризик, напредните алгоритми за машинско учење можеби ќе можат да ги заменат на некои сложени работни позиции бидејќи стануваат се попрефинети, особено преку употреба на невронски мрежи и длабоко учење.

Но, навистина не можеме да кажеме дека роботите целосно ќе ги истиснат луѓето од пазарот на труд. Вработените едноставно ќе треба да се приспособат, да се едуцираат и да најдат начин да работат со соработка со вештачката интелигенција, искористувајќи ја на најдобар можен начин нејзината ефикасност и механичка логика. Вештачката интелигенција сè уште не е совршена, на пример, не е способна да проценува, така што човечкиот фактор сепак ќе биде одлучувачки кога работиме заедно со машините.

Има многу технологија базирана на вештачка интелигенција која користи автоматизирани решенија кои треба да се обучат и оваа обука зависи од човечки придонес. Добар пример за ова се машинските преводи кои добиваат придонес од голем број на човечки генерирани преводи. Друг добар пример е софтверот за транскрипција кој ги добива податоците за обука од точни транскрипции направени од професионални човечки препишувачи. На овој начин софтверот се подобрува малку по малку, усовршувајќи ги своите алгоритми преку реални примери. Човечките препишувачи имаат корист од софтверот затоа што им помага да направат транскрипти побрзо. Софтверот генерира груба, нацрт верзија на преписот, кој потоа се уредува и коригира од страна на препишувачот. Ова заштедува многу време и значи дека на крајот финалниот производ ќе се испорача побрзо и ќе биде попрецизен.

2. Проблемот на пристрасност

Добрата работа за алгоритмите е тоа што тие секогаш носат праведни, непристрасни одлуки, во остар контраст со субјективните и емотивните луѓе. Или тие? Вистината е дека процесот на донесување одлуки на секој автоматски софтвер зависи од податоците за кои се обучени. Значи, постои ризик од дискриминација во случаи кога на пример одреден сегмент од населението не е доволно застапен во користените податоци. Софтверот за препознавање лице веќе се истражува за некои од овие проблеми, веќе имало случаи на пристрасност.

Еден одличен пример за тоа колку може да биде пристрасна вештачката интелигенција е COMPAS (Профилирање на поправните престапници за управување со алтернативни санкции). Ова е алатка за проценка на ризикот и потребите за предвидување на ризикот од рецидивизам кај прекршителите. Оваа алатка базирана на алгоритам беше испитана и резултатите покажаа дека податоците на COMPAS биле сериозно расно пристрасни. На пример, според податоците, афроамериканските обвинети имале поголема веројатност да бидат погрешно оценети дека имаат поголем ризик од рецидивизам од другите раси. Алгоритмот, исто така, има тенденција да ја направи спротивната грешка со луѓето од белата раса.

Па, што се случи овде? Алгоритмот зависи од податоците, па ако податоците се пристрасни, софтверот најверојатно ќе даде и пристрасни резултати. Понекогаш има врска и со тоа како се собрани податоците.

Технологијата за автоматско препознавање говор, исто така, може да биде пристрасна во зависност од полот или расата поради фактот што податоците за обуката не се нужно избрани во прашање што ќе обезбеди доволно инклузивност.

3. Безбедносни грижи

Без наслов 2 2

Има некои проблеми со вештачката интелигенција кои се толку опасни што можат да доведат до несреќи. Еден од поистакнатите примери на применета технологија за вештачка интелигенција е самоуправувачкиот автомобил. Многу експерти веруваат дека ова е иднината на транспортот. Но, главната работа што го попречува итно имплементирање на самоуправувачките автомобили во сообраќајот се неговите неисправности кои можат да го загрозат животот на патниците и пешаците. Дебатата за заканата што би можеле да ја претставуваат автономните возила на патиштата е сè уште многу актуелна. Има луѓе кои мислат дека би можело да има помалку сообраќајни несреќи доколку се пропуштаат самоуправувачки автомобили на патот. Од друга страна, постојат студии кои покажаа дека тие можат да предизвикаат многу сообраќајни несреќи, бидејќи многу од нивните постапки ќе се засноваат на преференциите поставени од возачот. Сега останува на дизајнерите да изберат помеѓу безбедноста и животот на луѓето и преференциите на возачот (како просечна брзина и некои други навики за возење). Главната цел на самоуправувачките автомобили во секој случај треба да биде намалувањето на сообраќајните несреќи, преку имплементација на ефикасни алгоритми за вештачка интелигенција и напредни сензори кои можат да детектираат, па дури и да предвидат какви било можни сообраќајни сценарија. Сепак, реалниот живот е секогаш покомплициран од која било програма, така што ограничувањата на оваа технологија сè уште се еден од ограничувачките фактори за нејзината широка имплементација. Друг проблем е факторот на доверба. За многу луѓе со години и години искуство во возењето, ставањето на сета доверба во дигиталните раце може да се смета како чин на симболична капитулација пред дигиталните трендови. Во секој случај, додека сето ова не се реши, некои напредни технолошки решенија веќе се имплементирани во поновите автомобили, а човечките возачи можат да имаат корист од различни сензори, решенија за помош за сопирање и темпомат.

4. Злонамерни цели

Технологијата треба да им служи на потребите на луѓето и да се користи за да им го олесни, попријатниот живот и треба да заштеди сечие драгоцено време. Но, понекогаш технологијата на вештачката интелигенција се користи и за злонамерни цели, на начин што претставува значителен ризик за нашата физичка, дигитална и политичка безбедност.

  • Физичка безбедност: Еден потенцијален ризик од вештачката интелигенција, кој на почетокот звучи доста драматично и може да ве разлади до коски е потенцијалната војна меѓу технолошки напредните земји, спроведена од автономни системи на оружје програмирани да убиваат на најефикасен и најнемилосрден начин. Затоа е исклучително важно да се регулира развојот на таквата воена технологија преку договори, регулативи и санкции, со цел да се заштити човештвото од застрашувачкиот ризик од војување базирано на вештачка интелигенција.
  • Дигитална безбедност: Хакерите веќе се закана за нашата дигитална безбедност и софтверот за вештачка интелигенција веќе се користи за напредно хакирање. Со развојот на таков софтвер, хакерите ќе бидат поефикасни во нивните злодела и нашиот онлајн идентитет ќе биде поранлив на кражби. Приватноста на вашите лични податоци може да биде загрозена уште повеќе преку суптилен малициозен софтвер, напојуван со вештачка интелигенција и уште поопасен преку употреба на длабоко учење. Замислете дигитален крадец, кој демне во задниот дел на вашите омилени програми, станува се полукав од ден на ден, учи од милиони примери од реалниот живот за употреба на софтвер и изработува сложени кражби на идентитет врз основа на тие податоци.
Без наслов 3 2
  • Политичка безбедност: во турбулентното време во кое живееме, стравот од лажни вести и лажни снимки е сосема оправдан. Вештачката интелигенција може да направи голема штета со автоматизирани кампањи за дезинформација, кои можат да бидат исклучително опасни за време на изборите.

Така, за да заклучиме, би можеле да се запрашаме колкава штета може да ни направи вештачката интелигенција и дали може да направи повеќе штета отколку добро за човештвото.

Експертите наведуваат дека етичкиот развој и регулаторните тела ќе играат голема улога кога станува збор за ублажување на недостатоците што вештачката интелигенција може да ги предизвика во нашите животи. Што и да се случи, сигурни сме дека тоа ќе има огромно влијание врз нашиот свет во иднина.

Веќе се користи софтвер за препознавање говор, базиран на напредни протоколи за вештачка интелигенција и носи многу предности во деловниот свет: работните текови се побрзи и поедноставни. Gglot е голем играч на ова поле и ние силно инвестираме во понатамошниот развој на нашата технологија.