Потенційні ризики штучного інтелекту

Які потенційні ризики штучного інтелекту?

Штучний інтелект, або ШІ, як його також часто називають, є темою, яка багато обговорюється в останнє десятиліття. Він швидко розвивається, що робить робочий процес більшості компаній простішим та ефективнішим. Навіть у повсякденному житті багатьох людей ШІ продемонстрував великий потенціал і вже впроваджується в багатьох різних програмах, що робить життя простішим і менш складним. ШІ приніс нам багато переваг, і наука прокладає шлях до ще багато чого, тому можна з упевненістю сказати, що ШІ стане незамінним у майбутньому, якщо це ще не так.

Але як кожна медаль має дві сторони, так і ШІ. Ця технологія також має багато потенційних ризиків і недоліків. Багато експертів і технічних керівників нашого часу висловлюють свою стурбованість проблемами, які AI може спричинити в майбутньому, і тому ми повинні бути обережними, щоб вирішувати ці проблеми, поки їх ще можна виправити. Що ми маємо на увазі під цим?

Є багато речей, які потрібно врахувати стосовно цих конкретних питань. У цій статті ми спробуємо описати деякі ризики, які сліпуче швидкий розвиток штучного інтелекту може принести нашому світу, і які заходи необхідно вжити, щоб відстежувати та спрямовувати цей прогрес у правильному напрямку.

1. Робота

Без назви 1 3

Ми впевнені, що кожен вже мав можливість почути або прочитати про потенційне задоволення, яке машини та автоматизація можуть подарувати робочим місцям старої школи, заснованим на людині. Деякі люди можуть страждати від різного ступеня занепокоєння з приводу того, що машини крадуть їх роботу. Цей страх може бути цілком обгрунтованим, тому що автоматизація робочих місць є великою небезпекою для багатьох людей: близько 25% американців можуть втратити роботу, тому що в якийсь момент машини зможуть їх замінити. Особливо під загрозою є посади з низькою заробітною платою, на яких людина виконує повторювані завдання, як-от роботу в управлінні чи громадському харчуванні. Однак навіть деякі випускники університетів піддаються ризику, передові алгоритми машинного навчання можуть замінити їх на деяких складних робочих посадах, оскільки вони стають все більш досконалими, особливо завдяки використанню нейронних мереж і глибокого навчання.

Але ми не можемо сказати, що роботи повністю витіснять людей з ринку праці. Співробітникам доведеться просто адаптуватися, навчатися та знаходити спосіб роботи, співпрацюючи з ШІ, максимально застосовуючи його ефективність та механічну логіку. ШІ все ще не досконалий, наприклад, він не може приймати рішення, тому людський фактор все ще буде вирішальним під час роботи разом з машинами.

Існує багато технологій на основі штучного інтелекту, які використовують автоматизовані рішення, які потрібно навчати, і це навчання залежить від людського внеску. Хорошим прикладом цього є машинний переклад, який отримує вхідні дані від великої кількості перекладів, створених людиною. Іншим хорошим прикладом є програмне забезпечення для транскрипції, яке отримує навчальні дані з точних транскрипцій, зроблених професійними транскрипторами. Таким чином, програмне забезпечення поступово вдосконалюється, уточнюючи свої алгоритми на прикладах із реального життя. Програмне забезпечення для людей, які транскрибують, виграє, оскільки воно допомагає їм швидше робити стенограми. Програмне забезпечення генерує приблизну, чорнову версію розшифровки, яку потім редагує та виправляє транскрибатор. Це значно економить час, а значить, в кінцевому підсумку кінцевий продукт буде доставлено швидше і точніше.

2. Проблема упередженості

Чудова особливість алгоритмів полягає в тому, що вони завжди приймають справедливі, неупереджені рішення, на відміну від суб’єктивних та емоційних людей. Або вони? Правда полягає в тому, що процес прийняття рішень будь-яким автоматизованим програмним забезпеченням залежить від даних, на яких вони пройшли навчання. Таким чином, існує ризик дискримінації в тих випадках, коли, наприклад, певна частина населення недостатньо представлена у використаних даних. Програмне забезпечення для розпізнавання обличчя вже досліджується щодо деяких з цих проблем, випадки упередженості вже мали місце.

Одним із чудових прикладів того, наскільки упередженим може бути штучний інтелект, є COMPAS (Профіль керування виправними злочинцями для альтернативних санкцій). Це інструмент оцінки ризиків і потреб для прогнозування ризику рецидиву серед правопорушників. Цей інструмент, заснований на алгоритмі, було досліджено, і результати показали, що дані COMPAS були серйозно упереджені в расовому відношенні. Наприклад, згідно з даними, у афроамериканських обвинувачених з більшою ймовірністю помилково оцінили, що вони мають вищий ризик рецидиву, ніж інші раси. Алгоритм також мав тенденцію робити протилежну помилку з людьми білої раси.

Отже, що тут сталося? Алгоритм залежить від даних, тому, якщо дані упереджені, програмне забезпечення, ймовірно, також дасть упереджені результати. Іноді це також пов’язано з тим, як були зібрані дані.

Технологія автоматичного розпізнавання мовлення також може бути упередженою залежно від статі чи раси через той факт, що дані навчання не обов’язково вибираються в тій матерії, яка б забезпечувала достатню інклюзивність.

3. Питання безпеки

Без назви 2 2

Існують деякі проблеми зі штучним інтелектом, які настільки небезпечні, що можуть призвести до нещасних випадків. Одним із яскравіших прикладів застосування технології штучного інтелекту є самокерований автомобіль. Багато експертів вважають, що це майбутнє транспорту. Але головне, що заважає негайному впровадженню в рух самокерованих автомобілів – це його несправності, які можуть загрожувати життю пасажирів та пішоходів. Дискусія про загрозу, яку можуть представляти автономні транспортні засоби на дорогах, досі дуже актуальна. Є люди, які думають, що аварій було б менше, якби на дорозі дозволили безпілотним автомобілям. З іншого боку, є дослідження, які показали, що вони можуть викликати багато аварій, оскільки багато з їхніх дій будуть засновані на перевагах, встановлених водієм. Тепер дизайнери мають вибирати між безпекою та життям людей і перевагами водія (наприклад, середня швидкість та деякі інші звички водіння). Головною метою самокерованих автомобілів у будь-якому випадку має бути зменшення автомобільних аварій за рахунок впровадження ефективних алгоритмів AI та вдосконалених датчиків, які можуть виявляти і навіть передбачати будь-які можливі сценарії дорожнього руху. Однак реальне життя завжди складніше, ніж будь-яка програма, тому обмеження цієї технології все ще є одним з обмежуючих факторів для її широкого впровадження. Ще одна проблема – фактор довіри. Для багатьох людей з багаторічним досвідом водіння передача всієї довіри в цифрові руки може розглядатися як акт символічної капітуляції перед цифровими тенденціями. У будь-якому випадку, поки все це не буде вирішено, деякі передові технологічні рішення вже реалізовані в новіших автомобілях, і люди-водії можуть скористатися різними датчиками, рішеннями для допоміжного гальмування та круїз-контролем.

4. Шкідливі цілі

Технологія повинна служити потребам людей і використовуватися, щоб зробити їхнє життя легшим, приємнішим, а також заощадити дорогоцінний час кожного. Але іноді технологія штучного інтелекту також використовується зі зловмисними цілями, що становить значний ризик для нашої фізичної, цифрової та політичної безпеки.

  • Фізична безпека: один з потенційних ризиків штучного інтелекту, який на перший погляд звучить досить драматично і може застудити вас до кісток, — це потенційна війна між технологічно розвиненими країнами, що ведеться за допомогою автономних систем зброї, запрограмованих на вбивство найефективнішим і безжальним способом. Ось чому надзвичайно важливо регулювати розвиток такої військової технології за допомогою договорів, правил і санкцій, щоб захистити людство від зловісного ризику війни на основі штучного інтелекту.
  • Цифрова безпека: хакери вже становлять загрозу нашій цифровій безпеці, а програмне забезпечення AI вже використовується для просунутого злому. З розробкою такого програмного забезпечення хакери будуть більш ефективними в своїх злочинах, а наша особистість в Інтернеті стане більш вразливою для крадіжки. Конфіденційність ваших особистих даних може бути ще більш скомпрометована через витончене зловмисне програмне забезпечення, що працює на основі штучного інтелекту, і зробити це ще більш небезпечним завдяки використанню глибокого навчання. Уявіть собі цифрового злодія, який ховається за вашими улюбленими програмами, з кожним днем стає хитрішим, навчається на мільйонах реальних прикладів використання програмного забезпечення та створює складні крадіжки особистих даних на основі цих даних.
Без назви 3 2
  • Політична безпека: у неспокійний час, у який ми живемо, страх перед фейковими новинами та шахрайськими записами цілком виправданий. ШІ може завдати значної шкоди автоматизованими кампаніями дезінформації, які можуть бути надзвичайно небезпечними під час виборів.

Отже, на завершення ми можемо запитати себе, скільки шкоди може завдати нам штучний інтелект і чи може він завдати людству більше шкоди, ніж користі.

Експерти стверджують, що етичний розвиток та регуляторні органи відіграватимуть важливу роль, коли мова заходить про пом’якшення недоліків, які штучний інтелект може спричинити для нашого життя. Що б не сталося, ми впевнені, що це матиме величезний вплив на наш світ у майбутньому.

Програмне забезпечення для розпізнавання мовлення на основі передових протоколів штучного інтелекту вже використовується, і воно приносить багато переваг у бізнес-світ: робочі процеси швидші та простіші. Gglot є великим гравцем у цій галузі, і ми інвестуємо значні кошти в подальший розвиток нашої технології.