Потенциальные риски искусственного интеллекта

Каковы некоторые потенциальные риски искусственного интеллекта?

Искусственный интеллект, или ИИ, как его также часто называют, - это тема, которая много обсуждалась в последнее десятилетие. Он быстро развивается, делая рабочий процесс большинства компаний проще и эффективнее. Даже в повседневной жизни многих людей искусственный интеллект показал большой потенциал и уже внедряется во множество различных приложений, делая жизнь проще и проще. ИИ принес нам много преимуществ, а наука прокладывает путь к большему, поэтому можно с уверенностью сказать, что ИИ будет незаменим в будущем, если это еще не так.

Но как у каждой медали две стороны, так и у ИИ. Эта технология также имеет множество потенциальных рисков и недостатков. Многие эксперты и технические вдохновители нашего времени выражают свою обеспокоенность проблемами, которые ИИ может вызвать в будущем, и поэтому нам нужно проявлять осторожность, решая эти проблемы, пока их еще можно исправить. Что мы имеем в виду?

Есть много вещей, которые необходимо учитывать в отношении этих конкретных вопросов. В этой статье мы постараемся описать некоторые риски, которые поразительно быстрое развитие ИИ может принести нашему миру, и какие меры необходимо предпринять, чтобы отслеживать и направлять этот прогресс в правильном направлении.

1. Работа

Без названия 1 3

Мы уверены, что у каждого уже была возможность услышать или прочитать о потенциальном удовольствии, которое машины и автоматизация могут принести старой школе, на рабочих местах, основанных на людях. Некоторые люди могут страдать от разной степени беспокойства по поводу того, что машины крадут их рабочие места. Этот страх может быть вполне обоснованным, ведь автоматизация работы - это большой риск для многих: около 25% американцев могут потерять работу, потому что в какой-то момент машины смогут их заменить. Особому риску подвержены низкооплачиваемые должности, на которых человек выполняет повторяющиеся задачи, например, работа в администрации или в сфере общественного питания. Однако даже некоторые выпускники университетов подвержены риску, передовые алгоритмы машинного обучения могут заменить их на некоторых сложных рабочих местах, потому что они становятся все более совершенными, особенно за счет использования нейронных сетей и глубокого обучения.

Но мы не можем сказать, что роботы полностью вытеснят людей с рынка труда. Сотрудникам просто нужно будет приспосабливаться, обучаться и искать способ работы, сотрудничая с ИИ, максимально используя его эффективность и механическую логику. ИИ все еще не идеален, например, он не может выносить суждения, поэтому человеческий фактор по-прежнему будет иметь решающее значение при работе с машинами.

Существует множество технологий на основе искусственного интеллекта, которые используют автоматизированные решения, которые необходимо обучать, и это обучение зависит от участия человека. Хорошим примером этого являются машинные переводы, которые получают информацию из большого количества переводов, созданных человеком. Другой хороший пример - программное обеспечение для транскрипции, которое получает данные обучения из точных транскрипций, сделанных профессиональными людьми-транскрибаторами. Таким образом программное обеспечение постепенно улучшается, улучшая свои алгоритмы на примерах из реальной жизни. Люди-расшифровщики извлекают выгоду из программного обеспечения, поскольку оно помогает им делать расшифровки быстрее. Программа создает черновую версию расшифровки стенограммы, которая затем редактируется и исправляется транскрибером. Это экономит много времени и означает, что в конечном итоге конечный продукт будет доставлен быстрее и будет более точным.

2. Проблема предвзятости

В алгоритмах замечательно то, что они всегда принимают справедливые, непредвзятые решения, что резко контрастирует с субъективными и эмоциональными людьми. Или они? Дело в том, что процесс принятия решений любого автоматизированного программного обеспечения зависит от данных, на которых они были обучены. Таким образом, существует риск дискриминации в случаях, когда, например, определенный сегмент населения недостаточно представлен в используемых данных. Программное обеспечение для распознавания лиц уже исследуется для некоторых из этих проблем, случаи предвзятости уже имели место.

Отличным примером того, насколько предвзятым может быть искусственный интеллект, является COMPAS (Профилирование исправительных правонарушителей для альтернативных санкций). Это инструмент оценки рисков и потребностей для прогнозирования риска рецидивизма среди правонарушителей. Этот основанный на алгоритме инструмент был исследован, и результаты показали, что данные COMPAS были серьезно предвзяты на расовой почве. Например, согласно имеющимся данным, обвиняемые афроамериканцы чаще ошибочно считались имеющими более высокий риск рецидивизма, чем другие расы. Алгоритм также имел тенденцию делать противоположную ошибку в отношении людей белой расы.

Итак, что здесь произошло? Алгоритм зависит от данных, поэтому, если данные смещены, программное обеспечение, скорее всего, также даст смещенные результаты. Иногда это также имеет какое-то отношение к тому, как были собраны данные.

Технология автоматического распознавания речи также может быть предвзятой в зависимости от пола или расы из-за того, что данные обучения не обязательно выбираются в том отношении, которое обеспечило бы достаточную инклюзивность.

3. Проблемы безопасности

Без названия 2 2

Есть некоторые проблемы с искусственным интеллектом, которые настолько опасны, что могут привести к несчастным случаям. Одним из наиболее ярких примеров прикладной технологии искусственного интеллекта является беспилотный автомобиль. Многие эксперты считают, что это будущее транспорта. Но главное, что мешает немедленному внедрению беспилотных автомобилей в движение, - это их неисправности, которые могут поставить под угрозу жизнь пассажиров и пешеходов. Споры об угрозе, которую автономные транспортные средства могут представлять на дорогах, по-прежнему очень актуальны. Есть люди, которые думают, что было бы меньше аварий, если бы на дороге разрешили беспилотные автомобили. С другой стороны, есть исследования, которые показали, что они могут вызывать множество сбоев, потому что многие их действия будут основаны на предпочтениях, установленных драйвером. Теперь дизайнеры должны выбирать между безопасностью и жизнью людей и предпочтениями гонщиков (например, средней скоростью и некоторыми другими привычками вождения). Основной целью беспилотных автомобилей в любом случае должно быть сокращение количества автомобильных аварий за счет реализации эффективных алгоритмов искусственного интеллекта и передовых датчиков, которые могут обнаруживать и даже прогнозировать любые возможные сценарии движения. Однако реальная жизнь всегда сложнее любой программы, поэтому ограничения этой технологии по-прежнему являются одним из сдерживающих факторов для ее широкого внедрения. Другая проблема - фактор доверия. Для многих людей с многолетним опытом вождения передача всего доверия цифровым технологиям может рассматриваться как акт символической капитуляции перед цифровыми тенденциями. В любом случае, пока все это не будет решено, некоторые передовые технологические решения уже внедрены в новые автомобили, и водители-люди могут воспользоваться различными датчиками, системами вспомогательного торможения и круиз-контролем.

4. Вредоносные цели

Технологии должны удовлетворять потребности людей и использоваться, чтобы делать их жизнь проще, приятнее и экономить драгоценное время каждого. Но иногда технология искусственного интеллекта также используется в злонамеренных целях, что создает значительный риск для нашей физической, цифровой и политической безопасности.

  • Физическая безопасность: один из потенциальных рисков ИИ, который сначала звучит довольно драматично и может охладить вас до костей, - это потенциальная война между технологически развитыми странами, осуществляемая автономными системами оружия, запрограммированными на убийство наиболее эффективным и безжалостным образом. Вот почему чрезвычайно важно регулировать развитие таких военных технологий с помощью договоров, правил и санкций, чтобы уберечь человечество от зловещего риска войны на основе ИИ.
  • Цифровая безопасность: хакеры уже представляют угрозу нашей цифровой безопасности, а программное обеспечение ИИ уже используется для расширенного взлома. С разработкой такого программного обеспечения хакеры будут более эффективны в своих преступлениях, а наша онлайн-личность станет более уязвимой для краж. Конфиденциальность ваших личных данных может быть еще больше скомпрометирована из-за скрытого вредоносного ПО, основанного на искусственном интеллекте, и еще более опасна благодаря использованию глубокого обучения. Представьте себе цифрового вора, скрывающегося за вашими любимыми программами, который день ото дня становится все более хитрым, извлекает уроки из миллионов реальных примеров использования программного обеспечения и создает сложные кражи личных данных на основе этих данных.
Без названия 3 2
  • Политическая безопасность: в неспокойные времена, в которые мы живем, страх перед фальшивыми новостями и фальшивыми записями вполне оправдан. Искусственный интеллект может нанести большой ущерб автоматизированным кампаниям дезинформации, которые могут быть чрезвычайно опасными во время выборов.

Итак, в заключение мы могли бы спросить себя, какой ущерб может нанести нам искусственный интеллект и может ли он принести больше вреда, чем пользы человечеству.

Эксперты заявляют, что этические разработки и регулирующие органы будут играть важную роль, когда дело доходит до смягчения недостатков, которые искусственный интеллект может нанести нашей жизни. Что бы ни случилось, мы уверены, что это окажет огромное влияние на наш мир в будущем.

Программное обеспечение для распознавания речи, основанное на передовых протоколах искусственного интеллекта, уже используется, и оно дает много преимуществ для делового мира: рабочие процессы становятся быстрее и проще. Gglot - крупный игрок в этой области, и мы активно инвестируем в дальнейшее развитие наших технологий.