人工知能の潜在的なリスク

人工知能の潜在的なリスクは何ですか?

人工知能、またはよく呼ばれるAIは、過去10年間で多く議論されてきたテーマです。それは急速に発展しており、ほとんどの企業のワークフローをより簡単かつ効率的にしています。多くの人々の日常生活においてさえ、AIは大きな可能性を示しており、すでに多くの異なるアプリに実装されているため、生活がより簡単で複雑ではなくなります。 AIは私たちに多くの利点をもたらし、科学はさらに多くのことを実現する道を開いているので、AIがまだ必要ではない場合、将来的には不可欠であると言っても過言ではありません。

しかし、すべてのメダルに2つの側面があるように、AIにも2つの側面があります。このテクノロジーには、多くの潜在的なリスクとデメリットもあります。私たちの時代の多くの専門家や技術の首謀者は、AIが将来引き起こす可能性のある問題について懸念を表明しているため、これらの問題を修正できる間は注意深く対処する必要があります。それはどういう意味ですか?

これらの特定の問題に関して考慮する必要があることがたくさんあります。この記事では、AIの驚くほど速い開発が私たちの世界にもたらす可能性のあるいくつかのリスクと、その進行を正しい方向に監視およびガイドするためにどのような対策を講じる必要があるかについて説明します。

1.仕事

無題 1 3

機械や自動化が古い学校の人間ベースの職場にもたらす可能性のある扱いについて、誰もがすでに聞いたり読んだりする機会があったと確信しています。一部の人々は、自分の仕事を盗む機械についてさまざまな程度の不安に苦しむかもしれません。その恐れは十分に根拠があるかもしれません、仕事の自動化は多くの人々にとって大きなリスクです:ある時点で機械が彼らを置き換えることができるのでアメリカ人の約25%は仕事を失うかもしれません。特に危険にさらされているのは、管理職や外食産業などの反復的な仕事を行う低賃金の職位です。ただし、一部の大学卒業生でさえ危険にさらされていますが、特にニューラルネットワークとディープラーニングを使用することで、高度な機械学習アルゴリズムがより洗練されているため、複雑な作業位置でそれらを置き換えることができる場合があります。

しかし、ロボットが人間を完全に雇用市場から追い出すとは言えません。従業員は、AIと協力して、その効率と機械的ロジックを最大限に活用して、調整し、自分自身を教育し、作業方法を見つける必要があります。 AIはまだ完璧ではありません。たとえば、判断を下すことができないため、機械と一緒に作業する場合は、人的要因が依然として決定的です。

トレーニングが必要な自動ソリューションを使用するAIベースのテクノロジーはたくさんあり、このトレーニングは人間の入力に依存します。この良い例は、人間が生成した多数の翻訳から入力を取得する機械翻訳です。もう1つの良い例は、プロの人間の転写者によって行われた正確な転写からトレーニングデータを取得する転写ソフトウェアです。このようにして、ソフトウェアは少しずつ拡張され、実際の例を通じてアルゴリズムが改良されます。人間の筆記者は、筆記録をより速くするのに役立つため、ソフトウェアの恩恵を受けます。ソフトウェアは、トランスクリプトのラフなドラフトバージョンを生成します。これは、トランスクリプトによって編集および修正されます。これは多くの時間を節約し、最終的に最終製品がより速く配達され、より正確になることを意味します。

2.バイアスの問題

アルゴリズムの優れている点は、主観的で感情的な人間とは対照的に、常に公平で偏見のない決定を下すことです。それとも彼らですか?真実は、自動化されたソフトウェアの意思決定プロセスは、それらがトレーニングされたデータに依存しているということです。そのため、たとえば母集団の特定のセグメントが使用済みデータで十分に表されていない場合、差別のリスクがあります。顔認識ソフトウェアは、これらの問題のいくつかについてすでに調査されており、バイアスのケースはすでに発生しています。

人工知能がいかに偏っている可能性があるかを示す1つの優れた例は、COMPAS(代替制裁のための修正犯罪者管理プロファイリング)です。これは、犯罪者の再犯リスクを予測するためのリスクとニーズの評価ツールです。このアルゴリズムベースのツールが調査され、結果は、COMPASデータが深刻な人種的偏見を持っていることを示しています。たとえば、データによると、アフリカ系アメリカ人の被告は、他の人種よりも再犯のリスクが高いと誤って判断される可能性が高かった。アルゴリズムはまた、白人の人々とは逆の間違いを犯す傾向がありました。

それで、ここで何が起こったのですか?アルゴリズムはデータに依存するため、データに偏りがある場合、ソフトウェアも偏った結果をもたらす可能性があります。また、データの収集方法と関係がある場合もあります。

自動音声認識テクノロジーは、十分な包括性を確保するためにトレーニングデータが必ずしも選択されるとは限らないため、性別や人種によってもバイアスがかかる可能性があります。

3.安全上の懸念

無題 2 2

人工知能には、事故につながるほど危険な問題がいくつかあります。応用AI技術の最も顕著な例の1つは、自動運転車です。多くの専門家は、これが輸送の未来であると信じています。しかし、自動運転車の交通への即時の実装を妨げている主なものは、乗客と歩行者の生命を危険にさらす可能性のあるその誤動作です。自動運転車が道路にもたらす可能性のある脅威についての議論は、まだ非常に現実的です。自動運転車が道路に出れば事故は減ると思う人もいます。一方で、彼らの行動の多くはドライバーによって設定された好みに基づいているので、それらが多くのクラッシュを引き起こすかもしれないことを示した研究があります。現在、安全性と人々の生活およびライダーの好み(平均速度やその他の運転習慣など)のどちらかを選択するのは設計者の責任です。いずれにせよ、自動運転車の主な目標は、効率的なAIアルゴリズムと、考えられるあらゆる交通シナリオを検出および予測できる高度なセンサーの実装を通じて、自動車事故を減らすことです。ただし、実際の生活はどのプログラムよりも常に複雑であるため、このテクノロジの制限は、その広範な実装の制限要因の1つです。もう一つの問題は信頼の要因です。何年にもわたる運転経験を持つ多くの人々にとって、すべての信頼をデジタルの手に委ねることは、デジタルトレンドへの象徴的な降伏の行為と見なされるかもしれません。いずれにせよ、これらすべてが解決されるまで、いくつかの高度な技術ソリューションが新しい車にすでに実装されており、人間のドライバーはさまざまなセンサー、アシストブレーキソリューション、クルーズコントロールの恩恵を受けることができます。

4.悪意のある目的

テクノロジーは人々のニーズに応え、彼らの生活をより簡単に、より楽しくするために使用されるべきであり、それはすべての人の貴重な時間を節約するはずです。しかし、AIテクノロジーが悪意のある目的で使用されることもあり、物理的、デジタル的、政治的なセキュリティに重大なリスクをもたらします。

  • 物理的セキュリティ:AIの潜在的なリスクの1つは、最初は非常に劇的に聞こえ、骨を冷やす可能性があります。これは、最も効率的で冷酷な方法で殺すようにプログラムされた自律型兵器システムによって実行される、技術先進国間の潜在的な戦争です。これが、AIに基づく戦争の不吉なリスクから人類を守るために、条約、規制、制裁を通じてそのような軍事技術の開発を規制することが非常に重要である理由です。
  • デジタルセキュリティ:ハッカーはすでにデジタルの安全性に対する脅威であり、AIソフトウェアはすでに高度なハッキングに使用されています。このようなソフトウェアの開発により、ハッカーは不正行為をより効率的に行い、オンラインIDは盗難に対してより脆弱になります。個人データのプライバシーは、AIを利用した微妙なマルウェアによってさらに危険にさらされ、ディープラーニングを使用することでさらに危険になる可能性があります。お気に入りのプログラムの背後に潜んでいるデジタル泥棒を想像してみてください。日々、狡猾になり、ソフトウェアの実際の使用例から学び、そのデータに基づいて複雑な個人情報の盗難を作成しています。
無題 3 2
  • 政治的安全保障:私たちが住んでいる激動の時代では、偽のニュースや詐欺的な録音の恐れは非常に正当化されます。 AIは、自動化された偽情報キャンペーンによって大きな損害を与える可能性があり、選挙中に非常に危険になる可能性があります。

したがって、結論として、人工知能が私たちにどれほどの損害を与える可能性があり、それが人類に良いよりも害を及ぼす可能性があるかを自問するかもしれません。

専門家は、人工知能が私たちの生活にもたらす可能性のある不利益を軽減することになると、倫理的開発と規制機関が主要な役割を果たすと述べています。何が起こっても、私たちはそれが将来私たちの世界に大きな影響を与えると確信しています。

高度なAIプロトコルに基づく音声認識ソフトウェアがすでに使用されており、ワークフローがより高速でシンプルになるという多くの利点がビジネスの世界にもたらされます。 Gglotはこの分野の大きなプレーヤーであり、私たちはテクノロジーのさらなる開発に多額の投資を行っています。