人工智能的潛在風險

人工智能有哪些潛在風險?

人工智能,也經常被稱為人工智能,是近十年來討論的主題。它正在迅速發展,使大多數企業的工作流程變得更加輕鬆和高效。即使在許多人的日常生活中,人工智能也顯示出了巨大的潛力,並且已經在許多不同的應用程序中實現,從而使生活更輕鬆,更簡單。人工智能給我們帶來了許多優勢,科學為未來的發展鋪平了道路,因此可以肯定地說,如果不是的話,將來人工智能將是必不可少的。

但是就像每枚獎牌都有兩個方面一樣,人工智能也是如此。該技術還具有許多潛在的風險和弊端。我們這個時代的許多專家和技術策劃者都對AI將來可能引起的問題表示擔憂,因此,在仍可以糾正這些問題的同時,我們需要謹慎解決這些問題。那是什麼意思?

關於這些特定問題,有很多事情需要考慮。在本文中,我們將嘗試描述AI令人眼花fast亂的發展可能給我們的世界帶來的一些風險,以及需要採取什麼措施來監控和指導正確的方向。

1.工作

無題 1 3

我們確信,每個人都已經有機會聽到或閱讀有關機器和自動化可能對老式的,以人為本的工作場所的潛在待遇。有些人可能對機器竊取工作感到焦慮不安。由於擔心可能是有根據的,工作自動化對許多人來說是一個巨大的風險:大約25%的美國人可能會失業,因為某些時候機器將能夠代替他們。處於危險中的是低薪職位,一個人從事重複性工作,例如行政工作或食品服務工作。但是,即使是某些大學畢業生也面臨風險,高級機器學習算法也許能夠在某些複雜的工作崗位上取代它們,因為它們變得越來越精緻,尤其是通過使用神經網絡和深度學習。

但是我們不能真正說機器人會完全將人趕出就業市場。員工只需與AI合作,就可以進行調整,自我教育並找到一種工作方式,從而最大程度地利用其效率和機械邏輯。 AI仍然不是完美的,例如它無法做出判斷,因此與機器一起工作時,人為因素仍然是決定性的。

有很多基於AI的技術都使用了需要培訓的自動化解決方案,而這種培訓取決於人工輸入。機器翻譯就是一個很好的例子,它可以從大量人工翻譯中獲得輸入。另一個很好的例子是轉錄軟件,該軟件可以從專業的人類轉錄員完成的準確轉錄中獲取訓練數據。這樣,軟件便會逐步得到增強,並通過實際示例完善其算法。人工轉錄者可從該軟件中受益,因為它可以幫助他們更快地轉錄轉錄本。該軟件會生成該成績單的粗略草稿版本,然後由抄錄員對其進行編輯和更正。這樣可以節省大量時間,並且最終意味著最終產品的交付速度更快,準確性更高。

2.偏見問題

算法的一大優點是,它們總是做出公正,無偏見的決策,與主觀和情感上的人類形成鮮明對比。還是他們?事實是,任何自動化軟件的決策過程都取決於對其進行訓練的數據。因此,在某些情況下存在歧視的風險,例如在使用的數據中人口的某一部分沒有得到足夠的代表。面部識別軟件已經針對其中的一些問題進行了研究,出現偏見的情況。

關於COMPAS(替代製裁的違法者管理概況)的一個很好的例子是如何使人工智能帶有偏見。這是一種風險和需求評估工具,用於預測罪犯的累犯風險。對基於算法的工具進行了研究,結果表明COMPAS數據存在嚴重種族偏見。例如,根據數據,與其他種族相比,非裔美國人的被告更有可能被錯誤地判斷為具有更高的累犯風險。該算法還傾向於與白人種族產生相反的錯誤。

那麼,這裡發生了什麼?該算法與數據有關,因此如果數據有偏差,該軟件也可能會給出有偏差的結果。有時它也與數據的收集方式有關。

由於不一定要選擇訓練數據來確保足夠的包容性,因此自動語音識別技術也可能會因性別或種族而有所偏差。

3.安全問題

無題 2 2

人工智能存在一些非常危險的問題,它們可能導致事故。無人駕駛汽車是應用AI技術最傑出的例子之一。許多專家認為,這就是運輸的未來。但是,阻礙自動駕駛汽車立即投入交通的主要因素是其故障,可能危及乘客和行人的生命。關於自動駕駛車輛可能對道路構成的威脅的辯論仍然非常實際。有些人認為,如果允許自動駕駛汽車行駛在道路上,事故的發生率將會降低。另一方面,有研究表明,它們可能會導致很多事故,因為它們的許多動作將基於駕駛員設置的偏好。現在,設計師可以在安全性,人們的生活和騎車者的喜好(例如平均速度和其他一些駕駛習慣)之間進行選擇。無論如何,自動駕駛汽車的主要目標應該是通過實施高效的AI算法和先進的傳感器來減少甚至減少交通事故,從而減少交通事故。但是,現實生活總是比任何程序都要復雜,因此該技術的局限性仍然是其廣泛實施的限制因素之一。另一個問題是信任因素。對於具有多年駕駛經驗的許多人來說,將所有信任都放到數字手中可能會被視為像徵著對數字趨勢的屈服。無論如何,在解決所有問題之前,已經在較新的汽車中採用了一些先進的技術解決方案,人類駕駛員可以從各種傳感器,輔助制動解決方案和巡航控制系統中受益。

4.惡意目的

技術應該滿足人們的需求,並被用來使他們的生活更輕鬆,更愉快,並且應該節省每個人的寶貴時間。但是有時,人工智能技術也已被用於惡意目的,從而對我們的人身,數字和政治安全構成重大風險。

  • 物理安全性:一開始聽起來相當引人注目且可能使您不寒而栗的AI潛在風險是技術先進國家之間的潛在戰爭,這是通過編程為以最有效和無情的方式進行殺傷的自動武器系統進行的。這就是為什麼通過條約,法規和製裁來規範此類軍事技術的發展,以保護人類免受基於AI的戰爭帶來的不祥風險的極端重要的原因。
  • 數字安全:黑客已經對我們的數字安全構成威脅,並且AI軟件已經用於高級黑客。隨著此類軟件的開發,黑客的過失行為將更加有效,我們的在線身份也將更容易遭到盜竊。您的個人數據的隱私可能會受到由AI支持的細微惡意軟件的損害甚至更大,而由於使用深度學習而變得更加危險。想像一下,一個數字小偷,潛伏在您喜歡的程序的背後,變得越來越狡猾,從數百萬個真實的軟件使用示例中學習,並根據這些數據進行複雜的身份盜竊。
無題 3 2
  • 政治安全:在我們所處的動盪時期,對假新聞和欺詐性錄音的恐懼是有道理的。 AI可能會通過自動虛假宣傳活動造成很大損失,這在選舉期間可能非常危險。

因此,總而言之,我們可能會問自己:人工智能會對我們造成多大的損害,對人類的危害大於弊。

專家指出,在減輕人工智能可能給我們的生活帶來的不利影響時,道德發展和監管機構將發揮重要作用。無論發生什麼,我們都相信它將對未來的世界產生巨大影響。

已經使用了基於高級AI協議的語音識別軟件,它為商業環境帶來了許多優勢:工作流程更快,更簡單。 Gglot是該領域的佼佼者,我們正在大力投資以進一步開發我們的技術。