人工智能的潜在风险

人工智能有哪些潜在风险?

人工智能,也经常被称为人工智能,是近十年来讨论的主题。它正在迅速发展,使大多数企业的工作流程变得更加轻松和高效。即使在许多人的日常生活中,人工智能也显示出了巨大的潜力,并且已经在许多不同的应用程序中实现,从而使生活更轻松,更简单。人工智能给我们带来了许多优势,科学为未来的发展铺平了道路,因此可以肯定地说,如果不是的话,将来人工智能将是必不可少的。

但是就像每枚奖牌都有两个方面一样,人工智能也是如此。该技术还具有许多潜在的风险和弊端。我们这个时代的许多专家和技术策划者都对AI将来可能引起的问题表示担忧,因此,在仍可以纠正这些问题的同时,我们需要谨慎解决这些问题。那是什么意思?

关于这些特定问题,有很多事情需要考虑。在本文中,我们将尝试描述AI令人眼花fast乱的发展可能给我们的世界带来的一些风险,以及需要采取什么措施来监控和指导正确的方向。

1.工作

无题 1 3

我们确信,每个人都已经有机会听到或阅读有关机器和自动化可能对老式的,以人为本的工作场所的潜在待遇。有些人可能对机器窃取工作感到焦虑不安。由于担心可能是有根据的,工作自动化对许多人来说是一个巨大的风险:大约25%的美国人可能会失业,因为某些时候机器将能够代替他们。处于危险中的是低薪职位,一个人从事重复性工作,例如行政工作或食品服务工作。但是,即使是某些大学毕业生也面临风险,高级机器学习算法也许能够在某些复杂的工作岗位上取代它们,因为它们变得越来越精致,尤其是通过使用神经网络和深度学习。

但是我们不能真正说机器人会完全将人赶出就业市场。员工只需与AI合作,就可以进行调整,自我教育并找到一种工作方式,从而最大程度地利用其效率和机械逻辑。 AI仍然不是完美的,例如它无法做出判断,因此与机器一起工作时,人为因素仍然是决定性的。

有很多基于AI的技术都使用了需要培训的自动化解决方案,而这种培训取决于人工输入。机器翻译就是一个很好的例子,它可以从大量人工翻译中获得输入。另一个很好的例子是转录软件,该软件可以从专业的人类转录员完成的准确转录中获取训练数据。这样,软件便会逐步得到增强,并通过实际示例完善其算法。人工转录者可从该软件中受益,因为它可以帮助他们更快地转录转录本。该软件会生成该成绩单的粗略草稿版本,然后由抄录员对其进行编辑和更正。这样可以节省大量时间,并且最终意味着最终产品的交付速度更快,准确性更高。

2.偏见问题

算法的一大优点是,它们总是做出公正,无偏见的决策,与主观和情感上的人类形成鲜明对比。还是他们?事实是,任何自动化软件的决策过程都取决于对其进行训练的数据。因此,在某些情况下存在歧视的风险,例如在使用的数据中人口的某一部分没有得到足够的代表。面部识别软件已经针对其中的一些问题进行了研究,出现偏见的情况。

关于COMPAS(替代制裁的违法者管理概况)的一个很好的例子是如何使人工智能带有偏见。这是一种风险和需求评估工具,用于预测罪犯的累犯风险。对基于算法的工具进行了研究,结果表明COMPAS数据存在严重种族偏见。例如,根据数据,与其他种族相比,非裔美国人的被告更有可能被错误地判断为具有更高的累犯风险。该算法还倾向于与白人种族产生相反的错误。

那么,这里发生了什么?该算法与数据有关,因此如果数据有偏差,该软件也可能会给出有偏差的结果。有时它也与数据的收集方式有关。

由于不一定要选择训练数据来确保足够的包容性,因此自动语音识别技术也可能会因性别或种族而有所偏差。

3.安全问题

无题 2 2

人工智能存在一些非常危险的问题,它们可能导致事故。无人驾驶汽车是应用AI技术最杰出的例子之一。许多专家认为,这就是运输的未来。但是,阻碍自动驾驶汽车立即投入交通的主要因素是其故障,可能危及乘客和行人的生命。关于自动驾驶车辆可能对道路构成的威胁的辩论仍然非常实际。有些人认为,如果允许自动驾驶汽车行驶在道路上,事故的发生率将会降低。另一方面,有研究表明,它们可能会导致很多事故,因为它们的许多动作将基于驾驶员设置的偏好。现在,设计师可以在安全性,人们的生活和骑车者的喜好(例如平均速度和其他一些驾驶习惯)之间进行选择。无论如何,自动驾驶汽车的主要目标应该是通过实施高效的AI算法和先进的传感器来减少甚至减少交通事故,从而减少交通事故。但是,现实生活总是比任何程序都要复杂,因此该技术的局限性仍然是其广泛实施的限制因素之一。另一个问题是信任因素。对于具有多年驾驶经验的许多人来说,将所有信任都放到数字手中可能会被视为象征着对数字趋势的屈服。无论如何,在解决所有问题之前,已经在较新的汽车中采用了一些先进的技术解决方案,人类驾驶员可以从各种传感器,辅助制动解决方案和巡航控制系统中受益。

4.恶意目的

技术应该满足人们的需求,并被用来使他们的生活更轻松,更愉快,并且应该节省每个人的宝贵时间。但是有时,人工智能技术也已被用于恶意目的,从而对我们的人身,数字和政治安全构成重大风险。

  • 物理安全性:一开始听起来相当引人注目且可能使您不寒而栗的AI潜在风险是技术先进国家之间的潜在战争,这是通过编程为以最有效和无情的方式进行杀伤的自动武器系统进行的。这就是为什么通过条约,法规和制裁来规范此类军事技术的发展,以保护人类免受基于AI的战争带来的不祥风险的极端重要的原因。
  • 数字安全:黑客已经对我们的数字安全构成威胁,并且AI软件已经用于高级黑客。随着此类软件的开发,黑客的过失行为将更加有效,我们的在线身份也将更容易遭到盗窃。您的个人数据的隐私可能会受到由AI支持的细微恶意软件的损害甚至更大,而由于使用深度学习而变得更加危险。想象一下,一个数字小偷,潜伏在您喜欢的程序的背后,变得越来越狡猾,从数百万个真实的软件使用示例中学习,并根据这些数据进行复杂的身份盗窃。
无题 3 2
  • 政治安全:在我们所处的动荡时期,对假新闻和欺诈性录音的恐惧是有道理的。 AI可能会通过自动虚假宣传活动造成很大损失,这在选举期间可能非常危险。

因此,总而言之,我们可能会问自己:人工智能会对我们造成多大的损害,对人类的危害大于弊。

专家指出,在减轻人工智能可能给我们的生活带来的不利影响时,道德发展和监管机构将发挥重要作用。无论发生什么,我们都相信它将对未来的世界产生巨大影响。

已经使用了基于高级AI协议的语音识别软件,它为商业环境带来了许多优势:工作流程更快,更简单。 Gglot是该领域的佼佼者,我们正在大力投资以进一步开发我们的技术。