作者|The Verge
出品|遇见人工智能 公众号 GOwithAI
>>>>昨日全平台阅读量:6万1000余次>>>>
新年刚过,关于人工智能的话题又逐渐热闹起来。一方面有多种新的AI算法曝光,另外更重要的人工智能带来的威胁也提上了台面。
▲The Malicious Use of Artificial Intelligence报告封面
就在上周,一篇由未来人类研究所、牛津大学、剑桥大学和马斯克的Open AI等七家知名权威机构编注的长达101页的《恶意使用人工智能:预测,预防,和缓解》报告重磅发布。(后台回复“AI威胁”,免费获取报告全文)
科技媒体The Verge进行了深度解读,在人工智能一片大好的形式下,如何防范其显而易见且威力巨大的威胁?
遇见人工智能尝试进行编译,以下Enjoy:
当我们谈论人工智能造成的危险时,通常强调的是意想不到的副作用。
例如我们可能会担心某一天意外地创建一个超级智能AI,并忘记设置不能伤害人类的底线操作; 或者当我们部署刑事判决算法时,这些算法则会吸收训练数据的种族偏见,在协助审判时出现偏差。
但这只是故事的一半。
那些积极地将AI用于不道德,犯罪或恶意目的的人呢? 他们可能造成麻烦更加严重 而且更快。
根据包括人类未来研究所,存在风险研究中心和Elon Musk支持的非盈利OpenAI在内的二十多位专家的回答是肯定有风险的。
在最近发布的一篇题为“人工智能的恶意使用:预测,预防和缓解”的报告中,这些学者和研究人员列举了人工智能可能用于威胁我们的一些方式,以及我们可以做些什么来停阻止这些事情发生。
即便人工智能可以实现一些非常令人恐惧的新攻击,但该论文的合着者,人类未来研究所的迈克尔布伦戴奇告诉The Verge,我们当然不应该恐慌或放弃希望。
“我喜欢采取乐观的态度,那就是我们可以做得更多,”布伦戴奇说。 “这里的重点不是描绘一个悲观和黯淡的画面 ,而是有很多可以开发防御措施,而且我们还有很多需要学习的东西。”
这份报告很广泛,但重点介绍了几种主要方式,即AI会加剧数字和物理安全系统的威胁,并且会造成全新的危险。
它还就如何解决这些问题提出了五条建议 - 包括让AI工程师更加关注其研究的可能恶意使用; 并启动政策制定者和学者之间的新对话,以免政府和执法机构不知情。
让我们从潜在的威胁开始:其中最重要的一个是人工智能将大大降低某些攻击的成本,允许坏角色自动执行以前需要人工的任务。
以网络钓鱼为例,其中个人发送特别设计的信息,诱使他们放弃其安全凭证。 (假象一下:你收到一封来自你银行的虚假电子邮件,似乎是一位老相识发来的假邮件。)
AI可以自动完成这里的大部分工作,绘制出个人的社交和专业网络,然后生成消息。
现在要创造出现实的、吸引人的聊天机器人需要付出很大的努力,同样的工作也可以用来创建一个聊天机器人,这个聊天机器人可以装成你最好的朋友,出于某种原因,他突然想知道你的电子邮件密码。
这种攻击听起来很复杂,但关键是,一旦黑客构建了算法来完成所有的任务,就可以一次又一次地使用它,而不需要额外的成本。
报告中提出的第二个要点是,AI将为现有的威胁增加新的层面。
使用同样的网络钓鱼例子,人工智能不仅可以用来生成电子邮件和短信,还可以用来生成假音频和视频。
我们已经看到了人工智能如何在研究了几分钟的录音后,就可以用来模仿目标的声音,以及如何将人们说话的镜头变成木偶。
这份报告的重点是未来五年出现的威胁,这些威胁正在迅速成为问题。
这些只是人工智能的能力成为威胁的例子。它取代了观看视频的人类,将闭路电视摄像机从被动的变成主动的观察者,使他们能够自动地对人类的行为进行分类。
布伦戴奇说:“尤其是可伸缩性还没有得到足够的关注。”“这不仅仅是人工智能可以在人类层面上完成某些任务,而是你可以将其放大到大量的拷贝。”
最后,报告强调了人工智能所造成的全新危险。
作者概述了许多可能的情况,包括恐怖分子在清洁机器人中植入炸弹并将其偷偷运送到政府部门。
机器人使用内置的机器视觉来追踪某个特定的政治家,当它靠近时,炸弹就会爆炸,想想就很恐怖吧。
概述这样的场景似乎有点不可思议,但我们已经开始看到第一个由AI支持的新颖攻击。
换脸技术已经被用来制造所谓的“深度假象”,将名人的脸贴在未经他们同意的色情视频上。
虽然到目前为止还没有这方面的案例,但我们知道那些参与创建这一内容的人想要对他们认识的人进行测试,为骚扰和敲诈创造完美的素材。
这些例子只包含了报告的一部分,但是整个文档让您想知道:要做什么呢?这些解决方案很容易概述,但要贯彻下去将是一项艰巨的任务。报告提出了五项主要建议:
人工智能研究人员应该熟知他们的工作如何被恶意利用;
决策者需要向技术专家学习这些威胁;
人工智能世界需要向网络安全专家学习如何最好地保护其系统;
需要制定和遵循人工智能的道德框架;
更多的人需要参与这些讨论,不仅仅是人工智能科学家和决策者,还有伦理学家、企业和公众;
换句话说:多一点交谈,多一点行动。
考虑到人工智能是一个复杂而微妙的学科,这是一个很大的问题,但更多的是充满希望的迹象。
例如,随着高度假冒伪劣的兴起,网络平台迅速做出反应,禁止内容,并立即停止传播。
美国的立法者已经开始讨论这个问题了,表明如果这些辩论足够紧迫,政府就会进行讨论。
“肯定有兴趣,”布伦戴奇说,政府参与讨论这些话题。 “但仍然有一种感觉,即需要进行更多的讨论,以便找出哪些是最重要的威胁,以及哪些是最实际的解决方案。”他说,在大多数情况下,甚至很难判断什么是威胁时。
“现在还不清楚这是多么的渐进 ,是否会出现大的灾难性事件,或者是否会是一个缓慢的事件,为我们提供了大量的适应机会。”
“但这正是我们现在提出这些问题的原因。”
互动|对本篇文章有什么观点?欢迎留言交流,我们不定期择优赠送奖品
约访|据说有气质的AI公司都想被AI公司酷约访一下。微信加:623974966
福利|点标题下蓝字,或微信搜“遇见人工智能”,关注后回复"报告",1秒钟获取麦肯锡、德 勤等48份顶级最新AI报告。
遇见人工智能
专注人工智能的首席全媒体
商务合作、转载、投稿请联系微信
▼
623974966
我们近日组建了遇见人工智能观察团社群,每天分享最新的人工智能要闻、新技术、新应用、新观点。
目前微软、百度、腾讯、出门问问、Face++ 、商汤科技、科大讯飞、猎豹移动、物灵等顶级人工智能公司集结,如果感兴趣,可加微信:623974966,备注:遇见人工智能+单位和职位,符合条件,邀您加入。