This website is accessible to all versions of every browser. However, you are seeing this message because your browser does not support basic Web standards, and does not properly display the site's design details. Please consider upgrading to a more modern browser. (Learn More).

你的位置: 首页 > 时尚 > 科技

专家示警:5年内AI恐“学坏”
人工智能(AI)近年来发展引人瞩目,但潜在风险也引起不少专家担忧。一份新研究警告,恶意人士很快就能利用这项科技展开自动骇客攻击,不仅可以操控选举、散播几可乱真抹黑文宣,甚至可以让无人自驾车发生车祸、将商用无人机变成武器,迅猛发展的AI技术未来还可能助推网络犯罪剧增。

Posted Thursday, February 22, 2018

e-mail E-mail this page   print Printer-friendly page

路透报导,剑桥、牛津、耶鲁大学的技术与公共安全研究人员,连同隐私与军事专家共25人所撰的《恶意使用人工智能:预测、防范与缓解》研究21日对外发布,对流氓国家、罪犯与孤狼攻击者潜在滥用人工智能一事提出警告。

研究人员指出,恶意使用AI对数位、人身与政治安全构成迫切威胁,因为这能进行大规模、精准、高效的攻击,“如果不能有效管控恶意使用AI技术,那么在未来数年中,网络犯罪将急剧增加。”

这份研究侧重于5年内就有可能发展出的状况进行分析,预计如果AI技术继续如此快速地发展,那么全球现有的数字和实体防御机制将很快对AI技术束手无策。AI可能会制造一些难以识别真伪的假新闻在社交媒体上大肆传播,从而通过社交媒体和广告等方式来影响乃至操纵选举和其他政治事件。

之所以会产生如此严重的后果,一个重要的原因是AI技术已经走进人们的日常生活。人们的行为方式都被AI以不同形式记录下来,形成巨大的数据库,从而为上述的精准犯罪提供可能。

这份98页的研究警告,用AI攻击完成任务所需成本,可能低于其他需靠人力与专门技术进行的任务。报告提出一系列建议,包括应将AI规范为军用/商用的两用科技。

BBC报导,剑桥大学“存在风险研究中心”(Centre for the Study of ExistentialRisk)专家艾维(Shahar Avin)勾勒出AI在不久将来“变坏”、甚至眼见不为凭的景况:骇客会利用像AlphaGo这样的科技,在数据中找出模式或密码里的新漏洞;恶意者买无人机并装入脸部辨识软件后,锁定特定人士攻击;机器人会自动假造出逼真影片,供政治抹黑;骇客会将谈话合成,做为冒充。

“存在风险研究中心”执行主任欧海格提格(SeanO hEigeartaigh)是这份报告的共同撰写人之一,他表示:“人工智能是游戏改变者,这份报告已描绘出未来5到10年,世界会变成什么样子。”“我们现在就必须做出选择,我们的报告就是呼吁全球各政府、机构与人士拿出行动。”
硅谷巨头不担心

然而在AI最为广泛使用的硅谷,巨头们的态度明显不同。太空探索公司(SpaceX)创始人马斯克(Elon Musk)一直担忧进展过快的AI技术会给人类带来威胁,但脸书执行长查克柏格(Mark Zuckerberg)却对AI技术持乐观态度,微软公司(Microsoft)创办人比尔盖兹(Bill Gates)也对AI比较“放心”,认为未来AI技术将以更少的劳动力制造更多的产品和服务。