这是 AI 的优点,但很可能也是 AI 的弱点。试想,假如 AlphaGo 中的某个训练模型被黑客攻击了,让系统在该打吃的时候偏偏就不。那么最终展现出的将不是某个棋招运算失当,而是干脆一盘棋也赢不了。
说白了,AI 注定是一个牵一发动全身的东西,所以平台漏洞带来的安全风险才格外可怕。
AlphaGo 毕竟还只是封闭的系统,即使被攻击了大不了也就是下棋不赢。但越来越多的 AI 开始被训练出来处理真实的任务,甚至极其关键的任务。那么一旦在平台层面被攻克,将带来无法估计的危险。
比如说自动驾驶汽车的判断力集体失灵、IoT 体系被黑客控制、金融服务中的 AI 突然瘫痪、企业级服务的 AI 系统崩溃等等情况,都是不出现还好,一旦出现就要搞个大事情。
由于 AI 系统紧密而复杂的连接关系,很多关键应用将从属于后端的 AI 体系,而这个体系又依赖平台提供的训练模型。那么一旦最后端的平台失守,几乎必然引发规模化、连锁式的崩盘——这或许才是我们今天最应该担心的 AI 失控。
AI 产业的风险,在于某个黑客一旦攻克了机器学习平台的底层漏洞,就相当于把整个大厦的最下一层给炸掉。这个逻辑此前很少被人关注,却已经被证明了其可能性存在。而最可怕的是,面对更多未知的漏洞和危险,世界范围内的 AI 开发者近乎是束手无策的。
家与国:无法逃避的 AI 战略角力
在认识到 AI 开发平台可能出现的底层问题,以及其严重的危害性之后,一个顺理成章的联想也会浮出我们的脑海:国家层面的 AI 安全与战略角力。
有人说,百度等公司代表的中国 AI 力量崛起,已经让美国科技界感到了威胁。事实上,这种角力绝不只是存在于产业层面。今年 7 月,哈佛大学肯尼迪政治学院贝尔弗科学与国际事务中心发布的《人工智能与国家安全》报告里,就专门指出 AI 很可能在接下来一段时间内,对多数国民产业形成革命性的影响,成为产业中的关键应用。那么一旦 AI 安全受到威胁,整个美国经济将受到重大打击。
同样的道理,当然也适用于今天与美国抗衡的 AI 大国,中国。这次 TensorFlow 安全漏洞曝光后,我们联系了一家国内机器视觉方向的创业公司,他们所使用的训练模型全部来自于 TensorFlow 中的社区分享。沟通之后的结论是,如果真受到黑客恶意模型的袭击,他们的产品将瞬间瘫痪。
这仅仅是一家创业公司,据了解,国内使用 TensorFlow 进行训练的还包括京东、小米、中兴等大型企业,以及不少科研院所的研发项目。未来,很有可能还有更多更重要的中国 AI 项目在欧美的平台上进行训练部署,当这些东西暴露在黑客攻击的面前,甚至控制权掌握在别国手中,我们真的可以放心这样的 AI 发展之路吗?
各种可能性之下,AI 安全问题在今天已经绝不是儿戏。而中国产业至少能做两件事:1 是组建专业的 AI 防护产业,将互联网安全升级为 AI 安全;2 是必须逐步降低对欧美平台的依赖度,这里当然不是民粹主义的闭关锁国。而是应该给开发者更多选择,让整个产业自然而然地向国家 AI 安全战略靠拢。比如百度打造的从芯片到框架,再到平台体系与安全监督机制的开发者赋能计划,就在一步步将本应属于中国的 AI 开发根基留在中国。
总之,AI 本身的安全防护,已经成为了开发者必须在意、大平台需要承担责任、国家竞争需要争抢的一个环节。希望最终一起人为的 AI 失控事件都不要到来。毕竟吃一堑长一智的事情在互联网历史上已经发生太多了。
或许这里还需要为大家插播一下暗网的科普,暗网也叫做“DeepWeb”,这个名字也是将暗网类比为“互联网冰山”水下隐藏的部分,这一部分无法被普通用户看到,搜索引擎也无法获知内部的信息,只能通过加密的隐身软件才能进入。暗网来自于一个叫做 Tor 的开源项目,通过三位科学家发明的“隐藏路由信息”的功能实现,用户可以接入互联网但是却不用向任何服务器和路由器提交设备信息,所以就成了一个避开监管、完全隐藏在黑暗下的上网方式。
本周一,IBM 宣布他们已经开始了量子计算的实验,而摩根大通、奔驰、本田和三星等巨头都宣布将和 IBM 开始量子计算机的合作,这宣告了量子计算商业化的开始。而量子计算机因为每个比特“量子”都能处于叠加态,也就是多个状态,而现在的 CPU 每个逻辑电路在一个时间点只能显示0或者是1。就像在完成一项工作时,一个人只能独自完成,而另一个人会多重影分身一样,效率完全不是一个级别的。