人工智能AI 如何应对人类的欺骗?
人工智能正以可预见、不可预见的种种形式无孔不入地涉足社会的各个层面,这既让人兴奋,也让人不安。我们能够预测到这样的情绪反应,但我们真的能够预测到人工智能所涉及的相关风险吗? (科技新发现 康斯坦丁/文)
假若现在是2022年,你乘坐一辆自动驾驶汽车,按照每日的常规路线行驶。你们来到了一处停车标志前,这个地方其实已走过了上百次。然而这一次,汽车竟直接开了过去。在你看来,这块停车标志看上去和往常一样。但对于汽车来说,它却和其它停车标志截然不同。你和汽车不知道的是,就在几分钟前,一名街头艺术家在这块标牌上贴了一张小贴纸。人眼或许注意不到,却逃不过机器的“眼睛”。换句话说,这张小小的贴纸使汽车将停车标志“看”成了完全不同的标志。
可能听起来很牵强。但近期研究显示,人工智能很容易被类似的方法糊弄,“看见”的东西与人眼产生巨大偏差。随着机器学习算法在交通、金融和医疗体系中运用得越来越多,计算机科学家希望在不法分子真正动手之前、找到对抗这些攻击的方法。俄勒冈大学计算机与信息科学助理教授丹尼尔·洛德(Daniel Lowd)说:“机器学习和人工智能领域对这一问题感到十分担忧,更何况这些算法被运用得越来越普遍。” 智能机器是否会失灵、或受到黑客控制,取决于机器学习算法“了解”世界的方法。若机器受到干扰,就可能将熊猫看成长臂猿,或是将校车看成鸵鸟。法国和瑞士研究人员开展的一项实验显示,这样的干扰可导致计算机将松鼠看成灰狐狸,或将咖啡壶看成鹦鹉。
机器学习算法了解世界的过程其实与此类似。要使计算机探测到某种信息,科学家会先向计算机中输入成百上千条实例。机器筛查这些数据时(如:这是一个数字;这不是数字;这是一个数字;这不是数字),便可逐渐了解该信息的特征。很快,机器便能准确得出“图片上是数字5”这样的结论。怀俄明大学与康奈尔大学的进化人工智能实验室开展了类似研究,使人工智能产生了一系列视觉幻觉。这些图片中的抽象图案和色彩在人眼看来毫无意义,计算机却能迅速将其识别为蛇或步枪。这说明人工智能“眼中”的物体可能与实际情况大相径庭。各种机器学习算法都存在这一缺陷。不法分子只需将相应的机器学习算法弄到手,便可编写出用来进攻的数据。但要想骗过算法,其实并不一定要这样做。黑客可以强行发起攻击,反复调整同一封邮件、或同一张图片,直到混过过滤系统。长此以往,黑客便掌握了过滤系统搜查的关键信息,然后编写出可蒙骗这些系统的数据。
人们通常以准确度评价机器学习算法的好坏。正确识别物体的概率越高,程序就越出色。但一些专家认为,我们还应考察算法抵御攻击的能力,越不易被攻破就越出色。麦克丹尼尔建议:“机器学习系统是推理的工具,我们需要对机器反馈的信息作出聪明和理性的判断,而不是当作真理。”

- 西班牙科学家研出舔食即变色冰激凌 2014-09-29
- 科学家研发最黑材料 吸收所有可见光 2014-09-29
- 盲人群众的福音 闭着眼睛也能识字 2014-09-29
- 相对论错了?光速被指出可能没那么快 2014-09-29
- 最强冷分子处世:比绝对零度还低2.5% 2014-09-29
- 科学界的奇葩:令人无语的科学研究 2014-09-29
- 波音公司移动激光武器令无人机胆寒 2014-09-29
- 美国男子获百种蛇毒免疫力 含致命蛇 2014-09-29
- 外星人入侵莫要慌 好莱坞版地球防御指南支高招 2014-09-29
- 科学家研发最黑材料 吸收所有可见光 2014-09-29
- 英大学生设计最快自行车 时速145公里 2014-09-29
- 世界上最强的暗物质侦测器发表了成果! 2017-05-26