伯克利教授:被人工智能“洗脑”的严重性,或将直接影响下一任美国总统选举

胡志行2018-07-03 09:47

(图片来源:全景视觉)

胡志行/文 根据普华永道在2017年公布的调研显示,到2030年,人工智能市场将会达到15.7兆亿美元,几乎等于中国与印度2017年的GDP总和。

从自动驾驶,基因治疗到艺术的创造,人工智能的发展正在改变着整个世界。与此同时,人工智能的发展也带来越来越多的问题,比如人工智能的可控性,以及人工智带来的隐私问题。

前段时间的新闻中出现了很多令人担忧的新闻事件,比如《纽约时报》之前报道的一则新闻,关于一家分析公司可能非法操纵2016年美国总统选举并向特朗普竞选团队提供了很多用来诱导民众的服务。加上Facebook的个人信息泄露事件再不停的发酵。通过Facebook作为广告商,Cambridge Analytica不正当地获得了大约5000万用户的信息,包括他们的个人偏好和习惯。这些信息都是有可能通过有针对性的广告和假新闻来诱导用户。马克·扎克伯格出面道歉证实了这个事件,那么这意味着类似Cambridge Analytica这种分析公司所做的诱导已经逐渐开始影响越来越多人。

James O’Brien教授是加州大学伯克利分校获得奥斯卡科学技术奖的教授与研究员。他的研究主要是开发用于好莱坞式特效的计算机算法,以及用于检测图像和视频中存在的情绪操纵与诱导的计算机算法。

作为一名资深电脑图像教授,James O’Brien教授认为在不久的将来,虚假的视频与假新闻的结合会产生难以想象的影响。信息诱导也是一个难以消灭的问题,因为随着检测方法的发展,这些试图误导他人的公司会开发新的方法来隐藏他们的行为。

以下为访谈内容:

问:在FB信息泄露事件中,按照个人喜好推送新闻产生的影响如何诱导与操纵情绪

James由于人工智能的广泛使用,每个人都可以轻松使用图像,视频制作工具来制作幽默,艺术,创意类图像与视频。与此同时,随着视频或图像制作的简易化,使得它更容易地被利用来制作假信息去误导人们。

作为AI的其中一个分支,机器学习(machine learning,ML)对几乎所有计算领域都产生巨大的影响,特别是电脑图像正在发生非常重大的变化。我认为最根本的变化或许是使用机器学习构建的算法可以使得以前非常耗时的手动任务自动化。

问:您如何看待电脑图像等细分领域在人工智时代可能带来的挑战?

James我认为最大的挑战是要如何确保图像和视频制作被用于合理合法的目的。如果说CG可以用来重现“星球大战”电影“侠盗一号”中的塔金总督,尽管他的演员彼得库欣已经在1994年去世,那么CG也可以被用来制作别人所作所说的视频,即使他从来没有做过或者说过。如果有人制作一段恶搞朋友的视频并上传到Facebook或其他社交媒体,那可能没问题。但是,如果有人制作一段视频,去恶意捏造他们不喜欢的邻居做的非法活动或者制作一些假视频去诋毁他们不支持的政客,视频被以讹传讹,那么这会导致严重的社会问题出现,因为大多数人总是有意识的无意识的去相信自己所看到的一切。

问:在美国,社交媒体与新闻的自由与民主化产生了假新闻,如今图像和视频编辑的自由与民主化是否会带来假信息泛滥的危机?

James我认为在下次总统选举中,假影片肯定会成为一个非常严峻的威胁。我们需要开始思考我们将如何处理应对这个问题。即使我们开发出能够检测出情绪操纵图像的技术工具,我们仍然需要考虑如何让人们去信任并且习惯性的去使用这种工具。例如,当检测软件将视频标识为假冒,但具有政治偏见的“专家”却声称该软件不可信的时候怎么办?当我们不能相信我们看到的东西时,我们如何建立信任?

问:未来该领域的发展如何?

James目前我正在与加州大学戴维斯分校和弗吉尼亚大学的研究人员合作,我们开始尝试研究和了解人们对假视频或者图片做出什么反应。同时,伯克利与其他几所大学的学生也在我的实验室里开发检测假图像和视频的方法。目标是创建工具或者软件,来提醒用户辨别具有诱导性的图像。这是一个新的研究领域,但迄今为止只有少数几种方法已经开发出来,而且这些方法并不完整。

(胡志行,硅谷RAVV基金投资分析师,毕业于加州大学圣地亚哥分校数学经济系)

版权声明:以上内容为《经济观察报》社原创作品,版权归《经济观察报》社所有。未经《经济观察报》社授权,严禁转载或镜像,否则将依法追究相关行为主体的法律责任。版权合作请致电:【010-60910566-1260】。