联系我们   Contact
搜索   Search
你的位置:首页 > 新闻动态 > 行业新闻

人工智能在未来20年会给我们带来的哪些麻烦?

2020/9/25 13:27:29      点击:1707

使用AI技术进行图像和视频编辑是AI应用最广泛和最成熟的领域之一。随着越来越多的开源软件可以自动化完成相关的视频图像编辑操作,有一天这个技术门槛终于被彻底推倒了。

1、岗位的替代

使用AI技术进行图像和视频编辑是AI应用最广泛和最成熟的领域之一。随着越来越多的开源软件可以自动化完成相关的视频图像编辑操作,有一天这个技术门槛终于被彻底推倒了。

2、模型的错误与歧视(bias)

尽管现在AI技术已经很强大,但在很多方面还没有成熟到能够普遍应用于商业环境。这里谈到的成熟,一方面是算法适应性和技术应用本身的可靠性,另一方面也包括产业环境中各方对于AI系统的接受度。

其中一种众所周知的应用类型就是自动驾驶。在AI系统全权控制车辆时,错误的判断与操作带来的损失应该由哪一方来承担,目前并没有一个各方均可接受的解决方案。直到现在,自动驾驶技术一直在提高系统可靠性和系统失误的责任分担这两条线上纠结不前。

类似的问题是具有普遍意义的。今年5月,媒体披露香港某李姓亿万富豪因为接受投资顾问的建议,采用基金公司提供的AI策略交易系统进行对冲交易,最终导致了超过两千万美元的损失。目前该案已经被提交到伦敦商业法庭,并预计于2020年4月进行审判。

最终的焦点还是回到了“黑匣子”问题上:如果人们不知道AI系统如何做出决策,那么出现问题的话,谁该承担责任?

传统上来说,任何商业行为(商业建议)都可以追根溯源找到行为人。但在由AI系统掌控的商业行为中,往往很难找到明确的个人为结果负责。客户在接受聊天机器人推荐的产品时甚至无法投诉其提供误导信息,因为AI系统本身不存在故意误导(misrepresenation)的可能性。

2019年来临的这场亿万富翁与AI系统的法律争斗预示着人工智能在融入人类生活的方方面面之前,将要面临什么样的挑战。

类似的AI错误在2019年还有一些。今年4月份发生的巴黎圣母院大火期间,YouTube平台上部分新闻直播下方的信息栏内,出现了有关“911恐怖袭击”事件的说明,但此次大火的原因和恐怖袭击并无关联。事后,Google 承认信息栏的内容是由AI算法自动生成的,并表示已经第一时间关闭了这些直播视频下方的信息栏。

引起AI系统错误的原因除了算法模型不够精确之外,还有一个重要的因素就是建模数据本身的偏差导致的模型歧视(bias)。

2018年10月路透社就报道亚马逊公司开发的AI智能招聘系统在进行简历筛选时存在明显的性别歧视。AI算法在依据候选人简历时对包括“妇女”等词的简历降权处理,例如包含“女子国际象棋俱乐部队长”这样经历的简历。AI算法甚至还系统地降低了两所女子大学的毕业生的等级。所有这些处理方式的原因就是目前科技行业男性占主导地位的事实强化了系统在构建AI算法模型时的偏见。

类似的偏见无处不在。今年5月份皮尤研究中心发布的报告显示,Facebook的新闻配发的照片中,男性出现的次数是女性的两倍。在两性数量基本均衡的背景下,如果无差别采用Facebook的新闻照片构建AI模型,几乎可以肯定会出现性别歧视的倾向。

AI系统引起的“歧视”中最新的案例来自于日本。就在12月份,东京大学副教授大泽升平在推特上公开宣称:“不在自己公司录用中国人”、“从简历就筛掉中国人”。在引起中日双方的舆论抨击后,大泽升平在推特上公开道歉,并表示“之前一系列推文中提及对特定国籍人士工作能力的判断,是本公司基于有限数据、经过人工智能(AI)分析“过度学习’得出的结果。”这也算是AI系统歧视在2019年临近结束时背上的一口黑锅吧。

3、潜在的滥用风险

目前AI技术还不够成熟,所以并没有出现大规模的商用,但唯有少数领域例外 –例如面部识别。

2019年可以说时面部识别技术“飞入寻常百姓家”的一年。不只是传统的公安部门和金融部门,现在几乎各行各业都在尝试如何把面部识别技术嵌入到身份认证和人群活动管理的功能中来。

2019年10月,杭州野生动物世界因为强制游客“刷脸”才能入园而导致诉讼。作为一个休闲娱乐场所,有没有必要强制要求游客留下面部生物特征信息呢?

类似的事例还有中国药科大学在教室安装的人脸识别系统。该系统可以通过面部识别技术识别进入教室听课的学生,并全程追踪学生听讲、发呆、睡觉等上课的状态。

面部信息是人类最重要的基本生物特征之一,识别度极高且无法轻易改变。更重要的是,面部信息是少数可以通过远程非接触方式进行准确识别的生物信息。对于任何向第三方随意暴露出自己详细面部信息的个体,都等于允许第三方在任何时间和地点以非接触方式完成自己的身份认证。这就好比你把自己的姓名和身份证信息加密印在自己的额头上,然后把密码随意交给第三方。第三方甚至可以在数公里之外远程扫一下你额头的二维码,就知道你是谁,身份证号码多少。

如此轻易且准确的身份识别信息当然很重要。于是各方就趁着AI应用的东风广泛收集公民个人面部信息。2019年9月。《北京青年报》披露在网络商城中有17万条“人脸数据”被公开发售,其中涵盖了两千人的肖像,每个人约有50到100张照片。此外,每张照片还搭配有一份数据文件,描述了人脸的106处关键识别位置,如眼睛、耳朵、鼻子、嘴、眉毛等的轮廓信息。可以想象,这两千人的面部和个人信息泄漏将导致他们在公众场合的活动近似于“裸奔”,任何获取这些数据且具有面部识别功能的摄像头都可以知道他/是谁,身份证号多少,多大年龄。

正是因为这样潜在的滥用风险,所以各国政府在2019年开始收紧AI技术在面部识别领域的应用。

2019年5月,旧金山市议会以8:1的投票结果通过禁止警方和其它政府部门使用“人脸识别技术”的决议。10月,加利福尼亚州州长签署法令,禁止执法机构在未来三年内使用面部识别技术。

美国的警用设备制造商 Axon Enterprise 6月份表示,将不会在自己的设备上添加人脸识别软件。目前Axon Enterprise向包括纽约和洛杉矶警察局在内的47家美国执法机构提供随身摄像头。

我们不能说美国政府在部分公务行为中禁止使用面部识别技术就是对的,但最起码在非必要领域,如零售、娱乐、普通服务业等应该严格约束商家采集和应用面部识别技术,并制定面部数据的采集和应用合规标准,以防止2019年出现的面部识别技术滥用的趋势。

需要指出的是,随着AI技术逐渐深入到商业和家庭环境中,类似的涉嫌滥用领域只会越来越多。从智能音箱涉嫌监听客户家庭的对话,到亚马逊使用AI系统监控员工工作效率,甚至精确计算工人消极懈怠的“工休间隙”时间(Time Off Task,简称TOT),2019年AI商业应用不断丰富的背后,潜在的滥用风险也越来越大。

4、军事应用与对抗

AI作为最尖端的互联网高科技之一,在海量信息处理能力和瞬时判别响应方面具有人力完全不可比拟的优势。AI自然也是军事部门希望快速拥有和全面应用的技术。

美国国防部去年6月宣布成立联合人工智能中心(JAIC),以促进美国军事工业在AI技术实际应用的能力。JAIC负责人为美国空军中将John N.T. “Jack” Shanahan,研究的重点领域包括:情报探知、预测性维护与供应、救灾和人道主义援助、以及网络空间。

彭博周刊披露,2019年11月初,来自美国军事工业的多位高层和智囊齐聚华盛顿讨论AI在军事工业的应用。其中就有JAIC的负责人Jack Shanahan将军,也有谷歌董事长Eric Schmidt和首席法律官Kent Walker。

而美国《防务系统》网站近日报道,美国算法战跨职能小组(Algorithmic Warfare Cross-Functional Team,简称AWCFT 或 "Project Maven")已经开发出四套智能算法,预计将很快投入实战应用。这个Project Maven小组就是曾经与Google公司合作开发基于AI图像识别技术的无人机目标识别系统的军方机构。

而美国国会研究处(Congressional Research Service)11月26日发布的“AI与国家安全”白皮书中明确指出,“人工智能已经被纳入在伊拉克和叙利亚的军事行动中。”

该白皮书的重要内容之一,就是阐述未来的AI技术在“致命自主武器系统”(Lethal Autonomous Weapon Systems,LAWS)领域的应用。所谓“自主武器系统”,就是自动识别目标,自主判断并进行攻击的系统。该系统可以彻底摆脱人为控制,按照AI系统的“智能”完成作战任务。而其中最为人所熟悉的“自主武器系统”就是战斗机器人。尽管目前的白皮书还只是把“自主武器系统”的范围限定在有人类操作员监督下运行的自动武器装置或平台,并且该系统不能针对人类目标进行打击,只能用于打击物资或设备目标,采用非致命或摧毁其运动能力的攻击形式,或者是各种形式的电子攻击。但大家都心知肚明,这样的系统如果要改造成为真正的自动杀人武器,只是捅破一层窗户纸罢了。

2019年,是AI技术逐渐深入社会生活的一年,也是AI系统开始给人类带来麻烦的一年。如何驯服AI这个能量巨大的“怪兽”,是在大半个世纪前人类释放原子能之后面临的又一难题。原子能带来的核威慑和“冷战”时代,会不会也是AI全面应用后的必然走向,我不知道。但和平利用AI技术,将与和平利用原子能一样,会成为未来几十年乃至上百年人类需要持续面临的挑战。

免责声明:此文来自与网络空间,如有冒犯请来电删除。