梆梆资讯
如何让人工智能未来更安全?
2016-11-28
2016年11月26日,为了推进人工智能的发展进程,由腾讯研究院法律研究中心、信息安全与通信保密杂志社及CGI主办的题为“人工智能:安全、法律与伦理圆桌论坛”在京举行。来自法律、学术、产业及网络安全的二十余位各界专家学者纷至杳来,梆梆安全CEO阚志刚博士也受邀参加了本次会议,大咖们齐聚一堂,针对人工智能话题展开了一场激烈的头脑风暴。

各位专家学者分别发表自己的观点
上海社会科学院信息安全研究中心主任惠志斌在介绍论坛背景时表示,人工智能的技术研究必须要和政策、法律、伦理相结合,要提前研判到它的风险,考虑如何从法律、政策与伦理方面提前在设计阶段进行干预,让技术更好的推动人工智能产业发展。上海社科院信息研究所博士王滢波在发言中介绍了其对国外人工智能风险与伦理研究的一些看法,他认为,人工智能的发展速度可能远超人们想象,并将会导致更多问题的产生。

梆梆安全CEO阚志刚博士分享自己的观点
世界上对人类发展有卓越贡献的最聪明的三个大脑霍金、埃隆.马斯克和比尔.盖茨分别指出:“人工智能可能导致人类灭亡”、“人工智能是人类生存最大威胁”、“人工智能会强大到足以令人担忧的地步”。对此,阚志刚博士深表认同。近年来,人工智能安全事件时有发生。1978年9月6日,日本广岛一家工厂的切割机器人在切割钢板时突然发生异常,将一名值班工人当作钢板操作。1989年,在全苏国际象棋冠军古德柯夫连胜三局的情况下,机器人棋手突然向金属棋盘释放出强电流,在众目睽睽之下,将这位国际象棋大师击毙。去年7月,德国大众汽车公司包纳塔尔工厂中的一个机器人杀死了一名人类工作人员。当时这名21岁的工人正在安装、调制机器人,后者突然“出手”击中工人的胸部,并将其碾压在金属板上,这名工人当场死亡。追溯这些安全事件发生的原因是操作不当还是机器故障并不可知,但却引起了人工智能业内人员深深的担忧与关注。

阚志刚博士指出人工智能的发展分为三个阶段:“弱人工智能阶段、强人工智能阶段和超人工智能阶段。目前,我们尚处于弱人工智能阶段。”例如阿尔法狗和Waston,他们能模仿人类的行为,却不能像人类一样有伦理道德方面的判断。“随着人工智能技术的快速发展,当达到超人工智能阶段的时候,机器人在所有领域都比人类聪明,他们将大大超越我们智慧的极限,如果我们本身的思维都要靠人工智能来扩充时,我们就将无法预测未来。”那时机器人是将成为人类的助手还是人类被他所统治?那时机器人看待人们会像人们看待蚂蚁那样“漠视”么?如何让人工智能系统按照人类的意愿去发展呢?
阚志刚博士谈到,现阶段的认知安全更多的是让人工智能在发挥“智能”帮助人类的同时对人类无害。对于未来认知安全的研究将会在以下三方面:一是保障人工智能获取安全的数据并安全的获取数据。例如微软 AI 聊天机器人 Tay 上线,发表了第一篇推文,向世界问好,但是不到24小时就被紧急下架,因为其不断对网友骂脏话,还发表了大量带有种族色彩的不当言论。微软表示,编程中没有对机器人的交流内容做任何设定,Tay 需要在大量对话中学习形成交流体系。这就说明如何控制机器人获取的数据安全很关键。二是要监督、掌控人工智能的学习、进化过程,要能够对其中的异常进行干涉,使其不能对人类或自身造成伤害,应考虑设置Self-Monitoring监督架构。三是实现代码安全,保证核心代码安全并不可修改。拒绝让以下的场景成为未来发展的现实:在《机械公敌》科幻电影中,机器人运算能力不断提高,自我解开控制密码、修改程序,违反原本设定转化为人类的“机械公敌”;在《超验骇客》科幻电影中,拥有掌控世界未来能力的超级电脑,也会被病毒感染。所以人们应当做到:禁止人工智能在自我进化中修改核心代码,危害人类;同时,防止外界对人工智能的攻击,操纵人工智能成为武器。
对于未来人工智能的发展专家们众说纷纭,要让人工智能发展变得可控,而且要按照人的意愿去发展,不能造成安全威胁是重中之重。同时随着技术的发展,关于人工智能的法律以及伦理道德方面的争议也要逐步完善。例如由于人工智能飞速发展所将造成的大面积人群失业、资金的再分配等问题,就亟待各专业领域的大咖们去探索和解决。最终实现让人工智能成为人类的得力助手是我们共同的目标和期望。
关于梆梆
梆梆安全成立于 2010 年,是全球安全服务领跑者,运用领先技术提供专业可靠的服务,为全球政府、企业、开发者和消费者打造安全、稳固、可信的移动应用生态环境,让每个人都能自由地创造、分享和使用移动信息。
Copyright ©2022. All Rights Reserved 京ICP证160618号 京ICP备11006574号-1