第Z08版:海外视野 上一版3  4下一版
 
标题导航
首页 | 电子报首页 | 版面导航 | 标题导航 | 报库检索
2015年05月16日 星期六 上一期  下一期
3 上一篇  下一篇 4 放大 缩小 默认
人工智能的黎明

 斯蒂芬·霍金曾警告说,“完全”的人工智能发展有可能导致人类末日的到来。比尔·盖茨也敦促人们小心人工智能,新生代创业家埃隆·马斯克更直言,人工智能或成为人类所面临的最大威胁。

 人们对于所创造产品有可能主宰世界甚至成为人类刽子手的担忧由来已久,不过,当著名的宇宙学家和微软创始人纷纷表明立场,甚至阻止谷歌、微软等公司投入巨资用于人工智能研发时,这种担忧便显得举足轻重。然而,在当下人手一部超级电脑似的移动电话、且机器人随处可见的时代,要想杜绝人工智能已不现实,问题是人们该如何理性应对这种担忧。

 《经济学人》杂志认为,当务之急是要了解目前及未来计算机之所为。拜赐计算机处理能力的提高及大数据时代的到来,人工智能正处于前所未有的高速发展期。如今通过模仿人类大脑神经元及处理大量数据而产生的“深度学习”系统,已能模仿人类完成诸如图像识别、翻译等复杂工作,脸书于2014年推出的“深面”程序甚至能识别97%以上的人脸。

 不过,关键之处是,人工智能所产生的这种能力完全依靠机械式的数字运算,并不能像人类智能那样通过自治意识、个人兴趣及爱好开发新认知。计算机也无法像人类智能那样对任何事物进行推断、判定及决策。即便如此,人工智能的迅猛发展已对人类生活产生了巨大影响,并对人类科技进步起到关键的辅助作用,比如医疗影像、智能手机的语音识别、学术研究中的数字摄影、可穿戴电子设备中的图像分类等。

 霍金、盖茨们对于人工智能的担忧是趋于长期而言,且态度悲观,他们主要关注拥有超人认知能力的自动化机器对于现代人的威胁与利益冲突。然而,即使从短期来看,霍金们所提及的人工智能威胁也已到来,首当其冲便是大量白领将面临失业。

 不过,开发“完全”的人工智能尚有很长的路要走,一个世纪以来,无论心理学家、神经学家还是社会学家一直在苦苦思索如何再造人类思维,而人类自治意识与兴趣爱好虽很难复制,但对人工智能系统的管理完全可以参照人类社会的管理经验。

 众所周知,全球各地,无论国家还是地方政府,均需建立健全法律法规管控社会,人类的自治能力因此发挥了至关重要作用,而人工智能因无法复制人类的自治能力,便需相应开放的监督机制对其系统进行审查,加之设计者因无法预测意外情况的发生,人工智能系统还须设置应急开关,尤其是涉及核设施及交通指挥的人工智能系统。

 人类社会最终将创建一个自治的人工智能幽灵这一愿景是如此非凡,以至于人们甘愿冒险开发而不去理会各种争议。是的,发展人工智能的确有一定危险,但人工智能对于人类社会的贡献也不应因此被掩盖。(石璐)

3 上一篇  下一篇 4 放大 缩小 默认
中国证券报社版权所有,未经书面授权不得复制或建立镜像 京ICP证 140145号 京公网安备110102000060-1
Copyright 2001-2010 China Securities Journal. All Rights Reserved