当前位置: 主页 > 未来 > 详情
我们需要什么样的人工智能伦理与治理

科技日报   2023-04-27 16:24:56

孙 瑜

开年以来,人工智能领域现象级应用ChatGPT引发全球关注和讨论。美国人工智能公司OpenAI最新发布的GPT-4则更为强大,不仅可以通过律师考试,还可以将一张手绘草图变成一个可运行网站,或在60秒内建立一个视频游戏……在ChatGPT生成的一行行智能回答的背后,对人工智能的信任、责任、伦理、法律等思考也逐步从幕后走向前台,成为热门话题。

怎样理解人工智能创造的艺术?人工智能时代我们该如何定义“公平”?如何把人类知识和AI算法结合以防止风险?这些话题的背后,最根本的问题是:我们需要什么样的AI伦理和AI治理?


(资料图)

不可否认,ChatGPT还有很多局限性,但人类应为应对AI可能带来的风险做好准备。在AI技术如火如荼发展的同时,关于AI伦理和AI治理,社会亟须形成广泛明确的共识。

今年2月,《人工智能伦理与治理·未来视角》出版。30多位来自学术界或科技企业的专家学者,围绕“AI向善的理论与实践”“AI的公平性”“AI与风险治理”“AI决策的可靠性和可解释性”“用户数据隐私”“包容性的AI”六大专题分享了建设性的意见。

其中不少观点为理解人工智能热潮提供了思路。

例如,人工智能是否会威胁人类?以ChatGPT为代表的大模型技术发展之快,很容易令人产生幻觉——似乎科幻电影里的想象已然近在咫尺,似乎将ChatGPT和智能机器人结合起来,我们就可以把《银翼杀手2049》里的虚拟女孩乔伊搬进现实。

微软全球资深副总裁洪小文认为,现在的人工智能是“强人工智能很弱,弱人工智能很强”,对于通用人工智能的威胁,其实没必要太过担忧。今天的人工智能根本不具备系统化解问题的功能,通用人工智能的实现还“没有影子”。

对于这个问题,复旦大学浩清特聘教授、博士生导师漆远介绍了顶尖科学家们的观点。他提到,麻省理工学院顶尖科学家之间曾举行辩论,主题为“将来机器人是否能够像牛顿和爱因斯坦等科学家一样发现科学定律”。现场的研究者一派认为不可能,这个技术的“种子”不存在;另一派则认为,有可能实现,但技术路线不得而知。

尽管人类和超级人工智能之间还有不短的距离,但思考其潜在风险,其即将或已引发的伦理与治理问题,仍非常必要。漆远认为,面对人工智能可能存在的风险,系统设计要留有“冗余”,需要将人和智能机器看作一个大系统,从整体来思考和构建可信和可靠性。

再如,数据隐私保护问题。很多企业掌握着大量数据,但数据归属权却并不清晰。例如,医院拍摄的医学影像属于患者还是医院?

美团副总裁、首席科学家夏华夏给出了3点具体看法。具体到科技企业,如果收集数据,应该告诉用户数据未来的用途;保护数据隐私,企业要有自律精神,需要有一套数据使用制度以及委员会监管;数据安全需要技术保障,但起兜底作用的还是法律法规,数据保护相关法律法规对企业是约束,也可以让用户放心。

清华大学苏世民书院院长薛澜认为,人工智能领域比较好的治理模式是“敏捷治理”,要求政府与企业互相沟通,共同讨论潜在风险并判断如何有意识地加以规避,建立合理的治理框架。

在书籍第二章内容里,专家分享了全球AI治理进展和新动态,梳理了德国、日本、新加坡等国家及欧盟、经济合作与发展组织等关于AI治理的政策。同时,书中还制作了国内外重要数据监管法律法规的时间轴,清晰显示了数据监管越来越严厉的趋势。这些内容可令读者较迅速地了解人工智能领域治理概况和相关原则。

目前,人工智能仍以极快的速度发展着。人类在道德和实践理性层面上的进步,也要跟上技术发展的节奏。正如未来论坛青年理事、中国人民大学法学院副教授郭锐在该书导论中所言,意识到并理解随新技术产生的社会伦理和治理问题,着手应对,“人类就是在实践最高意义上的自由”。希望社会各界能认识AI,拥抱它、适应它、影响它并引领它,共同建立起一个能让人类从人工智能中受益并防止其产生危害的治理体系。

相关资讯