分享到:
链接已复制
首页> 智库中国>

AI安全上路先要装好“刹车”

2023-05-17 15:42

来源:北京日报

分享到:
链接已复制
字体:

文 | 晁星

近日,欧洲议会通过了关于《AI法案》的谈判授权草案,其中包含了有关面部识别、生物识别监控和其他AI应用使用的新规则,并提出严格监管ChatGPT等AI工具。无独有偶,美国商务部上月已就相关措施正式公开征求意见,包括新AI模型在发布前是否应经过认证程序。

说起来,自AI诞生之日起人类就忧虑重重:作为顶尖智慧和技术的结晶,AI会不会带来我们无法承受的风险,甚至走向失控?彼时,机器人之父图灵告诫:尽管人类可以随时拔掉机器人的充电器,但在这一物种面前,我们仍不得不保持谦卑。以历史视角观之,“机器人三定律”等似乎缓解了一些忧虑,但随着相关技术发展及应用扩大,人工智能所面临的法律与伦理冲突的复杂性远非几条简单定律所能约束。尤其在过去这段时间里,ChatGPT让人惊喜不已,但同时加剧了人类对其后风险的“原始畏惧”。

理性来看,种种现实担忧绝非杞人忧天,不断进阶的AI催生着多重风险——由于无法核实数据真实性,生成式AI常会“一本正经”传播虚假信息;数据挖掘像个“黑箱”,简单快捷、“百无禁忌”,为学术不端大开方便之门,还可能泄露个人隐私和商业秘密……试想,当网上充斥着越来越多不知真假的图片和视频,当AI几秒钟就“洗”出一篇像模像样的稿件,乃至能够一键换脸、一键脱衣等,我们是否还有信心用好这个工具?更关键的,人类从来都是在思考中迸发灵感、在试错中革新向前,可当AI提供了前往正确答案的“直通车”,不仅可能掏空学习资源,更可能反噬创新。

技术是把双刃剑,如何把握好技术创新与防范风险的平衡向来是一道难题。在科技伦理上,这通常被称为“科林格里奇困境”——技术尚未出现,监管者无法提前预测其影响并采取行动;而当它已经出现时,采取行动往往为时已晚或成本过高。相对乐观的是,人类总能通过不断适应新技术的发展、调整治理手段,一次次从这种困境中走出来。以汽车为例,在大规模上市前,人们就为其安装上了刹车,之后也一直在完善汽车的安全性,甚至在汽车发明100多年后,我们还在为其安全“打补丁”——加装安全气囊。

诚如比尔·盖茨所言,真正在全球范围内暂停人工智能技术的开发,已经不太现实。但确保其被健康地使用,防止打开潘多拉魔盒,却是必要的。一个月前,我国国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,从大模型的数据来源要可靠、对AI生成的内容应履行告知义务等方面给生成式AI的发展套上了“笼头”。显然,为狂奔的AI安上“刹车”,欧美在行动,中国也在积极探索。换言之,除了跟上创新步伐、谋求技术突破,如何构建一套趋利避害的AI治理体系,同样是一条不可忽视的竞争赛道。

有学者借“利维坦”“乌托邦”两个词汇,将“赛先生”的两个发展趋向形容为“赛维坦”(对科技无所抗拒又无能为力)和“赛托邦”(科技最大程度造福社会)。如今重重挑战在前,坚定驯服“赛维坦”的信心,保持实现“赛托邦”的理想,在遵从科技伦理、法治理念的基础上,不断完善人工智能相关法规,力求价值引领与技术“纠错”并行、秩序保障与创新提升协同、权益维护与义务承担对称,就能最大程度争取科技向善。


【责任编辑:申罡】
返回顶部