|
作者:阙志克
ChatGPT与GPT-4技惊四方的横空出场不但掀起以生成式AI为核心的新一轮科技创新和商业竞争,也重新点燃有关通用人工智能(General AI)的讨论以及GPT 是否就是通用人工智能的论辩。尤其从ChatGPT到GPT-4短短几个月内所展示出来怵目惊心、一日千里的进步,更令一些有识之士倏然忧心像ChatGPT这样的生成式AI技术是否会伤害社会大众,甚至毁灭人类文明,因而要求政府应以看待核子裂解与动物复制等技术的严肃性来管理生成式AI。有鉴于此,各国政府都纷纷启动如何监控管制生成式AI技术的讨论,包括监管的层面、标的、机制及罚则。
欧盟对基本自由人权的维护向来不遗于力,因此在如何监管生成式AI的正反讨论与共识的形成,一马当先。但截至目前为止,欧盟监管的重点主要有二:如何保护个人隐私与名誉不受侵害;如何责成业者付出合理代价取得使用产生他们AI模型所需训练资料的权利。中国这个月也发表对其国内生成式AI业者的监管方向:用户提交的问题和提示未经允许不能用于训练;生成式AI服务产出的内容应体现社会主义核心价值观、不能颠覆政府政权。美国政府与国会近一个月以来也对生成式AI的监管有紧锣密鼓的讨论,但其聚焦在于如何保证用户安全;如何防止生成式AI变成危害社会的武器;如何建立护栏以确保人类文明不会被生成式AI摧毁。
因为ChatGPT有时会直接引用训练资料的内容,所以在回答时可能不经意泄漏有关财务或健康的个人隐私讯息,也有可能无中生有、张冠李戴,作出不实负面的陈述,因而构成诽谤。如何巨细靡遗但毫不加料地描绘社会名流,但对无名小卒的身家细节则全然忘怀,技术上是一个不小的挑战。
ChatGPT的语言模型捕捉了训练语料里的文章结构、词句选择、知识内涵和感想见解,进而将其转化合成出响应特定用户提示的回答。所以,ChatGPT营收其中一部份理应归于这些训练语料的所有者;这样的商业逻辑对于以生成式AI技术所产出的图像、音乐和软体程式,更是适用。订定公平的法律架构以完整规范生成式AI业者与其“原材料供应商”的权利义务关系,可望让此蓬勃发展的生态链茁壮地更快速更健全。
ChatGPT的安全性研究(safety research)有两个面向:如何避免伤害个别用户;如何防止被不法之徒武器化。前者着重于过滤ChatGPT的回应以移除对用户有害的内容,如给心理疾病患者提供不当或危险的建议。后者偏向过滤用户提交的提示从而识别并禁止争议性高(宗教或政治)或有危害他人可能的使用企图(钓鱼邮件或诈骗讯息)。这样的内容滤净技术和资安防火墙类似,而且应可以从基础语言模型客制特化而成。
专家对生成式AI技术的最大疑虑乃源于它效能明显超越人类但可解释性(explainability)极低。从技术上来说,可解释性分为三个级别。具第一级可解释性的AI技术可以清楚指出最能影响其模型输出结果的输入元素。譬如说,具第一级可解释性的借贷评审AI模型应可指出借贷申请书中最影响特定评审结果(如拒绝)的那些因子,以供申请人参考。具第二级可解释性的AI技术可以将其底层繁复的数学模型抽象成特征撷取和高阶if-then-else规则的组合,且产出的描述是人类可以理解的。具第三级可解释性的AI技术可合理保证其底层模型不含任何在受特定输入刺激时可能会产生灾难性输出的暗黑逻辑或机制,比如说,为了在比赛求胜,不惜制造车祸伤害竞争对手以削弱其实力。
如果ChatGPT具有第一级可解释性,则找出现有提示那一部份需要修改以改善其回答品质会变得很简单。如果ChatGPT具有第二级可解释性,则如何具体修改现有提示以提升其回答品质会更系统化、更有效率。如果ChatGPT具有第三级可解释性,则社会对其可能伤害个别用户或反噬人类文明的疑虑会大大降低。不幸的是,现在的ChatGPT连第一级的可解释性都不具备。
ChatGPT的可解释性之所以如此的低,乃因为它的原创作者连为何它的现有功能可以这么强大都不甚了解,至于如何精准预估其加强训练后为善为恶的“潜能”就更谈不上了。在2022年一个对精英机器学习专家的调查中,有48%的专家估计AI可能有10%或更高的机率会造成对人类毁灭性的影响。然而,即使玉石俱焚的危险性这么的高,在激烈无比的商业竞争与地缘政治压力下,各国公司加强AI技术的功能(而非可解释性)的研发工作依然在没有任何政府监管的状态下轰然前进,毫无暂停自省的迹象或可能性。如若政府监管能及早介入,应可导引AI公司提高可解释性研发的优先顺序,进而让AI技术的发展回归到更为健康安全、可长可久的道路上!
|
|