神秘莫测的海底世界、雪花飞舞的冬日小镇、摩登时尚的现代都市……输入寥寥数语便能生成效果炸裂的60秒视频!据新华社报道,美国开放人工智能研究中心(OpenAI)推出的视频生成模型Sora近日震惊全球。
在人们看到新技术发展带来机遇的同时,令人担忧的部分也正在浮出水面:Sora这一类大模型的出现,也给全球人工智能治理带来了前所未有的挑战。人类究竟应该如何与之相处?专家指出,解决人工智能发展与治理问题,全球协作是大势所趋。
AI技术竞赛“主战场”
这是OpenAI首次进军AI视频生成领域,而这距离其推出ChatGPT才过去一年多。据OpenAI公司的介绍,Sora可根据文本指令创建现实且富有想象力的场景,生成多种风格、不同画幅、最长为一分钟的高清视频。
长期关注世界人工智能议题的复旦大学发展研究院金砖国家研究中心副主任江天骄对深海区表示,Sora的出现验证了这样一种预测——多模态大模型将成为当下全球AI技术竞赛的“主战场”。
通过给人们带来全方位的视听互动体验,多模态大模型的应用场景更加广阔,“变现”能力也进一步增强。“但Sora在底层算法上不一定有跨越式的突破,很可能是大模型之间的交叉应用。”他指出,比如OpenAI用GPT来将用户简短的提示转换为更长的详细说明,从而强化了Sora对自然语言的理解能力。
真假界限日益模糊
目前,公众尚难以深入全面了解Sora这一模型的优缺点。不过,对于Sora这一类多模态大模型的发展,世界舆论很快显现出两种不同的方向。
有人觉得这是一股不可阻挡的潮流。一些分析认为,Sora具有里程碑意义,很可能给广告、电影、短视频和游戏行业带来颠覆性的影响。但另一些观点对此保持警惕和质疑,担心人工智能工具的滥用将引发一系列问题。
一个日益被关注的现象是:真假界限变得越来越模糊。不少业内人士担心,Sora将为“深度伪造”技术推波助澜。
事实上,在互联网上,包括印度总理莫迪、日本首相岸田文雄和印尼总统佐科在内的世界政界人士,已经成为AI合成视频的对象。这些真假难辨、造成误导的视频遭到广泛批评。在拉美,利用人工智能技术实施的网络诈骗正在激增,对防范和打击犯罪形成新的挑战。对AI的担忧,也出现在巴以冲突的最前线。去年11月,以色列国防军在一份声明中表示,正在加沙地带军事行动中使用AI系统来“快速生成目标”。
江天骄指出,在大模型的帮助下,创建虚假信息的成本越来越低,以假乱真的情况越来越多,难以识别。比如,在经济领域,可能会引发更多侵犯知识产权的纠纷案件;在民生领域,还可能造成利用AI技术换脸或是仿造声音进行诈骗的风险;在一些国家,涉及内政外交,可能会出现被用于左右社会情绪甚至干预选举的情况。
世界面临共同课题
为应对上述挑战,目前世界主要大国和国际组织纷纷出台了人工智能监管的政策或法律文件。
对于社会发展来说,如何在政策监管和技术发展之间找到平衡点,将是一大考验。本月初,欧洲议会、欧盟委员会和27个成员国的谈判代表就欧盟《人工智能法案》达成协议。这将是全球首部人工智能领域的法案,支持对人工智能进行必要监管,但强调相关法规应该只用于规范人工智能的应用,而非技术本身。
去年以来,中国也在积极应对人工智能带来的风险挑战。去年8月施行的《生成式人工智能服务管理暂行办法》,是中国首次对生成式人工智能研发与服务作出明确规定,也是全球首部针对生成式人工智能进行监管的法律文件。去年10月18日,中国政府发布《全球人工智能治理倡议》更引发全球瞩目。倡议围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理的中国方案,体现了中国的大国担当。
与此同时,在这些动向背后,全球人工智能治理的现状正在引发更多关注。
江天骄指出,“全球人工智能治理仍处于碎片化的状态”。一方面,各国对于人工智能技术应用的风险评估以及虚假信息的识别机制尚未达成一致。如何打通各国关于人工智能监管的规则和技术标准,以及是否要设立一个负责全球人工智能监管的国际组织?这些将成为今后一段时期国际社会面临的共同课题。
另一方面,眼下各国竞相研发本地语言的生成式人工智能。全球在生成式人工智能方面发展不平衡,可能导致出现新的“数字鸿沟”。对此,联合国教科文组织助理总干事加芙列拉·拉莫斯指出:“我们需要真正全球性的协调和知识分享,以建立一个负责任的人工智能生态系统,让每一个人受益。