举报查询 登录 | 注册
  1. 首页
  2. 你评论
  3. 带领生成式AI走出“科林格里奇困境”

带领生成式AI走出“科林格里奇困境”

发布时间:2023-07-19 15:02 分享到:

7月13日,国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》(以下简称《办法》),以促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。至此,爆火的生成式AI产业正式迎来首个监管文件。

这几天,从各方对《办法》的反应中,可以明显嗅到一种“终于等到你”的味道。去年11月至今,ChatGPT引领的生成式人工智能(AIGC)大火,国内以互联网大厂领头的各大企业,也纷纷研发各自的大模型与产品,通用大模型掀起的创业潮被形象称之为“百模大战”。而与任何新技术一样,AIGC的发展同样伴随风险,短时间内就带来了虚假新闻、数据安全、隐私风险、学术剽窃、算法安全等一系列问题。不久前,浙江就公布了首例用ChatGPT制作虚假视频的案例。全球范围内发生的安全风险就更多了,利用虚拟恋人诈骗、用AI写学术论文、侵犯知识产权等案例数不胜数。为响应需求,国内迅速开展了监管文件的制定,3个月的速度堪比AIGC的进化速度。

除了划定红线,让人“惊喜”的是《办法》将发展提到了重要的位置,“既要管也要管好”的意味十分明确。比如第三条明确了发展与安全并重、创新和依法治理相结合,用词排序上,将“发展”置于“安全”前、“创新”置于“治理”之前,还明确指出“鼓励生成式人工智能技术在各行业、各领域的创新应用”等。有分析人士认为,相比此前的征求意见稿,正式办法的基调从强监管、御风险转变为“包容审慎”、“鼓励”发展,凸显了国家层面对新技术发展的支持。对企业来说,有了“红绿灯”之后,大模型推向商用的过程就有规可循,今后的发展方向也更笃定踏实。

这么做,符合现阶段生成式人工智能的发展趋势。在7月8日的“世界人工智能大会”上,中国工业和信息化部副部长徐晓兰曾表示,中国正在努力开发“完整的人工智能价值链”。这意味着什么?《经济学人》在今年5月曾撰文表示“如果生成式AI真像其支持者所说的那样具有变革性,那么运用它的国家就可能在21世纪首要的一场地缘政治竞争中获得经济和军事上的优势”。文章对比论文、芯片、算力、模型数量等方面数据,将中国作为未来在AI模型领域和美国抗衡的最大对手。言辞或许有耸动的成分,但中国将加大对国内人工智能产业的支持力度,将继续巩固和扩大在这一跑道上的优势,毋庸置疑。

超越竞争视角,一个更加可控、更加可靠的科技发展环境,一直是中国作为负责任大国的重要议题。2021年,习近平总书记在两院院士大会中国科协第十次全国代表大会上指出,科技是发展的利器,也可能成为风险的源头。要前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战,完善相关法律法规、伦理审查规则及监管框架。2019年的《新一代人工智能治理原则——发展负责任的人工智能》、2022年的《关于加强科技伦理治理的意见》都对安全可控、加强科技伦理治理等提出明确要求。

新技术,新机遇,也是新挑战,当旧的治理范式失效,治理进入了深水区,更加考验监管的张弛之道。把握发展规律和节奏,制定相应的监管,避免“科林格里奇困境”(一项新兴技术如果因为人们担心不良后果而过早实施控制,这项技术就很难发展;反之,控制过晚可能走向失控),防止“一管就死,一放就乱”,中国的人工智能将有不可限量的前景。

(来源:"网信浙江”)

(链接:https://mp.weixin.qq.com/s/i3whqJnZjhi-8gudX53D2A)