(资料图片仅供参考)
4月11日,中国国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见,从生成式人工智能服务商的准入,到算法设计、训练数据选择、模型到内容,以及用户实名和个人隐私、商业秘密等方面提出了相关要求,这有助于促进生成式人工智能长远健康发展。
其中,比如《征求意见稿》第四条,对人工智能生成内容,要求“真实准确”“防止生成虚假信息”。该条规定可能不太符合人工智能技术实际情况,对人工智能技术的落地可能造成影响。人工智能并非一个全知全能不会出错的“百科全书”,不同行业、不同领域对于真实性和准确性的要求不尽相同,不少用户也需要人工智能生成虚构内容帮助创意。
从目前对生成式人工智能技术的了解来看,即使是美国OpenAI公司最先进的GPT4模型,该公司的负责人也坦言,其仍然会产生幻觉、生成错误答案,并会出现推理错误。从技术角度讲,当前还不能完全避免生成不正确的信息,这是摆在眼前的客观现实。我国发展人工智能大模型,也不能逃脱这一客观规律。如果要求内容全部真实准确,结果可能是没有一款大模型能合规上市,这显然不是监管部门希望规制的目的。
那么对于虚假信息,到底应该如何管?个人来看,立法和监管可重点从复制、传播环节入手。《网络安全法》第十二条规定,任何个人和组织使用网络,不得编造、传播虚假信息扰乱经济秩序和社会秩序。《征求意见稿》第四条的本意,应该是防止上述行为,例如,违反新闻信息的管理要求,捏造传播虚假新闻。对于正常的生成式人工智能技术辅助进行虚构文学艺术创作等,并不属于监管规制的本意范围之列。
此前网信办发布的《互联网信息服务深度合成管理规定》第6条,就较好体现了上述监管思路:“深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。”
因此,重点对发布、传播虚假新闻信息的环节进行监管,既符合技术发展的客观规律,不至于把所有产品一棍子打死,也能取得更好的监管效果。
(编辑:吴双)
Copyright @ 2015-2022 海外生活网版权所有 备案号: 沪ICP备2020036824号-21 联系邮箱:562 66 29@qq.com