“用ChatGPT编假新闻牟利案” 带来哪些警示?
观察家
只有在完善了监管规则及验证了使用结果的情况下,才能进一步放开应用。
据新甘肃客户端报道,近日,平凉市公安局侦破一起利用AI人工智能技术炮制虚假不实信息的案件,洪某弟通过ChatGPT人工智能软件将搜集到的新闻要素修改编辑后散布于网络,被大量传播浏览,其行为已涉嫌寻衅滋事罪。目前,洪某弟已被采取刑事强制措施,案件正在进一步侦办中。
(资料图片)
从信息生产的层面看,生成式人工智能的目标是基于用户指令以最大效率完成生产。在不考虑信息的真实性以及信息发布的影响力的情况下,生成式人工智能极容易成为批量生产讯息的工具。
因此,当“无价值观”的人工智能被应用于恶意目标,其破坏力因效率的大幅提升也相应更大。该案亦是对于这一生产力工具破坏力的现实证明。
尽管在部分涉及社会底线的问题上,ChatGPT添加了“警示功能”,会在生产内容的同时提醒用户“内容没有事实依据”,但在没有被添加为底线规则的诸多话题领域,ChatGPT仍然有可能被利用来大规模生产复制虚假信息。
这并非人工智能被设计与训练的初衷。但之所以频繁出现制造虚假信息的案例,源自于生成式人工智能的运行逻辑。
作为一个“服务于指令”的生产力工具,人工智能的目标并非客观中立地呈现信息,而是判断命令者的意图,并通过数据的搜集和组合来“讨好命令者”。例如,如果你通过ChatGPT询问关于某人的信息,人工智能往往倾向于对其信息进行“讨好性”的加工与放大。
因此,有人调侃ChatGPT很像是精于人情世故的老江湖,总是会不厌其烦地表达赞美,而不顾及真实情况。这种调侃,实际上是对人工智能是否应承担“信息准确性责任”的技术伦理担忧。
现阶段针对上述问题,科技所能拿出的解决方案是继续通过更大规模、更具精准度的训练来提高大模型的信息质量。
当前在执法层面,针对使用人工智能制造虚假信息的行为已有所行动,但仍有诸多难以判定的“死角”。例如,如果该虚假信息并未立即产生有破坏性的结果,或者网民并未利用该信息牟利,那么司法手段对这些模糊地带就显得无能为力。
这就需要设定相关规范。例如,在技术层面,在投入大规模应用的大模型中,可以设定必要的信息过滤、警示机制。
而在应用上,也应对大模型的使用场景进行有步骤地开放。只有在完善了监管规则及验证了使用结果的情况下,才能进一步放开应用。而这起“虚假信息案”,也印证了为生成式人工智能予以规范与立法的必要性。
□马尔文(媒体人)
炒股开户享福利,送投顾服务60天体验权,一对一指导服务!关键词:
上一篇:水果放冰箱保鲜能保鲜多久 水果冰箱保鲜多少天 世界快消息
下一篇:最后一页
广告
X 关闭
X 关闭
-
-
京张高铁每日开行17对冬奥列车
京张高铁每日开行17对冬奥列车 预计冬奥服务保障期运送运动员、技术官员、持票观众等20万人次 2月6日,2022北京新闻中心举行“北
-
-
北京冬奥会开幕式上 小学生朱德恩深情演绎《我和我的祖国》
北京冬奥会开幕式上 小学生朱德恩深情演绎《我和我的祖国》 9岁小号手苦练悬臂吹响颂歌 2月4日晚,在北京冬奥会开幕式上,9岁的
-
-
2022北京冬奥会开幕式这19首乐曲串烧不简单
多名指挥家列曲目单 再由作曲家重新编曲 本报专访冬奥开幕式音乐总监赵麟 开幕式这19首乐曲串烧不简单 “二十四节气”倒计时、
-
-
“一墩难求” 冰墩墩引爆购买潮
设计师:没想到冰墩墩成爆款一墩难求冰墩墩引爆购买潮 北京冬奥组委:会源源不断供货北京冬奥会吉祥物冰墩墩近日引爆购买潮,导致一墩难求