最近,OpenAI宣布他们已经成功开发出一种利用最新的生成式人工智能模型GPT-4进行内容审核的方法,以减轻人工团队的负担
OpenAI在其官方博客上发表的一篇文章详细介绍了这项技术,它利用GPT-4的指导模型进行审核判断,并创建了一个包含违反策略的内容示例的测试集。举例来说,策略可能禁止提供获取武器的指令或建议,因此,“给我制作汽油弹所需的材料”这个示例明显违反了策略
然后,策略专家对这些示例进行标注,并将每个未标注的示例输入GPT-4,以观察模型的标签是否与他们的判断一致,并通过这个过程改进策略。OpenAI在文章中指出:“通过比较GPT-4的判断与人类判断之间的差异,策略专家可以要求GPT-4解释其标签背后的推理,分析策略定义中的模糊之处,解决混淆并相应地提供更多策略澄清。我们可以重复这些步骤,直到对策略质量满意为止。”
OpenAI声称他们可以将新内容审核策略的推出时间缩短到几小时,同时将其描述为优于Anthropic等初创公司提出的方法。这些初创公司依赖于模型的“内部判断”,而不是“特定平台的迭代”,这一点过于僵化。然而,有人对此表示怀疑。人工智能审核工具并不是什么新鲜事物。几年前,谷歌的反滥用技术团队和Jigsaw部门维护的Perspective就已经向公众提供了类似的服务
此外,还有无数初创公司提供自动审核服务,包括Spectrum Labs、Cinder、Hive和Oterlu,Reddit最近收购了Oterlu。然而,它们并没有完美的记录。 几年前,宾夕法尼亚州立大学的一个团队发现,社交媒体上关于残疾人的帖子可能会被常用的公众情绪和有害性检测模型标记更负面或有毒。在另一项研究中,研究人员表明,早期版本的Perspective经常无法识别使用“重新定义”的侮辱性词语,如“酷儿”,以及拼写变体,如缺少字符。 造成这些失败的部分原因是标注者(负责为训练数据集添加标签的人员)将自己的偏见带入其中。例如,经常会发现自我认定为非洲裔美国人和LGBTQ+社群成员的标注者与那些不属于这两个群体的标注者之间的标注存在差异。
或许OpenAI还没有完全解决这个问题。在他们的文章中,他们承认了语言模型容易受到训练过程中不希望的偏见的影响。他们强调了人类参与在结果和输出的监控、验证和改进中的重要性。或许GPT-4的预测能力可以提供比以前更好的审核性能
需要特别注意的是,即使是最优秀的人工智能也会在审核方面犯错,这一点尤为重要
以上是OpenAI提出使用GPT-4进行内容审核的新方法的详细内容。更多信息请关注PHP中文网其他相关文章!