查看: 1698|回复: 0
收起左侧

[IT业界] 微软开源多项工具和数据集 让语言模型更和谐

[复制链接]
蓝天二号
发表于 2022-5-24 08:52:55 | 显示全部楼层 |阅读模式
今天微软宣布多项工具和数据集开源,这些工具旨在审计 AI 驱动的内容审核系统,以及自动编写突出显示 AI 模型中潜在错误的测试。微软表示 AdaTest 和 (De)ToxiGen 项目可以产生更可靠的大型语言模型 (LLMs),或者类似于 OpenAI 的 GPT-3 的模型,用于分析和生成具有人类水平复杂性的文本。
Screenshot_20220524-085032_Gallery.jpg
目前 LLMs 存在诸多风险。因为这些模型经过了大量来自于互联网(包括社交媒体)的数据培训,因此它们在训练过程中可能会遇到有毒文本(toxic text)。由于重新训练模型的成本以及存在的大量错误,发现和修复这些模型中的缺陷仍然是一个挑战。

为了解决毒性问题,Microsoft Research 团队开发了 ToxiGen,这是一个用于训练可用于标记有害语言的内容审核工具的数据集。据微软称,ToxiGen 包含 274,000 个“中性”(neutral)和“有毒”(toxic)陈述的示例,使其成为最大的公开仇恨言论数据集之一。
Screenshot_20220524-085045_Gallery.jpg
Microsoft Research 合作伙伴研究领域经理、AdaTest 和 (De)ToxiGen 项目负责人 Ece Kamar ToxiGen 表示
我们认识到任何内容审核系统都会存在差距,这些模型需要不断改进。 (De)ToxiGen 的目标是让 AI 系统的开发人员能够更有效地发现任何现有内容审核技术中的风险或问题。

我们的实验表明,该工具可用于测试许多现有系统,我们期待从社区中学习将从该工具中受益的新环境。


为了生成样本,Microsoft Research 团队提供了一个针对 13 个少数群体的“中性”陈述和仇恨言论的 LLM 示例,这些群体包括黑人、身体和认知障碍者、穆斯林、亚洲人、拉丁裔、LGBTQ+ 和美洲原住民。这些陈述来自现有的数据集以及新闻文章、观点文章、播客记录和其他类似的公共文本来源。
Screenshot_20220524-085059_Gallery.jpg
微软团队解释说,用于创建 ToxiGen 语句的过程被称为 (De)ToxiGen,旨在通过指导 LLM 生成工具可能错误识别的语句来揭示特定审核工具的弱点。通过对三个人工编写的毒性数据集的研究,该团队发现从一个工具开始并使用 ToxiGen 对其进行微调可以“显着”提高该工具的性能。
Screenshot_20220524-085113_Gallery.jpg
微软团队认为,用于创建 ToxiGen 的策略可以扩展到其他领域,从而产生更多“微妙”和“丰富”的中立和仇恨言论示例。但专家警告说,这并不是万能的。
您需要登录后才可以回帖 登录 | 快速注册

本版积分规则

手机版|杀毒软件|软件论坛| 卡饭论坛

Copyright © KaFan  KaFan.cn All Rights Reserved.

Powered by Discuz! X3.4( 沪ICP备2020031077号-2 ) GMT+8, 2024-4-25 19:27 , Processed in 0.130922 second(s), 19 queries .

卡饭网所发布的一切软件、样本、工具、文章等仅限用于学习和研究,不得将上述内容用于商业或者其他非法用途,否则产生的一切后果自负,本站信息来自网络,版权争议问题与本站无关,您必须在下载后的24小时之内从您的电脑中彻底删除上述信息,如有问题请通过邮件与我们联系。

快速回复 客服 返回顶部 返回列表