上个月,DeepSeek 的推理模型 R1 在人工智能领域引起了轩然大波,然而,它却因主动审查与中国有关的话题而受到批评。 虽然这对于海外用户而言似乎是一个相当小众的话题,但审查可能会影响其他与中国有关的查询,这使得它对各类用例的帮助大打折扣。
为了解决这个问题,Perplexity 开发了一个新的开源 R1 版本,称为 R1 1776,该版本已经过"后期训练,以提供公正、准确和真实的信息"。 该模型现在可以在 HuggingFace 存储库 https://huggingface.co/perplexity-ai/r1-1776中找到,也可以通过 Perplexity 的 Sonar API https://sonar.perplexity.ai/访问。
Perplexity 的后期培训主要侧重于解决与中国有关的审查问题。 它在下文中概述了所采取的方法:
我们聘请人类专家确定了约 300 个已知被中国政府审查的主题。利用这些话题,我们开发了一个多语言审查分类器。
然后,我们挖掘出了一系列不同的用户提示,这些提示能以较高的置信度触发分类器。 我们确保只包含用户明确允许训练的查询,并过滤掉包含个人身份信息(PII)的查询。
通过这一程序,我们编制了一个包含 40k 多语言提示的数据集。有趣的是,R1 1776 和 R1 在基准测试中似乎有些差异,但不是太大。 您可以从下图中看到差异:
如果您想获得 R1 1776,可以从 HuggingFace 下载。