据 Financial Times 报道,OpenAI 为了降低 ChatGPT 的危险性,建立了一支「红队」,并聘请了 50 名学者和专家来测试最新 GPT-4 模型。这支「红队」将「定性探测和对抗性测试」新模型,试图「攻破」它。
去年,他们在六个月的时间里进行了测试。他们用探索性或危险的问题来挑战 GPT-4,发现了一些神经毒剂、谎言、语言操纵和危险的科学常识等问题。
OpenAI 根据「红队」的反馈,对 GPT-4 进行了重新训练和安全评估,然后更广泛地向公众发布。OpenAI 表示,该公司非常重视安全性,在发布前对插件进行了测试。随着越来越多的人使用 GPT-4,该公司将定期更新它。