在线社区的内容审核一直都是一个老大难问题。对于一些使用语音交流的平台,这项审核任务则更加艰巨。
而Dataloop则试图通过“AI 数据引擎”来解决社区管理的问题,帮助企业使用 AI 来监控和管理他们的在线环境。
该公司提供使训练人工智能模型成为可能的工具,包括存储和注释资源以及使人工智能更容易集成到现有流程中的自动化管道。
单独使用 AI 进行审核可能已经成为可能,但还不是很好。不少社交媒体公司最初使用 AI 内容审核策略,但提供了人工上诉流程。很多应该被标记的内容没有被标记,而很多不应该被标记的内容却被标记了。
Dataloop 的工具可以与正在学习识别有问题的单词或短语的AI一起工作,以向人类主持人提供带注释的片段,然后由他做出最终决定。这有助于改进 AI 并防止由 AI 内容审核策略引起的问题。
Dataloop 产品副总裁 Shlomi Avigdor表示:“在某些情况下,公共模型一开始表现不佳,但随着时间的推移会越来越好,你可以很快达到90% 的准确率,”Avigdor 说。“将其精炼到99%,这是困难的部分。这就需要人类的介入。”
从头开始或基于公共模型构建 AI 审核工具还可以帮助公司为其特定用例和地理市场开发更有用的模型。训练数据源越本地化,AI 识别区域线索的能力就越好——这在谈论调节音频内容时尤为重要。
Avigdor 说:“你可以在美国开发一个很好的内容审核模型,但带到日本,却毫无用处。” “我们设计的是真正加速这一过程的解决方案。”