英国的一家恐怖主义监管机构警告说,人类社会可能很快就会开始见证全面爆发的AI辅助的,甚至AI传播的恐怖主义。

自2019年以来一直担任英国议会现任独立审查员或恐怖主义立法的乔纳森·霍尔告诉《每日邮报》说道:“我认为完全可以想象,人工智能聊天机器人将被编程,更糟糕的是,传播暴力极端主义意识形态,人工智能支持的攻击可能就在眼前。”

事实上,全球反恐专家一直在讨论人工智能。但这种讨论大多集中于使用人工智能工具,如面部识别和其他数据收集来防范恐怖主义。

车祸 水灾 AI绘画

然而,最近几个月,随着越来越强大的人工智能技术(例如深度伪造技术和生成文本和图像人工智能系统)的公众可用性越来越高,引发了对虚假信息和恐怖主义的新担忧,这种讨论开始发生转变 。

至于霍尔,他提出了对这些日益增长的担忧的有力论据,他认为,像ChatGPT这样的大型语言模型(LLM)工具可以产生通俗易懂、自信和有说服力的言辞,而不论他们在为什么争辩,这可能不仅是恐怖分子用来通过AI生成的宣传和虚假信息制造混乱的便宜有效的工具,甚至可以用来招募新的极端分子,包括那些可能在网上行动,正在寻求认可和社区的人。

虽然这听起来很遥远,但据称聊天机器人已经在导致一位不满的用户自杀中发挥了作用。

霍尔还指出,恐怖分子往往是“技术的早期采用者”,他补充说,并引用恐怖组织“滥用3D 打印枪支和加密货币”作为最近不良行为者使用新兴工具造成混乱和伤害的例子。

此外,该律师表示,由于目前有关人工智能的规范和法律非常模糊,人工智能恐怖主义可能特别难以追踪和起诉。