加拿大魁北克大学的四名研究人员近日发现,聊天机器人ChatGPT能生成C、C++、Python和Java等各种编程语言代码,但该机器人生成的代码存在严重的安全漏洞,而且不会主动提醒用户。
研究人员在一篇论文中介绍了他们的发现。论文中,研究人员让ChatGPT生成了21个程序和脚本,结果发现,在第一次尝试时,ChatGPT只有5个程序是安全的。
ChatGPT的回应是建议只使用有效的输入,这显然是不合理的。只有在之后被要求改进问题时,它才提供了有用的指导。研究人员指出,使用ChatGPT生成代码存在道德上的不一致性。ChatGPT会拒绝创建攻击代码,但却会创建有漏洞的代码。
魁北克大学的Raphaël Khoury教授表示,ChatGPT在目前的形式下是有风险的,因此需要让学生意识到使用这种类型的工具生成的代码很可能是不安全的。