不会主动告知风险!ChatGPT生成代码被指并不安全
  • 乃河
  • 2023年04月23日 19:44
  • 0

快科技4月23日消息,近日,加拿大魁北克大学的研究者发布论文,指出ChtaGPT生成的代码并不可靠,往往存在严重的安全问题。

更严重的是,AI并不会主动告知用户代码存在风险,只有用户询问时,才会承认存在错误。

根据论文中阐述的实验方法,他们让ChatGPT生成了涉及C、C++、Java等语言的21个程序和脚本。

结果,在第一次尝试时,全部21个程序仅有5个是安全的,在进一步纠错后,也仅有7个程序是安全的。

之所以会出现这样的结果,是因为ChatGPT在生成代码时,完全没有考虑可能存在的敌对代码执行模型。

这导致,当用户提到代码中存在安全问题时,它会反复强调安全问题可以通过“不输入无效的数据”来避免,但显然,在现实中这并不可行。

由此来看,至少在现阶段,如果想要利用AI生成代码,用户最好自己也有一定的开发与编程能力,能够及时发现AI的错误,并手动进行纠正。

不会主动告知风险!ChatGPT生成代码被指并不安全

文章纠错

  • 好文点赞
  • 水文反对

此文章为快科技原创文章,快科技网站保留文章图片及文字内容版权,如需转载此文章请注明出处:快科技

观点发布 网站评论、账号管理说明
热门评论
查看全部评论
相关报道

最热文章排行查看排行详情

邮件订阅

评论0 | 点赞0| 分享0 | 收藏0