研究人员揭示AI中的安全威胁,如ChatGPT

发布日期:2024-06-03 11:26:21 阅读:1398

研究人员发现,谢菲尔德大学的人工智能(AI)工具,如ChatGPT等自然语言处理工具(NLP),可以被欺骗生成恶意代码,从而导致网络攻击。研究结果显示,AI语言模型容易受到后门攻击等简单攻击的影响,这可能导致窃取信息或服务中断等后果。该研究在ISSRE软件工程会议上提交,并入围该会议的“最佳论文”奖。研究人员还发现,在六个商业AI工具中发现了安全漏洞,并成功进行了攻击。这些工具包括BAIDU-UNIT、ChatGPT、AI2SQL、AIHELPERBOT、Text2SQL和ToolSKE。此外,研究还揭示了人们如何使用AI学习编程语言与数据库交互时的安全风险。研究团队与网络安全社区合作,以解决这些漏洞,并呼吁自然语言处理和网络安全社区共同解决现有的安全问题。如果您需要更多信息,请联系相关链接。感谢阅读。

研究人员揭示AI中的安全威胁,如ChatGPT