以色列网络安全公司Team8的最新报告显示:ChatGPT可能泄露商业机密

0
(0)

最新报道显示,使用生成式人工智能(如ChatGPT)的企业可能会因此泄露客户信息和商业机密。以色列网络安全公司Team8发布的报告指出,新型人工智能聊天机器人和协作工具的广泛普及,可能会将一些公司暴露于数据泄露和法律风险之中。黑客可能利用聊天机器人非法获取企业敏感信息或发动攻击,此外,未来人工智能公司利用聊天机器人中的机密信息的风险也不容忽视。

大型科技公司,例如微软和Alphabet,正积极利用生成式人工智能技术改进聊天机器人和搜索引擎,通过互联网上的数据来训练这些模型,从而为用户提供一站式问答服务。但是,如果使用机密或私密数据来投喂这些工具,今后将难以删除相关信息。

Team8将这一风险标记为“高风险”。他们认为,采取适当的防范措施,该风险是可控的。强调使用生成式人工智能的企业要注意其敏感信息、知识产权、源代码、商业机密和其他数据,这些都可能被人通过用户输入或API等方式恶意获取和处理,其中可能包括客户或私密信息以及机密信息。

另外,该报告还标记了与整合生成式人工智能工具有关的其他“高风险”问题,并强调通过第三方应用程序分享越来越多的信息所产生的威胁。微软将部分人工智能聊天机器人嵌入了必应搜索和Office 365工具。过度使用人工智能也可能加剧歧视问题、损害公司声誉或导致企业遭受侵权诉讼,这些都属于“中风险”问题。

美国联邦贸易委员会(FTC)正在关注滥用人工智能技术违反反歧视法或存在欺骗行为的公司。 FTC主席、委员和其他官员认为,任何不当行为“都应该得到FTC的制裁”。

点击星号评分!

平均分 0 / 5. 投票数: 0

还没有投票!请为他投一票。

推荐阅读

评论 抢沙发

评论前必须登录!

 

登录

找回密码

注册