从三星电子允许员工使用ChatGPT不到20天,爆出了多起机密泄露事故。(图片来源: 公用领域 WIKI)
【看中国2023年5月6日讯】(看中国记者程帆编译综合报导)出于安全考量,三星电子(Samsung Electronics)本周宣布,禁止员工使用ChatGPT聊天机器人、谷歌Bard机器人和微软的必应(Bing)搜索引擎等,时下流行的生成式AI(人工智能)工具。该公司计划推出自己的软件。
据美国CNBC的报导,这家韩国科技巨头5月2日向媒体证实,正在暂时限制在公司所属的电脑、平板电脑、电话及内部网络使用生成式AI系统。主要是担心传输到生成式AI平台的数据被存储到外部服务器上,难以追回或删除,并最终可能被泄露给其他用户。
三星提供给彭博社的一份公司备忘录中显示,“请认真遵守我们的安全指南,否则可能会导致公司信息泄露。违者将受到处罚,甚至包括解雇。”
本次禁令的导火源是,从三星在3月11日允许员工使用ChatGPT不到20天,就爆出了多起机密泄露事故。
其中一个是,公司旗下“半导体装置解决方案部门”(DS)有员工,在操作半导体测试装备下载过程中,发现一些数据问题。于是,他将问题代码复制到AI工具中,试图寻找答案。但这很可能让ChatGPT将机密资料当作训练资料使用。
另一则事故涉及DS的其他员工利用ChatGPT改良芯片良率的代码。还有一宗,尽管不是技术机密,可仍存在将重要会议记录外泄。
随后,三星上月在内部开展了一项使用AI的调查。有65%的受访者认为,这类服务确实存在安全风险。为防止类似事故再次发生,该公司正在制定相关保护措施。比如,可能会效仿意大利,切断ChatGPT的服务。
路透社早前曾报导,意大利数据保护厅(Garante)以触犯欧盟通用数据保护条例(GDPR)为由,今年3月31日下令,“在ChatGPT满足个人信息保护标准和规定前,将暂时切断这项服务的连接。”
该机构指出,ChatGPT平台在两周前出现了“用户对话数据和付款服务支付信息丢失”的情况。这也是自ChatGPT推出以来,首次发生的重大个人数据泄露。为此,人工智能开发商OpenAI已尽快修补了相关的技术漏洞,并向用户和社区致歉。
不过,三星本次的限制令并不包括出售给消费者的设备,例如,安卓(Android)智能手机或Windows笔记本电脑等,用户可以自行决定。
与此同时,公司也在着手自行研发内部的AI工具,用于翻译、总结文件或软件开发等,以及如何阻止敏感信息上传到外部服务的方法。
并表示,“总部正在审查各项措施,以便安全地利用生成式AI来提高员工的生产力和效率。但是,在我们准备好之前,必须暂停对它的使用。”