泄密!又一芯片巨头禁用ChatGPT!

OFweek电子工程网 中字

5月2日消息,据彭博社报道,出于安全考虑,三星电子已禁止员工使用AI工具ChatGPT!

据悉,三星电子已经通知了该公司最大的部门之一,担心传输到谷歌 Bard 和 Bing 等人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。

三星电子上个月进行了一项关于内部使用 AI 工具的调查,并表示 65% 的受访者认为此类服务存在安全风险。

4月初,三星内部发生三起涉及ChatGPT误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”。报道称,半导体设备测量资料、产品良率等内容或已被存入ChatGPT学习资料库中。

据悉,三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。而最初三星也因担忧内部机密外泄而禁用ChatGPT,不过基于半导体是“生成式AI”的建构基础,三星自今年3月11日起允许DS部门使用ChatGPT,但装置体验(Device eXperience,简称“DX”)部门仍禁用ChatGPT。

据报道,三星DS部门的A职员,日前在执行半导体设备测量资料库(DB)下载程序的源代码时出现了错误,便复制出有问题的原始代码到ChatGPT,并询问了解决方法。另外,三星DS部门的B职员把为了把握产量、不良设备而编写的源代码输入到ChatGPT,并要求其优化。另外,三星DS部门的C职员则将手机录制的会议内容转换为文件后输入到ChatGPT,要求其制作会议纪录。

信息泄露安全问题值得警惕

此前,数据安全公司 Cyberhaven 的研究人员分析了不同行业客户的 160 万员工的 ChatGPT 使用情况——企业员工平均每周向 ChatGPT 泄露敏感数据达数百次,一周内约有 10 万名员工的机构,向基于 AI 的聊天机器人提供机密文件 199 次、客户数据 173 次,以及源代码 159 次。

随着更多服务通过 API 集成 ChatGPT 技术,在未来几个月内信息安全事件可能会迅速增加。

出于对机密数据泄露的忧虑,美国银行、花旗集团、德意志银行、高盛集团、富国银行、摩根大通和 Verizon 等越来越多的机构禁止员工使用 ChatGPT 聊天机器人处理工作任务。

许多日本大公司也限制了 ChatGPT 和类似聊天机器人的商业用途。该名单包括软银、富士通、瑞穗金融集团、三菱日联银行、三井住友银行等。

此外,三星的老对手台积电也传出要禁止员工使用ChatGPT的传闻,台积电发言体系澄清,并未禁止员工使用,但强调不可以透露公司专属信息,也有提醒员工,在使用相关人工智能应用时,要注意个人隐私。

不过台积电也表示,为保护公司敏感资料并提升员工隐私防护意识,台积电自3月初起发布一系列内部公告,提醒员工应秉持“不揭露公司信息”、“不分享个人隐私”、“不完全相信生成结果”原则,谨慎使用网络工具如ChatGPT或Bing AI Chat等。台积电公司亦积极采取信息安全与机密信息保护机制,以维护市场竞争力并保障客户与合作伙伴权益。

声明: 本网站所刊载信息,不代表OFweek观点。刊用本站稿件,务经书面授权。未经授权禁止转载、摘编、复制、翻译及建立镜像,违者将依法追究法律责任。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存