韩国科技巨头三星电子(Samsung Electronics)日前向员工发放一份内部备忘录,禁止员工使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能,违者将面临纪律处分。
AI平台或会导致资料外泄
根据备忘录所说,传送到ChatGPT、Google Bard等AI平台的数据资料会被储存到外部伺服器,不但难以取回或删除,更会导致资料外泄,故此三星员工被禁止在公司设备使用上述AI,包括电脑、平板电脑、手机和内部网络,员工亦不能在个人设备上向这些平台上传公司的敏感信息。
备忘录中表示:“我们要求你认真遵守我们的安全准则,如果不这样做,可能会导致公司信息被破坏或泄露,从而招致纪律处分,甚至包括被解雇。”
三星原先并不允许员工使用ChatGPT,直至本年3月11日才应员工要求解除禁令,但不足20天内却出现了3宗泄密事故,皆因半导体暨装置解决方案部门(DeviceSolutions,简称“DS”)使用ChatGPT工作发生。据了解,外泄资料包括半导体设备量测资料库、生产/瑕疵设备相关软体,以及一份公司会议纪录的文字摘要,表示三星某些商业机密可能已被ChatGPT的服务商OpenAI掌握。相信该些事件直接导致三星重推禁令,而该公司上月亦进行了一项内部调查,其中65%受访者认为人工智能工具带来了安全风险。
亚马逊亦早警告员工不要使用ChatGPT
虽然三星禁止了外部的AI工具,但公司表示正创造一个安全使用生成式人工智能的环境,并正在研发自家的人工智能工具协助员工完成软件开发和翻译等工作。
除了三星以外,早前花旗集团、高盛和摩根大等华尔街银行已因资料安全限制员工使用ChatGPT,美国科技巨头亚马逊亦早警告员工不要使用ChatGPT。
相关新闻:
AiDoge(Ai)-Meme生成平台
- 创建和共享人工智能生成的记忆
- 人工智能加密领域最新的Meme币
- 预售现已上线-aidoge.com
- 基于代币的信用体系
- 质押 $Ai 代币以获得每日奖励