警告:谷歌敦促你避免将机密信息输入ChatGPT或Bard等聊天机器人

2023-06-18 11:12 编辑:爆米花
编辑有话说:这个建议是明智的,因为聊天机器人如ChatGPT和Bard是基于训练模型的,无法保证输入的机密信息的安全性和保密性。为了确保信息的保密,最好选择更安全的通信方式或平台。

近日,随着谷歌继续完善自己的名为 Bard 的 AI 聊天机器人,其母公司 Alphabet Inc. 对其员工发出了明确的指示:要小心聊天机器人,即使是 Bard。

谷歌建议不要将机密信息输入ChatGPT 或Bard等聊天机器人

据路透社报道,四位知情人士透露,这家大型科技巨头已建议员工不要将机密信息输入 OpenAI 的 ChatGPT 或谷歌自己的 Bard 等聊天机器人,以免泄露。Alphabet 担心员工将敏感信息输入这些聊天机器人,因为人工审阅者可能会审阅聊天条目。这些聊天机器人还可能使用之前的条目来训练自己,从而构成另一个泄密风险。这种风险是有道理的,因为三星上个月证实,在员工使用 ChatGPT 后,其内部数据已经泄露。

1月份,一位亚马逊律师敦促公司员工不要与 ChatGPT 共享代码。根据 Insider 查看的 Slack 消息截图,律师特别要求员工不要与 ChatGPT 共享“任何亚马逊机密信息”。

上个月,苹果公司向其员工发出了类似的禁令。《华尔街日报》获得的内部文件显示,苹果禁止员工使用 ChatGPT 和微软旗下的人工智能代码编写器 GitHub Copilot。消息人士还告诉《华尔街日报》,苹果和科技领域的每一家大公司一样,有兴趣建立自己的大型语言模型,苹果在2020年分别以2亿美元和5000万美元的价格收购了两家AI初创公司。

谷歌在3月份发布了其 ChatGPT 竞争对手 Bard。在Bard 发布前一个多月,一份泄露的备忘录显示,谷歌首席执行官桑达尔皮查伊要求全公司的谷歌员工在一天中对Bard 进行两到四个小时的测试。本周,在爱尔兰监管机构提到隐私问题后,谷歌推迟了 Bard 在欧盟的发布。爱尔兰数据保护委员会声称谷歌和 Bard 不遵守个人数据保护法。

免责声明:本文转载来自互联网,不代表本网站的观点和立场。

本文统计

  • 发布时间:2023-06-18 11:12:18
  • 最后一次修改时间:2023-09-19 15:40:15
  • 编辑次数:1
  • 浏览次数:52
  • 评论数量:0
  • 点赞次数:0

本文标签

评论(0)

举报
验证码
发表
最新评论

暂无评论,期待你的妙语连珠

举报文章问题
验证码
预约新游

预约成功!,

到时你将收到我们的短信提醒。

回复 宏伟路口 :
我真不理解,我只有一个女王和双生希儿!!还是比较喜欢360安全卫士的弹窗过滤,图标就在首页的右下角,开启非常的方便。而且强力过滤模式的话,可以将很多顽固的软件弹窗过滤掉,很彻底值得推荐。
CopyRight © 1999-2023 ejdz.cn All Right Reserved 易家知识网 版权所有 意见反馈

渝ICP备20008086号-17 渝公网安备50010702505138号渝公网安备50010702505138号

ejdz2023#163.com(#替换为@)   QQ:2368208271