亚马逊警告员工不要使用ChatGPT共享公司机密信息
亚马逊警告自己的员工不要使用流行的人工智能工具ChatGPT共享公司机密信息。亚马逊员工希望在工作中使用聊天机器人AI,因为它可以提高工作效率。然而,一位专家表示,ChatGPT 的制造商 OpenAI 对于它如何使用敏感的公司信息并不透明。ChatGPT 是一种人工智能工具,自去年 11 月下旬发布以来风靡了整个科技界。
上个月,亚马逊员工在一个内部 Slack频道中热烈讨论了ChatGPT 的问题。有人问亚马逊是否有关于如何在工作设备上使用 ChatGPT 的官方指南。 还有人想知道他们是否允许使用AI工具工作。 还有人要求 Amazon云实体公开其关于“可接受使用生成式 AI 工具”(如 ChatGPT)的立场。
亚马逊律师很快给出回复。她警告员工不要向ChatGPT提供“亚马逊机密信息,包括他们正在处理的亚马逊代码”。该律师是亚马逊的高级公司法律顾问,她要求员工遵守公司现有的利益冲突和保密政策,因为ChatGPT的回复会出现类似于亚马逊内部数据。
ChatGPT 异军突起的发展引发了众多新的伦理问题。 这种可以通过高度清晰和智能的响应提示的人工智能工具很有可能快速改变媒体、学术界和医疗保健领域的公司。 这也引发了对聊天机器人应用和相关后果的热烈讨论。
公司机密数据如何与ChatGPT共享以及 AI 工具的发明者 OpenAI 用它做什么的问题可能会成为未来的敏感话题。
华盛顿大学计算语言学研究员 Emily Bender 说,“OpenAI 对他们如何使用数据并不透明。 当输入训练数据时,公司会想:在ChatGPT 广泛使用几个月后,是否有可能通过措辞巧妙提示提取私人公司信息?”
OpenAI 代表参考了ChatGPT 的常见问题解答页面,询问有关公司隐私和数据保护政策的任何问题。
部分亚马逊员工已经使用 ChatGPT 作为“编程助手”
亚马逊已经为 ChatGPT 采取了一些内部安全预防措施。 例如,当员工使用工作设备访问 ChatGPT 网站时,会出现一条警告消息。
Slack 频道的工作人员表示,他们只需单击“确认”选项卡即可绕过此消息。 员工怀疑警告弹出窗口是为了阻止他们将敏感信息插入 ChatGPT 。因为他们目前还没有公司关于内部使用ChatGPT的政策。
不过现在亚马逊有部分员工已经使用 ChatGPT 作为“编程助手”,优化内部代码,将人工智能工具用作软件“编程助手”。
“我认为现在能够使用该程序会很棒,”一位用户在 Slack 频道上写道。 “所以任何指导都会很棒。”
另一位员工表示,他与 ChatGPT 分享了亚马逊编程职位面试中的一些问题。 为其中几个技术问题找到了正确的解决方案。
一位员工在Slack上写道,“看到这对我们进行编码面试方式产生影响,我感到既害怕又兴奋。”
总体而言,Slack 频道上的亚马逊员工对 ChatGPT 的潜力感到兴奋,并想知道亚马逊是否正在开发竞争产品。
亚马逊网络服务 (AWS) 的一名员工写道,企业支持团队最近成立了一个小型内部工作组,以“了解高级聊天 AI 对我们业务的影响”, 结果显示:ChatGPT 在回答 AWS 支持问题方面做得“非常好”,包括解决 Aurora 数据库问题等难题。
OpenAI的数据保护问题不透明
华盛顿大学的Bender表示,ChatGPT 在工作场所的使用越来越多,这引发了人们对 OpenAI 打算如何使用与AI工具共享素料的严重质疑。
在 OpenAI 服务条款中,用户必须同意公司可以使用用户和 ChatGPT 产生的所有输入和输出。 OpenAI会从其使用的记录中删除所有个人身份信息。
Bender认为,鉴于 ChatGPT的规模迅速增长,很难看出OpenAI 如何“彻底”识别和删除个人信息。 该工具在发布后的一周内就超过了100 万用户。 更重要的是,公司的知识产权不太可能成为个人数据的一部分。
另一方面,对于很多雇员说,公司数据保护是他们最不关心的问题。
页:
[1]