三星 ChatGPT 惨败凸显人工智能隐私问题
Posted: Sat Dec 21, 2024 7:01 am
对于三名三星员工无意中向 OpenAI 泄露了与 ChatGPT 相关的源代码、内部测试和对话的情况来说,“已经说过的事情无法挽回”这句话听起来尤其正确。这一惨败凸显了围绕人工智能 (AI) 的隐私问题。
据《韩国经济学人》杂志报道,三星最初不愿意采用人工智能聊天机器人,因为担心它可能会向外界泄露商业机密等敏感信息。然而,随着 ChatGPT 越来越受欢迎,三星决定加入这一趋势,并批准在工作场所使用它,以便员工能够跟上不断变化的技术。当时,该公司向那些计划使用ChatGPT的人发出警告:在向AI助手提出请求时“注意敏感信息的安全,不要输入私人数据”
在三星就其使用 ChatGPT 发出警告后 20 天,三名公司工程师泄露了看似敏感的公司数据,可能会向 OpenAI 及其竞争对手提供有关三星技术的信息。
在第一个案例中,一名员工发现半导体工厂的测量数据库下载器的源代码存在错误,并向 ChatGPT 寻求解决方案。在第二种情况下,另一名员工使用 ChatGPT 来优化识别性能和缺陷 柬埔寨电报数据库 芯片的程序的测试序列。在第三个案例中,一名员工在智能手机上录制了公司内部会议,使用语音识别应用程序进行转录,并将其输入 ChatGPT 以生成会议纪要。因此,所有三名员工目前都面临纪律调查。
尽管存在这些泄密事件,三星并未禁止在其工作场所使用 ChatGPT。相反,它试图让员工了解使用人工智能所涉及的隐私风险,强化这样一个事实:与 ChatGPT 共享的任何信息最终都会出现在 OpenAI 的外部服务器上。三星还对每位员工可以上传到 ChatGPT 的数据量设置了限制,并警告称,如果再次发生违规,ChatGPT 将被永远禁止使用。通过这种方式,三星希望避免公司未来出现隐私问题。

无法删除对 ChatGPT 所说的内容
三星不是第一个,也不会是最后一个员工倾向于与 OpenAI 聊天机器人讨论敏感问题的受害者。其他公司也在采取预防措施。
亚马逊早在 1 月份就限制了 ChatGPT 的使用,在公司检测到与公司内部数据“密切匹配”的 ChatGPT 响应后,警告员工将任何敏感信息(例如代码)输入聊天机器人的危险。另一家美国巨头沃尔玛最初在检测到“对公司构成风险”的活动后封锁了 ChatGPT ,但后来允许其使用并发布了一系列指导方针,包括员工应“防止输入任何敏感信息、机密或信息”。聊天机器人中的公司专有”。
多家金融服务公司已在工作场所全面禁止 ChatGPT。美国银行已将 ChatGPT 添加到其未经授权的应用程序列表中,不允许用于商业用途。其他阻止访问聊天机器人的金融机构包括摩根大通、花旗集团、高盛、德意志银行和富国银行。后者告诉彭博社,它将其纳入第三方软件的标准限制中,并且“将继续评估”使用该技术的安全有效的方式。
银行业被认为是最积极应对 ChatGPT 带来的隐私风险的部门。这是可以理解的,因为银行处理大量敏感的客户信息并受到严格的监管。然而,重要的是要强调这些风险适用于所有部门。一旦向聊天机器人提供任何信息,无论是一段专有代码还是董事会会议的记录,该信息就不再被视为机密,而是成为公共领域的一部分。
OpenAI 的服务条款规定,在与聊天机器人交互时,您不应期望有任何隐私,他们对此非常明确。事实上,OpenAI 声称它可以查看并使用用户与 ChatGPT 的对话来训练 AI,并且无法帮助从聊天历史记录中删除特定通知。
ChatGPT 缺乏隐私可以说对企业来说是一个非常现实的风险,因为与聊天机器人共享的任何信息都可以被任何请求的人访问。就三星而言,其竞争对手可能会尝试通过 ChatGPT 获取敏感信息,这可能使该公司处于脆弱的境地。
据《韩国经济学人》杂志报道,三星最初不愿意采用人工智能聊天机器人,因为担心它可能会向外界泄露商业机密等敏感信息。然而,随着 ChatGPT 越来越受欢迎,三星决定加入这一趋势,并批准在工作场所使用它,以便员工能够跟上不断变化的技术。当时,该公司向那些计划使用ChatGPT的人发出警告:在向AI助手提出请求时“注意敏感信息的安全,不要输入私人数据”
在三星就其使用 ChatGPT 发出警告后 20 天,三名公司工程师泄露了看似敏感的公司数据,可能会向 OpenAI 及其竞争对手提供有关三星技术的信息。
在第一个案例中,一名员工发现半导体工厂的测量数据库下载器的源代码存在错误,并向 ChatGPT 寻求解决方案。在第二种情况下,另一名员工使用 ChatGPT 来优化识别性能和缺陷 柬埔寨电报数据库 芯片的程序的测试序列。在第三个案例中,一名员工在智能手机上录制了公司内部会议,使用语音识别应用程序进行转录,并将其输入 ChatGPT 以生成会议纪要。因此,所有三名员工目前都面临纪律调查。
尽管存在这些泄密事件,三星并未禁止在其工作场所使用 ChatGPT。相反,它试图让员工了解使用人工智能所涉及的隐私风险,强化这样一个事实:与 ChatGPT 共享的任何信息最终都会出现在 OpenAI 的外部服务器上。三星还对每位员工可以上传到 ChatGPT 的数据量设置了限制,并警告称,如果再次发生违规,ChatGPT 将被永远禁止使用。通过这种方式,三星希望避免公司未来出现隐私问题。

无法删除对 ChatGPT 所说的内容
三星不是第一个,也不会是最后一个员工倾向于与 OpenAI 聊天机器人讨论敏感问题的受害者。其他公司也在采取预防措施。
亚马逊早在 1 月份就限制了 ChatGPT 的使用,在公司检测到与公司内部数据“密切匹配”的 ChatGPT 响应后,警告员工将任何敏感信息(例如代码)输入聊天机器人的危险。另一家美国巨头沃尔玛最初在检测到“对公司构成风险”的活动后封锁了 ChatGPT ,但后来允许其使用并发布了一系列指导方针,包括员工应“防止输入任何敏感信息、机密或信息”。聊天机器人中的公司专有”。
多家金融服务公司已在工作场所全面禁止 ChatGPT。美国银行已将 ChatGPT 添加到其未经授权的应用程序列表中,不允许用于商业用途。其他阻止访问聊天机器人的金融机构包括摩根大通、花旗集团、高盛、德意志银行和富国银行。后者告诉彭博社,它将其纳入第三方软件的标准限制中,并且“将继续评估”使用该技术的安全有效的方式。
银行业被认为是最积极应对 ChatGPT 带来的隐私风险的部门。这是可以理解的,因为银行处理大量敏感的客户信息并受到严格的监管。然而,重要的是要强调这些风险适用于所有部门。一旦向聊天机器人提供任何信息,无论是一段专有代码还是董事会会议的记录,该信息就不再被视为机密,而是成为公共领域的一部分。
OpenAI 的服务条款规定,在与聊天机器人交互时,您不应期望有任何隐私,他们对此非常明确。事实上,OpenAI 声称它可以查看并使用用户与 ChatGPT 的对话来训练 AI,并且无法帮助从聊天历史记录中删除特定通知。
ChatGPT 缺乏隐私可以说对企业来说是一个非常现实的风险,因为与聊天机器人共享的任何信息都可以被任何请求的人访问。就三星而言,其竞争对手可能会尝试通过 ChatGPT 获取敏感信息,这可能使该公司处于脆弱的境地。