ChatGPT隐私问题引热议 人工智能聊天机器人会和谁分享信息?

根据专家的说法,答案主要取决于这些机器人的训练方式以及我们计划与它们互动的程度

最近,人工智能发展的爆炸式增长已经引起了人们对错误信息、虚假信息、剽窃和机器生成的恶意软件的担忧。生成式人工智能可能会给普通互联网用户的隐私带来哪些问题?根据专家的说法,答案主要取决于这些机器人的训练方式以及我们计划与它们互动的程度。

为了复制类似人类的交互,AI 聊天机器人接受了大量数据的训练,其中很大一部分数据来自Common Crawl等存储库。顾名思义,Common Crawl 仅通过爬网和抓取开放网络就积累了数年和 PB 级的数据。“这些模型正在对互联网上公开可用数据的大型数据集进行训练,”斯坦福大学计算机科学系博士生、前微软研究院 AI 研究员 Megha Srivastava 说。尽管 ChatGPT 和 Bard 使用他们所谓的 Common Crawl 数据的“过滤”部分,但根据 Srivastava 的说法,模型的庞大规模使得“任何人都不可能通过某种方式查看数据并对其进行清理”。

由于您自己的粗心大意或第三方糟糕的安全措施,现在可能会出现在互联网的某个偏远角落。尽管普通用户可能难以访问,但信息有可能被抓取到训练集中,并且可能会被聊天机器人反省。机器人吐出某人的实际联系信息绝不是理论上的问题。彭博社专栏作家 Dave Lee 在 Twitter 上发帖称,当有人要求 ChatGPT 在加密消息平台 Signal 上聊天时,它提供了他的确切电话号码。这种交互可能是一种边缘情况,但这些学习模型可以访问的信息仍然值得考虑。“OpenAI 不太可能想要收集医疗保健数据等特定信息并将其归因于个人以训练其模型,”安全组织 SANS 研究所的研究员 David Hoelzer 表示。

当我们询问它采取了哪些措施来保护数据隐私,或者它如何处理可能被抓取到其训练集中的个人身份信息时,ChatGPT 背后的公司 Open AI 没有回应。所以我们做了退而求其次的事情,并询问了 ChatGPT 本身。它告诉我们,它“被编程为遵循保护用户隐私和个人信息的道德和法律标准”,并且“除非提供给我,否则无法访问个人信息”。谷歌方面表示,它在 Bard 中编写了类似的防护栏,以防止在对话期间共享个人身份信息。

有帮助的是,ChatGPT 提出了生成人工智能可能带来隐私风险的第二个主要载体:软件本身的使用——通过直接在聊天记录中共享的信息,或者通过服务在使用过程中捕获的设备和用户信息。OpenAI 的隐私政策引用了它收集的关于用户的几类标准信息,这些信息可能是可识别的,并且在启动它时,ChatGPT 确实警告说,其 AI 培训师可能会审查对话以改进系统。 

与此同时,谷歌的巴德没有独立的隐私政策,而是使用其他谷歌产品共享的一揽子隐私文件与巴德的对话不必保存到用户的谷歌账户。其表示,用户可以通过谷歌删除对话。“为了建立和维持用户信任,他们必须在前端的隐私政策和数据保护程序方面非常透明,”弗吉尼亚理工大学教授兼杰出人文研究员 Rishi Jaitly 表示。

根据该服务的常见问题解答页面,尽管有一个“清晰对话”操作,但按下该操作实际上并不会删除您的数据,OpenAI 也无法删除特定提示。虽然该公司不鼓励用户分享任何敏感信息,但似乎删除提供给 ChatGPT 的个人身份信息的唯一方法是删除您的帐户,该公司表示这将永久删除所有相关数据。

Hoelzer 表示,他并不担心 ChatGPT 会吸收个人对话来学习。但该对话数据存储在某个地方,因此其安全性成为一个合理的问题。顺便说一下,ChatGPT 在 3 月份曾短暂下线,因为一个编程错误泄露了有关用户聊天记录的信息。目前尚不清楚这些 AI 的聊天记录是否会成为恶意行为者的有价值目标,在他们广泛部署的初期。

在可预见的未来,最好以用户应该对待任何其他技术产品的同样怀疑来对待这些类型的聊天机器人。Srivastava 表示“使用这些模型的用户应该怀着与模型进行任何交互的期望进入,这对于 Open AI 或任何其他公司来说都是为了他们的利益而使用的公平游戏。”

原创文章,作者:苹果派,如若转载,请注明出处:https://www.kejixun.com/article/570927.html

(0)
苹果派的头像苹果派管理团队

相关推荐