OpenAI发出承诺 承认在用户隐私安全方面有改进空间

OpenAI 对外宣称已经解决了最近的安全隐私问题。周四其发布一份安全承诺,并承认有改进的空间

4月6日,OpenAI 对外宣称已经解决了最近的安全隐私问题。周四其发布一份安全承诺,并承认有改进的空间。在近一周的时间里,包括史蒂夫沃兹尼亚克和埃隆马斯克在内的人工智能专家和行业领袖发表了一封公开信,呼吁暂停开发 GPT-4 等模型六个月,ChatGPT在意大利被彻底禁止,投诉被向联邦贸易委员会提交了危险的错误信息风险。

OpenAI 断言,它的工作是“确保在我们系统的各个层面都内置安全性。” OpenAI 在发布 GPT-4 之前花费了六个多月的“严格测试”,并表示正在研究验证选项以强制执行其 18 岁以上的年龄要求。该公司强调,它不会出售个人数据,只会将其用于改进其 AI 模型。它还表示愿意与政策制定者合作,并继续与 AI 利益相关者合作,“以创建一个安全的 AI 生态系统”。

在安全承诺中,OpenAI 承认开发安全的 LLM 依赖于现实世界的输入。它认为,从公共输入中学习将使模型更安全,并允许 OpenAI 监控滥用情况。“现实世界的使用也让我们制定了越来越细致的政策来反对对人们构成真正风险的行为,同时仍然允许我们技术的许多有益用途。”

OpenAI 的 隐私政策没有直接提及其在训练数据中使用人们的个人信息的法律原因,但表示它在“开发”其服务时依赖于“合法利益”。与 GPT-3 不同,OpenAI 没有公布任何进入 ChatGPT 的训练数据的细节,而 GPT-4被 认为要大几倍。

然而,GPT-4 的技术文件包括一个关于隐私的部分,其中说它的训练数据可能包括来自多个来源的“公开可用的个人信息”。该论文称,OpenAI 采取措施保护人们的隐私,包括“微调”模型以阻止人们询问个人信息,以及“在可行的情况下”从训练数据中删除人们的信息。

OpenAI 承诺“关于安全方法的细节”,但除了保证探索年龄验证之外,大部分公告读起来都像是陈词滥调。关于它计划如何降低风险、执行其政策或与监管机构合作的细节并不多。

牛津大学人工智能伦理研究所高级研究员、数据实践作者Elizabeth Renieris 表示:“这项技术的构建模块的基础已经腐烂,我认为这将很难治愈。  ” 她指出,许多用于训练机器学习系统的数据集已经存在多年,而且在将它们放在一起时可能很少考虑隐私问题。 

“数据最终如何进入 GPT-4 之类的东西,存在这种分层和复杂的供应链,”Renieris 说。“从来没有真正设计或默认的任何类型的数据保护。” 2022 年,一个广泛使用的图像数据库的创建者建议对数据集中的人脸图像进行模糊处理,该数据库已帮助训练 AI 模型达十年之久 。 

原创文章,作者:苹果派,如若转载,请注明出处:https://www.kejixun.com/article/570850.html

(0)
苹果派的头像苹果派管理团队

相关推荐