当前位置:首页 区块链 正文

OpenAI探讨安全人工智能系统

2023-04-06

OpenAI 致力于确保人工智能的安全性和对人类社会的广泛受益。我们的人工智能工具已经为全球用户提供了许多好处。来自不同国家的用户告诉我们,ChatGPT 提高了他们的生产力,增强了他们的创造力,并为他们提供了量身定制的学习体验。然而,我们也认识到,像任何技术一样,这些工具也存在真正的风险,因此我们努力确保在各个层面上将安全性纳入我们的系统。

1、尊重隐私
我们的大型语言模型是在广泛的文本语料库上进行训练的,其中包括公开的和授权的内容以及由人类审查者生成的内容。我们不使用数据销售服务、广告或创建人员档案,而是使用数据来使我们的模型更加有用。例如,ChatGPT 通过对与人类的对话进行进一步的训练,提高其性能。

尽管我们的一些训练数据包含公共互联网上的个人信息,但我们希望我们的模型了解这个世界,而不是私人信息。因此,我们尽力从训练数据集中删除个人信息,并对模型进行微调,以拒绝请求私人信息,并响应用户要求从我们的系统中删除他们的个人信息。这些步骤最大程度地减少了我们的模型可能产生包括私人信息的内容的可能性。

2、建立越来越安全的人工智能系统
在发布任何新系统之前,我们会进行严格的测试,并邀请外部专家参与反馈。我们努力利用人类反馈的强化学习等技术改善模型的行为,并建立广泛的安全和监测系统。

例如,在我们最新的 GPT-4 模型完成训练后,我们的员工花费了六个多月的时间,使其更加安全和一致,然后才公开发布。

我们认为,强大的人工智能系统应该接受严格的安全评估。为确保这种实践被采纳,需要监管机构的参与,我们积极与政府接触,探讨可能采取的最佳监管形式。

3、保护儿童
关于安全的一个重要工作就是保护儿童。我们要求使用我们的人工智能工具的用户必须年满18岁或以上,或者年满13岁或以上并得到父母的同意,我们正在研究验证选项。

我们不允许我们的技术被用于产生仇恨、骚扰、暴力、成人内容以及其他有害的类别。我们的最新模型 GPT-4 相比 GPT-3.5,对不允许的内容请求的回应率降低了82%,我们已经建立了一个强大的系统来监控滥用。现在 ChatGPT Plus 用户可以使用 GPT-4,我们希望随着时间的推移,能让更多人使用。

我们已经付出很多努力,尽可能减少我们的模型产生有害儿童内容的可能性。例如,当用户试图向我们的图像工具上传儿童安全虐待材料时,我们会阻止这一动作,并向国家失踪和受剥削儿童中心报告。

除了我们的默认安全保护措施外,我们还与非营利性组织可汗学院等开发商合作,该学院建立了一个由人工智能驱动的助手,既是学生的虚拟导师,也是教师的课堂助手,为他们的使用情况定制安全缓解措施。我们还在开发一些功能,使开发者能够为模型输出设定更严格的标准,以更好地支持那些希望获得这种功能的开发者和用户。

4、提高事实的准确性
大型语言模型根据它们之前看到的模式,包括用户提供的文本输入,预测、产生接下来的一系列词语。在某些情况下,下一个最有可能的词可能在事实上并不准确。

提高事实准确性是 OpenAI 和许多其他人工智能开发者的一个重要工作,我们正在取得进展。通过利用用户对被标记为不正确的 ChatGPT 输出的反馈作为主要数据来源,我们已经提高了 GPT-4 的事实准确性。与 GPT-3.5 相比,GPT-4 产生事实性内容的可能性增加了40%。

5、从真实世界的使用中学习,以改进保障措施
我们的努力在部署前预防可预见的风险,但实验室中的学习有限。尽管进行了广泛的研究和测试,我们无法预测人们使用我们技术的所有有益方式,也无法预测人们滥用技术的所有方式。因此,我们相信从实际使用中学习是创建和发布越来越安全的人工智能系统的关键组成部分。

我们谨慎地逐步发布新的人工智能系统,并采用大量的保障措施,将其推送给不断扩大的人群。随着时间的推移,我们根据经验不断改进。

我们提供最先进的模型,让开发者可以在他们的应用程序中直接使用这种技术。这使我们能够监测滥用情况并采取行动,并不断建立缓解措施,以应对人们滥用我们的系统的实际方式,而不仅仅是理论上可能的滥用情况。

通过实际使用,我们制定了越来越细微的政策,以防止对人们构成真正风险的行为,同时还允许我们的技术有许多有益的用途。

我们相信社会需要时间来适应越来越强的人工智能能力,每个受到这种技术影响的人都应该在人工智能的进一步发展中拥有重要的发言权。迭代部署帮助我们将各种利益相关者带入采用人工智能技术的对话中,比他们没有亲身经历这些工具的情况下更有效。

6、持续的研究和参与
我们认为,解决人工智能安全问题的实用方法是投入更多时间和资源研究有效的缓解措施和技术调整,同时针对现实世界的滥用进行测试。

我们认为提高人工智能的安全性和能力应该同步进行。迄今为止,我们最好的安全工作来自于我们能力最强的模型之间的合作,因为它们更善于遵循用户指示,更容易引导或“指导”。

随着能力更强的模型的创建和部署,我们将更加谨慎。随着我们人工智能系统的进一步发展,我们将继续加强安全防范措施。

虽然我们为了更好地了解GPT-4的能力、优点和风险,等了六个多月才将其部署,但有时可能需要更长时间来提高人工智能系统的安全性。因此,政策制定者和人工智能供应商需要确保全球范围内的人工智能发展和部署得到有效管理,而不是为了追求成功而不择手段。这是一个艰巨的挑战,需要技术和制度上的创新,但这也是我们渴望做出的贡献。

解决安全问题需要广泛的辩论、实验和参与,包括对人工智能系统行为的限制。我们已经并将继续促进利益相关者之间的合作和公开对话,以创建一个安全的人工智能生态系统。