当前位置:首页 行业动态 正文

ChatGPT已可通过第三方插件联网

2023-03-24

3月24日,OpenAI 宣布放宽 ChatGPT 的联网限制。他们采用第三方插件作为桥梁,允许 AI 在相对安全的环境下“看到”外部数据。最近,OpenAI 开放了第一批 ChatGPT 插件,其中包括 Expedia、FiscalNote、Instacart、KAYAK、Klarna、Milo、OpenTable、Shopify、Slack、Speak、Wolfram 和 Zapier 提供的插件。

除此之外,OpenAI 还提供了两种自己的插件,包括一个网络浏览器和一个代码解释器,并开源了一个知识库检索插件的代码。现在,任何开发者都可以自己构建插件,以增强 ChatGPT 的信息库。

目前,插件的 Alpha 版已扩展到更多候补名单中的用户和开发者。OpenAI 表示优先考虑 ChatGPT Plus 用户和一小部分开发者,但他们也计划在未来进行更大规模的开放。

为了让大家更加直观地了解,这里举一个例子:用户可以在 ChatGPT 中选择并安装 Wolfram 插件,从而提升计算智能水平。

这些参考资料不仅增强了模型的实用性,还可以帮助用户评估模型输出的可信度,仔细检查其准确性,从而有可能减轻过度依赖的风险,这也是最近在 GPT-4 系统中讨论的问题。最后,插件的价值可能超越现有的限制,通过帮助用户处理各种新的用例(从浏览产品目录到预订航班或订购食物)。

然而,同时也存在一些安全挑战。插件可能会采取有害或无意的行动,增加不法分子欺诈、误导或虐待他人的能力,从而增加安全层面的挑战。通过增加可能的应用范围,插件可能会增加模型在新领域中采取的错误或未对齐操作而产生负面后果的风险。

这些因素指导了 ChatGPT 插件平台的开发,OpenAI 为此推出了多项保障措施。

之前,OpenAI 已经在内部和外部合作伙伴之间进行了“红队演练”,探讨了多种可能的安全风险情景。例如,红队发现,如果没有安全措施,插件可能会进行复杂的提示注入、发送欺诈邮件和垃圾邮件、绕过安全限制或滥用插件中的信息等有风险的行为。

OpenAI 正在使用这些发现来推进安全设计和缓解措施,以限制有风险的插件行为,并提高插件作为用户体验的一部分的运行方式和时间透明度。此外,OpenAI 还使用这些发现来确定对插件访问的逐步部署决策。

为了防止 ChatGPT 模型连接到编程语言解释器产生意外的副作用,OpenAI 采取了多种防范措施。其中首要措施是对执行进行适当的沙盒处理,以确保 AI 生成的代码不会在现实世界中产生不可预测的行为。OpenAI 在安全环境中执行代码,并使用严格的网络控制来防止外部互联网访问执行代码。此外,OpenAI 还为每个会话设置了资源限制。

禁用互联网访问可以限制代码沙盒的功能,但这可能是 AI 辅助编程的最安全的起点。在第三方插件设计时,安全是首要考虑因素,然后才将 ChatGPT 连接到外部世界。

一个开源的检索插件使得 ChatGPT 可以在授权后访问个人或组织的信息源。它允许用户通过提问或用自然语言表达需求的方式,从他们的数据源中获取最相关的文档片段,例如文件、笔记、电子邮件或公共文档。

作为一个开源且自托管的解决方案,开发人员可以部署他们自己的插件版本并在 ChatGPT 上注册。其插件利用 OpenAI 嵌入并允许开发人员选择向量数据库(如 Milvus、Pinecone、Qdrant、Redis、Weaviate 或 Zilliz)来索引和搜索文档。信息源可以使用 webhooks 与数据库同步。

检索插件允许 ChatGPT 搜索内容向量数据库,并将最佳结果添加到 ChatGPT 会话中。这意味着它不会受到任何外部影响,主要风险是数据授权和隐私。开发人员应只将内容添加到他们有权使用的检索插件中,并且可以在用户的 ChatGPT 会话中共享。