Guide Labs logo

Guide Labs易于对齐的可解释的基础模型

在指南实验室,我们构建可解释的基础模型,这些模型可以可靠地解释其推理,并且易于对齐。我们通过 API 提供对这些模型的访问。在过去的 6 年中,我们的团队在 Meta 和 Google 构建和部署了可解释的模型。 我们的模型提供以下解释: 1) 为每个输出 token 提供人类可理解的解释, 2) 确定输入(提示)的哪些部分对生成的输出的每个部分最为重要,以及 3) 训练数据中的哪些输入直接导致模型生成的输出。 由于我们的模型可以解释其输出,因此它们更易于调试、引导和对齐。

2024-03-07
Active
Early
W24
2
B2B
United States of AmericaAmerica / CanadaRemotePartly Remote
Guide Labs screenshot
更多关于 Guide Labs 的信息

指南实验室:可解释的基础模型

通过透明且可控的模型彻底改变 AI

主要功能

  • 可解释模型 API: 使用人类可理解的功能来解释和控制模型输出。
  • 提示归因: 识别影响输出的提示的重要部分。
  • 数据归因: 确定哪些预训练和微调数据对生成的输出影响最大。
  • 概念解释: 使用人类可理解的高级功能来定制和解释模型。
  • 多模态训练: 在任何数据模态上训练和微调模型。

用例

  • 调试和对齐: 使用可靠的解释来有效地调试和对齐模型。
  • 自定义模型训练: 使用您自己的数据微调模型,以插入高级概念并控制输出。
  • 研究与开发: 利用可解释的模型进行机器学习领域的创新研究。
  • 企业解决方案: 在企业应用程序中实现可解释的模型,以提高透明度和控制力。

定价

指南实验室提供灵活的定价计划,以满足不同的需求。请联系我们获取详细的定价信息和定制计划。

团队

指南实验室由机器学习可解释性的专家领导:

  • Julius Adebayo: 拥有麻省理工学院机器学习可解释性的博士学位,曾在 Google Brain、Meta 和 Prescient Design 工作。已发表十多篇关于机器学习可解释性的论文。
  • Fulton Wang: 拥有麻省理工学院机器学习可解释性的博士学位,曾在 Meta 和 Apple 工作。Captum 包的首席开发者。

加入我们的候补名单,获得我们可解释的基础模型的独家抢先体验。