OpenAI互換Embedding
AI agent の knowledge base のインデックス作成とコンテキスト取得に、任意の OpenAI 互換 embedding API を使用できます。
概要
OpenAI Compatible Embedding コネクタを使うと、OpenAI Embeddings API 形式を実装している任意の embedding model を利用できます。これは、self-hosted な embedding model や、OpenAI 互換 endpoint を公開しているサードパーティの embedding provider を使用したい場合に便利です。
Embeddings はテキストのベクトル表現で、semantic search を可能にします。Squid は embeddings を使用して、AI agent に紐付けられた knowledge bases をインデックス化し、関連コンテキストを検索・取得します。これにより、agent はあなたのデータを使って質問に回答できます。
コネクタのセットアップ
OpenAI Compatible Embedding コネクタを追加するには、次の手順を行います。
- Squid Console に移動し、アプリケーションを選択します。
- Connectors タブをクリックします。
- Available Connectors をクリックし、OpenAI Compatible Embedding コネクタを見つけます。次に Add Connector をクリックします。
- 次の詳細を入力します。
- Connector ID: 任意のユニークな ID(例:
my-embeddings)。 - Base URL: OpenAI 互換 embedding API のベース URL。
- API Key(任意): provider が要求する場合の認証用 API key。
- Embedding Models: このコネクタ経由で利用可能な embedding model を定義する JSON 配列。各 model には次のフィールドが必要です。
| フィールド | 型 | 説明 |
|---|---|---|
modelName | string | API 呼び出しで使用する embedding model の識別子 |
displayName | string | model の人間が読める名前 |
dimensions | number | embedding vector の次元数。1024 または 1536 である必要があります |
maxTokens | number | リクエストあたりの入力トークン最大数 |
例:
[
{
"modelName": "text-embedding-3-small",
"displayName": "Text Embedding 3 Small",
"dimensions": 1536,
"maxTokens": 8191
}
]
- Add Connector をクリックします。
コネクタの使用
embedding コネクタを使用するには、knowledge base の作成 時に embeddingModel として指定します。connector ID、model 名、dimensions を含むオブジェクトを渡します。
await squid.ai().knowledgeBase('my-knowledgebase').upsertKnowledgeBase({
description: 'Product documentation and FAQs',
name: 'product-docs',
embeddingModel: {
integrationId: 'my-embeddings',
model: 'text-embedding-3-small',
dimensions: 1536,
},
chatModel: 'gpt-4o',
metadataFields: [],
});
dimensions の値は、コネクタのセットアップで model に対して設定した次元数と一致している必要があります。Squid は現在、embedding dimensions として 1024 または 1536 をサポートしています。
embeddings の利用方法
embedding コネクタをセットアップし、knowledge base に割り当てると、Squid は knowledge base の操作でこれを使用します。
- Indexing: knowledge base にドキュメントを追加すると、Squid はこのコネクタを使ってテキストを embedding vector に変換し、保存および後の検索に備えます。
- Retrieval: ユーザーが AI agent に質問すると、Squid は質問を embedding に変換し、knowledge base を検索して、agent のコンテキストに含める最も意味的に関連するコンテンツを見つけます。
embedding コネクタは chat model コネクタと併用されます。chat model が会話を担当する一方で、embedding model は背後で knowledge base のインデックス作成と検索・取得を担当します。