AI
AIエージェントを、内蔵モデル以外の追加のLLMプロバイダー、embeddingサービス、外部ツールに接続します。
Integrationベースのモデルコネクター
デフォルトでは、Squid AIエージェントは OpenAI、Anthropic、Google Gemini、Grok (xAI) のモデルをサポートしています。Integrationベースのモデルコネクターを使うと、追加のLLMプロバイダーやセルフホストモデルにも接続でき、さらに拡張できます。
一般的なユースケース:
- セルフホストモデル: Ollama や vLLM などのツールを介してローカルホストのモデルに接続
- AWS Bedrock: AWS Bedrock 経由で利用可能なモデル(Amazon Nova やその他プロバイダーを含む)にアクセス
- カスタムエンドポイント: OpenAI互換APIを公開している任意のサービスに接続
- カスタムembeddings: ナレッジベースのインデックス作成と検索に独自のembeddingモデルを使用
Integrationベースのモデルの仕組み
Squid Console でAIコネクターを追加したら、AI agent を設定する際にコネクターIDで参照できます。integrationId(コネクターID)と、設定した model 名を指定します。
Client code
await squid.ai().agent('my-agent').updateModel({
integrationId: 'my-connector-id',
model: 'model-name',
});
カスタムモデルでAIエージェントを設定する方法の詳細は、AI agentドキュメント を参照してください。
MCP (Model Context Protocol)
Integrationベースのモデルコネクターがエージェントで利用可能なLLMを拡張するのに対し、MCPコネクターはエージェントが_できること_を拡張します。MCPは、Squid AIエージェントが外部サービスを通じてツールにアクセスしアクションを実行できるようにするオープンプロトコルです。
MCPコネクターを使用すると、自分で構築したカスタムSquid MCPサーバーでもサードパーティのMCPサーバーでも、任意のMCPサーバーに接続し、そのサーバーが公開するツールを利用できます。これは、データベースのクエリ、APIの呼び出し、ワークフローのトリガーなど、会話を超えた機能をエージェントに追加する主要な方法です。
始めるには、MCPコネクターセットアップガイドを参照してください。
利用可能なAIコネクター
| コネクター | 説明 |
|---|---|
| OpenAI Compatible Chat | 任意のOpenAI互換chat APIに接続 |
| OpenAI Compatible Embedding | ナレッジベースのインデックス作成に任意のOpenAI互換embedding APIを使用 |
| AWS Bedrock | AWS Bedrockに接続して、Amazonおよびサードパーティのモデルにアクセス |
| MCP | MCPサーバーに接続して、AIエージェント向けのツールとアクションを提供 |