AI
AIエージェントを、組み込みモデル以外の追加のLLMプロバイダー、embeddingサービス、外部ツールに接続します。
Integration-based model connectors(統合ベースのモデルコネクター)
デフォルトでは、Squid AIエージェントは OpenAI、Anthropic、Google Gemini、Grok (xAI) のモデルをサポートします。Integration-based model connectors を使うと、任意の追加LLMプロバイダーやセルフホスト型モデルに接続して、さらに拡張できます。
一般的なユースケースは次のとおりです:
- Self-hosted models(セルフホストモデル): Ollama や vLLM などのツールを介して、ローカルホストされたモデルに接続
- AWS Bedrock: AWS Bedrock で利用可能なモデル(Amazon Nova や他プロバイダーを含む)にアクセス
- Custom endpoints(カスタムエンドポイント): OpenAI互換APIを公開している任意のサービスに接続
- Custom embeddings(カスタムembedding): ナレッジベースのインデックス作成と検索(retrieval)に、自前のembeddingモデルを使用
Integration-based models の仕組み
Squid Console でAI connectorを追加すると、AI agent を構成する際に connector ID で参照できるようになります。integrationId(connector ID)と、設定した model 名を指定します:
await squid.ai().agent('my-agent').updateModel({
integrationId: 'my-connector-id',
model: 'model-name',
});
カスタムモデルでAI agentを構成する方法の詳細は、AI agent documentation を参照してください。
MCP(Model Context Protocol)
Integration-based model connectors はエージェントが利用できるLLMの選択肢を広げますが、MCP connector はエージェントが できること を拡張します。MCPはオープンプロトコルで、Squid AIエージェントが外部サービスを通じてツールにアクセスし、アクションを実行できるようにします。
MCP connector を使うと、エージェントは任意のMCP serverに接続できます。たとえば、自分で構築する custom Squid MCP server でも、サードパーティのMCP serverでも構いません。そして、そのMCP serverが公開するツールを利用できます。これは、データベースのクエリ、API呼び出し、ワークフローのトリガーなど、会話を超えた機能をエージェントに与えるための主要な方法です。
まずは、MCP connector setup guide を参照してください。
利用可能なAI connectors
| Connector | Description |
|---|---|
| OpenAI Compatible Chat | 任意のOpenAI互換chat APIに接続 |
| OpenAI Compatible Embedding | ナレッジベースのインデックス作成に、任意のOpenAI互換embedding APIを使用 |
| AWS Bedrock | AWS Bedrock に接続して Amazon およびサードパーティモデルへアクセス |
| MCP | MCP servers に接続して、AIエージェント向けのツールとアクションを提供 |