メインコンテンツまでスキップ

AI

AIエージェントを、内蔵モデル以外の追加のLLMプロバイダー、embeddingサービス、外部ツールに接続します。

Integrationベースのモデルコネクター

デフォルトでは、Squid AIエージェントは OpenAIAnthropicGoogle GeminiGrok (xAI) のモデルをサポートしています。Integrationベースのモデルコネクターを使うと、追加のLLMプロバイダーやセルフホストモデルにも接続でき、さらに拡張できます。

一般的なユースケース:

  • セルフホストモデル: OllamavLLM などのツールを介してローカルホストのモデルに接続
  • AWS Bedrock: AWS Bedrock 経由で利用可能なモデル(Amazon Nova やその他プロバイダーを含む)にアクセス
  • カスタムエンドポイント: OpenAI互換APIを公開している任意のサービスに接続
  • カスタムembeddings: ナレッジベースのインデックス作成と検索に独自のembeddingモデルを使用

Integrationベースのモデルの仕組み

Squid Console でAIコネクターを追加したら、AI agent を設定する際にコネクターIDで参照できます。integrationId(コネクターID)と、設定した model 名を指定します。

Client code
await squid.ai().agent('my-agent').updateModel({
integrationId: 'my-connector-id',
model: 'model-name',
});

カスタムモデルでAIエージェントを設定する方法の詳細は、AI agentドキュメント を参照してください。

MCP (Model Context Protocol)

Integrationベースのモデルコネクターがエージェントで利用可能なLLMを拡張するのに対し、MCPコネクターはエージェントが_できること_を拡張します。MCPは、Squid AIエージェントが外部サービスを通じてツールにアクセスしアクションを実行できるようにするオープンプロトコルです。

MCPコネクターを使用すると、自分で構築したカスタムSquid MCPサーバーでもサードパーティのMCPサーバーでも、任意のMCPサーバーに接続し、そのサーバーが公開するツールを利用できます。これは、データベースのクエリ、APIの呼び出し、ワークフローのトリガーなど、会話を超えた機能をエージェントに追加する主要な方法です。

始めるには、MCPコネクターセットアップガイドを参照してください。

利用可能なAIコネクター

コネクター説明
OpenAI Compatible Chat任意のOpenAI互換chat APIに接続
OpenAI Compatible Embeddingナレッジベースのインデックス作成に任意のOpenAI互換embedding APIを使用
AWS BedrockAWS Bedrockに接続して、Amazonおよびサードパーティのモデルにアクセス
MCPMCPサーバーに接続して、AIエージェント向けのツールとアクションを提供