メインコンテンツまでスキップ

AI

AIエージェントを、組み込みモデル以外の追加のLLMプロバイダー、embeddingサービス、外部ツールに接続します。

Integration-based model connectors(統合ベースのモデルコネクター)

デフォルトでは、Squid AIエージェントは OpenAIAnthropicGoogle GeminiGrok (xAI) のモデルをサポートします。Integration-based model connectors を使うと、任意の追加LLMプロバイダーやセルフホスト型モデルに接続して、さらに拡張できます。

一般的なユースケースは次のとおりです:

  • Self-hosted models(セルフホストモデル): OllamavLLM などのツールを介して、ローカルホストされたモデルに接続
  • AWS Bedrock: AWS Bedrock で利用可能なモデル(Amazon Nova や他プロバイダーを含む)にアクセス
  • Custom endpoints(カスタムエンドポイント): OpenAI互換APIを公開している任意のサービスに接続
  • Custom embeddings(カスタムembedding): ナレッジベースのインデックス作成と検索(retrieval)に、自前のembeddingモデルを使用

Integration-based models の仕組み

Squid Console でAI connectorを追加すると、AI agent を構成する際に connector ID で参照できるようになります。integrationId(connector ID)と、設定した model 名を指定します:

Client code
await squid.ai().agent('my-agent').updateModel({
integrationId: 'my-connector-id',
model: 'model-name',
});

カスタムモデルでAI agentを構成する方法の詳細は、AI agent documentation を参照してください。

MCP(Model Context Protocol)

Integration-based model connectors はエージェントが利用できるLLMの選択肢を広げますが、MCP connector はエージェントが できること を拡張します。MCPはオープンプロトコルで、Squid AIエージェントが外部サービスを通じてツールにアクセスし、アクションを実行できるようにします。

MCP connector を使うと、エージェントは任意のMCP serverに接続できます。たとえば、自分で構築する custom Squid MCP server でも、サードパーティのMCP serverでも構いません。そして、そのMCP serverが公開するツールを利用できます。これは、データベースのクエリ、API呼び出し、ワークフローのトリガーなど、会話を超えた機能をエージェントに与えるための主要な方法です。

まずは、MCP connector setup guide を参照してください。

利用可能なAI connectors

ConnectorDescription
OpenAI Compatible Chat任意のOpenAI互換chat APIに接続
OpenAI Compatible Embeddingナレッジベースのインデックス作成に、任意のOpenAI互換embedding APIを使用
AWS BedrockAWS Bedrock に接続して Amazon およびサードパーティモデルへアクセス
MCPMCP servers に接続して、AIエージェント向けのツールとアクションを提供