NewAITees_ollama-MCP-server

NewAITees_ollama-MCP-server

0

Mirror of https://github.com/NewAITees/ollama-MCP-server

ollama-MCP-server

Ollamaと通信するModel Context Protocol (MCP) サーバー

概要

このMCPサーバーは、ローカルのOllama LLMインスタンスとMCP互換アプリケーションの間でシームレスな統合を可能にし、高度なタスク分解、評価、ワークフロー管理を提供します。

主な機能:

  • 複雑な問題のタスク分解
  • 結果の評価と検証
  • Ollamaモデルの管理と実行
  • MCPプロトコルによる標準化された通信
  • 高度なエラー処理と詳細なエラーメッセージ
  • パフォーマンス最適化(コネクションプーリング、LRUキャッシュ)

モデル指定機能

Ollama-MCP-Serverは、複数の方法でOllamaモデルを指定できる柔軟な機能を提供します。

モデル指定の優先順位

モデルは以下の優先順位で指定されます:

  1. ツール呼び出し時のパラメータ (modelパラメータ)
  2. MCP設定ファイルのenvセクション
  3. 環境変数 (OLLAMA_DEFAULT_MODEL)
  4. デフォルト値 (llama3)

クイックスタート

インストール

pip install ollama-mcp-server

使用例

タスク分解

複雑なタスクを管理可能なサブタスクに分解するには:

結果評価

特定の基準に対して結果を評価するには:

Ollamaモデルの実行

Ollamaモデルに対して直接クエリを実行するには:

貢献

貢献は歓迎します!お気軽にプルリクエストを提出してください。