mcp-server

mcp-server

3.2

MCP 서버는 다양한 LLM을 통합 관리하고 표준화된 인터페이스를 제공하는 서비스입니다.

MCP (Model Context Protocol) 서버는 다양한 대형 언어 모델(LLM)을 통합 관리하고, 표준화된 인터페이스를 제공하는 서비스입니다. 이 서버는 DeepSeek와 Llama 모델을 통합하여 모델 간 전환이 용이하고, 대화 컨텍스트 관리가 가능한 API를 제공합니다. MCP 서버는 다양한 스토리지 백엔드를 지원하며, Python 3.8 이상과 CUDA 지원 GPU에서 실행할 수 있습니다. Docker 및 Docker Compose를 사용하여 손쉽게 배포할 수 있으며, API를 통해 채팅, 모델 목록 조회, 세션 삭제 등의 기능을 제공합니다. 새로운 모델을 추가할 수 있는 유연한 구조를 가지고 있어 확장성이 뛰어납니다.

Features

  • 다양한 LLM 모델(DeepSeek, Llama) 통합 관리
  • 모델 간 쉬운 전환 및 라우팅
  • 대화 컨텍스트 관리
  • 표준화된 API 인터페이스
  • 다양한 스토리지 백엔드 지원(메모리, Redis, SQLite)

Usage with Different Platforms

manual_installation

bash
git clone https://github.com/yourusername/mcp-server.git
cd mcp-server
python setup.py
source venv/bin/activate  # Windows: venv\Scripts\activate
uvicorn app.main:app --reload

docker_installation

bash
git clone https://github.com/yourusername/mcp-server.git
cd mcp-server
docker-compose up -d