Skip to content

这是一个用于监控和检测 Ollama 服务可用性和性能的系统。它提供了一个现代化的 Web 界面,支持多语言(中文/英文),并具有实时检测和数据展示功能。

Notifications You must be signed in to change notification settings

forrany/Awesome-Ollama-Server

Repository files navigation

Ollama 服务监控系统

English Version

这是一个用于监控和检测 Ollama 服务可用性和性能的系统。它提供了一个现代化的 Web 界面,支持多语言(中文/英文),并具有实时检测和数据展示功能。

在线体验

支持在线测试模型

ollama-service-check.mp4

功能特点

  • 🔍 服务检测

    • 支持批量检测 Ollama 服务
    • 实时显示检测状态和结果
    • 支持检测结果导出
    • 支持自动 FOFA 扫描
  • 📊 性能监控

    • 测试服务响应时间和 TPS
    • 展示可用模型列表
    • 性能数据可视化
  • 🌐 多语言支持

    • 中文界面
    • 英文界面
    • 一键切换语言
  • 🎯 高级筛选

    • 模型过滤
    • TPS/更新时间排序
    • 分页显示

技术栈

  • ⚡️ Next.js 14 - React 框架
  • 🔥 TypeScript - 类型安全
  • 🎨 Tailwind CSS - 样式框架
  • 🌍 next-intl - 国际化
  • 🔄 Server Components - 服务端组件
  • 📱 响应式设计 - 移动端适配

快速开始

前置要求

  • Node.js 18.0 或更高版本
  • npm 或 yarn 包管理器

安装

# 克隆项目
git clone [email protected]:forrany/Awesome-Ollama-Server.git
cd Awesome-Ollama-Server

# 安装依赖
npm install
#
yarn install

开发环境

# 启动开发服务器
npm run dev
#
yarn dev

访问 http://localhost:3000 查看应用。

生产环境

# 构建项目
npm run build
#
yarn build

# 启动服务
npm start
#
yarn start

使用说明

检测服务

  1. 点击"检测服务"按钮
  2. 在弹出的对话框中输入 Ollama 服务地址(每行一个)
  3. 点击"开始检测"
  4. 等待检测完成,查看结果
  5. 可选择下载检测结果

筛选和排序

  • 使用模型过滤器选择特定模型
  • 点击 TPS 或更新时间进行排序
  • 使用搜索框快速查找模型

语言切换

  • 点击右上角的语言切换按钮
  • 选择中文或英文

项目结构

src/
├── app/              # Next.js 应用目录
├── components/       # React 组件
├── i18n/            # 国际化文件
├── lib/             # 工具函数
├── types/           # TypeScript 类型定义
└── config/          # 配置文件

环境变量

创建 .env 文件并设置以下变量,填写后 Github Actions 会自动执行监控和上传

# 可选:Redis 配置(如果使用)
UPSTASH_REDIS_URL=your-redis-url
UPSTASH_REDIS_TOKEN=your-redis-token

# 可选:FOFA扫描国家列表(如果使用)
COUNTRYS=US,CN,RU

贡献指南

  1. Fork 项目
  2. 创建特性分支 (git checkout -b feature/AmazingFeature)
  3. 提交更改 (git commit -m 'Add some AmazingFeature')
  4. 推送到分支 (git push origin feature/AmazingFeature)
  5. 打开 Pull Request

许可证

本项目基于 MIT 协议开源 - 详见 LICENSE 文件

作者

VincentKo (@forrany) - GitHub

免责声明

  1. 本项目仅用于安全研究和教育目的
  2. 不得将本项目用于任何非法用途
  3. 作者不对使用本项目造成的任何损失负责
  4. 数据来源于网络,如有侵权,请联系作者删除

Star History

Star History Chart

Docker 部署

项目支持 Docker 部署,方便在各种环境中快速搭建。

使用 Docker Compose 部署(推荐)

  1. 确保已安装 DockerDocker Compose

  2. 克隆仓库并进入项目目录

    git clone https://github.com/vincexiv/ollama-monitor-service.git
    cd ollama-monitor-service
  3. 创建环境变量文件(如果需要 Upstash Redis 数据存储)

    cp .env.example .env

    然后编辑 .env 文件,填入 Upstash Redis 的凭据:

    UPSTASH_REDIS_URL=your_redis_url
    UPSTASH_REDIS_TOKEN=your_redis_token
    
  4. 启动服务

    docker-compose up -d

    这将启动两个服务:

    • ollama-monitor: Web 应用,访问 http://localhost:3000 查看
    • monitor-service: 后台监控服务,自动收集 Ollama 服务数据

仅使用 Docker 部署

如果只需要部署 Web 应用而不需要后台监控服务:

# 构建镜像
docker build -t ollama-monitor .

# 运行容器
docker run -d -p 3000:3000 --name ollama-monitor \
  -e UPSTASH_REDIS_URL=your_redis_url \
  -e UPSTASH_REDIS_TOKEN=your_redis_token \
  ollama-monitor

访问 http://localhost:3000 查看应用。

About

这是一个用于监控和检测 Ollama 服务可用性和性能的系统。它提供了一个现代化的 Web 界面,支持多语言(中文/英文),并具有实时检测和数据展示功能。

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 3

  •  
  •  
  •