一键翻译漫画图片中的文字,支持日漫、韩漫、美漫,黑白漫和彩漫均可识别。自动检测、翻译、嵌字,支持日语、中文、英语等多种语言,内置可视化编辑器可调整文本框。
💬 QQ 交流群:1074238546 | 🐛 提交 Issue
| 文档 | 说明 |
|---|---|
| 安装指南 | 详细安装步骤、系统要求、分卷下载说明 |
| 使用教程 | 基础操作、翻译器选择、常用设置 |
| 命令行模式 | 命令行使用指南、参数说明、批量处理 |
| API 配置 | API Key 申请、配置教程 |
| 功能特性 | 完整功能列表、可视化编辑器详解 |
| 工作流程 | 4 种工作流程、AI 断句、自定义模版 |
| 设置说明 | 翻译器配置、OCR 模型、参数详解 |
| 调试指南 | 调试流程、可调节参数、问题排查 |
| 开发者指南 | 项目结构、环境配置、构建打包 |
⚠️ 无需预装 Python:脚本会自动安装 Miniconda(轻量级 Python 环境)
💡 一键更新:已安装用户运行步骤4-更新维护.bat即可更新到最新版本
-
下载安装脚本:
- 点击下载 步骤1-首次安装.bat
- 保存到你想安装程序的目录(如
D:\manga-translator-ui\)
-
运行安装:
- 双击
步骤1-首次安装.bat - 脚本会自动:
- ✓ 检测并安装 Miniconda(如需要)
- 提供下载源选择:清华大学镜像(国内推荐)或 Anaconda 官方
- 自动下载安装(约 50MB)
- 安装到项目目录,不占用C盘
- ✓ 安装便携版 Git(如需要)
- ✓ 克隆代码仓库
- ✓ 创建 Conda 虚拟环境(Python 3.12)
- ✓ 检测显卡类型(NVIDIA / AMD / 集显)
- ✓ 自动选择对应的 PyTorch 版本
- NVIDIA: CUDA 12.x 版本(需驱动 >= 525.60.13)
- AMD: ROCm 版本(实验性支持,仅支持 RX 7000/9000 系列,RX 5000/6000 请使用 CPU 版本)
- 其他: CPU 版本(通用,速度较慢)
- ✓ 安装所有依赖
- ✓ 检测并安装 Miniconda(如需要)
- 双击
-
启动程序:
- 双击
步骤2-启动Qt界面.bat
- 双击
-
下载程序:
- 前往 GitHub Releases
- 选择版本:
- CPU 版本:适用于所有电脑
- GPU 版本 (NVIDIA):需要支持 CUDA 12.x 的 NVIDIA 显卡
⚠️ AMD GPU 不支持打包版本,请使用"方式一:安装脚本"安装
-
解压运行:
- 解压压缩包到任意目录
- 双击
app.exe
快速启动:
# Windows CMD / PowerShell
docker run -d --name manga-translator -p 8000:8000 hgmzhn/manga-translator:latest-cpu
# Linux / macOS
docker run -d --name manga-translator -p 8000:8000 hgmzhn/manga-translator:latest-cpu镜像地址:
- CPU 版本:
hgmzhn/manga-translator:latest-cpu - GPU 版本:
hgmzhn/manga-translator:latest-gpu
访问地址(默认端口 8000):
- 🌐 用户界面:
http://localhost:8000 - 🔧 管理界面:
http://localhost:8000/admin.html
📖 详细安装教程:Docker 部署文档
📖 使用教程:命令行使用指南
适合开发者或想要自定义的用户。
- 安装 Python 3.12:下载
- 克隆仓库:
git clone https://github.com/hgmzhn/manga-translator-ui.git cd manga-translator-ui - 安装依赖:
# NVIDIA GPU pip install -r requirements_gpu.txt # AMD GPU(仅 RX 7000/9000 系列) pip install -r requirements_amd.txt # CPU 版本 pip install -r requirements_cpu.txt
- 运行程序:
# 桌面 UI python -m desktop_qt_ui.main # Web UI(可选) python -m manga_translator web
安装完成后,请查看使用教程了解如何翻译图片:
使用教程 → doc/USAGE.md
基本步骤:
- 填写 API(如使用在线翻译器)→ API 配置教程
- 关闭 GPU(仅 CPU 版本)
- 设置输出目录
- 添加图片
- 选择翻译器
- 首次使用推荐:高质量翻译 OpenAI 或 高质量翻译 Gemini
- 需要配置 API Key,参考 API 配置教程
- 开始翻译
适合批量处理和自动化脚本:
命令行指南 → doc/CLI_USAGE.md
快速开始:
# Local 模式(推荐,命令行翻译)
python -m manga_translator local -i manga.jpg
# 或简写(默认 Local 模式)
python -m manga_translator -i manga.jpg
# 翻译整个文件夹
python -m manga_translator local -i ./manga_folder/ -o ./output/
# Web API 服务器模式(纯API,无界面)
python -m manga_translator web --host 127.0.0.1 --port 8000 --use-gpu
# Web UI 服务器模式(带管理界面和用户界面)
python -m manga_translator ui --host 127.0.0.1 --port 8000 --use-gpu
# 查看所有参数
python -m manga_translator --help- 🔍 智能文本检测 - 自动识别漫画中的文字区域
- 📝 多语言 OCR - 支持日语、中文、英语等多种语言
- 🌐 5 种翻译引擎 - OpenAI、Gemini(普通+高质量)、Sakura
- 🎯 高质量翻译 - 支持 GPT-4o、Gemini 多模态 AI 翻译
- 🎨 智能嵌字 - 自动排版译文,支持多种字体
- 📦 批量处理 - 一次处理整个文件夹
- ✏️ 区域编辑 - 移动、旋转、变形文本框
- 📐 文本编辑 - 手动翻译、样式调整
- 🖌️ 蒙版编辑 - 画笔工具、橡皮擦
- ⏪ 撤销/重做 - 完整操作历史
完整功能特性 → doc/FEATURES.md
本程序支持多种工作流程:
- 正常翻译流程 - 直接翻译图片
- 导出翻译 - 翻译后导出到 TXT 文件
- 导出原文 - 仅检测识别,导出原文用于手动翻译
- 导入翻译并渲染 - 从 TXT/JSON 导入翻译内容重新渲染
工作流程详解 → doc/WORKFLOWS.md
- OpenAI - 使用 GPT 系列模型
- Gemini - 使用 Google Gemini 模型
- Sakura - 专门针对日语优化的翻译模型
- 高质量翻译 OpenAI - 使用 GPT-4o 多模态模型
- 高质量翻译 Gemini - 使用 Gemini 多模态模型
- 📸 结合图片上下文,翻译更准确
完整设置说明 → doc/SETTINGS.md
- 在"基础设置"中勾选 详细日志
- 查看
result/目录中的调试文件 - 调整检测器和 OCR 参数
调试流程指南 → doc/DEBUGGING.md
- zyddnys/manga-image-translator - 核心翻译引擎
- bilibili/ailab - Real-CUGAN 超分辨率模型
- lhj5426/YSG - 提供模型支持
- PaddleOCR - 提供 OCR 模型支持
- 所有贡献者和用户的支持
如果这个项目对你有帮助,欢迎请作者喝杯咖啡 ☕
本项目基于 GPL-3.0 许可证开源。