为什么搭建 DeepLX
最近看文献有点频繁,对翻译的需求有点旺盛,正好看到DeepLX这么一个开源项目(我一般比较青睐开源产品!)。
根据作者在Github的介绍,DeepLX可以生成一个免费的DeepL API(无需前往官网申请令牌)。它基于DeepL免费服务,将其转换为本地API,提供给第三次程序使用,如沉浸式翻译、BOb。支持 Windows、macOS、Linux 和 Docker,运行后监听本地指的指定端口(可选),遂部署之!
现在市面上可选的翻译软件多种多样,传统的翻译软件有网易的有道翻译、字节跳动的火山翻译、谷歌的谷歌翻译、微软的 Bing 翻译等…… 基于 LLM 大模型的翻译可以调用 Gemini、OpenAI 等的 API 进行翻译,那么为什么要选择 DeepL 呢?
快速且准确的翻译(对比传统翻译器)
在我使用其他翻译器 翻译小语种的时候,最常遇到的问题就是翻译准度不高,且通常存在漏翻问题(如碰到较为口语化的表达时),而 DeepL 作为最先使用 AI 进行翻译模型训练的翻译器,自然相较于通用翻译会更加准确。
翻译速度较快,且基本不受并发数限制(对比 LLM 大模型翻译)
基于 Gemini、OpenAI 的翻译固然准确,可是其受限于 API 调用次数,不能在并发数较高的环境下完成翻译(如使用沉浸式翻译插件自动翻译推特)。相比之下,DeepL 可以在保证一定的翻译准度的前提下,拥有不输传统翻译器的翻译速度。
搭建 DeepLX
docker run -itd -p 1188:1188 missuo/deeplx:latest
root@alpha:~# docker run -itd -p 1188:1188 missuo/deeplx:latest
Unable to find image 'missuo/deeplx:latest' locally
latest: Pulling from missuo/deeplx
96526aa774ef: Already exists
d18c73875d2c: Pull complete
b0dddc4f4c48: Pull complete
Digest: sha256:582e56bcd848f47cdcc20b09a43af5b6fd4cbc2176934bbd2a57517d40c7e427
Status: Downloaded newer image for missuo/deeplx:latest
8bcfd5c658dc1cafde5ca26d8969192a7b4c3c56797df2196eca52963c91cb75
测试
ip: 端口/translate
在翻译插件里使用(以沉浸式翻译为例)
URL 中填入自己搭建的服务 URL,也就是 [ip]:1188/translate