Lorqa - 一款本地AI原生的翻译macOS App
Lorqa 是一款适用于 macOS 的AI原生端到端AI翻译应用。 xxx 电影小宝影院
它使用LLM(大型语言模型)在你的设备上本地运行,将不同语言之间的文字准确而自然地翻译出来。无需网络,也无需担心隐私被泄漏,一切都在你的电脑中完成。 爱壹帆国际版 爱壹帆免费版

核心功能: 爱一帆电影
本地运行 LLM,支持Qwen3,Gemma3,后续会继续增加 xxxvideo iyf 小宝影院 电影aiyifan
离线可用,无网环境下依然工作 aiyifan电影 爱一帆 小寶影院 爱壹帆 电影爱壹帆
智能切片技术,支持长文本翻译,再也不用担心字数限制的问题 小宝影院在线视频 华人影视 海外华人视频网
简洁界面,专注端到端的翻译体验 xxxxxx
心路历程 小寶影院电影 xxxxxx 小宝影院电影 爱壹帆影视 xnxx 会所 楼凤信息
翻译是一个很大众的需求,市面上各种各样的翻译软件层出不穷。有很多大厂出手参与此类应用竞争,可以说有很多翻译的解决方案。 过去很长一段时间我日常使用的是DeepL应用版的翻译App,很方便只要选中文本快捷键即可完成内容的翻译,在使用过程中也有一些小的可以吐槽的点,例如:我发现DeepL的翻译速度不如网页版的一些翻译软件速度快,另外翻译的文本数量会收到一些限制,一些长文本还是得通过其他方法。 小宝影院
我发现现在LLM(文本语言模型)也常作为翻译工具来使用,LLM有良好的多语言能力,现在Qwen3,Gemma3,这类小模型也具备很好的翻译能力。在使用LLM翻译的时候有很多的选择,大多数是网页版,也有一部分是本地部署的模型。这些产品通常没有为翻译场景打造出端到端的翻译体验,总是差点意思。 伴游
我过去做过PocketLM(移动端的LLM本地推理客户端),对于小LLM的能力水平有一定的了解,并且对于模型不同设备的推理速度和载入速度也很熟悉。于是我开始着手使用Apple生态结合LLM打造这个端到端的翻译macOS App, 整个实现过程也相当顺利,经过测试我发现Qwen3 0.6B 4bit的效果已经和DeepL的翻译能力不相上下,我还同时增加了Qwen3 1.7B ,Gemma3系列模型作为备选为用户提供多重选择。 小宝影院
Lorqa在第一次打开的时候需要选择模型完成下载流程,此后只需要每次载入一次模型即可随时翻译。我在我的机器测试Qwen3 0.6B的推理速度为 280Token/S 速度比DeepL要快。此外针对长文本,会进行切片翻译并合并一起解决了文本字数的限制。 目前因为App Store分发涉及到应用沙盒,快捷键需要用户在 系统设置/隐私与安全/辅助功能/ + (从应用程序选择Lorqa) 自行设置,方可使用快捷键翻译功能。 爱壹帆
我制作这个产品的动机非常个人化。我比较关注这个需求是否有其他人真实存在。关于后续的规划也想听听其他人的反馈~ xxxxx 爱壹帆在线 ifun
配置快捷键和快速翻译教程 xxxx 海外华人视频网 aiyifan 爱壹帆影视 外围
45目录 0