Reddit热议:Gemma 4 真的能在安卓手机上实用运行(不是 llama.cpp)

发帖人想在手机上实现一个真正可用的本地助手,而不是只能演示的方案。他先用 Termux 里常见的 llama.cpp 试跑 Gemma 4,但速度只有每秒 2 到 3 个 token,手机还会严重发热,因此认为体验不实用。随后他改用 Google 的 LiteRT 方案,让 Gemma 4 在安卓手机上实现了较为流畅的运行,并进一步把它接入一个同样运行在 Termux 中的 agent 栈。按他的描述,这样一部安卓手机现在可以在本地运行大模型、通过 ADB 自动化操作手机自己的应用,而且在需要时还能保持离线。整帖核心是在说明 Gemma 4 在安卓端并非只能靠 llama.cpp 勉强演示,而是存在更可用的本地实现路径;作者当前关注的是分享这套做法和代码,并征求大家还能基于此叠加哪些用途。

来源:Reddit(r/artificial)
原始发布时间:2026-04-18 23:01