暂无菜单项

Google AI Edge Gallery(本地 AI 演示) v1.0.11:谷歌官方出品的免费本地 AI 工具。支持 Gemma 模型完全离线运行,所有推理计算均在本地完成,无需联网

发布于
1

阿喵前言

以前想在手机上跑个大模型,要么得忍受慢如蜗牛的生成速度,要么得折腾复杂的环境配置。谷歌这次直接下场发的这个 AI Edge Gallery,本质上是给自家的 Gemma 模型和 MediaPipe 技术做了个“样板间”。

它最惊艳的地方在于速度。通常本地模型在移动端会有明显的“加载感”,但这个工具配合谷歌的优化算法,基本能做到“即问即答”。对于那些对隐私极度敏感,或者经常在无网环境(如飞机、隧道)下需要 AI 辅助处理文本的小伙伴来说,这简直是手机里的“第二大脑”。

软件介绍

Google AI Edge Gallery 是谷歌官方推出的跨端 AI 展示应用。它利用了 MediaPipe LLM Inference API,让移动设备能够直接调用 GPU、NPU 和 CPU 算力来运行大型语言模型。它目前主要内置了针对移动端优化的 Gemma 系列模型,通过量化技术(E2B/E4B)在保证智能强度的同时,大幅降低了对硬件的负担。

功能特色

核心维度表现细节实用价值
模型版本支持 Gemma E2B (20亿参数) 与 E4B (40亿参数)根据手机性能灵活选择,平衡速度与“智商”。
极速响应现代旗舰芯片下,首字生成时间通常小于 1 秒体验接近原生 App,没有云端请求的转圈等待。
全平台覆盖完美适配 Android、iOS 以及 macOS (Apple Silicon)无论你用什么设备,都能体验到一致的本地 AI 算力。
零网络依赖核心功能 100% 离线运行隐私数据不出设备,且在飞行模式下依然能顺畅对话。
轻量化设计针对移动端硬件深度优化,发热与功耗控制出色相比于暴力移植的原生模型,它更适合日常随手使用。

技术解析:E2B vs E4B 怎么选?

  • E2B (Base 2B Version):这是入门首选。如果你的手机是两三年前的旗舰或者是现在的中端机,选这个。它的逻辑推理能力够用,关键是,几乎是秒出结果。
  • E4B (Enhanced 4B Version):如果你用的是最新的 iPhone Pro 系列或者骁龙 8 系旗舰,建议上 4B。它的理解力更深,处理复杂指令(如总结长文、逻辑推演)的效果明显优于 2B,但生成速度会稍慢一点点。

使用说明

  1. 下载安装:通过下方链接前往 App Store 或 Google Play 下载。
  2. 模型初始化:首次打开需要下载模型文件(约几百 MB 到 2GB 不等),建议在 Wi-Fi 环境下完成。
  3. 模式切换:在设置中根据你的设备内存情况选择 E2B 或 E4B 模式。
  4. 即刻对话:断开网络,试着问它一些私人问题或让它帮你改段话,感受本地算力的魅力。

项目与下载


这种由“原厂”深度优化的本地 AI 工具,标志着手机真正开始进入“自带智商”的时代了。你觉得在手机上完全离线运行 AI,最吸引你的场景是什么?是保护日记隐私,还是在没网的时候求助翻译?

0 点赞
0 收藏
分享
0 讨论
反馈
0 / 600
0 条评论
热门最新
📅 每日打卡
点一下,今日份快乐到账~
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
未名
邀请访问 +5 邀请注册 +50
我的打卡记录
聊天室

登录后参与聊天

聊天室只对登录用户开放!
0 / 120