Google AI Edge Gallery(本地 AI 演示) v1.0.11:谷歌官方出品的免费本地 AI 工具。支持 Gemma 模型完全离线运行,所有推理计算均在本地完成,无需联网
阿喵前言 以前想在手机上跑个大模型,要么得忍受慢如蜗牛的生成速度,要么得折腾复杂的环境配置。谷歌这次直接下场发的这个 AI Edge Gallery,本质上是给自家的 Gemma 模型和 MediaPipe 技术做了个“样板间”。 它最惊艳
暂无菜单项
阿喵前言 以前想在手机上跑个大模型,要么得忍受慢如蜗牛的生成速度,要么得折腾复杂的环境配置。谷歌这次直接下场发的这个 AI Edge Gallery,本质上是给自家的 Gemma 模型和 MediaPipe 技术做了个“样板间”。 它最惊艳
阿喵前言 很多阅读器虽然加了 AI 功能,但大多只是在旁边开了个聊天窗口,你还得自己复制粘贴内容去问。ReadAny 的逻辑不太一样,它追求的是“原生 AI 体验”——AI 知道你正读到哪一页、选了哪段话,甚至能通过语义搜索帮你找回几个章节
阿喵前言 最近 Anthropic 推出的 Claude Code (就是那个终端里的 AI Agent) 确实火得一塌糊涂。很多小伙伴跟风执行了 npm install -g @anthropic-ai/claude-code,装完之后对
阿喵前言 如果说给 AI 生图写提示词是当画家,那给 AI 生视频写提示词就是在当“导演”。视频模型不仅要理解静态的画面,还要理解复杂的动态运镜、物理碰撞和时间流逝。很多时候我们用字节跳动的 Seedance 2.0,空有一身强悍性能,却因
阿喵前言 玩过 AI 生图的朋友都知道,模型强不强是一回事,你会不会写提示词(Prompt)又是另一回事。尤其是像 Nano Banana Pro 这种对色彩和构图细节非常敏感的模型,有时候差一个词,画风就从“电影大片”变成“简笔画”。 如
阿喵前言 现在 AI 生视频确实火,但真正上手做过“AI 视频剧”的小伙伴一定知道那有多痛苦:角色上一秒是帅哥下一秒变大叔、场景跳跃完全对不上、还得在好几个 AI 工具之间跳来跳去。大家缺的不是一个“生成器”,而是一个能把小说一键变成成片的
阿喵前言 现在本地跑大模型(LLM)越来越火,但最让玩家头疼的就是:我这破电脑到底能不能跑动这个模型?兴冲冲下了一个几十 GB 的模型,结果一运行直接 OOM(内存溢出),或者每秒只蹦一个词,简直折磨。 今天阿喵分享的这个 llmfit,就
阿喵前言 对于喜欢追生肉漫画的小伙伴来说,最痛苦的不是等待汉化组,而是那种“看得见画面却看不懂台词”的无力感。虽然市面上有很多翻译 App,但大多数只是简单的文字提取,翻译出的结果往往机翻味浓重,甚至连语境都对不上。 今天阿喵推荐的这个开源