如果要问最近 AI 圈子里,哪个模型火到了天际?那绝对是 NanoBanana Pro 模型,它也是目前市面上最顶尖的图像生成模型之一。但说实话,想畅快地使用它,对咱们普通人来说还是挺有门槛的。首先那个订阅流程就够让人头疼的,不仅繁琐,费用也不低。即便你充了值,生成的次数也有限制。这些实际使用中的拦路虎,足以把 90% 的人挡在门外,这也是最近后台私信里,大家问我最多的问题。
而就在本周,海螺 AI 正式接入了 NanoBanana Pro、Sora 2.0 甚至还有 Veo 3.1 等一众顶流模型。

并且,在 2025 年底前,会员用户都可以免费、无限量地使用 NanoBanana Pro 模型,还是 4K 高清分辨率出图。不用反复切换七八个网站,或者给好几个平台分别交订阅费。在海螺 AI 这一家,就能一站式用爽全球顶尖模型,真正实现了 All in one。今天我就带大家实操一遍,看看海螺 AI 的正确打开方式到底有多爽。
4K 香蕉Pro
首先是图像生成,以前在海螺 AI 上,我们只能用它自家的 Image-01 模型。但现在,你在首页点击「图片」,操作区里直接就能切换到 NanoBanana Pro。

网上关于这个模型的测评已经铺天盖地了,我就不整那些虚的。咱们直接上实战,看看它在人像处理上到底有多强。为了测试,我特意厚着脸皮找朋友大壮,要了几张她最近拍的人像照。我的目标很简单,把这些照片改成复古的拍立得风格。
操作非常简单,上传一张大壮的照片,然后输入一组提示词。

这里插一句,以前我在 Gemini 里用这个模型时,最头疼的就是比例控制。你得在提示词里拼命写 4k、16:9 这种参数。即便写了,生成的图经常还是不听话,比例乱飞,画质也达不到预期。但海螺 AI 这一点做得非常人性化。它直接把分辨率和比例做成了可视化的选项卡。

我们来看生成结果。第一张图出来的时候,我真的惊了。它不仅仅是简单地加了个滤镜。它是真的理解了什么叫拍立得风格。

色调复古,光影自然,甚至连那种胶片的颗粒感都模拟得惟妙惟肖。最关键的是,它还根据我的提示词,对画面进行了重新排版。第二张图的效果也同样惊艳。(PS:来自一名直男的审美。)

还有,大壮发给我的照片里,有一张我觉得是纯纯的废片。但在大壮的强烈要求下,我还是把它丢给了 AI。然后...这滤镜调得感觉非常好,说实话,这效果我用 PS 调半天都不一定调得出来。

除了单人照,我还试了多人合影。找另一个朋友要了张照片,用同样的逻辑跑了一遍,效果依然稳如老狗。

测完了常规玩法,我又在网上发现了一个更有意思的邪修流派。我们可以把照片里的元素,全部拆解出来。这组提示词是我参考了一位博主分享的思路,稍微做了一些微调。还是用大壮的照片来做实验。上传图片,输入这组特殊的提示词。

出来的图解简直太牛了。它把照片里的人物、服装、配饰,甚至背景里的道具,全部拆解成了独立的素材。虽然有些“服装”细节是它脑补出来的......为了大壮形象以及不误导朋友们,关键部分我打了个码。

除了这些花活,NanoBanana Pro 还有一个超级实用的功能。废片修复,也就是我们常说的画质增强。如果你手头有一些模糊不清的老照片,或者拍摄时手抖拍糊了的照片。先别着急删除,传上来试试。记得在选项里一定要勾选 4K 分辨率,然后用提示词里告诉它。
提示词:用极致的逼真渲染这张图片,模拟专业单反相机搭配定焦镜头的拍摄质量。实现自然光照,并添加物理上精确的阴影和高光。整合真实世界中的纹理,包括可见的皮肤纹理。
比如这种社媒上传来传去传到模糊的阿汤哥剧照,修复后的效果,真的太绝了:

为了方便大家对比,我把两张人物的面部特写图单拎出来,这 4K 级别的画质修复真的超绝!

还有这张“美食家”拔叔的照片。我宣布,NanoBanana Pro 就是 2025 年年度最佳废片拯救神器。

另外,海螺 AI 现在的 Agent 功能也接入了这个模型。你可以在 Agent 的模型设置里,直接选择 NanoBanana Pro。

我试着给它一段剧情描述,让它生成一组电影分镜(9张),风格一致性表现得也非常好。
提示词:请生成一组关于“女特工在雨夜执行潜入任务”的高清电影剧照,共9张。 电影级实拍质感,不是手绘草图。9张图必须是同一个主角(黑色短发、穿着黑色皮衣的冷艳亚裔女性),五官和服装特征保持统一。 画面要包含大远景(城市夜景)、中景(人物躲避探照灯)、特写(眼神坚毅)、过肩镜头(观察目标建筑)等不同视角,比例 16:9。

重复说一下,如果你是海螺 AI 的会员用户,在2026年1月1日前无限 4k 免费生成,再也不用担心 Agent 一下把积分跑空了...
顶流视频模型
图玩爽了,咱们再来看看视频。这次海螺 AI 接入的视频模型,也是两个重磅炸弹:Sora 2 和 Veo 3.1。操作逻辑和生图一样简单。在首页点击「视频」后,你就可以自由切换这两个模型。

先看 Sora 2。我给它的任务是生成一段橙子的宣传视频。在海螺 AI 里,你可以选择文生视频,而且能精确选择时长:4 秒、8 秒、12 秒,任你选。

而写视频提示词还有个技巧,按秒数分段描述。比如我选了 12 秒的时长,提示词按照 0-3s、3-6s、6-9s、9-12s 来描述。

生成的视频效果如下,虽然极个别的片段有些瑕疵,但整体效果还是挺不错的。我又试着让它生成一个嘻哈说唱的 MV。这次我没写那么细,让模型自由发挥。

它生成的运镜和节奏感,居然意外地不错,很有那种街头范儿。接下来玩玩 Veo 3.1 模型。海螺 AI 支持首尾帧、主体参考生视频。
首尾帧:顾名思义,你给它一张开头图,一张结尾图。中间怎么变,全交给 AI。
我想做一个破旧房子拆除重建的视频。这在以前很难做,因为你很难控制前后场景的一致性。但在海螺 AI 里,这事儿变得超级简单。可以直接用 NanoBanana Pro 模型生成图像后,直接扔给 Sora 2 或者是 Veo 3.1 生成视频,非常便捷。

继续看案例,第一步,我先用 NanoBanana Pro 生成一张破旧的建筑群图片。
提示词:一条破败不堪的现代城市街道,墙壁斑驳脱落,满地碎石和垃圾,灰暗的阴天,死气沉沉的末日废墟风格,街道向画面远方延伸,一点透视构图,电影质感。

有了首帧图,尾帧图怎么做?很简单,把首帧图发给 AI 做参考。
提示词:保持完全相同的构图和透视,同一条街道,但变成了高度发达的赛博朋克风格,霓虹灯牌闪烁,全息投影广告在空中漂浮,建筑表面覆盖着高科技金属面板,紫红色调的夜景,充满未来感。

你看这张尾帧图,结构和透视跟第一张图完全一模一样,控制得非常精准。

最后一步,把这两张图上传至「图生视频」模块,选择 Veo 3.1 模型生成即可。

那种从废墟瞬间穿越到未来的视觉冲击力,直接拉满。(点击链接观看视频)
再来看 Veo 3.1 的另一个杀手锏:主体参考。这也就是我们常说的保持角色、元素一致性,这是做 AI 视频最难的一关。我先生成了一张极具东方韵味的美女面部特写,依旧是使用 NanoBanana Pro 模型。
提示词:一张极具东方韵味的中国年轻美女正面面部特写,五官精致立体,皮肤白皙细腻,眼神清澈明亮,妆容淡雅自然,柔和的影棚光打在脸上,发丝细节清晰,背景虚化,超高清写实摄影风格。

然后,再生成一张豪华五星级酒店的大堂场景图。
提示词:宽敞明亮的豪华五星级酒店大堂全景图,金碧辉煌的室内装饰,光洁的大理石地面倒映着璀璨的大型水晶吊灯,正前方是设计大气的酒店前台,暖色调氛围灯光,空间感强,电影级广角构图,高品质商业摄影,无人。

最后,我从本地上传了一张服装图。把这三张图:人物、场景、衣服,全部喂给主体参考模块,让 Veo 3.1 帮我把它们融合在一起生成视频。

生成的视频效果如下,三者完美融合,没有任何违和感。(点击链接观看视频)另外,在海螺 AI 上用 Veo 3.1,价格只有谷歌官方标价的 3.7 折左右。即使是 Veo 3.1-fas 版本,也是官方价的 5 折。
这绝对是目前国内乃至海外,最便宜的渠道,没有之一。
自研加优选
看完了上面的演示,相信你已经手痒了。但肯定有人会问:现在市面上能接这些模型 API 的壳站那么多,我随便找一个不就行了?为什么非得选海螺 AI ?这就要聊聊一个很现实的话题了,现在市面上充斥着各种壳站,技术壁垒极低。选这种站,有两个巨大的隐患。
第一,跑路风险。
接口一封,或者公司不想干了,你充的会员费瞬间打水漂。这种事在圈子里发生的还少吗?
第二,数据资产归零。
你辛辛苦苦调教出来的提示词,你生成的那些作品。可能一夜之间就没了,连个备份的地方都没有。
但海螺 AI 完全不一样。它背后站着的,是 MiniMax。这是国内稀缺的全模态自研大厂,走的是自研加优选的双保险路线。自家的海螺视频模型,保证了在任何时候都有极速稳定的创作底线。而接入 Sora 和 Veo 这种外部顶尖模型,则是为了拉高你的创作上限。这种全家桶级别的体验,根本不是单纯套壳的小网站能比的。更重要的是,它真心是在帮我们把创作成本打下来。
NanoBanana Pro 的 4K 生成,会员免费用一个月。Veo 3.1 模型直接干到了白菜价。这才是真正利好我们普通创作者的工具。
最后,大家可以搜索「海螺 AI」或者是在应用商城搜同名下载 APP 使用~





发评论!每天赢奖品
点击 登录 后,在评论区留言,系统会随机派送奖品
2012年成立至今,是国内备受欢迎的设计师平台,提供奖品赞助 联系我们