近日,《你的钢门比较摇滚》刷遍全网,其背后的功臣少不了Suno AI技术的推动,而继Suno 大火后,AI绘图应用Stable Diffusion的母公司Stability AI也推出了迭代的文生音频作曲工具——Stable Audio 2.0(后简称SA2),新版本允许用户生成的音乐长度可达3分钟,比Suno还长1分钟!
SA2一经注册便可获得20积分,消耗积分点数不受音频时长影响,免费用户每月最多可生成20首音乐,生成次数总体上比限流前的Suno要少上许多。
进入SA2的生成页,用户仅需2-3步便能生成专属音乐。首先,在左上角提示词框内输入相关需求文本,例如流派、乐器和情感术语,以及BPM每分钟节拍速度等。
其次,用户可自定义选择模型生成,默认使用的是SA2.0模型。每使用一次SA2.0的模型生成音频,便会消耗2点积分(上限3分钟),SA1.0模型则消耗1点积分(上限1分30秒),免费用户若仅使用2.0模型,实际每个月最多只可生成10条音频。
最后,调整所需音乐时长,点击Generate生成按钮便可实现0基础的音乐创作。
本次最大的升级在于,SA2新增音频到音频的生成功能,允许用户使用提示词对音频样本进行再生成,例如,用户只需录制上传一段哼唱干音并给予提示词,便可得到一段乐器演奏的旋律。
即便Stable Audio迭代到了2.0版本,可如果对标到了Suno AI,一切都显得微妙了起来。一方面,目前SA2更偏向于生成纯音乐,生成的演唱曲目人声不完整,电音充足,听起来像是音痴录音的倒放,如果要说感受,那就是会笑死人不偿命。
另一方面,大部分生成的音乐节奏感较弱,旋律走向过于平铺直叙,缺乏惊喜感。另外,对于中文用户而言,无法生成中文曲目也是硬伤。
但总体而言,SA2的诞生还是可喜可贺的,虽然在文生音乐的能力上仍有进步空间,但音频转音频的实力还是给足了许多音乐爱好者许多探索期许的。一来是提高了音色转换的效率,二来则是为许多音乐创作者开拓思路,也算是丰富了另一条AI音频的赛道。
AIGC的变化可谓是瞬息万变,从起初的智能聊天到如今视听作品的生产,只要你也懂得使用AI工具,你一个人便是一个团队!可AI生产总绕不过一个课题,便是要拥有一张性能充足的显卡!影驰 RTX 4070 Ti SUPER 金属大师 OC,16GB超大显存轻松满足各大AI应用的使用需求,革命性的TensorRT加速也可全面提升你的战斗力,让你秒变效率战神!