加载中...

57 浏览
AI音乐软件测评 2.0 先说结论: 如果允许 AI 自由发挥,它其实可以很快生成一首听起来完整的歌。 但如果你的目标是: 和 AI 一起把一首歌做成“自己心中已经有框架的成品”, 需要一定学习和磨合成本,比如我这两天磨合了3小时还没有找到满意解决方案。 这次我主要遇到了两个问题。 1. AI还是会“误解”你的demo 我的 demo 是用手机语音备忘录录的: 钢琴 + 人声。 因为是随手录的草稿,里面其实有: * 停顿 * 节奏不稳定 * 甚至一点小错音 结果 Suno 在分析的时候,把我某个停顿当成了节奏的一部分。 于是整首歌在那个地方都 多出来大约一拍多一点。 问题在于:所有乐器都一起错位了。 如果只是鼓和贝斯,其实还好处理 直接把那一小段剪掉,听起来也不会太奇怪。 但像木管乐器(比如长笛那种旋律线), 如果直接剪,就会出现一种很明显的旋律被硬生生切断的感觉。 听起来就会非常不自然。 我也试过让 AI 重新生成 让 AI 根据新的节奏环境 重新生成木管旋律。 但效果其实不太理想。 所以这个小小的节奏问题,反而变成了一个比较麻烦的地方。 另一种办法:导出 MIDI 再拿到 Logic Pro 里重新编辑。 但这里又出现一个新的问题。 Suno 生成的木管音色其实很好听, 而且很自然。 如果我为了修节奏问题,把它全部换成 MIDI, 就意味着我要: * 在 Logic 里重新做音色 * 重新调编曲 那我反而可能 花更多时间。 所以最后我暂时放弃了这个方法。 我决定先试试 Suno 的 extend 功能。 2. “继续写歌”这件事其实很难 我的 demo 只录到了: 第一遍副歌结束。 但在我的脑海里,这首歌其实应该还有: * 一个间奏 * 再一段主歌 * 再一遍副歌 * 最后一个尾奏 所以我想试试 Suno 的 extend(继续生成)功能。 简单说就是: AI 根据你已有的音乐, 继续往后写。 听起来很理想,但实际用起来其实有点痛苦。 AI的思路和人的思路不一样 AI的逻辑是: 根据已有材料去“预测接下来会发生什么”。 所以它会倾向于: 让音乐不断往前发展。 但在真实歌曲里,其实很多时候我们是: 重复结构。 比如: * Verse 1 * Verse 2 * Chorus * Verse 3 * Chorus 这些段落的旋律和和声通常是类似的,但有一点变化。 而 AI 往往会把它当成: “新的段落,需要新的旋律”。 于是旋律就会慢慢 越跑越远。 我其实希望 AI 能这样理解歌曲: 比如把一首歌拆成结构: * Verse 1 * Verse 2 * Chorus 我还需要生成 * Interlude * Verse 3 * Chorus * Outro 然后我可以直接告诉它: 现在我要生成 Verse 3。 而 Verse 3 应该: * 基本沿用 Verse 1 的旋律和和声 * 但有一点新的变化 如果 AI 能理解这种结构关系,其实会非常强。 但至少目前,我还没有找到这样的工作方式,可能有但我还没掌握!我要去查询一下 总之 我试着生成了很多版本。 结果基本是: 大量“鸡同鸭讲”的片段。 没有一个能真正接进我这首歌。 接下来我打算 从头重新测试。 我会录一个新的 demo, 依然是手机语音备忘录录的: * 钢琴 * 人声 但这一次我会把整首歌的结构都录出来: * 主歌1 * 主歌2 * 副歌1 * 副歌2 * 间奏 * 主歌3 * 主歌4 * 副歌 * 尾奏 这样 AI 就不需要猜测歌曲结构。 我这次只测试一件事:Suno的编曲效果如何。 好的我今天已经测试累了,期待明天的测试结果!
10 浏览
15 浏览
31 浏览