【Meta 开源 AI 语言模型 MusicGen,可将文本和旋律转化为完整乐曲】IT之家 6 月 12 日消息,Meta 近日在 Github 上开源了其 AI 语言模型 MusicGen,该模型基于谷歌 2017 年推出的 Transformer 模型 。如同模型名称所示,MusicGen 主要用于音乐生成,它可以将文本和已有的旋律转化为完整乐曲 。

文章插图
研发团队表示:“我们使用了 20000 小时的授权音乐来对训练该模型,并采用 Meta 的 EnCodec 编码器将音频数据分解为更小的单元进行并行处理,进而让 MusicGen 的运算效率和生成速度都比同类型 AI 模型更为出色 。”
除此之外,MusicGen 还支持文本与旋律的组合输入,例如你可以提出生成“一首轻快的曲目”并同时要求“将它与贝多芬的《欢乐颂》结合起来” 。
研发团队还对 MusicGen 的实际表现进行了测试 。结果显示,与谷歌的 MusicLM 以及 Riffusion、Mousai、Noise2Music 等其他音乐模型相比,MusicGen 在测试音乐与文本提示的匹配度以及作曲的可信度等指标上表现更好,总体而言略高于谷歌 MusicLM 的水平 。
Meta 已允许该模型的商业使用,并在 Huggingface 上发布了一个供演示用的网页应用 。
推荐阅读
- 目前最热门的计算机语言有哪些
- 师范大学大学排名
- c语言if中多个条件
- 日本|在日外企资深招聘经理:裁员潮下,多语言人才在日本受到冲击很小
- 伊隆·马斯克|大风编译 | 14岁孟加拉国裔神童成马斯克最新得力助手:5岁谈化武吓哭同学 掌握19种电脑语言 找工作被拒绝95次
- 吊打Python!Mojo语言首探!
- 一文解决所有「语言模型」疑问:能不能训多个epoch?怎么微调效率高?需要多少条数据?
- 数据库语言类型有哪些?
- ChatGPT路线图曝光:没有GPT-5、识图功能要等到明年、GPT-3或将开源
- Huggingface榜首开源模型惹争议:魔改Apache协议,达到一定门槛要收钱
