谷歌发布 Brain2Music 模型 可基于人类大脑活动生成音乐

文章正文
发布时间:2023-07-30 10:32

【太平洋科技资讯】近日,谷歌发布了一篇名为 Brain2Music 的论文,该研究展示了一种利用人工智能生成音乐的新方法。这项技术能够读取、分析个体的功能性磁共振成像(fMRI)数据,并根据大脑活动模式自动生成音乐。

在这项研究中,谷歌招募了 5 名志愿者,先让他们听不同音乐类型的 15 秒音乐片段,包括蓝调、古典、乡村、迪斯科、嘻哈、爵士乐、金属、流行、雷鬼和摇滚等,然后记录志愿者的 fMRI 数据。

利用这些数据,谷歌训练了一个深度神经网络,以了解大脑活动模式与音乐节奏、情感等不同元素之间的关系。基于谷歌此前推出的 MusicLM 模型(基于文本生成音乐片段),Brain2Music 能够根据 fMRI 生成 15 秒音乐片段。

研究结果显示,Brain2Music 生成的 15 秒音乐片段中,有一段内容与测试听到的原版音乐 "Oops!...I Did It Again" 基本相同。

这是个有趣又新奇的模型,它为音乐创作和个性化音乐推荐提供了新的可能性。但这项技术仍处于早期阶段,还需要进一步的研究和改进。它能否达到人类音乐创作者的水平还需时间的检验,期待谷歌将其运用到产品上,为音乐领域带来更多的创新和惊喜!

首页
评论
分享
Top