audio - 尝试提出从声波中提取的功能以供人工智能歌曲 Composer 使用

标签 audio machine-learning artificial-intelligence neural-network signal-processing

我正在计划制作一个人工智能歌曲 Composer ,它会接收一种乐器的一堆歌曲,从声波中提取音符(如 ABCDEFG)和某些特征,执行机器学习(最有可能通过循环神经网络) ,并输出一系列 ABCDEFG 音符(又名生成自己的歌曲/音乐)。

我认为这将是一个无监督学习问题,但我不太确定。

我想我会使用循环神经网络,但我对如何解决这个问题有几个问题:
- 我应该从声波中提取哪些特征才能使输出的音乐悠扬?

另外,我还有一些其他问题 - 是否可以使用循环神经网络输出有序音符向量(ABCDEF)?
- 有什么聪明的方法可以输入声波的特征以及音符序列吗?

最佳答案

我曾经做过类似的事情(在matlab上制作类似shazam的应用程序),我想你可以使用FFT(快速傅立叶变换)将其分解为组成频率及其相应的幅度。然后你可以使用频率范围不同的乐器,从一大堆中选择它们并进行分类。

关于audio - 尝试提出从声波中提取的功能以供人工智能歌曲 Composer 使用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31418602/

相关文章:

java - 在Java程序中播放声音

ios - 我的 IOS 应用程序的大小

tensorflow - 如何设置用于二元分类的神经网络架构

python - 用于在 Python 中匹配具有相似 ID 字符串的两个集合的分类器

python - 使用Python训练后,神经网络未提供预期的输出

machine-learning - 机器学习中的动量是什么?

android - 在Android上捕获原始麦克风输入

android - 在两个android Activity 中实现相同的音乐

optimization - Tensorflow:从训练中选择最佳模型

machine-learning - 为什么我的体重没有更新?