冷知识,你可以通过 Spotify API 拿到一支曲子的各项特征数据
它们包括:
1. acousticness
音轨是原声的置信度,范围 0.0~1.0,1.0 代表这段音频很有可能是原声。
2. danceability
音轨适合跳舞的程度,综合音乐的速度、旋律稳定性、节奏强度和整体的规律性得出,范围 0.0~1.0,1.0 代表非常适合跳舞。
3. energy
反应出音乐强烈、活跃的程度,通常而言,能量高的音轨速度快、响亮且嘈杂,比如死亡金属乐就有很高的能量,而巴赫的曲子能量则很低。
4. instrumentalness
预测一个音轨是否不含人声,「哦」和「啊」一类的会被视作乐器声,而 Rap 或口述词则会被视为显著的「人声」,这个指标越接近 1.0,乐段越可能不含人声。
5. key
音轨的键,范围 -1~11,0 代表 C,-1 代表没检测到键。
6. liveness
检测录制内容中是否存在观众,值越高,代表越有可能是现场演出的音轨,0.8 以上表示比较有可能是现场演出。
7. loudness
音轨整体的响度(dB),取自整条音轨的平均值,可用于不同音轨间的响度对比。
8. mode
音轨的调式,1 代表大调(major),0 代表小调(minor)。
9. speechiness
检测音轨中是否有口述的字词,数字越接近 1.0,音轨越可能是演讲类的录制内容(如脱口秀、有声书)。
10. tempo
一个音轨整体的预估速度,以每分钟的拍数计(beats per miniute,BPM)。
11. time_signature
预估的拍号,指每段有多少拍,范围 3~7,3 代表 3/4 拍。
12. valence
音乐的效价,描述了音乐传递情绪的积极程度,范围 0.0~1.0,数字越大代表音乐越积极(高兴、喜悦、开心),越小代表音乐越消极(悲伤、低落、生气)。
developer.spotify.com昨天想着说不定可以用在 AI 生成音乐上,用来更精准的引导音乐生成的方向,不过 Suno 上似乎没有太大变化,可能定性描述比定量数据更有用,也可能我实验的样本还比较少分辨不出。