初识HTML5 Web Audio API

5,446 阅读3分钟

前言

自从上次在趣讲CDN一文中讲了一个"传东奶"的故事之后,就再也没有发过博客。或许有些朋友还以为我们被抓了呢,哈哈哈~

很久以前,赵忠祥老师就告诉我们,雨季,是个好时节。雨季来了,春暖花开,万物复苏,又到了大草原上程序猿们XX的季节。好吧,扯远了。说到底,就是团队中的小哥哥小姐姐都忙着谈恋爱,都没时间写博客了。

获取音频的时长

有这样的一个需求,上传一个音频文件,同时获取其大小及时长。

常规方法

这很简单,使用记忆中的那些方法,写出下面的代码:

function getAudioDuration(url) {
  const audio = document.createElement('audio');
  audio.src = url;
  audio.addEventListener("canplay", function () {
		console.log(audio.duration);
  });
}

const file = document.getElementById('file');
file.addEventListener('change', (e) => {
  const file = e.target.files[0];
  console.log(file.size);
  getAudioDuration(URL.createObjectURL(file));
})

当我撸完上面这段代码的时候,回想起总工的批判:这方案太简单了。菊花一紧,吓得我赶紧找找其他的方案。

ArrayBuffer

在电脑中,当我们选中一个MP3文件的时候,通常可以看到一些元信息,比如播放时长、采样速率等。既然如此,我们是否可以通过读取二进制数据来获取对应的信息呢?

在查询相关资料之后,发现了decodeAudioData这个API可以满足我们的需求,于是有了下面的方案。

function getAudioDurationByAudioApi(file) {
    const fileReader = new FileReader();
    const audioContext = new AudioContext();
    fileReader.readAsArrayBuffer(file);
    fileReader.onload = () => {
        audioContext.decodeAudioData(fileReader.result, (result) => {
            console.log(result);
        });
    }
}

const file = document.getElementById('file');
file.addEventListener('change', (e) => {
    const file = e.target.files[0];
    console.log(file.size);
    getAudioDurationByAudioApi(file);
})

被忽略的Web Audio API

通过以上的探索,发现了一直被我忽略的Web Audio API。以往在处理音频相关的需求,大多是通过audio标签,播放一段音频,很简单。所以也就没有关注到早已存在的Audio API。

举个栗子

实际应用一下,举个简单的播放音频栗子:

function playAudio(file) {
    const fileReader = new FileReader();
    const audioContext = new AudioContext();
    fileReader.readAsArrayBuffer(file);
    fileReader.onload = () => {
        audioContext.decodeAudioData(fileReader.result, (result) => {
          //创建播放源
          const source = audioContext.createBufferSource();
          source.buffer = result;
          //连接输出终端
          source.connect(audioContext.destination);
          //开始播放
          source.start();
        });
    }
};

const file = document.getElementById('file');
file.addEventListener('change', (e) => {
    playAudio(e.target.files[0]);
});

以上例子简单使用相关的API进行了音频的播放,分析一下关键的代码。

AudioContext

直接翻译,就是"音频上下文"。类似于canvas中的context。其中包含了一系列用来操作音频的API。

上面的代码中,通过const audioContext = new AudioContext();创建了一个AudioContext对象,于是我们就可以进行各种各样的操作。

创建播放源

上面的例子中,我们通过AudioContext.createBufferSource()创建了播放源。除此之外,我们还可以使用其他的数据作为播放源:

具体介绍可点击链接查看。

连接输入输出

我们可以看到,在设置好播放源之后,进行了一个connect操作。这个操作就是将播放源链接到播放终端。

AudioContext的destination属性返回一个AudioDestinationNode表示context中所有音频(节点)的最终目标节点,一般是音频渲染设备,比如扬声器。

有趣的玩法

在学习AudioContext相关API的过程中,发现了createAnalyser这个方法。

createAnalyser方法能创建一个AnalyserNode,可以用来获取音频时间和频率数据,以及实现数据可视化。

要看看效果吧,demo

以前,需要标识一个音频正在播放,我们经常会放一个跳动的gif。比如:

是的,这一点都不酷。不禁又回想起总工的那句话:这方案太简单了。

以后,我们再做这样的需求的时候,就可以做成跟随音乐频率跳动的动画效果了。

总结

鲁迅先生说:"从来如此,便对吗?"

是啊,我们应该对现有方案多点思考。

以上所述,仅仅只是Web Audio API的冰山一角,还有更多高级的玩法,有兴趣的可以查看相关的文档。

相关文章

@Author:TDGarden