在Web开发中实现音频输出与语音合成功能
“Speaker接口”并非一个标准的Web API名称,但在前端开发语境中,通常指代通过浏览器向用户设备扬声器(speaker)输出声音的能力。本文将介绍如何使用 Web Audio API 和 SpeechSynthesis API 实现音频播放与文本转语音功能。
AudioContext 是 Web Audio API 的核心,用于处理和合成音频。
const audioCtx = new (window.AudioContext || window.webkitAudioContext)();
const oscillator = audioCtx.createOscillator();
oscillator.type = 'sine';
oscillator.frequency.setValueAtTime(440, audioCtx.currentTime); // A4音
oscillator.connect(audioCtx.destination);
oscillator.start();
oscillator.stop(audioCtx.currentTime + 1);
现代浏览器支持 speechSynthesis 接口,可将文字朗读出来。
if ('speechSynthesis' in window) {
const utterance = new SpeechSynthesisUtterance('你好,欢迎访问本页面!');
utterance.lang = 'zh-CN';
speechSynthesis.speak(utterance);
}