C# - PCM 사운드 재생(NAudio)
지난 글에서는,
C# - WAV 파일의 PCM 사운드 재생(Windows Multimedia)
; https://www.sysnet.pe.kr/2/0/13599
Windows Multimedia API를 이용해 PCM 데이터를 재생해 봤으니, 이제 ^^ NAudio로도 해봐야겠지요. 물론, 이미 아래의 글에서,
C# - Audio 장치 열기 (Windows Multimedia, NAudio)
; https://www.sysnet.pe.kr/2/0/13595#naudio
AudioFileReader 타입을 이용해 오디오 파일로부터 재생해 봤지만, 이번에는 그 타입을 사용하지 않고 직접 WAV 파일로부터 PCM 데이터를 읽어 NAudio 측에 제공하는 방법을 살펴보겠습니다. 그렇긴 한데, 이미
이전 글에서 WaveFile 타입을 이용해 WAV 파일을 읽어 PCM 데이터를 가져오는 코드를 완성했으므로, 남은 작업은 단순히 PCM 데이터를 NAudio의 WaveOutEvent로 다음과 같이 넘겨주기만 하면 됩니다. ^^
using AudioLibrary;
using NAudio.Wave;
using Wave;
namespace ConsoleApp1;
internal class Program
{
static unsafe void Main(string[] args)
{
uint countOfDevices = NativeMethods.waveOutGetNumDevs();
if (countOfDevices == 0)
{
Console.WriteLine("There is no Audio device");
return;
}
{
string waveFilePath = @"C:\temp\test_stereo.wav";
WaveFile? wf = WaveFile.Read(waveFilePath);
byte[] pcmRawData = wf.PCM;
using (WaveOutEvent waveOut = new WaveOutEvent() { DeviceNumber = -1 })
{
waveOut.PlaybackStopped += WaveOut_PlaybackStopped;
waveOut.Init([...pcmRawData를 재생할 IWaveProvider...]);
waveOut.Play();
while (waveOut.PlaybackState == PlaybackState.Playing)
{
Thread.Sleep(1000);
}
}
}
}
private static void WaveOut_PlaybackStopped(object? sender, StoppedEventArgs e)
{
Console.WriteLine($"WaveOut_PlaybackStopped: {e.Exception}");
}
}
위의 코드에서 중요한 것은, "...pcmRawData를 재생할 IWaveProvider..."를 작성하는 것인데, 인터페이스만 구현해 맞춰주면 되므로 우리가 직접 PCM 바이트 배열을 감싼 IWaveProvider 구현 클래스를 제작해도 됩니다. 하지만 ^^ 당연히 NAudio에서는 이런 식으로 사용하는 것에 대한 시나리오를 고려한 RawSourceWaveStream 타입을 제공하고 있으니,
Using RawSourceWaveStream
; https://github.com/naudio/NAudio/blob/master/Docs/RawSourceWaveStream.md
우리도 위의 설명에 따라 RawSourceWaveStream 인스턴스를 만들면 됩니다. 잠깐 위의 문서에 나온 예제를 볼까요? ^^
var multiple = 2.0*frequency/sampleRate;
for (int n = 0; n < sampleRate * seconds; n++)
{
var sampleSaw = ((n*multiple)%2) - 1;
var sampleValue = sampleSaw > 0 ? amplitude : -amplitude;
var sample = (short)(sampleValue * Int16.MaxValue);
var bytes = BitConverter.GetBytes(sample);
raw[n*2] = bytes[0];
raw[n*2 + 1] = bytes[1];
}
대충 byte[]의 raw 변수를 구성하고 RawSourceWaveStream에 데이터의 포맷과 함께 전달하고 있는데요,
var ms = new MemoryStream(raw);
var rs = new RawSourceWaveStream(ms, new WaveFormat(sampleRate, 16, 1)); // 16bit, mono channel
따라서, 우리도 WaveFile로 읽어낸 데이터를 동일하게 처리해 주면 되는 것입니다.
using AudioLibrary;
using NAudio.Wave;
using Wave;
namespace ConsoleApp1;
internal class Program
{
static unsafe void Main(string[] args)
{
uint countOfDevices = NativeMethods.waveOutGetNumDevs();
if (countOfDevices == 0)
{
Console.WriteLine("There is no Audio device");
return;
}
{
string waveFilePath = @"C:\temp\test_stereo.wav";
WaveFile? wf = WaveFile.Read(waveFilePath);
byte[] pcmRawData = wf.PCM;
var ms = new MemoryStream(pcmRawData);
var rs = new RawSourceWaveStream(ms, new WaveFormat(wf.SampleRate, wf.BitsPerSample, wf.Channels));
using (WaveOutEvent waveOut = new WaveOutEvent() { DeviceNumber = -1 })
{
waveOut.PlaybackStopped += WaveOut_PlaybackStopped;
waveOut.Init(rs);
waveOut.Play();
while (waveOut.PlaybackState == PlaybackState.Playing)
{
Thread.Sleep(1000);
}
}
}
}
private static void WaveOut_PlaybackStopped(object? sender, StoppedEventArgs e)
{
Console.WriteLine($"WaveOut_PlaybackStopped: {e.Exception}");
}
}
역시 ^^ NAudio같은 라이브러리를 쓰는 것이 훨씬 더 편하군요.
(
첨부 파일은 이 글의 예제 코드를 포함합니다.)
[이 글에 대해서 여러분들과 의견을 공유하고 싶습니다. 틀리거나 미흡한 부분 또는 의문 사항이 있으시면 언제든 댓글 남겨주십시오.]