C# - Audio 장치 열기 (Windows Multimedia, NAudio)
지난 글에서 Audio 장치 열거를 Win32 API Interop과 NAudio를 이용한 방법으로 각각 알아봤는데요. 이번에는 열거한 장치를 Open/Close하는 단계를, 마찬가지로 Win32 API와 NAudio로 다뤄보겠습니다.
그리고, 이번 내용 역시 아래의 글을 C#으로 변환한 것입니다. ^^
2.장치 열기
; http://www.soen.kr/lecture/library/waveform/2.htm
위의 글에서 3개의 API를 소개하고 있는데요,
우선, 장치를 열기 위해 waveOutOpen을 호출하지만, 이때 해당 장치를 어떤 오디오 포맷으로 사용할 것인지에 대한 정보를
WaveFormatEx 구조체로 전달하게 됩니다.
[StructLayout(LayoutKind.Sequential, Pack = 1)]
public struct WaveFormatEx
{
public CompressionCode waveFormatTag;
public short channels;
public int sampleRate;
public int averageBytesPerSecond;
public short blockAlign;
public short bitsPerSample;
public short cbSize;
public static WaveFormatEx Create(int sampleRate, short bitsPerSample, short Channels)
{
WaveFormatEx wf = new WaveFormatEx();
wf.cbSize = (short)Marshal.SizeOf(wf);
wf.waveFormatTag = CompressionCode.Microsoft_PCM;
wf.channels = Channels;
wf.bitsPerSample = bitsPerSample;
wf.sampleRate = sampleRate;
wf.blockAlign = (short)(wf.channels * wf.bitsPerSample / 8);
wf.averageBytesPerSecond = wf.sampleRate * wf.blockAlign;
return wf;
}
}
아래는 위의 구조체를 채워 waveOutOpen 및 Reset/Close를 호출하는 과정을 보여줍니다.
internal class ProgramMM
{
public static unsafe void MMTest()
{
uint countOfDevices = NativeMethods.waveOutGetNumDevs();
for (int i = -1; i < countOfDevices; i++)
{
// 44KHz, 16bit, 2ch, WAVE_FORMAT_PCM
WaveFormatEx format = WaveFormatEx.Create(44100, 16, 2);
delegate*<IntPtr, WaveMessage, IntPtr, IntPtr, IntPtr, void> waveOutCallbackFunc = &ProgramMM.waveOutCallback;
MmResult result = NativeMethods.waveOutOpen(out IntPtr hWaveOut, i, &format,
waveOutCallbackFunc, IntPtr.Zero, WaveInOutOpenFlags.CallbackFunction);
if (result == MmResult.NoError)
{
Console.WriteLine($"waveOutOpen: {result}");
// Console.WriteLine(NativeMethods.waveOutReset(hWaveOut));
result = NativeMethods.waveOutClose(hWaveOut);
Console.WriteLine($"waveOutClose: {result}");
}
else
{
Console.WriteLine($"waveOutOpen failed: {result}");
}
Console.WriteLine();
}
}
// 이번 예제에서는 managed 함수를 전달해도 문제가 없지만, 나중에 다룰 글에서의 예제에서는 문제가 발생합니다.
static void waveOutCallback(IntPtr hWaveOut, WaveMessage uMsg, IntPtr dwInstance, IntPtr wavhdr, IntPtr dwReserved)
{
System.Console.WriteLine($"waveOutCallback: {uMsg}");
}
}
waveOutOpen 함수에 전달한 인자 중에 추가로 아래의 2개 인자를 설명할 필요가 있을 듯한데요,
- waveOutCallbackFunc: 오디오가 재생되는 동안 상태 관련 메시지를 받을 콜백 함수 (이 글의 예제에서는 콜백 함수를 지정했지만 이벤트나 스레드 등의 다양한 콜백 메커니즘을 사용할 수 있습니다.)
- WaveInOutOpenFlags.CallbackFunction: 앞선 waveOutCallback 인자의 콜백 방식을 지정 (여기서는 해당 인자가 콜백 함수임을 명시)
이와 같이 콜백 함수를 지정해 open을 호출해 성공적으로 장치가 열리면 다음과 같은 출력을 볼 수 있습니다.
// Microsoft Sound Mapper 장치
waveOutCallback: WaveOutOpen
waveOutOpen: NoError
waveOutCallback: WaveOutClose
waveOutClose: NoError
// Speakers (Realtek(R) Audio) 장치
waveOutCallback: WaveOutOpen
waveOutOpen: NoError
waveOutCallback: WaveOutClose
waveOutClose: NoError
자세히 보면, waveOutOpen 및 waveOutClose 호출로 인해 콜백 함수로 지정했던 waveOutCallback의 코드가 각각 상태 메시지를 출력하고 있습니다.
일단, 위의 예제는 open/close를 테스트하느라 WaveFormat을 임의로 사용했지만, 나중에 실제로 오디오를 재생할 때는 데이터의 포맷에 맞는 걸로 지정해야 합니다. 또한, 위의 예제는 장치마다 모두 열어 테스트를 했지만 현실적으로는 사용자가 선택한 오디오 장치로 데이터를 전달해 주는 WAVE_MAPPER, 즉 -1에 해당하는 장치인 "Microsoft Sound Mapper"를 주로 이용하게 될 것입니다.
마지막으로, waveOutReset은 오디오 재생 중인 동안에는 close를 할 수 없으므로 우선 reset 먼저 해야 하므로 그때 사용한다고 합니다.
자, 그럼 (Win32 API가 아닌) NAudio 방식으로는 위의 과정이 어떻게 될까요? 소스코드로 보면 다음과 같이 정리할 수 있는데요,
// for (int n = -1; n < WaveOut.DeviceCount; n++)
int n = -1; // "Microsoft Sound Mapper"
{
using (WaveOutEvent waveOut = new WaveOutEvent() { DeviceNumber = n })
{
IWaveProvider waveProvider = new [...구현체...]();
waveOut.Init(waveProvider);
// ... 이후 play 등의 동작 수행
}
}
Windows Multimedia 예제와 유사하게 -1 장치를 WaveOutEvent 타입에 인식시킨 후
IWaveProvider (또는, ISampleProvider)를 구현한 타입을 Init 메서드에 전달하는 것으로 초기화를 마무리합니다.
Win23 API에서는 WaveFormat에 해당하는 오디오 정보를 직접 구성해야 하지만 NAudio의 경우 나름 추상화를 제공해 차이점이 많은데요, 위의 코드에서 IWaveProvider를 구현한 클래스들이 WaveFormat까지 제공하는 역할을 하게 됩니다. 그리고 NAudio는 이미 이에 대한 다양한 클래스를 미리 제공하고 있는데, 가령 오디오 파일로부터 오디오 정보를 읽어 IWaveProvider 기능을 구현한 AudioFileReader가 그 하나의 사례입니다. 아래는 이를 사용해 코드를 완성한 예제입니다.
using (AudioFileReader waveProvider = new AudioFileReader(audioFilePath))
using (WaveOutEvent waveOut = new WaveOutEvent() { DeviceNumber = n })
{
waveOut.Init(waveProvider);
// ... 이후 play 등의 동작 수행
}
간단하긴 한데, Multimedia API를 직접 제어하는 것과는 달리 callback 등의 기능은 제공하지 않습니다. 대신 PlaybackStopped 이벤트를 제공하며 오디오 장치의 현재 상태를 알 수 있도록 WaveOutEvent.PlaybackState 속성을 제공합니다.
public enum PlaybackState
{
Stopped,
Playing,
Paused
}
따라서, 간단하게는 대략 다음과 같은 식으로 오디오 재생을 할 수 있습니다.
using (AudioFileReader waveProvider = new AudioFileReader(audioFilePath))
using (WaveOutEvent waveOut = new WaveOutEvent() { DeviceNumber = n })
{
waveOut.PlaybackStopped += WaveOut_PlaybackStopped;
waveOut.Init(waveProvider);
waveOut.Play();
while (waveOut.PlaybackState == PlaybackState.Playing)
{
Thread.Sleep(1000);
}
}
private static void WaveOut_PlaybackStopped(object? sender, StoppedEventArgs e)
{
Console.WriteLine($"WaveOut_PlaybackStopped: {e.Exception}");
}
open/close만 알아보려고 했는데 너무 쉬워서 재생까지 다뤘습니다. ^^;
(
첨부 파일은 이 글의 예제 코드를 포함합니다.)
NAudio의 AudioFileReader에 음성이 없는, 오직 Video만 있는 avi 파일을 전달하면 생성자에서 0xC00D36B3 예외가 발생합니다.
string audioFilePath = "...영상 AVI 파일...";
AudioFileReader waveProvider = new AudioFileReader(audioFilePath);
/*
Unhandled exception. System.Runtime.InteropServices.COMException (0xC00D36B3): The stream number provided was invalid. (0xC00D36B3)
at NAudio.MediaFoundation.IMFSourceReader.SetStreamSelection(Int32 dwStreamIndex, Boolean pSelected)
at NAudio.Wave.MediaFoundationReader.CreateReader(MediaFoundationReaderSettings settings)
at NAudio.Wave.MediaFoundationReader.Init(MediaFoundationReaderSettings initialSettings)
at NAudio.Wave.MediaFoundationReader..ctor(String file, MediaFoundationReaderSettings settings)
at NAudio.Wave.MediaFoundationReader..ctor(String file)
at NAudio.Wave.AudioFileReader.CreateReaderStream(String fileName)
at NAudio.Wave.AudioFileReader..ctor(String fileName)
at ConsoleApp1.Program.Main(String[] args)
*/
[이 글에 대해서 여러분들과 의견을 공유하고 싶습니다. 틀리거나 미흡한 부분 또는 의문 사항이 있으시면 언제든 댓글 남겨주십시오.]