Microsoft MVP성태의 닷넷 이야기
글쓴 사람
정성태 (techsharer at outlook.com)
홈페이지
첨부 파일

(시리즈 글이 9개 있습니다.)
.NET Framework: 618. C# - NAudio를 이용한 MP3 파일 재생
; https://www.sysnet.pe.kr/2/0/11092

닷넷: 2236. C# - Audio 장치 열람 (Windows Multimedia, NAudio)
; https://www.sysnet.pe.kr/2/0/13594

닷넷: 2237. C# - Audio 장치 열기 (Windows Multimedia, NAudio)
; https://www.sysnet.pe.kr/2/0/13595

닷넷: 2238. C# - WAV 기본 파일 포맷
; https://www.sysnet.pe.kr/2/0/13596

닷넷: 2239. C# - WAV 파일의 PCM 데이터 생성 및 출력
; https://www.sysnet.pe.kr/2/0/13597

닷넷: 2240. C# - WAV 파일 포맷 + LIST 헤더
; https://www.sysnet.pe.kr/2/0/13598

닷넷: 2241. C# - WAV 파일의 PCM 사운드 재생(Windows Multimedia)
; https://www.sysnet.pe.kr/2/0/13599

닷넷: 2243. C# - PCM 사운드 재생(NAudio)
; https://www.sysnet.pe.kr/2/0/13601

닷넷: 2244. C# - PCM 오디오 데이터를 연속(Streaming) 재생 (Windows Multimedia)
; https://www.sysnet.pe.kr/2/0/13602




C# - PCM 오디오 데이터를 연속(Streaming) 재생 (Windows Multimedia)

지난 글까지 해서 기본적인 사운드 파일 재생을 할 수 있게 되었는데요, 현실적으로 아직 해결되지 못한 사례가 하나 있습니다. 보통 짧은 음악 파일은 그냥 메모리에 들고 있으면 되지만, 가령 영화 정도 되는 분량의 데이터라면 단순히 메모리에 들고 있는 식으로 처리하는 것은 부담스러울 수밖에 없습니다.

즉, 소리 데이터를 적절하게 끊어서 재생해야 하는데요, 이에 대한 고민이 담긴 글이 바로 아래의 2개 내용입니다.

5.큰 파일 재생
; http://www.soen.kr/lecture/library/waveform/5.htm

6. 콜백
; http://www.soen.kr/lecture/library/waveform/6.htm

가볍게 한번 훑어보시면 저작자가 하는 이야기가 무엇인지 쉽게 이해가 되실 것입니다. 결국, 우리가 알아야 하는 방법은 7번 글에 나옵니다.

7.멀티 헤더
; http://www.soen.kr/lecture/library/waveform/7.htm




Windows Multimedia는 waveOutOpen으로 장치 핸들을 얻고, 하나의 WAVEHDR 구조체가 담고 있는 데이터를 waveOutPrepareHeader/waveOutWrite/waveOutUnprepareHeader로 출력을 하는 구조입니다.

따라서, 방법은 간단합니다. 그냥 연이어서 음이 끊기지 않을 정도만 WAVEHDR 구조체를 지속적으로 장치에 전달하기만 하면 되는 것입니다. 따라서, 그 정도의 WAVEHDR에 채울 데이터만 메모리에 읽어서 처리하면 굳이 음악 파일 하나를 통째로 로드할 필요가 없습니다.

그런데, C#에서 이 처리를 하려면 우선 해결해야 할 과제가 하나 있습니다. 지난 글에서 실습했을 때, 데이터 버퍼를 Native 영역에 전달하기 위해 fixed 영역을 지정했는데요, 이것을 없애야 합니다. 바로 이것을 위해 GCHandle을 사용할 수 있습니다.

try
{
    do
    {
        WaveHeader waveHeader = new WaveHeader();
        waveHeader.bufferLength = wf.PCM.Length;

        GCHandle handle = GCHandle.Alloc(wf.PCM, GCHandleType.Pinned);

        waveHeader.dataBuffer = new nint(ptr);

        result = NativeMethods.waveOutPrepareHeader(hWaveOut, &waveHeader, WaveHeader.Size);
        // ...[생략]...
        result = NativeMethods.waveOutWrite(hWaveOut, &waveHeader, WaveHeader.Size);
        // ...[생략]...
        result = NativeMethods.waveOutUnprepareHeader(hWaveOut, &waveHeader, WaveHeader.Size);
    } while (false);
}
finally
{
    NativeMethods.waveOutClose(hWaveOut);
}

물론, Free도 해줘야 합니다. 마침 Free를 위해 가장 좋은 위치가 있는데요, 바로 waveOutOpen에 전달했던 waveOutCallbackFunc입니다.

MmResult result = NativeMethods.waveOutOpen(out IntPtr hWaveOut, -1, &format, waveOutCallbackFunc,
    IntPtr.Zero, WaveInOutOpenFlags.CallbackFunction);

[UnmanagedCallersOnly(CallConvs = new Type[] { typeof(CallConvStdcall) })]
static void waveOutCallback(IntPtr hWaveOut, WaveMessage uMsg, IntPtr dwInstance, IntPtr wavhdr, IntPtr dwReserved)
{
    System.Console.WriteLine($"waveOutCallback: {uMsg}");
}

소리 재생이 완료되면 WaveMessage uMsg 인자에 WaveMessage.WaveOutDone이 담겨져 날아오게 되고, 따라서 이 시점에 4번째 IntPtr wavhdr로 넘어온 포인터를 사용하면 됩니다. 물론 현재의 WAVEHEADER로는 안 되고 GCHandle을 포함하도록 확장한 다음,

[StructLayout(LayoutKind.Sequential)]
public struct WaveHeader
{
    // ...[생략]...

    public GCHandle GcHandle;
}

값을 설정하는 코드도 추가하면,

try
{
    do
    {
        WaveHeader waveHeader = new WaveHeader();
        waveHeader.bufferLength = wf.PCM.Length;

        GCHandle handle = GCHandle.Alloc(wf.PCM, GCHandleType.Pinned);
        waveHeader.GcHandle = handle;

        waveHeader.dataBuffer = new nint(ptr);

        result = NativeMethods.waveOutPrepareHeader(hWaveOut, &waveHeader, WaveHeader.Size);
        // ...[생략]...
        result = NativeMethods.waveOutWrite(hWaveOut, &waveHeader, WaveHeader.Size);
        // ...[생략]...
        result = NativeMethods.waveOutUnprepareHeader(hWaveOut, &waveHeader, WaveHeader.Size);
    } while (false);
}
finally
{
    NativeMethods.waveOutClose(hWaveOut);
}

이제 콜백 함수에서 안전하게 Free 처리를 할 수 있습니다.

[UnmanagedCallersOnly(CallConvs = new Type[] { typeof(CallConvStdcall) })]
static void waveOutCallback(IntPtr hWaveOut, WaveMessage uMsg, IntPtr dwInstance, IntPtr wavhdr, IntPtr dwReserved)
{
    if (uMsg == WaveMessage.WaveOutDone)
    {
        WaveHeader header = Marshal.PtrToStructure<WaveHeader>(wavhdr);
        header.GcHandle.Free();
    }
        
    System.Console.WriteLine($"waveOutCallback: {uMsg}");
}

그런데, 저 단계에서 waveOutUnprepareHeader를 해서 WAVEHEADER도 해제하는 것이 좋지 않을까요? 이 작업은, 문서의 경고에 따라 하지 않는 것이 좋습니다.

waveOutProc callback function
; https://learn.microsoft.com/en-us/previous-versions/dd743869(v=vs.85)

Applications should not call any system-defined functions from inside a callback function, except for EnterCriticalSection, LeaveCriticalSection, midiOutLongMsg, midiOutShortMsg, OutputDebugString, PostMessage, PostThreadMessage, SetEvent, timeGetSystemTime, timeGetTime, timeKillEvent, and timeSetEvent. Calling other wave functions will cause deadlock.


(첨부 파일은 이 글의 예제 코드를 포함>합니다.)




자, 그럼 완료 처리를 대행하는 것과, 일정량의 소리 데이터를 (해제는 어차피 callback에서 할 것이므로) waveOutPrepareHeader/waveOutWrite 단계로 밀어 넣어주기만 하면 됩니다.

그런데, 어느 정도로 소리 데이터를 보내주는 것이 좋을까요?

아마도, 2초 정도의 분량만 항상 마련이 되어 있으면 좋지 않을까 싶습니다. 즉 1초씩 끊어서 2번의 waveOutPrepareHeader/waveOutWrite로 넣어주고, Done callback이 발생하게 되면 첫 번째 1초의 WAVEHEADER 데이터가 모두 연주된 것이고 현재 두 번째 1초 데이터가 연주를 시작했을 것이므로 곧바로 waveOutPrepareHeader/waveOutWrite를 이용해 추가로 1초 분량의 WAVEHEADER를 추가해 주는 식일 것입니다.

반면, 컴퓨터 세계에서 2초는 너무 길 수도 있습니다. 테스트에 따라 100ms 정도로 2번 정도의 예비 데이터만 보내도 아마 잘 동작하는 경우도 많을 것입니다. 그런 부분은 적절하게 환경에 맞게, 경험으로 조정하면 될 듯합니다. (혹시, 현업에 계신 분들은 어떤 식으로 처리하는지 덧글로 조언 부탁드립니다. ^^)

NAudio를 사용해 위와 같은 방식의 재생을 구현하려면 아마도 다음의 코드를 참고하면 될 듯합니다.

https://github.com/teetow/teevegas/blob/master/src/NAudio/Wave/WaveProviders/BufferedWaveProvider.cs

https://github.com/naudio/NAudio

https://markheath.net/post/how-to-play-back-streaming-mp3-using




[이 글에 대해서 여러분들과 의견을 공유하고 싶습니다. 틀리거나 미흡한 부분 또는 의문 사항이 있으시면 언제든 댓글 남겨주십시오.]







[최초 등록일: ]
[최종 수정일: 5/2/2024]

Creative Commons License
이 저작물은 크리에이티브 커먼즈 코리아 저작자표시-비영리-변경금지 2.0 대한민국 라이센스에 따라 이용하실 수 있습니다.
by SeongTae Jeong, mailto:techsharer at outlook.com

비밀번호

댓글 작성자
 




... 16  17  18  19  20  21  22  23  24  25  26  27  28  [29]  30  ...
NoWriterDateCnt.TitleFile(s)
12944정성태1/28/20229666.NET Framework: 1143. C# - Entity Framework Core 6 개요
12943정성태1/27/20228539.NET Framework: 1142. .NET 5+로 포팅 시 플랫폼 호환성 경고 메시지(SYSLIB0006, SYSLIB0011, CA1416)파일 다운로드1
12942정성태1/27/20228751.NET Framework: 1141. XmlSerializer와 Dictionary 타입파일 다운로드1
12941정성태1/26/202210271오류 유형: 790. AKS/k8s - pod 상태가 Pending으로 지속되는 경우
12940정성태1/26/20227444오류 유형: 789. AKS에서 hpa에 따른 autoscale 기능이 동작하지 않는다면?
12939정성태1/25/20228289.NET Framework: 1140. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 MP3 오디오 파일 인코딩/디코딩하는 예제파일 다운로드1
12938정성태1/24/202210683개발 환경 구성: 633. Docker Desktop + k8s 환경에서 local 이미지를 사용하는 방법
12937정성태1/24/20228385.NET Framework: 1139. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 오디오(mp2) 인코딩하는 예제(encode_audio.c) [2]파일 다운로드1
12936정성태1/22/20228362.NET Framework: 1138. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 멀티미디어 파일의 메타데이터를 보여주는 예제(metadata.c)파일 다운로드1
12935정성태1/22/20228564.NET Framework: 1137. ffmpeg의 파일 해시 예제(ffhash.c)를 C#으로 포팅파일 다운로드1
12934정성태1/22/20228141오류 유형: 788. Warning C6262 Function uses '65564' bytes of stack: exceeds /analyze:stacksize '16384'. Consider moving some data to heap. [2]
12933정성태1/21/20228630.NET Framework: 1136. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 MP2 오디오 파일 디코딩 예제(decode_audio.c)파일 다운로드1
12932정성태1/20/20229136.NET Framework: 1135. C# - ffmpeg(FFmpeg.AutoGen)로 하드웨어 가속기를 이용한 비디오 디코딩 예제(hw_decode.c) [2]파일 다운로드1
12931정성태1/20/20227112개발 환경 구성: 632. ASP.NET Core 프로젝트를 AKS/k8s에 올리는 과정
12930정성태1/19/20227899개발 환경 구성: 631. AKS/k8s의 Volume에 파일 복사하는 방법
12929정성태1/19/20227732개발 환경 구성: 630. AKS/k8s의 Pod에 Volume 연결하는 방법
12928정성태1/18/20227789개발 환경 구성: 629. AKS/Kubernetes에서 호스팅 중인 pod에 shell(/bin/bash)로 진입하는 방법
12927정성태1/18/20227682개발 환경 구성: 628. AKS 환경에 응용 프로그램 배포 방법
12926정성태1/17/20228129오류 유형: 787. AKS - pod 배포 시 ErrImagePull/ImagePullBackOff 오류
12925정성태1/17/20228200개발 환경 구성: 627. AKS의 준비 단계 - ACR(Azure Container Registry)에 docker 이미지 배포
12924정성태1/15/20229664.NET Framework: 1134. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 디코딩 예제(decode_video.c) [2]파일 다운로드1
12923정성태1/15/20228522개발 환경 구성: 626. ffmpeg.exe를 사용해 비디오 파일을 MPEG1 포맷으로 변경하는 방법
12922정성태1/14/20227641개발 환경 구성: 625. AKS - Azure Kubernetes Service 생성 및 SLO/SLA 변경 방법
12921정성태1/14/20226473개발 환경 구성: 624. Docker Desktop에서 별도 서버에 설치한 docker registry에 이미지 올리는 방법
12920정성태1/14/20227646오류 유형: 786. Camtasia - An error occurred with the camera: Failed to Add Video Sampler.
12919정성태1/13/20227180Windows: 199. Host Network Service (HNS)에 의해서 점유되는 포트
... 16  17  18  19  20  21  22  23  24  25  26  27  28  [29]  30  ...