Microsoft MVP성태의 닷넷 이야기
글쓴 사람
정성태 (techsharer at outlook.com)
홈페이지
첨부 파일
(연관된 글이 2개 있습니다.)
(시리즈 글이 8개 있습니다.)
.NET Framework: 1140. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 MP3 오디오 파일 인코딩/디코딩하는 예제
; https://www.sysnet.pe.kr/2/0/12939

.NET Framework: 1144. C# - ffmpeg(FFmpeg.AutoGen) AVFormatContext를 이용해 ffprobe처럼 정보 출력
; https://www.sysnet.pe.kr/2/0/12948

.NET Framework: 1145. C# - ffmpeg(FFmpeg.AutoGen) - Codec 정보 열람 및 사용 준비
; https://www.sysnet.pe.kr/2/0/12949

.NET Framework: 1148.  C# - ffmpeg(FFmpeg.AutoGen) - decoding 과정
; https://www.sysnet.pe.kr/2/0/12956

.NET Framework: 1149. C# - ffmpeg(FFmpeg.AutoGen) - 비디오 프레임 디코딩
; https://www.sysnet.pe.kr/2/0/12958

.NET Framework: 1155. C# - ffmpeg(FFmpeg.AutoGen): Bitmap으로부터 yuv420p + rawvideo 형식의 파일로 쓰기
; https://www.sysnet.pe.kr/2/0/12966

.NET Framework: 1156. C# - ffmpeg(FFmpeg.AutoGen): Bitmap으로부터 h264 형식의 파일로 쓰기
; https://www.sysnet.pe.kr/2/0/12970

.NET Framework: 1160. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 qsv 디코딩
; https://www.sysnet.pe.kr/2/0/12977




C# - ffmpeg(FFmpeg.AutoGen): Bitmap으로부터 h264 형식의 파일로 쓰기

지난 글의 예제 코드는 yuv42p 프레임 한 장씩 rawvideo로 파일에 썼는데요,

C# - ffmpeg(FFmpeg.AutoGen): Bitmap으로부터 yuv420p + rawvideo 형식의 파일로 쓰기
; https://www.sysnet.pe.kr/2/0/12966

이제, 이 예제를 rawvideo가 아닌, 코덱을 이용해 인코딩시켜 어엿한 h264 비디오 스트림을 생성해 보겠습니다. ^^ 이를 위해 ffmpeg 예제를 포팅했던, 바로 그 동영상 인코딩 예제를 응용하면,

C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 인코딩 예제(encode_video.c)
; https://www.sysnet.pe.kr/2/0/12898

코드를 rawvideo가 아닌 H264 인코딩 예제로 바꿀 수 있습니다.

using FFmpeg.AutoGen;
using FFmpeg.AutoGen.Example;
using System;
using System.Drawing;
using System.Drawing.Imaging;
using System.IO;

namespace bmp2avi
{
    internal unsafe class Program
    {
        static void Main(string[] args)
        {
            FFmpegBinariesHelper.RegisterFFmpegBinaries();

            string bmpFilePath = @"D:\media_sample\1922x1080_sample.png";
            string dstFilePath = @"c:\temp\output\bmp2yuv420p.h264";

            Image img = Bitmap.FromFile(bmpFilePath);
            Bitmap bmp = new Bitmap(img);
            int fps = 25;
            int seconds = 5;
            Rectangle imgSize = new Rectangle(0, 0, img.Width, img.Height);
            BitmapData bitmapData = bmp.LockBits(imgSize, ImageLockMode.ReadOnly, bmp.PixelFormat);

            Console.WriteLine(img.PixelFormat);

            AVPixelFormat srcFormat = (img.PixelFormat == System.Drawing.Imaging.PixelFormat.Format32bppArgb) ? AVPixelFormat.AV_PIX_FMT_BGRA
                : AVPixelFormat.AV_PIX_FMT_BGR24;
            AVPixelFormat dst_pix_fmt = AVPixelFormat.AV_PIX_FMT_YUV420P;

            SwsContext* sws_ctx = ffmpeg.sws_getContext(img.Width, img.Height, srcFormat, img.Width, img.Height, dst_pix_fmt,
                ffmpeg.SWS_BILINEAR, null, null, null);

            if (sws_ctx == null)
            {
                return;
            }

            byte_ptrArray4 src_data = new byte_ptrArray4();
            int_array4 src_linesize = new int_array4();
            int ret = 0;

            AVCodec* encoder = null;
            AVCodecContext* codecContext = null;
            AVFrame* frame = null;
            AVPacket* packet = null;
            byte[] end_code = new byte[] { 0, 0, 1, 0xb7 };

            AVCodecID codecId = AVCodecID.AV_CODEC_ID_H264;

            do
            {
                using FileStream fs = File.Create(dstFilePath);

                encoder = ffmpeg.avcodec_find_encoder(codecId);
                Console.WriteLine(FFmpegHelper.AnsiToString(encoder->name));
                Console.WriteLine(FFmpegHelper.AnsiToString(encoder->long_name));

                if (encoder == null)
                {
                    Console.WriteLine($"Codec not found: {codecId}");
                    break;
                }

                codecContext = ffmpeg.avcodec_alloc_context3(encoder);
                if (codecContext == null)
                {
                    Console.WriteLine($"Could not allocate video codec context: {codecId}");
                    break;
                }

                codecContext->bit_rate = 400000;

                codecContext->width = img.Width;
                codecContext->height = img.Height;
                codecContext->time_base = new AVRational { num = 1, den = fps };
                codecContext->framerate = new AVRational { num = fps, den = 1 };
                codecContext->gop_size = 10;
                codecContext->max_b_frames = 1;
                codecContext->pix_fmt = dst_pix_fmt;

                if (codecId == AVCodecID.AV_CODEC_ID_H264)
                {
                    ffmpeg.av_opt_set(codecContext->priv_data, "preset", "slow", 0);
                }

                ret = ffmpeg.avcodec_open2(codecContext, encoder, null);
                if (ret < 0)
                {
                    Console.WriteLine("Could not open codec");
                    break;
                }

                frame = ffmpeg.av_frame_alloc();

                if (frame == null)
                {
                    Console.WriteLine("Could not allocate video frame");
                    break;
                }

                frame->format = (int)codecContext->pix_fmt;
                frame->width = codecContext->width;
                frame->height = codecContext->height;

                ret = ffmpeg.av_frame_get_buffer(frame, 0);
                if (ret < 0)
                {
                    Console.WriteLine("Could not allocate raw picture buffer");
                    break;
                }

                src_data[0] = (byte*)bitmapData.Scan0.ToPointer();
                src_linesize[0] = bitmapData.Stride;

                packet = ffmpeg.av_packet_alloc();
                if (packet == null)
                {
                    break;
                }

                for (int i = 0; i < fps * seconds; i++)
                {
                    ret = ffmpeg.av_frame_make_writable(frame);
                    if (ret < 0)
                    {
                        break;
                    }

                    ret = ffmpeg.sws_scale(sws_ctx, src_data, src_linesize, 0, img.Height, frame->data, frame->linesize);

                    if (ret < 0)
                    {
                        Console.WriteLine("sws_scale failed");
                        break;
                    }

                    frame->pts = i;

                    encode(codecContext, frame, packet, fs);
                }

                encode(codecContext, null, packet, fs);

                Console.WriteLine("Play the output file with the command:");
                Console.WriteLine($"ffplay -autoexit {dstFilePath}");

                if (encoder->id == AVCodecID.AV_CODEC_ID_MPEG1VIDEO || encoder->id == AVCodecID.AV_CODEC_ID_MPEG2VIDEO)
                {
                    fs.Write(end_code, 0, end_code.Length);
                }

            } while (false);

            if (frame != null)
            {
                ffmpeg.av_frame_free(&frame);
            }

            if (packet != null)
            {
                ffmpeg.av_packet_free(&packet);
            }

            if (codecContext != null)
            {
                ffmpeg.avcodec_free_context(&codecContext);
            }

            if (bitmapData != null)
            {
                bmp.UnlockBits(bitmapData);
            }

            if (sws_ctx != null)
            {
                ffmpeg.sws_freeContext(sws_ctx);
            }
        }

        
        static unsafe void encode(AVCodecContext* enc_ctx, AVFrame* frame, AVPacket* pkt, FileStream output)
        {
            int ret;

            /* send the frame to the encoder */
            if (frame != null)
            {
                Console.WriteLine($"Send frame {frame->pts}");
            }

            ret = ffmpeg.avcodec_send_frame(enc_ctx, frame);
            if (ret < 0)
            {
                Console.WriteLine("Error sending a frame for encoding");
                return;
            }

            while (ret >= 0)
            {
                ret = ffmpeg.avcodec_receive_packet(enc_ctx, pkt);
                if (ret == ffmpeg.AVERROR(ffmpeg.EAGAIN) || ret == ffmpeg.AVERROR_EOF)
                {
                    return;
                }
                else if (ret < 0)
                {
                    Console.WriteLine("Error during encoding");
                    return;
                }

                Console.WriteLine($"Write packet {pkt->pts} (size={pkt->size})");
                output.Write(new ReadOnlySpan<byte>(pkt->data, pkt->size));

                ffmpeg.av_packet_unref(pkt);
            }
        }
    }
}

실행 후, 제 컴퓨터에서는 encoder의 이름이 다음과 같이 출력됩니다.

h264_mf
H264 via MediaFoundation

그리고 위의 코드는 아래의 글에서 사용했던 코드와 거의 일치합니다.

C# - 화면 캡처한 이미지를 ffmpeg(FFmpeg.AutoGen)로 동영상 처리 (저해상도 현상 해결)
; https://www.sysnet.pe.kr/2/0/12963

그래서, 1920x1080과 같은 큰 이미지에서는 동일하게 뭉개지는 현상이 나타납니다. 따라서, 그 현상은 bit_rate의 값을 올리면,

// codecContext->bit_rate = 400000;
codecContext->bit_rate = img.Width * img.Height * 4;

해결됩니다. 당연히 bit_rate를 올렸으니 크기도 증가하는데요, 400000이었을 때는 5초 테스트 영상에 455KB였지만, (img.Width * img.Height * 4)로 늘리면 1,314KB가 됩니다.

이렇게 출력한 영상도, ffprobe로 확인해 보면,

c:\temp\output> ffprobe bmp2yuv420p.h264
..[생략]...
Input #0, h264, from 'bmp2yuv420p.h264':
  Duration: N/A, bitrate: N/A
  Stream #0:0: Video: h264 (Constrained Baseline), yuv420p(progressive), 1922x1082, 25 fps, 25 tbr, 1200k tbn, 50 tbc

"C# - 화면 캡처한 이미지를 ffmpeg(FFmpeg.AutoGen)로 동영상 처리 (저해상도 현상 해결)" 글에서 출력했던 영상과 출력이 유사합니다. 즉, container가 없는 유형입니다.

그러고 보니, decode_video.c 예제가 container가 없는 데이터 파일을 요구했었는데, 그것의 예제로 애당초 encode_video.c가 출력한 파일을 사용했다면 그렇게 헤매는 일도 없었을 것입니다. ^^ (하지만, 그렇게 헤맸기 때문에 컨테이너가 없는 유형과 있는 유형에 대한 ffmpeg 코드를 알게 되었으니 뭐든지 장/단점이 있습니다. ^^)

(첨부 파일은 이 글의 예제 코드를 포함합니다.)




참고로, 컨테이너에 스트림을 담는 과정을 멀티플렉싱(Multiplexing, 줄임말로 먹싱(Muxing))이라고 한다는데요, 그러니까, 이번 예제를 제대로 된 컨테이너로 입히려면 다음의 예제에 있는 코드를 또다시 덧입혀야 하는 것입니다. ^^

muxing.c
; https://ffmpeg.org/doxygen/trunk/muxing_8c-example.html

C# - ffmpeg(FFmpeg.AutoGen)를 이용한 muxing.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12971




[이 글에 대해서 여러분들과 의견을 공유하고 싶습니다. 틀리거나 미흡한 부분 또는 의문 사항이 있으시면 언제든 댓글 남겨주십시오.]

[연관 글]






[최초 등록일: ]
[최종 수정일: 2/15/2022]

Creative Commons License
이 저작물은 크리에이티브 커먼즈 코리아 저작자표시-비영리-변경금지 2.0 대한민국 라이센스에 따라 이용하실 수 있습니다.
by SeongTae Jeong, mailto:techsharer at outlook.com

비밀번호

댓글 작성자
 



2022-02-16 11시34분
[후드] 점점 제가 원하는 기능이 다가오는 느낌이군요^^
[guest]

1  2  3  4  5  [6]  7  8  9  10  11  12  13  14  15  ...
NoWriterDateCnt.TitleFile(s)
13793정성태10/28/20245148C/C++: 183. C++ - 윈도우에서 한글(및 유니코드)을 포함한 콘솔 프로그램을 컴파일 및 실행하는 방법
13792정성태10/27/20244633Linux: 99. Linux - 프로세스의 실행 파일 경로 확인
13791정성태10/27/20244901Windows: 267. Win32 API의 A(ANSI) 버전은 DBCS를 사용할까요?파일 다운로드1
13790정성태10/27/20244621Linux: 98. Ubuntu 22.04 - 리눅스 커널 빌드 및 업그레이드
13789정성태10/27/20244912Linux: 97. menuconfig에 CONFIG_DEBUG_INFO_BTF, CONFIG_DEBUG_INFO_BTF_MODULES 옵션이 없는 경우
13788정성태10/26/20244459Linux: 96. eBPF (bpf2go) - fentry, fexit를 이용한 트레이스
13787정성태10/26/20244969개발 환경 구성: 730. github - Linux 커널 repo를 윈도우 환경에서 git clone하는 방법 [1]
13786정성태10/26/20245217Windows: 266. Windows - 대소문자 구분이 가능한 파일 시스템
13785정성태10/23/20244984C/C++: 182. 윈도우가 운영하는 2개의 Code Page파일 다운로드1
13784정성태10/23/20245247Linux: 95. eBPF - kprobe를 이용한 트레이스
13783정성태10/23/20244859Linux: 94. eBPF - vmlinux.h 헤더 포함하는 방법 (bpf2go에서 사용)
13782정성태10/23/20244620Linux: 93. Ubuntu 22.04 - 커널 이미지로부터 커널 함수 역어셈블
13781정성태10/22/20244800오류 유형: 930. WSL + eBPF: modprobe: FATAL: Module kheaders not found in directory
13780정성태10/22/20245549Linux: 92. WSL 2 - 커널 이미지로부터 커널 함수 역어셈블
13779정성태10/22/20244841개발 환경 구성: 729. WSL 2 - Mariner VM 커널 이미지 업데이트 방법
13778정성태10/21/20245670C/C++: 181. C/C++ - 소스코드 파일의 인코딩, 바이너리 모듈 상태의 인코딩
13777정성태10/20/20244952Windows: 265. Win32 API의 W(유니코드) 버전은 UCS-2일까요? UTF-16 인코딩일까요?
13776정성태10/19/20245268C/C++: 180. C++ - 고수준 FILE I/O 함수에서의 Unicode stream 모드(_O_WTEXT, _O_U16TEXT, _O_U8TEXT)파일 다운로드1
13775정성태10/19/20245492개발 환경 구성: 728. 윈도우 환경의 개발자를 위한 UTF-8 환경 설정
13774정성태10/18/20245195Linux: 91. Container 환경에서 출력하는 eBPF bpf_get_current_pid_tgid의 pid가 존재하지 않는 이유
13773정성태10/18/20244883Linux: 90. pid 네임스페이스 구성으로 본 WSL 2 + docker-desktop
13772정성태10/17/20245159Linux: 89. pid 네임스페이스 구성으로 본 WSL 2 배포본의 계층 관계
13771정성태10/17/20245065Linux: 88. WSL 2 리눅스 배포본 내에서의 pid 네임스페이스 구성
13770정성태10/17/20245336Linux: 87. ps + grep 조합에서 grep 명령어를 사용한 프로세스를 출력에서 제거하는 방법
13769정성태10/15/20246114Linux: 86. Golang + bpf2go를 사용한 eBPF 기본 예제파일 다운로드1
13768정성태10/15/20245395C/C++: 179. C++ - _O_WTEXT, _O_U16TEXT, _O_U8TEXT의 Unicode stream 모드파일 다운로드2
1  2  3  4  5  [6]  7  8  9  10  11  12  13  14  15  ...