Microsoft MVP성태의 닷넷 이야기
글쓴 사람
정성태 (techsharer at outlook.com)
홈페이지
첨부 파일
(연관된 글이 2개 있습니다.)
(시리즈 글이 24개 있습니다.)
.NET Framework: 1129. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 인코딩 예제(encode_video.c)
; https://www.sysnet.pe.kr/2/0/12898

.NET Framework: 1134. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 디코딩 예제(decode_video.c)
; https://www.sysnet.pe.kr/2/0/12924

.NET Framework: 1135. C# - ffmpeg(FFmpeg.AutoGen)로 하드웨어 가속기를 이용한 비디오 디코딩 예제(hw_decode.c)
; https://www.sysnet.pe.kr/2/0/12932

.NET Framework: 1136. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 MP2 오디오 파일 디코딩 예제(decode_audio.c)
; https://www.sysnet.pe.kr/2/0/12933

.NET Framework: 1137. ffmpeg의 파일 해시 예제(ffhash.c)를 C#으로 포팅
; https://www.sysnet.pe.kr/2/0/12935

.NET Framework: 1138. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 멀티미디어 파일의 메타데이터를 보여주는 예제(metadata.c)
; https://www.sysnet.pe.kr/2/0/12936

.NET Framework: 1139. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 오디오(mp2) 인코딩하는 예제(encode_audio.c)
; https://www.sysnet.pe.kr/2/0/12937

.NET Framework: 1147. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 오디오 필터링 예제(filtering_audio.c)
; https://www.sysnet.pe.kr/2/0/12951

.NET Framework: 1148. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 오디오 필터 예제(filter_audio.c)
; https://www.sysnet.pe.kr/2/0/12952

.NET Framework: 1150. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 디코딩 예제(decode_video.c) - 두 번째 이야기
; https://www.sysnet.pe.kr/2/0/12959

개발 환경 구성: 637. ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 디코딩 예제(decode_video.c) - 세 번째 이야기
; https://www.sysnet.pe.kr/2/0/12960

.NET Framework: 1151. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 프레임의 크기 및 포맷 변경 예제(scaling_video.c)
; https://www.sysnet.pe.kr/2/0/12961

.NET Framework: 1153. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 avio_reading.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12964

.NET Framework: 1157. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 muxing.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12971

.NET Framework: 1159. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 qsvdec.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12975

.NET Framework: 1161. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 resampling_audio.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12978

.NET Framework: 1166. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 filtering_video.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12984

.NET Framework: 1169. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 demuxing_decoding.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12987

.NET Framework: 1170. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 transcode_aac.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12991

.NET Framework: 1178. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 http_multiclient.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/13002

.NET Framework: 1180. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 remuxing.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/13006

.NET Framework: 1188. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 transcoding.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/13023

.NET Framework: 1190. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 vaapi_encode.c, vaapi_transcode.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/13025

.NET Framework: 1191. C 언어로 작성된 FFmpeg Examples의 C# 포팅 전체 소스 코드
; https://www.sysnet.pe.kr/2/0/13026




C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 프레임의 크기 및 포맷 변경 예제(scaling_video.c)

지난 예제에 이어,

C# - ffmpeg(FFmpeg.AutoGen)를 이용한 오디오 필터 예제(filter_audio.c)
; https://www.sysnet.pe.kr/2/0/12952

이번에는 ffmpeg 예제 중 "scaling_video.c" 파일을 FFmpeg.AutoGen으로 포팅하겠습니다.

using FFmpeg.AutoGen;
using FFmpeg.AutoGen.Example;
using System;
using System.IO;

namespace FFmpegApp1
{
    internal unsafe class Program
    {
        static unsafe int Main(string[] args)
        {
            FFmpegBinariesHelper.RegisterFFmpegBinaries();

#if DEBUG
            Console.WriteLine("Current directory: " + Environment.CurrentDirectory);
            Console.WriteLine("Running in {0}-bit mode.", Environment.Is64BitProcess ? "64" : "32");
            Console.WriteLine($"FFmpeg version info: {ffmpeg.av_version_info()}");
#endif
            Console.WriteLine();

            byte_ptrArray4 src_data = new byte_ptrArray4();
            byte_ptrArray4 dst_data = new byte_ptrArray4();

            int_array4 src_linesize = new int_array4();
            int_array4 dst_linesize = new int_array4();

            int src_w = 320, src_h = 240, dst_w, dst_h;
            AVPixelFormat src_pix_fmt = AVPixelFormat.AV_PIX_FMT_YUV420P, dst_pix_fmt = AVPixelFormat.AV_PIX_FMT_RGB24;
            string dst_size = null;
            string dst_filename = null;

            int dst_bufsize = 0;
            SwsContext* sws_ctx = null;

            int i, ret;

            dst_filename = @"c:\temp\output\test.mp4";
            dst_size = "cif"; // 352x288
            // dst_size = "hd1080"; // 1920x1080

            if (VideoSizeAbbr.av_parse_video_size(&dst_w, &dst_h, dst_size) < 0)
            {
                Console.WriteLine($"Invalid size {dst_size}, must be in the form WxH or a valid abbreviation");
                return 1;
            }

            using FileStream fs = File.Create(dst_filename);

            do
            {
                sws_ctx = ffmpeg.sws_getContext(src_w, src_h, src_pix_fmt, dst_w, dst_h, dst_pix_fmt, ffmpeg.SWS_BILINEAR, null, null, null);
                if (sws_ctx == null)
                {
                    Console.WriteLine($"Impossible to create scale context for the conversion fmt:{ffmpeg.av_get_pix_fmt_name(src_pix_fmt)} s:{src_w}x{src_h} -> fmt:{ffmpeg.av_get_pix_fmt_name(dst_pix_fmt)} s:{dst_w}x{dst_h}");
                    ret = ffmpeg.AVERROR(ffmpeg.EINVAL);
                    break;
                }

                if ((ret = ffmpeg.av_image_alloc(ref src_data, ref src_linesize, src_w, src_h, src_pix_fmt, 16)) < 0)
                {
                    Console.WriteLine("Could not allocate source image");
                    break;
                }

                if ((ret = ffmpeg.av_image_alloc(ref dst_data, ref dst_linesize, dst_w, dst_h, dst_pix_fmt, 1)) < 0)
                {
                    Console.WriteLine("Could not allocate destination image");
                    break;
                }

                dst_bufsize = ret;

                for (i = 0; i < 100; i ++)
                {
                    fill_yuv_image(src_data, src_linesize, src_w, src_h, i);

                    ffmpeg.sws_scale(sws_ctx, src_data, src_linesize, 0, src_h, dst_data, dst_linesize);

                    ReadOnlySpan<byte> buffer = new ReadOnlySpan<byte>(dst_data[0], dst_bufsize);
                    fs.Write(buffer);
                }

                Console.WriteLine("Scaling succeeded. Play the output file with the command:");
                Console.WriteLine($"ffplay -f rawvideo -pix_fmt {ffmpeg.av_get_pix_fmt_name(dst_pix_fmt)} -video_size {dst_w}x{dst_h} {dst_filename}");

            } while (false);

            if (src_data[0] != null)
            {
                ffmpeg.av_freep(&src_data);
            }

            if (dst_data[0] != null)
            {
                ffmpeg.av_freep(&dst_data);
            }

            if (sws_ctx != null)
            {
                ffmpeg.sws_freeContext(sws_ctx);
            }

            return 0;
        }


        static unsafe void fill_yuv_image(byte*[] data, int[] linesize, int width, int height, int frame_index)
        {
            int x, y;

            for (y = 0; y < height; y++)
            {
                for (x = 0; x < width; x++)
                {
                    data[0][y * linesize[0] + x] = (byte)(x + y + frame_index * 3);
                }
            }

            for (y = 0; y < height / 2; y++)
            {
                for (x = 0; x < width / 2; x++)
                {
                    data[1][y * linesize[1] + x] = (byte)(128 + y + frame_index * 2);
                    data[2][y * linesize[2] + x] = (byte)(64 + x + frame_index * 5);
                }
            }
        }

        public class VideoSizeAbbr
        {
            string _abbr;
            public string Abbr => _abbr;

            int _width;
            public int Width => _width;

            int _height;
            public int Height => _height;

            public VideoSizeAbbr(string abbr, int width, int height)
            {
                _abbr = abbr;
                _width = width;
                _height = height;
            }

            public static VideoSizeAbbr[] Video_size_abbrs => _video_size_abbrs;

            static VideoSizeAbbr[] _video_size_abbrs = new VideoSizeAbbr[] {
                 new ("ntsc",      720, 480),
                 new ("pal",       720, 576 ),
                 new ("qntsc",     352, 240 ), /* VCD compliant NTSC */
                 new ("qpal",      352, 288 ), /* VCD compliant PAL */
                 new ("sntsc",     640, 480 ), /* square pixel NTSC */
                 new ("spal",      768, 576 ), /* square pixel PAL */
                 new ("film",      352, 240 ),
                 new ("ntsc-film", 352, 240 ),
                 new ("sqcif",     128,  96 ),
                 new ("qcif",      176, 144 ),
                 new ("cif",       352, 288 ),
                 new ("4cif",      704, 576 ),
                 new ("16cif",    1408,1152 ),
                 new ("qqvga",     160, 120 ),
                 new ("qvga",      320, 240 ),
                 new ("vga",       640, 480 ),
                 new ("svga",      800, 600 ),
                 new ("xga",      1024, 768 ),
                 new ("uxga",     1600,1200 ),
                 new ("qxga",     2048,1536 ),
                 new ("sxga",     1280,1024 ),
                 new ("qsxga",    2560,2048 ),
                 new ("hsxga",    5120,4096 ),
                 new ("wvga",      852, 480 ),
                 new ("wxga",     1366, 768 ),
                 new ("wsxga",    1600,1024 ),
                 new ("wuxga",    1920,1200 ),
                 new ("woxga",    2560,1600 ),
                 new ("wqhd",     2560,1440 ),
                 new ("wqsxga",   3200,2048 ),
                 new ("wquxga",   3840,2400 ),
                 new ("whsxga",   6400,4096 ),
                 new ("whuxga",   7680,4800 ),
                 new ("cga",       320, 200 ),
                 new ("ega",       640, 350 ),
                 new ("hd480",     852, 480 ),
                 new ("hd720",    1280, 720 ),
                 new ("hd1080",   1920,1080 ),
                 new ("quadhd",   2560,1440 ),
                 new ("2k",       2048,1080 ), /* Digital Cinema System Specification */
                 new ("2kdci",    2048,1080 ),
                 new ("2kflat",   1998,1080 ),
                 new ("2kscope",  2048, 858 ),
                 new ("4k",       4096,2160 ), /* Digital Cinema System Specification */
                 new ("4kdci",    4096,2160 ),
                 new ("4kflat",   3996,2160 ),
                 new ("4kscope",  4096,1716 ),
                 new ("nhd",       640,360  ),
                 new ("hqvga",     240,160  ),
                 new ("wqvga",     400,240  ),
                 new ("fwqvga",    432,240  ),
                 new ("hvga",      480,320  ),
                 new ("qhd",       960,540  ),
                 new ("uhd2160",  3840,2160 ),
                 new ("uhd4320",  7680,4320 ),
             };

            public static unsafe int av_parse_video_size(int* width_ptr, int* height_ptr, string str)
            {
                int i;
                int n = VideoSizeAbbr.Video_size_abbrs.Length;
                int width = 0;
                int height = 0;

                for (i = 0; i < n; i++)
                {
                    if (VideoSizeAbbr.Video_size_abbrs[i].Abbr == str)
                    {
                        width = VideoSizeAbbr.Video_size_abbrs[i].Width;
                        height = VideoSizeAbbr.Video_size_abbrs[i].Height;
                        break;
                    }
                }

                if (i == n)
                {
                    string[] size = str.Split('x');
                    int.TryParse(size[0], out width);
                    int.TryParse(size[1], out height);
                }

                if (width <= 0 || height <= 0)
                {
                    return ffmpeg.AVERROR(ffmpeg.EINVAL);
                }

                *width_ptr = width;
                *height_ptr = height;
                return 0;
            }
        }

    }
}

이번 포팅 예제는 이미 지난 글들에서 모두 다뤘기 때문에 그래도 눈에 잘 들어옵니다. ^^

av_image_alloc으로 AVPixelFormat과 width, height에 따른 1개 프레임만큼의 메모리를 할당할 수 있습니다. 해당 영역에 fill_yuv_image를 이용해, YUV420P 포맷의 색을 채워 넣고 다시 sws_scale로 RGB24 포맷의 프레임으로 변환합니다.

그런 다음, 해당 RGB 데이터 이미지를 하나의 파일에 연속으로 쓰고 마지막에 어떻게 ffplay로 볼 수 있는지 방법을 알려줍니다. 가령, 352x288 크기의 이미지였다면 다음과 같이 재생할 수 있습니다.

c:\temp> ffplay -f rawvideo -pix_fmt rgb24 -video_size 352x288 c:\temp\output\test.mp4

scaling_video_1.png

마지막으로 아래의 예제에서는 YUV420P 포맷을 AV_PIX_FMT_GRAY8 포맷으로 변환했었습니다.

C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 디코딩 예제(decode_video.c) - 두 번째 이야기
; https://www.sysnet.pe.kr/2/0/12959#gray8

(첨부 파일은 이 글의 예제 코드를 포함합니다.)
(이 글의 소스 코드는 github에 올려져 있습니다.)




[이 글에 대해서 여러분들과 의견을 공유하고 싶습니다. 틀리거나 미흡한 부분 또는 의문 사항이 있으시면 언제든 댓글 남겨주십시오.]

[연관 글]






[최초 등록일: ]
[최종 수정일: 3/13/2022]

Creative Commons License
이 저작물은 크리에이티브 커먼즈 코리아 저작자표시-비영리-변경금지 2.0 대한민국 라이센스에 따라 이용하실 수 있습니다.
by SeongTae Jeong, mailto:techsharer at outlook.com

비밀번호

댓글 작성자
 



2022-02-10 07시06분
[후드] 정성태님 ffmpwg 관련글 읽고있습니다.. 혹시 Ffmpeg h264 기반 영상 저장 하는 기능을 만들고 잇는데...비디오랑 오디오 머지하는 기능도 블로그에서 다뤄주심 안될가용 ..??
[guest]
2022-02-10 08시28분
다루긴 할 건데요, ^^; 사실 저도 ffmpeg를 조금씩 공부하면서 하는 거라 언제 다룰 지는 장담할 수 없습니다. 어쩌면 후드님이 기다리지 못하고 구현하는 쪽이 더 확률이 높을 것입니다. (그러니까, 저도 ffmpeg에 관해서는 완전 초보입니다. ^^)
정성태
2022-02-11 09시58분
[guest] 답변 감사합니다. 저도 ffmpeg 초보라서 ㅋㅋㅋㅋㅋ 정성태님이 ffmpeg만 올려주신 블로그 내용만 추려서 보고 있어요ㅋㅋㅋㅋㅋ 그래서 영상은 OpencvSharp4에 4.5버전 기반으로 vedio writer로 프레임 끊김없이 저장은되는데
소리가 안나더군요 ㅋㅋㅋㅋㅋ그래서 다시 로우레벨인 ffmpeg 기반으로 내려와서 시도중인데.... 이건 뭐 영상만 저장하는것도 쉽지가 않더군요.. 영상 저장해도 프레임 싱크가 안맞아서 그런지 저장된 영상 플레이 해보면 느릿느릿하게 슬로우 모션처럼 프레임이 흘러가거나 아이에 동영상 플레이가 될수 있는 조건이 안맞거나 프레임이 바로 끝나버리거나 하는데.. 이건 어떻해 해야할지도 막막하더군요 ㅠㅠ 다행이 다뤄주신다니 저야 감사할다름이죠ㅠㅠ 아 그리고 OpencvSharp4 mp4 즉 h264 기반으로 영상만? 저장 하실일이계신다면 시스코 오픈소스에서 제공해주는 openh264-2.2.0-win64.dll 이용하는데 OpenCvSharp.dll 같은 위치에 있으면 됩니다 openh264-2.2.0-win64.dll 다운로드는 https://github.com/cisco/openh264/releases 여기서 받음 되요.
정성태님과 같이 ffmpeg를 다루는거같아 기분이 좋군요 ㅎㅎ
[guest]
2022-02-11 10시16분
^^ openh264 정보 감사합니다. ffmpeg 공부하면서 때가 되면 한번 사용해봐야겠군요. 그나저나 요즘 벌려놓은 일이 많아서, 원래는 ffmpeg 예제도 하루 한 번씩 포팅해서 완료를 하려고 했는데, 그것마저도 못 하고 있습니다. ^^;

(오그라드는 멘트는 답변 편집으로 제거했습니다.)
정성태
2022-02-14 11시10분
[이승준] 비디오/오디오 먹싱은 데이터가 선형으로 입력만 잘 들어온다면 비디오, 오디오, 비디오, 오디오,...
형태로 저장만 해도 되기는 합니다. 다만 싱크까지 고려한다면 좀 복잡한 부분이 필요합니다.
pts 에 대해서 알아야 하고 또 관련 api들의 사용법도 알아야 합니다.
이건 샘플소스를 분석해서는 답이 안나오고 ffmpeg.c 파일을 분석해야 하는데.
이게 크기도 하고 좀 많이 복잡합니다.

그리고 openh264는 ffmpeg 빌드할때 추가 가능합니다. 다만 그냥 써도 된다는거 외에는 굳이?
정도의 성능과 화질을 보여줍니다.
[guest]
2022-02-14 12시53분
@후드 님, 제가 쓴 글에 혹시 이승준 님 답변이 달리면 그걸 꼭 읽어보는 것이 더 도움이 될 것입니다. ^^
정성태
2022-02-14 02시19분
[후드] 정성태님,이승준님 감사합니다 ^^ ffmpeg 하면서 api 도 방대해서 분석 하기도 힘들고, 빌드환경 구축도 쉽지 않은데,,, 두분께서 팔벗고 애써주시니 저야 너무 영광스럽군요^^
[guest]

1  2  3  4  5  6  7  8  9  10  11  [12]  13  14  15  ...
NoWriterDateCnt.TitleFile(s)
13322정성태4/15/20234936VS.NET IDE: 182. Visual Studio - 32비트로만 빌드된 ActiveX와 작업해야 한다면?
13321정성태4/14/20233735개발 환경 구성: 676. WSL/Linux Octave - Python 스크립트 연동
13320정성태4/13/20233740개발 환경 구성: 675. Windows Octave 8.1.0 - Python 스크립트 연동
13319정성태4/12/20234181개발 환경 구성: 674. WSL 2 환경에서 GNU Octave 설치
13318정성태4/11/20233989개발 환경 구성: 673. JetBrains IDE에서 "Squash Commits..." 메뉴가 비활성화된 경우
13317정성태4/11/20234146오류 유형: 855. WSL 2 Ubuntu 20.04 - error: cannot communicate with server: Post http://localhost/v2/snaps/...
13316정성태4/10/20233473오류 유형: 854. docker-compose 시 "json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0)" 오류 발생
13315정성태4/10/20233667Windows: 245. Win32 - 시간 만료를 갖는 컨텍스트 메뉴와 윈도우 메시지의 영역별 정의파일 다운로드1
13314정성태4/9/20233743개발 환경 구성: 672. DosBox를 이용한 Turbo C, Windows 3.1 설치
13313정성태4/9/20233835개발 환경 구성: 671. Hyper-V VM에 Turbo C 2.0 설치 [2]
13312정성태4/8/20233822Windows: 244. Win32 - 시간 만료를 갖는 MessageBox 대화창 구현 (개선된 버전)파일 다운로드1
13311정성태4/7/20234317C/C++: 163. Visual Studio 2022 - DirectShow 예제 컴파일(WAV Dest)
13310정성태4/6/20233879C/C++: 162. Visual Studio - /NODEFAULTLIB 옵션 설정 후 수동으로 추가해야 할 library
13309정성태4/5/20234034.NET Framework: 2107. .NET 6+ FileStream의 구조 변화
13308정성태4/4/20233924스크립트: 47. 파이썬의 time.time() 실숫값을 GoLang / C#에서 사용하는 방법
13307정성태4/4/20233720.NET Framework: 2106. C# - .NET Core/5+ 환경의 Windows Forms 응용 프로그램에서 HINSTANCE 구하는 방법
13306정성태4/3/20233568Windows: 243. Win32 - 윈도우(cbWndExtra) 및 윈도우 클래스(cbClsExtra) 저장소 사용 방법
13305정성태4/1/20233907Windows: 242. Win32 - 시간 만료를 갖는 MessageBox 대화창 구현 (쉬운 버전)파일 다운로드1
13304정성태3/31/20234263VS.NET IDE: 181. Visual Studio - C/C++ 프로젝트에 application manifest 적용하는 방법
13303정성태3/30/20233564Windows: 241. 환경 변수 %PATH%에 DLL을 찾는 규칙
13302정성태3/30/20234181Windows: 240. RDP 환경에서 바뀌는 %TEMP% 디렉터리 경로
13301정성태3/29/20234319Windows: 239. C/C++ - Windows 10 Version 1607부터 지원하는 /DEPENDENTLOADFLAG 옵션파일 다운로드1
13300정성태3/28/20233950Windows: 238. Win32 - Modal UI 창에 올바른 Owner(HWND)를 설정해야 하는 이유
13299정성태3/27/20233736Windows: 237. Win32 - 모든 메시지 루프를 탈출하는 WM_QUIT 메시지
13298정성태3/27/20233675Windows: 236. Win32 - MessageBeep 소리가 안 들린다면?
13297정성태3/26/20234350Windows: 235. Win32 - Code Modal과 UI Modal
1  2  3  4  5  6  7  8  9  10  11  [12]  13  14  15  ...