Microsoft MVP성태의 닷넷 이야기
글쓴 사람
정성태 (techsharer at outlook.com)
홈페이지
첨부 파일
(연관된 글이 1개 있습니다.)
(시리즈 글이 24개 있습니다.)
.NET Framework: 1129. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 인코딩 예제(encode_video.c)
; https://www.sysnet.pe.kr/2/0/12898

.NET Framework: 1134. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 디코딩 예제(decode_video.c)
; https://www.sysnet.pe.kr/2/0/12924

.NET Framework: 1135. C# - ffmpeg(FFmpeg.AutoGen)로 하드웨어 가속기를 이용한 비디오 디코딩 예제(hw_decode.c)
; https://www.sysnet.pe.kr/2/0/12932

.NET Framework: 1136. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 MP2 오디오 파일 디코딩 예제(decode_audio.c)
; https://www.sysnet.pe.kr/2/0/12933

.NET Framework: 1137. ffmpeg의 파일 해시 예제(ffhash.c)를 C#으로 포팅
; https://www.sysnet.pe.kr/2/0/12935

.NET Framework: 1138. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 멀티미디어 파일의 메타데이터를 보여주는 예제(metadata.c)
; https://www.sysnet.pe.kr/2/0/12936

.NET Framework: 1139. C# - ffmpeg(FFmpeg.AutoGen)를 이용해 오디오(mp2) 인코딩하는 예제(encode_audio.c)
; https://www.sysnet.pe.kr/2/0/12937

.NET Framework: 1147. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 오디오 필터링 예제(filtering_audio.c)
; https://www.sysnet.pe.kr/2/0/12951

.NET Framework: 1148. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 오디오 필터 예제(filter_audio.c)
; https://www.sysnet.pe.kr/2/0/12952

.NET Framework: 1150. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 디코딩 예제(decode_video.c) - 두 번째 이야기
; https://www.sysnet.pe.kr/2/0/12959

개발 환경 구성: 637. ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 디코딩 예제(decode_video.c) - 세 번째 이야기
; https://www.sysnet.pe.kr/2/0/12960

.NET Framework: 1151. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 비디오 프레임의 크기 및 포맷 변경 예제(scaling_video.c)
; https://www.sysnet.pe.kr/2/0/12961

.NET Framework: 1153. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 avio_reading.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12964

.NET Framework: 1157. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 muxing.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12971

.NET Framework: 1159. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 qsvdec.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12975

.NET Framework: 1161. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 resampling_audio.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12978

.NET Framework: 1166. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 filtering_video.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12984

.NET Framework: 1169. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 demuxing_decoding.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12987

.NET Framework: 1170. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 transcode_aac.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/12991

.NET Framework: 1178. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 http_multiclient.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/13002

.NET Framework: 1180. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 remuxing.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/13006

.NET Framework: 1188. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 transcoding.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/13023

.NET Framework: 1190. C# - ffmpeg(FFmpeg.AutoGen)를 이용한 vaapi_encode.c, vaapi_transcode.c 예제 포팅
; https://www.sysnet.pe.kr/2/0/13025

.NET Framework: 1191. C 언어로 작성된 FFmpeg Examples의 C# 포팅 전체 소스 코드
; https://www.sysnet.pe.kr/2/0/13026




C# - ffmpeg(FFmpeg.AutoGen)를 이용한 오디오 필터링 예제(filtering_audio.c)

지난 예제에 이어,

C# - ffmpeg(FFmpeg.AutoGen)를 이용해 오디오(mp2) 인코딩하는 예제(encode_audio.c)
; https://www.sysnet.pe.kr/2/0/12937

이번에는 ffmpeg 예제 중 "filtering_audio.c" 파일을 FFmpeg.AutoGen으로 포팅하겠습니다.

using FFmpeg.AutoGen;
using FFmpeg.AutoGen.Example;
using System;

namespace FFmpegApp1
{
    internal unsafe class Program
    {
        [Flags]
        public enum AV_BUFFERSRC_FLAG
        {
            NO_CHECK_FORMAT = 1,
            FLAG_PUSH = 4,
            FLAG_KEEP_REF = 8,
        }

        static void Main(string[] args)
        {
            FFmpegBinariesHelper.RegisterFFmpegBinaries();

#if DEBUG
            Console.WriteLine("Current directory: " + Environment.CurrentDirectory);
            Console.WriteLine("Running in {0}-bit mode.", Environment.Is64BitProcess ? "64" : "32");
            Console.WriteLine($"FFmpeg version info: {ffmpeg.av_version_info()}");
#endif
            Console.WriteLine();

            AVFormatContext* fmt_ctx = null;
            AVCodecContext* dec_ctx = null;
            int audio_stream_index = -1;
            AVFilterGraph* filter_graph = null;
            string filter_descr = "aresample=8000,aformat=sample_fmts=s16:channel_layouts=mono";
            AVFilterContext* buffersrc_ctx = null;
            AVFilterContext* buffersink_ctx = null;

            int ret;
            AVPacket* packet = ffmpeg.av_packet_alloc();
            AVFrame* frame = ffmpeg.av_frame_alloc();
            AVFrame* filter_frame = ffmpeg.av_frame_alloc();

            if (packet == null || frame == null || filter_frame == null)
            {
                Console.WriteLine("Could not allocate frame or packet");
                return;
            }

            string filePath = @"D:\media_sample\test.m4a";

            do
            {
                if ((ret = open_input_file(filePath, &fmt_ctx, out audio_stream_index, &dec_ctx)) < 0)
                {
                    Console.WriteLine("Could not allocate frame or packet");
                    break;
                }

                if ((ret = init_filters(filter_descr, fmt_ctx, audio_stream_index, &filter_graph, dec_ctx, &buffersrc_ctx, &buffersink_ctx)) < 0)
                {
                    break;
                }

                while (true)
                {
                    if ((ret = ffmpeg.av_read_frame(fmt_ctx, packet)) < 0)
                    {
                        break;
                    }

                    if (packet->stream_index == audio_stream_index)
                    {
                        ret = ffmpeg.avcodec_send_packet(dec_ctx, packet);
                        if (ret < 0)
                        {
                            ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Error while sending a packet to the decoder\n");
                            break;
                        }

                        while (ret >= 0)
                        {
                            ret = ffmpeg.avcodec_receive_frame(dec_ctx, frame);
                            if (ret == ffmpeg.AVERROR(ffmpeg.EAGAIN) || ret == ffmpeg.AVERROR_EOF)
                            {
                                break;
                            }
                            else if (ret < 0)
                            {
                                ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Error while receiving a frame from the decoder\n");
                                goto End_Of_Process;
                            }

                            if (ret >= 0)
                            {
                                if (ffmpeg.av_buffersrc_add_frame_flags(buffersrc_ctx, frame, (int)AV_BUFFERSRC_FLAG.FLAG_KEEP_REF) < 0)
                                {
                                    ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Error while feeding the audio filtergraph\n");
                                    break;
                                }

                                while (true)
                                {
                                    ret = ffmpeg.av_buffersink_get_frame(buffersink_ctx, filter_frame);
                                    if (ret == ffmpeg.AVERROR(ffmpeg.EAGAIN) || ret == ffmpeg.AVERROR_EOF)
                                    {
                                        break;
                                    }

                                    if (ret < 0)
                                    {
                                        goto End_Of_Process;
                                    }

                                    print_frame(filter_frame);
                                    ffmpeg.av_frame_unref(filter_frame);
                                }

                                ffmpeg.av_frame_unref(frame);
                            }
                        }
                    }

                    ffmpeg.av_packet_unref(packet);
                }

            } while (false);

        End_Of_Process:

            if (filter_graph != null)
            {
                ffmpeg.avfilter_graph_free(&filter_graph);
            }

            if (dec_ctx != null)
            {
                ffmpeg.avcodec_free_context(&dec_ctx);
            }

            if (fmt_ctx != null)
            {
                ffmpeg.avformat_close_input(&fmt_ctx);
            }

            if (packet != null)
            {
                ffmpeg.av_packet_free(&packet);
            }

            if (frame != null)
            {
                ffmpeg.av_frame_free(&frame);
            }

            if (filter_frame != null)
            {
                ffmpeg.av_frame_free(&filter_frame);
            }
        }

        private static unsafe void print_frame(AVFrame* frame)
        {
            int n = frame->nb_samples * ffmpeg.av_get_channel_layout_nb_channels(frame->channel_layout);
            ushort* p = (ushort*)frame->data[0];
            ushort* p_end = p + n;

            while (p < p_end)
            {
                Console.Write(*p & 0xFF);
                Console.Write((*p >> 8) & 0xFF);
                p++;
            }
        }

        private static unsafe int init_filters(string filters_descr, AVFormatContext* fmt_ctx, int audio_stream_index
            , AVFilterGraph** filter_graph, AVCodecContext* dec_ctx, AVFilterContext** buffersrc_ctx, AVFilterContext** buffersink_ctx)
        {
            string args = null;
            int ret = 0;
            AVFilter* aBufferSrc = ffmpeg.avfilter_get_by_name("abuffer");
            AVFilter* aBufferSink = ffmpeg.avfilter_get_by_name("abuffersink");
            AVFilterInOut* outputs = ffmpeg.avfilter_inout_alloc();
            AVFilterInOut* inputs = ffmpeg.avfilter_inout_alloc();

            AVSampleFormat[] out_sample_fmts = new AVSampleFormat[] { AVSampleFormat.AV_SAMPLE_FMT_S16, AVSampleFormat.AV_SAMPLE_FMT_NONE };
            long[] out_channel_layouts = { ffmpeg.AV_CH_LAYOUT_MONO, -1 };
            int[] out_sample_rates = { 8000, -1 };
            AVFilterLink* outlink = null;
            AVRational time_base = fmt_ctx->streams[audio_stream_index]->time_base;

            do
            {
                *filter_graph = ffmpeg.avfilter_graph_alloc();
                if (outputs == null || inputs == null || *filter_graph == null)
                {
                    ret = ffmpeg.AVERROR(ffmpeg.ENOMEM);
                    break;
                }

                if (dec_ctx->channel_layout == 0)
                {
                    dec_ctx->channel_layout = (ulong)ffmpeg.av_get_default_channel_layout(dec_ctx->channels);
                }

                args = $"time_base={time_base.num}/{time_base.den}:sample_rate={dec_ctx->sample_rate}:sample_fmt={ffmpeg.av_get_sample_fmt_name(dec_ctx->sample_fmt)}:channel_layout=0x{dec_ctx->channel_layout.ToString("x")}";
                ret = ffmpeg.avfilter_graph_create_filter(buffersrc_ctx, aBufferSrc, "in", args, null, *filter_graph);
                if (ret < 0)
                {
                    ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Cannot create audio buffer source\n");
                    break;
                }

                ret = ffmpeg.avfilter_graph_create_filter(buffersink_ctx, aBufferSink, "out", null, null, *filter_graph);
                if (ret < 0)
                {
                    ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Cannot create audio buffer sink\n");
                    break;
                }

                ret = av_opt_set_int_list(*buffersink_ctx, "sample_fmts", out_sample_fmts, -1, ffmpeg.AV_OPT_SEARCH_CHILDREN);
                if (ret < 0)
                {
                    ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Cannot set output sample format\n");
                    break;
                }

                ret = av_opt_set_int_list(*buffersink_ctx, "channel_layouts", out_channel_layouts, -1, ffmpeg.AV_OPT_SEARCH_CHILDREN);
                if (ret < 0)
                {
                    ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Cannot set output channel layout\n");
                    break;
                }

                ret = av_opt_set_int_list(*buffersink_ctx, "sample_rates", out_sample_rates, -1, ffmpeg.AV_OPT_SEARCH_CHILDREN);
                if (ret < 0)
                {
                    ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Cannot set output sample rate\n");
                    break;
                }

                outputs->name = ffmpeg.av_strdup("in");
                outputs->filter_ctx = *buffersrc_ctx;
                outputs->pad_idx = 0;
                outputs->next = null;

                inputs->name = ffmpeg.av_strdup("out");
                inputs->filter_ctx = *buffersink_ctx;
                inputs->pad_idx = 0;
                inputs->next = null;

                if ((ret = ffmpeg.avfilter_graph_parse_ptr(*filter_graph, filters_descr, &inputs, &outputs, null)) < 0)
                {
                    break;
                }

                if ((ret = ffmpeg.avfilter_graph_config(*filter_graph, null)) < 0)
                {
                    break;
                }

                outlink = (*buffersink_ctx)->inputs[0];

#pragma warning disable CA2014 // Do not use stackalloc in loops
                byte* buffer = stackalloc byte[512];
#pragma warning restore CA2014 // Do not use stackalloc in loops
                ffmpeg.av_get_channel_layout_string(buffer, 512, -1, outlink->channel_layout);
                string channel_layout_string = new string((sbyte*)buffer, 0, getStringSize(buffer, 512), System.Text.Encoding.ASCII);
                ffmpeg.av_log(null, ffmpeg.AV_LOG_INFO, $"Output: srate: {outlink->sample_rate}Hz fmt: {ffmpeg.av_get_sample_fmt_name((AVSampleFormat)outlink->format) ?? "?"} chlayout: {channel_layout_string}");

            } while (false);

            if (inputs != null)
            {
                ffmpeg.avfilter_inout_free(&inputs);
            }

            if (outputs != null)
            {
                ffmpeg.avfilter_inout_free(&outputs);
            }

            return ret;
        }

        private static int getStringSize(byte* buffer, int length)
        {
            for (int i = 0; i < length; i++)
            {
                if (buffer[i] == 0)
                {
                    return i;
                }
            }

            return 0;
        }

        private unsafe static int av_opt_set_int_list(AVFilterContext* obj, string name, long[] val, int term, int flags)
        {
            fixed (void* ptr = &val[0])
            {
                return av_opt_set_int_list(obj, 8, name, ptr, term, flags);
            }
        }

        private unsafe static int av_opt_set_int_list(AVFilterContext* obj, string name, int[] val, int term, int flags)
        {
            fixed (void* ptr = &val[0])
            {
                return av_opt_set_int_list(obj, 4, name, ptr, term, flags);
            }
        }

        private unsafe static int av_opt_set_int_list(AVFilterContext* obj, string name, AVSampleFormat[] val, int term, int flags)
        {
            fixed (void* ptr = &val[0])
            {
                return av_opt_set_int_list(obj, 4, name, ptr, term, flags);
            }
        }

        private unsafe static int av_opt_set_int_list(AVFilterContext* obj, uint elementSize, string name, void* ptr, int term, int flags)
        {
            uint size = ffmpeg.av_int_list_length_for_size(elementSize, ptr, (ulong)term);
            if (size > (int.MaxValue / elementSize))
            {
                return ffmpeg.AVERROR(ffmpeg.EINVAL);
            }
            else
            {
                return ffmpeg.av_opt_set_bin(obj, name, (byte*)ptr, (int)(size * elementSize), flags);
            }
        }

        private unsafe static int open_input_file(string filePath, AVFormatContext** fmt_ctx, out int audio_stream_index
            , AVCodecContext** dec_ctx)
        {
            AVCodec* decoder = null;
            int ret;

            audio_stream_index = -1;

            if ((ret = ffmpeg.avformat_open_input(fmt_ctx, filePath, null, null)) < 0)
            {
                ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Cannot open input file\n");
                return ret;
            }

            if ((ret = ffmpeg.avformat_find_stream_info(*fmt_ctx, null)) < 0)
            {
                ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Cannot find stream information\n");
                return ret;
            }

            ret = ffmpeg.av_find_best_stream(*fmt_ctx, AVMediaType.AVMEDIA_TYPE_AUDIO, -1, -1, &decoder, 0);
            if (ret < 0)
            {
                ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Cannot find an audio stream in the input file");
                return ret;
            }

            audio_stream_index = ret;

            *dec_ctx = ffmpeg.avcodec_alloc_context3(decoder);
            if (*dec_ctx == null)
            {
                return ffmpeg.AVERROR(ffmpeg.ENOMEM);
            }

            ffmpeg.avcodec_parameters_to_context(*dec_ctx, (*fmt_ctx)->streams[audio_stream_index]->codecpar);

            if ((ret = ffmpeg.avcodec_open2(*dec_ctx, decoder, null)) < 0)
            {
                ffmpeg.av_log(null, ffmpeg.AV_LOG_ERROR, "Cannot open audio decoder");
                return ret;
            }

            return 0;
        }
    }
}

위의 코드를 실행하면, print_frame의 영향으로 화면에는 ushort 숫자가 잔뜩 출력됩니다.

Output: srate: 8000Hz fmt: s16 chlayout: mono
0000000000...[생략]...000000000000000000


filter_graph라는 단어가 Direct Show에서만 쓰는 것이 아니군요. ^^

Direct Show를 사용하는 다른 프로그램의 필터 그래프를 graphedt.exe에서 확인하는 방법
; https://www.sysnet.pe.kr/2/0/1652

그러니까, Direct Show에서 PIN을 연결하듯이 필터를 구성했던 방식과 유사한 듯합니다.

(첨부 파일은 이 글의 예제 코드를 포함합니다.)
(이 글의 소스 코드는 github에 올려져 있습니다.)




filtering_video.c를 보면, AVCodec을 더 편하게 얻는 방법이 나옵니다. 지난 글에서는,

C# - ffmpeg(FFmpeg.AutoGen) AVFormatContext를 이용해 ffprobe처럼 정보 출력
; https://www.sysnet.pe.kr/2/0/12948

av_find_best_stream을 스트림 타입에 해당하는 최적의 index 값을 반환받아,

int videoIndex = -1;
int audioIndex = -1;

{
    videoIndex = ffmpeg.av_find_best_stream(av_context, AVMediaType.AVMEDIA_TYPE_VIDEO, -1, -1, null, 0);
    audioIndex = ffmpeg.av_find_best_stream(av_context, AVMediaType.AVMEDIA_TYPE_AUDIO, -1, -1 /* 또는 videoIndex */, null, 0);

    ffmpeg.av_dump_format(av_context, videoIndex, filePath, 0);
}

그다음 이에 대한 코덱을 열려고 다음과 같이 streams를 열거하면서 했는데요,

for (int i = 0; i < av_context->nb_streams; i++)
{
    if (videoIndex == i)
    {
        AVStream* stream = av_context->streams[i];
        AVCodecParameters* codecpar = stream->codecpar;

        AVCodec* decoder = ffmpeg.avcodec_find_decoder(codecpar->codec_id);
    }
}

open_input_file을 보면, 그럴 필요 없이 그냥 바로 av_find_best_stream에서 코덱 인스턴스를 받고 있습니다.

AVCodec* decoder = null;
ret = ffmpeg.av_find_best_stream(fmt_ctx, AVMediaType.AVMEDIA_TYPE_AUDIO, -1, -1, &decoder, 0);




[이 글에 대해서 여러분들과 의견을 공유하고 싶습니다. 틀리거나 미흡한 부분 또는 의문 사항이 있으시면 언제든 댓글 남겨주십시오.]

[연관 글]






[최초 등록일: ]
[최종 수정일: 3/13/2022]

Creative Commons License
이 저작물은 크리에이티브 커먼즈 코리아 저작자표시-비영리-변경금지 2.0 대한민국 라이센스에 따라 이용하실 수 있습니다.
by SeongTae Jeong, mailto:techsharer at outlook.com

비밀번호

댓글 작성자
 




... 136  137  138  139  140  141  142  143  144  145  146  147  148  149  [150]  ...
NoWriterDateCnt.TitleFile(s)
1303정성태6/26/201227397개발 환경 구성: 152. sysnet DB를 SQL Azure 데이터베이스로 마이그레이션
1302정성태6/25/201229398개발 환경 구성: 151. Azure 웹 사이트에 사용자 도메인 네임 연결하는 방법
1301정성태6/20/201225763오류 유형: 156. KB2667402 윈도우 업데이트 실패 및 마이크로소프트 Answers 웹 사이트 대응
1300정성태6/20/201231765.NET Framework: 329. C# - Rabin-Miller 소수 생성방법을 이용하여 RSACryptoServiceProvider의 개인키를 직접 채워보자 [1]파일 다운로드2
1299정성태6/18/201232879제니퍼 .NET: 21. 제니퍼 닷넷 - Ninject DI 프레임워크의 성능 분석 [2]파일 다운로드2
1298정성태6/14/201234403VS.NET IDE: 72. Visual Studio에서 pfx 파일로 서명한 경우, 암호는 어디에 저장될까? [2]
1297정성태6/12/201231047VC++: 63. 다른 프로세스에 환경 변수 설정하는 방법파일 다운로드1
1296정성태6/5/201227672.NET Framework: 328. 해당 DLL이 Managed인지 / Unmanaged인지 확인하는 방법 - 두 번째 이야기 [4]파일 다운로드1
1295정성태6/5/201225077.NET Framework: 327. RSAParameters와 System.Numerics.BigInteger 이야기파일 다운로드1
1294정성태5/27/201248522.NET Framework: 326. 유니코드와 한글 - 유니코드와 닷넷을 이용한 한글 처리 [7]파일 다운로드2
1293정성태5/24/201229772.NET Framework: 325. System.Drawing.Bitmap 데이터를 Parallel.For로 처리하는 방법 [2]파일 다운로드1
1292정성태5/24/201223752.NET Framework: 324. First-chance exception에 대해 조건에 따라 디버거가 멈추게 할 수는 없을까? [1]파일 다운로드1
1291정성태5/23/201230274VC++: 62. 배열 초기화를 위한 기계어 코드 확인 [2]
1290정성태5/18/201235078.NET Framework: 323. 관리자 권한이 필요한 작업을 COM+에 대행 [7]파일 다운로드1
1289정성태5/17/201239237.NET Framework: 322. regsvcs.exe로 어셈블리 등록 시 시스템 변경 사항 [5]파일 다운로드2
1288정성태5/17/201226461.NET Framework: 321. regasm.exe로 어셈블리 등록 시 시스템 변경 사항 (3) - Type Library파일 다운로드1
1287정성태5/17/201229295.NET Framework: 320. regasm.exe로 어셈블리 등록 시 시스템 변경 사항 (2) - .NET 4.0 + .NET 2.0 [2]
1286정성태5/17/201238217.NET Framework: 319. regasm.exe로 어셈블리 등록 시 시스템 변경 사항 (1) - .NET 2.0 + x86/x64/AnyCPU [5]
1285정성태5/16/201233264.NET Framework: 318. gacutil.exe로 어셈블리 등록 시 시스템 변경 사항파일 다운로드1
1284정성태5/15/201225690오류 유형: 155. Windows Phone 연결 상태에서 DRIVER POWER STATE FAILURE 블루 스크린 뜨는 현상
1283정성태5/12/201233306.NET Framework: 317. C# 관점에서의 Observer 패턴 구현 [1]파일 다운로드1
1282정성태5/12/201226105Phone: 6. Windows Phone 7 Silverlight에서 Google Map 사용하는 방법 [3]파일 다운로드1
1281정성태5/9/201233187.NET Framework: 316. WPF/Silverlight의 그래픽 단위와 Anti-aliasing 처리를 이해하자 [1]파일 다운로드1
1280정성태5/9/201226153오류 유형: 154. Could not load type 'System.ServiceModel.Activation.HttpModule' from assembly 'System.ServiceModel, ...'.
1279정성태5/9/201224916.NET Framework: 315. 해당 DLL이 Managed인지 / Unmanaged인지 확인하는 방법 [1]파일 다운로드1
1278정성태5/8/201226145오류 유형: 153. Visual Studio 디버깅 - Unable to break execution. This process is not currently executing the type of code that you selected to debug.
... 136  137  138  139  140  141  142  143  144  145  146  147  148  149  [150]  ...