C# - DateTime.Ticks의 정밀도
(이 글은 .NET Framework 환경에서 유효합니다. .NET Core 버전인 경우는 C# - .NET Core에서 바뀐 DateTime.Ticks의 정밀도 글을 참고하세요.)
지난 글에서,
윈도우 운영체제의 시간 함수 (1) - GetTickCount와 timeGetTime의 차이점
; https://www.sysnet.pe.kr/2/0/11063
윈도우 운영체제의 시간 함수 (2) - Sleep 함수의 동작 방식
; https://www.sysnet.pe.kr/2/0/11065
윈도우 운영체제의 시간 함수 (3) - QueryInterruptTimePrecise, QueryInterruptTime 함수
; https://www.sysnet.pe.kr/2/0/11066
윈도우 운영체제의 시간 함수 (4) - RTC, TSC, PM Clock, HPET Timer
; https://www.sysnet.pe.kr/2/0/11067
윈도우 운영체제의 시간 함수 (5) - TSC(Time Stamp Counter)와 QueryPerformanceCounter
; https://www.sysnet.pe.kr/2/0/11068
운영체제 수준에서 제공되는 시간 정밀도를 살펴봤는데요. 그럼, C#의 경우에는 어떻게 될까요? 오늘은 그 첫 번째로
DateTime.Ticks를 살펴보겠습니다.
간단하게 소스 코드를 보면, 답이 나오는데요.
// .NET Framework
[MethodImpl(MethodImplOptions.InternalCall)]
internal static extern long GetSystemTimeAsFileTime();
public static DateTime UtcNow
{
get
{
return new DateTime((ulong) ((GetSystemTimeAsFileTime() + 0x701ce1722770000L) | 0x4000000000000000L));
}
}
다름 아닌 GetSystemTimeAsFileTime의 정밀도를 기반으로 만들어졌습니다. 이는
"Current timer interval"의 변화에 따라 정밀도가 변화한다는 것을 의미합니다. 즉, timeBeginPeriod/timeEndPeriod가 호출되지 않은 일반적인 윈도우 시스템의 15.625ms 기본 상태에서는 DateTime.Ticks 속성도 15.625ms 단위마다 시간이 바뀌게 된다는 것을 의미합니다.
실제로 다음과 같이 테스트해볼 수 있습니다.
// .NET Framework
using System;
class Program
{
static void Main(string[] args)
{
int count = 100000;
long[] tickBuf = new long[count];
for (int i = 0; i < count; i++)
{
tickBuf[i] = DateTime.Now.Ticks;
}
long oldTime = tickBuf[0];
long elapsed;
for (int i = 1; i < count; i++)
{
elapsed = tickBuf[i] - oldTime;
oldTime = tickBuf[i];
if (elapsed != 0)
{
Console.WriteLine(elapsed);
}
}
}
}
/*
출력 결과:
156292
*/
위에서 100,000번의 루프를 도는 동안 DateTime.Now.Ticks로 계속 시간을 재보지만 15.625ms의 타이머 간격을 가진 윈도우에서는 tickBuf 배열에 동일한 값만을 가지다가 어쩌다 시간이 바뀔 때가 되면 15.625에 가까운 시간 값이 출력됩니다.
위의 출력 결과에 보면 156,292값이 나오는데,
DateTime.Ticks의 1은 100ns이므로 10,000으로 나누어 15.6292ms 값이 나옵니다. (대충 값이 비슷합니다.)
물론, timeBeginPeriod / timeEndPeriod로 clockres를 조절하면 다음과 같이 1ms 수준으로 정밀도를 낮출 수 있습니다.
// .NET Framework
using System;
using System.Runtime.InteropServices;
class Program
{
[DllImport("winmm.dll", EntryPoint = "timeBeginPeriod")]
public static extern uint timeBeginPeriod(uint uMilliseconds);
[DllImport("winmm.dll", EntryPoint = "timeEndPeriod")]
public static extern uint timeEndPeriod(uint uMilliseconds);
static void Main(string[] args)
{
timeBeginPeriod(1);
int count = 100000;
long[] tickBuf = new long[count];
for (int i = 0; i < count; i++)
{
tickBuf[i] = DateTime.Now.Ticks;
}
long oldTime = tickBuf[0];
long elapsed;
for (int i = 1; i < count; i++)
{
elapsed = tickBuf[i] - oldTime;
oldTime = tickBuf[i];
if (elapsed != 0)
{
Console.WriteLine(elapsed);
}
}
timeEndPeriod(1);
}
}
/*
출력 결과:
10013
9965
9992
10001
10007
10014
9989
10001
9998
10052
9941
10001
*/
(
첨부 파일은 이 글의 예제 코드를 포함합니다.)
정리하자면!
타이머 간격이 (기본 설정인) 15.625ms인 시스템을 기준으로, DateTime.Ticks로 특정 코드의 실행 성능을 재는 경우 15ms 이내에 수행되면 측정값이 0ms로 결과가 나올 수 있습니다. 또는, 운(?) 좋게 tick이 중간에 실행하는 경우 실제로 코드 수행에 소요된 시간은 2ms인데도 15ms 이상으로 나올 수 있는 부작용도 있습니다.
따라서, DateTime.Ticks로 실행 성능을 측정하고 싶다면 초 단위 수준(또는 적어도 100ms 정도)의 정밀도가 필요한 경우가 좋습니다.
[이 글에 대해서 여러분들과 의견을 공유하고 싶습니다. 틀리거나 미흡한 부분 또는 의문 사항이 있으시면 언제든 댓글 남겨주십시오.]