Mar 16, 2016 22:34
В дотнетном фреймворке счетчик времени DateTime тикает от полуночи первого января первого года (нулевого года, напомню, в этой реальности не предусмотрено). Т.е. считает нашу эру в 64-битном Int.
Единица измерения - 100 наносекунд, одна десятимиллионная секунды.
Вот нахрена такая точность? Коллеги предположили, что это GPS во всем виноват - но в этой Вселенной электромагнитная волна за 100 наносекунд пролетает 30 метров, как-то многовато.
Или мелкомягкие архитекторы решили, что 64 бита это неисчерпаемо и "гулять так гулять"?
компьютерное,
программирование