Нашёл
хорошую статью, в которой наглядно проясняется интересный вопрос.
Многие путаются во всех этих битах на пиксель и 16-битных файлах. И есть от чего.
Динамический диапазон линейного аналогово-цифрового конвертера камеры тоже измеряется в битах, причём в линейных конвертерах* предполагается, что каждое следующее значение по яркости вдвое больше предыдущего. Стало быть 8-битный конвертер распознаёт 8 ступеней яркости. А 14-битный - 14 ступеней.
Это не имеет никакого отношения к 8- и 16-битным TIFF, где битность - всего лишь толщина ломтей, на которые мы нарезаем одну и ту же колбасу, размер которой задаётся другим способом.
Также если даже слон и способен съесть в день 200 кг трюфелей, то кто-ж ему даст. Четырнадцатибитный линейный A/D-конвертер теоретически способен распознать 14 ступеней яркости. Но на деле то, что ему поставляет сенсор, с учётом шумов дай бог укладывается в 8-10 ступеней.