Сергеич писал(а):
Ковалевич А. писал(а):
Интересно, что минимальный элемент изображения всегда больше одного пикселя. Это связано с оптикой или с алгоритмами пересчёта информации?
Некоторые аналогии с радиотехникой: наука утверждает (теорема Котельникова в упрощенном виде), что предел (максимум) интервала дискретизации - самый короткий сигнал. Это предел, а если чаще - лучше. Сегодня при цифровой обработке сигналы дискретизируют по времени разов в 5-7 чаще, чтобы фронты импульсов оценить можно было, да и разрешение улучшить при частичном наложении имульсов.
В нашем случае размер минимальной дискреты (пикселя) меньше величины, обратной ширине пространственного спектра изображения, т.е. минимального элемента изображения.
Полагаю, поэтому.
Т.е. вы говорите, что минимальный элемент изображения больше пикселя.
Мне показалось, что это из-за матрицы и пересчёта.
Насколько я знаю один элемент матрицы может воспринимать только один цвет и поэтому они расположены на матрице квадратами (красночувствительный, сине-... и 2 зелёных). Потом идет интерполяция сигнала между ними. Так из-за неё и выходит, что матрица реально где-то в два раза меньше разрешает, чем если бы каждый её элемент воспринимал все цвета. Может я не прав? Давно очень прочитал одну статейку. Может устарела инфа из неё и теперь матрицы делают по другому?

Плохой вывод из таких рассуждений получается: даже если объектив разрешает 90 линий/мм картинка не будет отличаться от сделаной объективом с разрешением 50 линий/мм
