НУ так это известный факт, там нет соответствия пиксель к разрешению, уже давно так. есть неплохой ролик одного проХфессора, ещё на Р-е 2 он намерил около 16 мп всего-то.
Реальное разрешение матрицы в четыре раза ниже того, что написано. Это количество "красных" или "синих" пикселей, остальные 3/4 (недостающие) рассчитываются методом интерполяции. Так что соответствия нет изначально. Можно считывать любое количество пикселей с матрицы, подобно тому, как мы можем уменьшить изображение на экране монитора на любую величину.
Реальное разрешение матрицы ровно такое, как написано, а интерполяцией у байеровских матриц восстанавливается только информация о цвете. Нельзя.
К примеру, снимаем облака на закате, где преимущественно красный цвет и его оттенки. Откуда же возьмется такое реальное разрешение, если "красных" пикселей только четверть?
LEO-3D, Я не совсем понимаю, но следуя Вашей логике, если цвета в реалии соотносятся с цветом пикселя, то выходит: - Снимаем синее небо - и фото у нас 10,5Мп - Снимаем пейзаж со всеми цветами радуги - и фото у нас 42Мп Так?
Цвет будет получен интерполяцией с использованием значений из соседних ячеек. Но какое отношение это имеет к разрешению? У байеровских матриц не совсем честный только цвет, разрешение - честнейшее.
Нет, не так. На всех фото разрешение будет одно 42. Но это разрешение не реальное, а частично рассчитанное, т.к. в любом одном пикселе матрицы нет полной информации ни о цвете, ни о яркости. Были видеокамеры с тремя матрицами (по цветам), там количество пикселей каждого цвета было равно разрешению, которое указано в ТХ. Т.е в этом случае мы имеем честные цвет и яркость реальных пикселей, а не рассчитанные.
Пикселей сколько? Именно количество пикселей формирует разрешение. Вы можете с этим не соглашаться, но на байеровской матрице именно столько элементов, сколько указано. Ваш тезис о том, что измерять надо количество пикселей одного цвета, по меньшей мере неоднозначен: вы выше приводили пример со съемкой заката, где разрешение, якобы, снижается до 10.5 мегапикселей. Значит ли это, что если этой же камерой снять зелень, то разрешение внезапно вырастет до 21 мегапикселя?
Реальное разрешение - да, будет 21, по количеству реальных "зеленых" пикселей. Общее разрешение будет всегда 42, т.к. недостающие пиксели будут расчетными.
То есть разрешение матрицы меняется в зависимости от сцены, так? Чудненько. Неа. Во-первых, цветоделение не идеально, во-вторых, чистых цветов в природе не бывает. Цвет байеровской матрицы - расчетный всегда, но разрешение - честное.
Как не прискорбно, но LEO-3D прав, я не стал изначально кидаться терминами как интерполяция, хотя это давно знал. Реально число мегапикселей раньше называли эффективными, Именно это и означало что полное изображение на кадре получается методом интерполяции. И нужно отметить у Сони таки портясающие расчёты. Увеличить картинку, вопреки всеобщему мнению задаче проще чем уменьшить. Однако если говорить о не пропорциональном увеличении, то это тоже задачка очень не простая. Для того там стоят таки мощные процы и картинка выдаётся вам не сразу, особенно при ночной съёмке. В противном случае раву обработка вообще не нужна, записывай как есть по битам на карту, но нет. На самом деле не всё так плохо. Кстати Сони успешно использует подобную практику в проекторах 4к - моделируя изображение из миллионов объектов из памяти, так же поступает и наш мозг, почти никогда не пользуясь чистой информацией (равом) из глаз. ))
А кто тогда ошибается? Ваш профессор, "намерявший" у A7R2 16 мегапикселей? Если точку зрения LEO-3D принять еще как-то можно (если очень хочется, можно считать разрешение по количеству элементов, которых на матрице меньше всего, что не совсем верно, потому как всего-то элементов больше, как ни крути), то вот Ваш тезис, озвученный изначально, он просто никакого разумного обоснования под собой не имеет. Спрошу еще раз: где ролик "профессора" узреть можно?
Это в полном размере, то есть попиксельно? Если так, то по факту итоговый ДД будет лучше: Sony 15 стопов заявляет для картинки, уменьшенной до 8 мегапикселей.
Не стоит так относится, а лучше всё же почитать глубже. Видео не очень популярно . если речь о Р-ке, то всё же 21 мп, - моя ошибка. Не понимаю в чем разница в моей точке зрения и Лео
это и есть Это и есть приведённые к одному размеру. "PDR numbers are already normalized to equivalent viewing conditions." А если учесть, что R4 на треть стопа темнее при ISO 100, то график сдвигается влево на треть стопа и картина ещё печальнее
Очень долго пытаюсь донести до людей, что у них маркетоидные мегапуксели и что в реальности их меньше в разы. Бесполезное занятие ))
Как еще относиться к клоунам от науки? Ваш профессор, несмотря на свои заслуги - персонаж крайне спорный, а его утверждения - сомнительны. В приведенном ролике речи о разрешении матрицы вообще не идет, речь идет только о разрешении системы из объектива и камеры, оцененному по неописанной методике, причем в роли объектива выступает механический объектив, посчитанный еще под пленку. Надо ли говорить, что подобный анализ - фуфло, по сути? Ага, увидел. Если так, то это немного печально... То есть на матрице у A7R2, к примеру, не 42 миллиона светочувствительных элементов? Тогда сколько там мегапикселей по Вашему мнению, и почему такое мнение вообще возникло? Меньше в разы? Уж давайте тогда посчитаем точно, во сколько раз меньше.
вот вам загадка с намёком. Есть A7RIII и фф объектив на 10мм, фотик стоит на штативе в режиме М, фокус ручной, исо 100. Фоткаю статичную сцену в RAW, запоминаю. Включаю режим PixelShift и снова фоткаю. В итоге на первой фотке у меня "ну ок, фотка". А на второй - нифига себе, вся текстура отделки потолка (закос под камень) видна и она мегачёткая. Вопрос: откуда взялись детали, если в обоих случаях разрешение фото идентично?