В Байеровской матрице за формирование одной точки полноценного цвета вроде как отвечают 4 пикселя - красный, синий, 2 зеленых. Но почему на выходе из RAW конвертера Jpeg c 24 Мп, скажем, матрицы по умолчанию будет иметь 4000 на 6000 точек, т.е. те же 24 млн точек изображения? Почему не вчетверо меньше? Я так понимаю, что идет экстраполяция? А можно ли ее отключить? И иметь честные 6 Мп? Без процедуры экстраполяция - ресайз, иначе какой смысл?
Вероятно, когда говорят "24 мегапикселя", подразумевают "24 миллиона квадратов, состоящих из четырёх точек"
Так пиксели раскиданы по матрице в разных местах, это же не многослойный Фовеон. Интерполировать данные все равно придется.
Не, просто погугли как работает байеровская матрица, что такое байеровское преобразование и больше в спорах об очевидном, но невероятном не захочется участвовать, ибо всё доступно даже в Википедии.
Во-первых, я и не спорю, потому что не знаю. Во-вторых, количество мегапикселей матрицы можно считать от количества одноцветных точек, а можно - от количества готовых точек. И как именно это происходит - я тоже не знаю. Просто предположил, что 24 мегапикселя матрицы - это 96 миллионов одноцветных точек. Нет? Впрочем, я тоже считаю, что современные матрицы при любительских вложениях в тушку и оптику далеко не дают попиксельной детализации, поэтому их разрешение чрезмерно.
То-то и оно, что 24 Мп - это именно 24 миллиона разноцветных (12+6+6) пикселей. Вопрос, который меня интересует - так это почему же RAW конвертер по умолчанию делает из них 24, а не 6 млн полноцветных точек Jpeg.
Потому что RAW конвертер восстанавливает из 12 млн. зелёных точек столько же, из 6 млн. красных и синих - по 18 млн. Итого получает 3 одноцветных компоненты по 24 млн. пикселей. А вообще, вас уже подтолкнули в правильном направлении (Google, Wikipedia), но вы даже не пошевелились. Поэтому вот - http://ru.wikipedia.org/wiki/Фильтр_Байера Там всё подробно расписано, откуда берутся лишние мегапиксели, на примере гуся.
Нет, почему же, прочитал, и более того, еще до открытия темы Цитата: "И только 4 предметных точки, рядом расположенных и спроецированных объективом на блок пикселей RGGB, приближенно формируют полный набор RGB 1-й усредненной предметной точки. Далее, процессор камеры должен, используя специальные математические методы интерполяции, рассчитать для каждой точки недостающие цветовые составляющие." Так вот изначальный мой вопрос был: нельзя ли оставить изображение в первом варианте, соответственно, на 6 мп размером? Сложив 4 разноцветных пикселя в один, а не экстраполируя для каждого из них недостающие составляющие? Или такая процедура возможна лишь через ресайз, с неизбежным тогда усреднением и искажением первоначальной информации? Возможно, конечно, я - настырный зануда...
В ACR внизу можно выбрать, сколько Мп на выходе он сделает. В Faststone Image Viewer в настройках можно указать "В половинном размере (быстро)" для просмотра и для преобразования. Про другой софт не знаю, возможно нечто подобное есть везде.
Тут есть два аспекта Если говорить о jpeg, то например в a850 есть именно такой режим - из 24 байеровских мегапикселей получается 6,1 в половинном разрешении в jpeg. На других камерах не знаю, но в принципе тоже должно такое быть. Если мы говорим о raw, то опять-таки, многие конвертеры позволяют так делать. В самой камере в таком режиме, имхо, смысла особого нет. По сути, в размере файла мы выиграем только 25% путем объединения двух зеленых каналов в один, а реально сильно потеряем в разрешении, так как именно зеленый канал несет максимум яркостной информации. Вообще, традиционно считается, что байеровская решетка, именно за счет наличия двух зеленых каналов, имеет не в четыре раза меньшее разрешение по сравнению с честной трехслойной структурой, а только в два раза. Потом не надо забывать, что в самом jpegе хранится не rgb, а yCbCr - яркостный и два цветовых канала, и часто эти два цветовых канала имеют в два раза меньшее разрешение по сравнению с яркостным, так как чувствительность глаза к цветовым градациям много меньше чем к яркостным.
Тут надо понимать - изначально у вас информация о цвете присутствует из РАЗНЫХ точек. Не из одного квадрата, а из разных точек. Это важно. Т.е. простое сложение ранее не использованных цветовых компонент в одну "точку", о котором вы говорите, неизбежно рожает едва ли не большие искажения, чем нормальное байеровское преобразование и человеческий ресайз. Скажу даже больше - не сущетсвует никаких оснований признавать 6 Млн вариаций этого сложения (которые вы считаетете более верными и "честными") более верными чем оставшиеся 18 млн. вариантов этого сложения только на основании того, что в них используются точки, ранее не применявшиеся для формирования других квадратов. С точки зрения физики, все 24 млн. комбинаций соседних 4х цветовых компонент являются абсолютно равноправными. Что, собственно, и отражается в правильном алгоритме де-Байеризации. Например, при желаемом вами "честном сложении" вы будете наблюдать просто феерическое количество "лабиринтиков" и никакие АА фильтры не помогут. Плюс "ложная хромата". Ну и немного прочих приколов. В целом, если есть желание получить этакое "типа честное" говно - на форуме программеров DCRaw (или UFRaw???) была ветка где есть исходник алгоритма именно так раскрывающего фотографию. Характерно что даже местные упёртые ребята отказались от этого преобразования, так как результат очень и очень плох - байеровская матрица совершенно не рассчитана на подобное издевательство в послеобработке. Более того, этот алгоритм делает полностью невозможным использование алгормитмов де-Мозаика, цветового шумоподавления или подавления хроматы. Нормальный де-байер + ресайз по человеческому алгоритму = это правильно.
В принципе, это очень легко видеть, если взять любой скажем красный пиксель в байеровской решетке. Он одновременно и равноправно может участвовать в четырех усредненных пикселях. Когда мы считаем, что он участвует только в каком-то одном, то это уже будет некий волюнтаризм и потеря информации
Современные конверторы ещё и ХА правят. 24 мп действительно не честные. Для проверки сравните кроп полтинником из 24 мп кадра и полный кадр снятый 100 мм, но в разрешении 6 Мп. В сравнении с Foveon лучше то, где меньше шумов в каждом канале.
кошмар.... столько лет в неведении я пребывал..)) а ведь на самом деле я думал что на матрице пикслей должно быть в 4 раза больше чем разрешение получаемого растра .. тое сть 24*4 ...а тут интерполяция.... ужос. а в джипеге то вообще еще структурные искажения добавляются.