О матрицах и честных по цвету пикселах

Тема в разделе "Фотокамеры", создана пользователем AlexanderKo, 30 авг 2019.

  1. Сейчас, после того как мы выяснили, что цифры Вами были указаны левые, может, и никакой. Только позиция LEO-3D основана на предложении считать, по сути, полноцветные блоки (это 4 пикселя в случае с традиционным байером), а Ваша - на заявлении некого профессора, по совместительству члена кружка выдающих личностей с Ермаковой и Фоменко во главе.
    Детали взялись от того, что информации было получено в 4 раза больше и, как результат, было получено полноцветное изображении без артефактов демозаика. Но что с того? Светочувствительных элементов на матрице все равно именно столько, сколько указано, а детализация без пиксель-шифта падает потому, что, информации о цвете недостаточно и она восстанавливается интерполяцией. Так было примерно всегда с того момента, как байер был вообще изобретен и мне лично непонятно, почему именно теперь появляются "откровения" о том, что цифры-то, дескать, дутые. Они не дутые, они такие, какие есть, это предельно честно указанное количество светочувствительных элементов матрицы.
     
    HasselBlade нравится это.
  2. Взял попкорн, сижу прям кайфую от рассуждений про хитрые пиксели. Я конечно может не шарю, но насколько я в теме, то пиксели у сони честные - 42 и 61мп, а цвет не честный. Но прям интересно чем спор закончится. Вот новые матрицы у xiaomi и Samsung в телефонах 100мп не честные. Там хитрые пиксели растянутые.
     
    qwz и Procyon нравится это.
  3. Все пропало...теперь на RIV честные фотографии никак не получить...:(
     
    HunterPro40 и Magadanec нравится это.
  4. Ну у меня больше как бы доверия к профессору и не только к нему, кто утверждает что матрица у сони из меньшего числа пикселей состоит, нежели к мнению на форуме кого либо, без видимого бекграунда. И я не утверждал другого чего-то от Лео. Пиксель - это 4 светочувствительных элемента 2 зелёных 1 красный 1 синий, и именно их меньше чем указано в спецификации. Неужели вы думаете что 61 мп на том же физическом размере не будут сильнее шуметь? Тогда пожалуй оставлю вас с святой верой в байера ))
     
  5. То о чём фотограф толкует на видео, результат много летнего опыта в расчётах разнообразных объектов и цветов, - естественно тупым размножением точек на экране не обойтись. Но это всё не так ж плохо, скорее даже хорошо. Задачками интерполяции я в универе ещё занимался, тогда это были простые увеличения и уменьшения БМП. Сейчас это очень сложные алгоритмы, и конторые меряются именно этим показателем на самом деле в виде результата нам, пользователям.
     
  6. Фоменко и его "новой хронологии" тоже доверяете, потому что он профессор и книжек много написал? А они с этим профессором одного поля ягоды.
    Вы просто перепутали 16 и 21. Наверно, такое бывает, только такая путаница смысл утверждений меняет в корне.
    Нет. Пиксель - это один элемент, закрытый светофильтром. А если вы считаете оным 4 элемента, то тогда Ваше же мнение не бьется с мнением профессора, на которого Вы ссылаетесь. С учетом этого я бы рекомендовал Вам сначала разобраться с терминологией и устоявшимися за десятилетия стандартами, а потом уже делать выводы.
    Если считать пикселем группу из 4 светочувствительных элементов, то да, но есть нюанс: все, за весьма редкими исключениями, считают не так. Так исторически сложилось, что пиксель в цифровой фотографии - это один элемент матрицы, а не минимальная группа элементов, которая может дать полную информацию о цвете. Но если Вы на этом настаиваете, то измерения профессора, на которого Вы сослались изначально - они не очень-то верны, потому что если принять такое определение пикселя, то у камер из его видео разрешение будет, соответственно, 10.5 и 6 мегапикселей, и не точкой больше. Но у товарища, однако, несмотря на объективы, созданные во времена мамонтов под пленку еще, цифры получились другие. Объясните в рамках Вашей теории, почему так?
    По сравнению с чем? Прежде, чем подобные вопросы задавать, нужно определиться с терминологией, потому что в противном случае обсуждение будет бессмысленным.
     
    Финарос нравится это.
  7. Честный пиксель должен состоять из трех разноцветных элементов. Возьмите лупу и посмотрите на монитор. Если разрешение монитора 1920 х 1080, то пикселей 2 073 600. Число "светящихся" элементов в три раза больше, то бишь 6 220 800, можете пересчитать, если не лень. Так что у монитора - пиксели честные, у матрицы - не очень, потому, как одноцветные.
     
    cat.spb нравится это.
  8. Повторюсь, я в этом деле не очень знающий но всегда думал что 1 пиксель=1 линза, которая по байеру работает. Т. Е. Пикселей ровно 61кк у новой р-ки. А то, что при этом с цветом хитрость это да. Может не прав. Буду ждать пруфов
     
  9. vetersiama, думаю, что Вы правы. И LEO-3D тоже в общем-то прав. Только вот исторически сложилось так, что в случае с мониторами с самого начала "пикселем" называли группу из трех разноцветных точек, а вот в случае с матрицами - одну такую точку.
     
  10. Пиксель - это логический элемент изображения.
    Элемент физический сенсора - сенсель - это ячейка КМОП устройства, накрытая одним из трех светофильтров.
    Всего их у A7M4 - 61+ миллионов, половина светофильтров зеленых, по четверти красных и синих (и сколько-то синих, скорее всего, служат для автофокуса, тысячи, может десятки тысяч).
    И у всех кроме Foveon (и кэнона с Dual Pixel AF) - так.

    Верьте не "прохвессору", а, к примеру, Джиму Кассону, у него много чего разобрано как работает.
    Ну и про байер учите матчасть совсем базовую.
     
  11. Серёзно? )) Давай-те к началу: берём А7м3 - Берём коробку к нему - написано 24 мегапикселя - смотрим картинку с него на мониторе 6000*4000 = 24 mpixel ))) Теперь, а как же каждый из них имеет разный цвет? Да потому что на каждый назначено группу из 4 элементов, как писалось выше. Называют их иногда субпикселями. Иначе никак не получить на одной точке снимка разный оттенки цветов. Потому что именно разрешение картинки пишут на камере, а не фотоэлементов. И теперь к самому началу вернёмся, - правда ли что таких (групп) пикселей, как написано на камере 61 миллион? Я думаю, и не только я, что нет. часть из них достигнута инторполяцией, - это и было утверждение изначально.
     
  12. Они ВСЕ (пиксели) достигнуты интерполяцией...такова природа байеровской матрицы...
    ...у всех производителей...(кроме фовеона)...

    P.S.
    И, по большому счёту, мне лично все равно, в каких попугаях считают разрешение матрицы...оно (разрешение) у всех так считается...и это - главное...

    ...меня и миллионы байт, вместо мегабайт, в размерах HDD не смущают...и никого не смущают...:)
     
  13. Вы, извините, бредите.
    Субпиксели есть в дисплеях, в Dual Pixel AF матрицах кэнона (для аф, а не цвета), а на матрице A7M4 (и всех других А7) - нет.
    Цвет вычисляется для каждого элемента изображения, алгоритмов много, см.
    https://en.wikipedia.org/wiki/Demosaicing#Algorithms
     
    Финарос и Procyon нравится это.
  14. Хорошо, называйте их фотоэлементы, но точку на кадр не нарисовать одним элементом. Их для того 4 чтоб точно передать цвет. Логика рассуждения именно в том что мы идём от коробки и надписи на ней. 61 миллион точек - это то что написано в характеристике, и это разрешение именно картинки.
    извините, но по кашей же ссылке "Since each pixel of the sensor is behind a color filter, the output is an array of pixel values, each indicating a raw intensity of one of the three filter colors. Thus, an algorithm is needed to estimate for each pixel the color levels for all color components, rather than a single component." - или то что я сказал выше

    Вы тоже раскрылись как приверженец этой теории? )) шучу я, да мне тоже как бы всё равно - если результат есть очень достойный. Этими алгоритмами занимаются с начала ещё мыльниц.
     
  15. Это количество чувствительных элементов. И уж если говорить копипастой, то я бы сделал это так:

    "Since each pixel of the sensor is behind a color filter, the output is an array of pixel values, each indicating a raw intensity of one of the three filter colors. Thus, an algorithm is needed to estimate for each pixel the color levels for all color components, rather than a single component."

    То есть пиксель - это один элемент под фильтром, а не их группа. Более того, там даже картинка есть, наглядно это демонстрирующая. Просто не надо придумывать новые термины, тогда и спорить будет не о чем.

    И что там с профессором, кстати? Коль скоро Вы уверены, что "пикселем" нужно называть группу из четырех точек, способных получить полную информацию о цвете, то как же тогда Ваш профессор у A7R2 намерял 21 мегапиксель? Ведь как ни крути, больше 10.5 не должно получиться.
     
    Финарос и vetersiama нравится это.
  16. dinsky

    dinsky Куратор разд. Фототехника
    Команда форума

    Регистрация:
    28 мар 2006
    Сообщения:
    3.940
    Симпатии:
    1.475
    Баллы:
    0
    Пол:
    Мужской
    Адрес:
    Москва
    Предупреждения:
    0
    В сони используются матрицы с фильтром Байера. Что это такое написано на каждом углу интернета. При получении изображения цвет интерполируется между точками, а яркость выводится в каждой точке по алгоритмам, на которые дал ссылку qwz. При этом для матрицы Байера количество точек финального изображения как раз и равно количеству светочувствительных сенсоров (если не учитывать краевые зоны, т.е. на матрице сенселей всегда чуть больше). То есть все матрицы 24, 36, 42, 61 MP устроены идейно одинаково и дают "родное" изображение такого же размера.
     
    qwz, TheChieF и Procyon нравится это.
  17. Это потому что вы по своему крутите. 21 реальных, остальные дорисованы, что тут сложного не пойму. и если уж копипастить то так:
    Since each pixel of the sensor is behind a color filter, the output is an array of pixel values, each indicating a raw intensity of one of the three filter colors. Thus, an algorithm is needed to estimate for each pixel the color levels for all color components, rather than a single component." - Я не спорю с вами что называется пикселем, я говорю о том что вы не верно сопоставляете эту информацию с характеристикой поданой на бумаге. А именно о ней я гороил изначально. Мы говорим о разных вещях. Алгоритм вычисления цвета - это другой, нежели получения разрешения картинки на выходе, хотя и связанный. Перефразирую, не работает у камер алгоритм 1 к 1 разрешение картинки и матрицы по фотоэлементам. Что может даже и хорошо. Очень сложно было бы передать однотонное небо 1 из 4 элеметов, когда остальные фильруют только зелёный и красный. Слишком мало информации, потому используется куда глобальныя оценка площади нежели 4 элемента, за одно инторполируется к большему разрешению на выходе картинки. Ладно, возму попкорн ))
     
  18. Читаю и просто в ужасе, сколько людей не знающих элементарных вещей как устроена цифровая матрица, не понимающих базовых понятий построения изображения камерой
    Ещё и пытающихся что-то своё доказать , я фшоке )))
    Учитывая что просто открой ютубчик и вся инфа есть в лучшем виде - посмотри поучись блин и не пори чушь, так нет же
     
    Иваннович и qwz нравится это.
  19. Непонятно здесь то, как Вы это все считаете.

    61 мегапиксель сабжа - это 61 миллион чувствительных точек, половина из которых закрыта зелеными фильтрами, и по четверти - красными и синими. И 61 миллион точек - это самая что ни на есть честная цифра, никто здесь никому и ни о чем не врет, и разрешение финального изображения - оно как раз таки равно количеству светочувствительных элементов матрицы. И если Вы утверждаете, что считать за "пиксель" надо полноцветный кластер, то разрешение сабжа должно быть 15.25 мегапикселей, а у А7R2, о которой разглагольствует профессор - и вовсе 10.5, а у еще одной камеры профессора - 6. А он, почему-то, насчитал 21 и 14. Как так?
    Расскажете, как это делать "правильно"? Потому что никакого разброда и шатаний тут быть не может: у матрицы А7R4 61 миллион элементов (на самом деле чуть больше, но не суть), из которых 30.5 миллионов закрыты зеленым фильтром, 15.25 - красным и оставшиеся 15.25 - синим. Все эти пиксели участвуют в формировании изображения и разрешение равно общему количеству элементов, при этом цвет в каждой точке этого изображения высчитывается по алгоритмам демозаика с использованием информации из соседних ячеек. Это то, как устроена матрица байера и как формируется изображение с нее. А вот что Вы пытаетесь донести, лично мне, действительно, не очень понятно.
    Вот некоторые и открывают каналы с разного рода "профессорами", которые сами не понимают, что несут.
     
  20. Останусь при своём, 61 мп то что написано и то что соотверствует Сторона А * Б выходного изображения, это не те пиксели что на матрице, сколько их на самом деле не знаю. Это чтоб продать камеру пУксели, как посчитать реальные элементы - пиксели - я затрудняюсь, и как их считали в ролике тоже не могу сказать. Можно ещё поискать подобное, и уверен найдётся. Не хочу продолжать. Уважаю мнение всех.
     

Поделиться этой страницей