Про полнокадровость и ДД.

Тема в разделе "Флейм", создана пользователем yacc11, 12 фев 2007.

  1. #1 12 фев 2007 в 17:53 | Про полнокадровость и ДД.
    Последнее редактирование модератором: 12 фев 2007
    Эта тема не раз обсуждалась на форумах, но почему-то
    привлекла последнее время мое внимание и привела к
    забавным результатам... :

    Чтобы не разводить флуд по части технических терминов
    и вопросов формирования цвета предположим следующую упрощенную модель:

    Допущения:
    - у нас есть две матрицы с одинаковыми чувствительными элементами
    - мы не рассматриваем характеристику передачи одного чувствительного элемента ( в дальнейшем - пикселя ) пусть, для простоты, она будет линейной.
    - мы считаем, что элемент не шумит и выдает сигнал в диапазоне от 0 до 4096 ( 12 разрядов АЦП ) причем еденичка сооветствует N фотонам
    - потери при передаче сигнал от пикселя к выходным контактам матрицы отсутствуют
    - вопросы цвета нас не интересуют - пиксели регистрируют монохромный цвет и мы интересуемся таким образом ч\б картинкой.

    Собственно модель:
    предположим, что матрица линейная и для простоты счета рассматриваем кроп 2.

    Пусть у нас есть две матрицы: одна размеров 10 едениц и на ней размещается 10 пикселей, т.е. размер одного пикселя - одна еденица,
    вторая - тоже состоит из 10 пикселей, но ее размер в 2 раза меньше посему размер одного пикселя - 0.5 еденицы.

    Далее предположим, что на обе матрицы проецируется свет от сцены ( освещенной монохромным светом той длины волны, что регистрируется матрицей ). Разрешающая способность объектива 1 линия на еденицу размера. Считаем, что внутри такой "световой трубки" фотоны распределены равномерно, в разных "световых трубках" может лететь разное количество фотонов - граница резкая ( в реальности такого нет, но мы сейчас волновые эффекты не учитываем ).
    Считаем, что разрещающая способность не меняется от угла и ( чтобы не учитывать нелинейность проекции ) - пусть матрица будет не плоской, а кривой, с радиусом кривизны как рабочий отрезок.

    Чтобы передать одну и ту же сцену на матрицах разного размера, нам потребуются объективы с разным фокусным расстоянием, но пусть у них будет одинаковая разрещающаая способность и светосила.

    Эксперимент 1: Пусть сцена однотонна и из нее выходит 40 * N фотонов.

    Тогда в случае полнокадровой матрицы:
    объектив поделит сцену на 10 частей и в каждой "световой трубке" будет по 4 * N фотона. Одна "световая трубка" падает на один пиксель и каждый пиксель зарегистрирует эти фотоны, выдав на выходе значение 4.

    В случае кропнутой матрицы:
    падающие фотоны в силу разрешающей способности объектива и меньшего размера матрицы поделятся на 5 трубок, в каждой из которых будет по 8 * N фотонов. Но каждая такая трубка спроектируется на два пикселя и в результате каждому из них достанется по 4 * N фотонов и выходной сигнал будет так же 4 для каждого пикселя.

    Эксперимент 2: Пусть сцена неоднотонна,
    а распределена ( если бить на 10 частей ) так:

    100 2 40 2 8 2 40 2 20 10 ( т.е. всего 226 * N фотонов )

    В случае полнокадровой матрицы мы получим следующие значения:
    100 2 40 2 8 2 40 2 20 10

    В случае кропнутой:
    51 51 21 21 5 5 21 21 15 15

    Что это означает? То, что кропнутая матрица уменьшила контраст сцены. Как этого можно избежать - повысить в 2 раза разрешающую способность объектива - тогда в случае кропнутой матрицы изображение разложится на 10 частей и мы получим те же самые числа, что и в случае полнокадровой матрицы. При полнокадровой матрице изображение разложится на 20 частей, но на каждый пиксель будет приходиться по 2 световые трубки и кол-во попавших фотонов просуммируется, что приведет к тому же результату.

    Промежуточный итог:
    - для полнокадровой матрицы, для использования детализации на 100% требуется меньшее разрешение объектива ( это, кстати, и если сравнивать 35мм и СФ известно )
    - для полнокадровой матрицы,для более широкого угла обзора требуется объектив с меньшим фокусным расстоянием ( опять же аналог с СФ )
    - при одинаковом разрешении объектива, кроп-матрица дает меньший контраст
    - при одинаковом разрешении объектива на один пиксель кроп-матрицы попадает больше света.

    А вот последний пункт весьма забавен.... :)
    Теперь как раз время вспомнить, что есть шумы... и что ДД пикселя = сигнал/шум. За счет уменьшения контраста кроп тем не менее собирает в каждом элементе больше фотонов и потому сигнал выше чем у элемента полнокадровой матрицы. Если же не кроп поставить объектив с бОльшей разрешающей способностью, то уровень сигнала у пикселя кропа будет такой же как и полнокадровой матрицы. Посему читая такое http://web.canon.jp/Imaging/cmos/technology-e/size.html
    мягко говоря улыбаешься :)

    Другой вопрос ( в который я с охотой поверю ), что более разреженное размещение пикселей на КМОП сенсоре ( чувствительным элементом которого является фотодиод/фототранзистор ) позволяет туда же впихнуть усилитель и более того попробовать экранировать выход, чтобы защитить от наводок с других элементов. Но... к статье Кэнона это не имеет ни малейшего отношения. И увеличение ДД элемента здесь происходит за счет уменьшения шумов при передаче информации наружу, а не за счет бОльшей площади пикселя.

    Ну а теперь подключим цену....
    если мы не гонимся за широким углом и маленькой ГРИП... то в рамках3500$ можно ( цены даю ориентировочные, ссылка на магазины, где это стоит дешевле - не нужна, главное не в этом ):
    - купить Кэнон 5D за 3000$ и объектив за 500$ ( не L-ку )
    - купить Никон D80 за 1000$ и объектив за 2500$ ( например резкий Цейс )
    ... и получать фотографии примерно одного качества :)

    Что скажете?
     
  2. Хм-м-м. СФерический конь в красном вакууме. Слишком много допущений. Устал читать эти допущения, и пытаться представить мебе эту модель (например пиксели в жизни распределены не по линии, а по плоскости, на мелких матрицах заметнее блюминг и.т.д. слишком много допущений).

    Как говорят ПАДОНКИ "ниасилил слишком много букаф"

    А насчёт вывода... Слишком он расплывчатый этот вывод. Но из солидарности отвечу: да, можно получать фотографии примерно одинакового качества.

    А из врождённого патриотизма замечу, что А100даблкит сделает их всех и при меньшей цене!
     
  3. Э нет - просто честный step by step :) Чтобы понять сколько света мы можем собрать в пикселе при изменении геометрии, а уж потом добавлять, что на самом-то деле чтобы это донести еще постараться нужно :)

    P.S. В задачках по физике не зря пишут "невесомая нерастяжимая нить" и "в вакууме" ... - на форуме всегда найдется человек, который признает постановку задачи некорректной, поскольку там есть силы трения, силы сопротивления, да и система нежесткая ( есть продольные колебания ), да еще и силы кориолиса есть.... Такая постановка задачи эти эффекты снимает чтобы не распыляться и спорить по мелочам и терминам. Плоскостная задача сильно сложнее? И зачем нам блюминг рассматривать - его потом отдельно рассмотреть всегда можно :)
     
  4. #4 12 фев 2007 в 23:01 | Про полнокадровость и ДД.
    Последнее редактирование модератором: 12 фев 2007
    Можно я немного изменю Вашу модель?
    Например пусть имеем сцену сверху - чёрный, снизу - белый. Линия раздела ровно по середине кроп матрицы (ну и пусть ФФ,т.е. как бы имеем кроп матрицу в центре). Далее проводим Ваши рассуждения - вывод сами сделаете (для точности пускай белому соответствует 10 фотонов, чёрному - один).
    Усложняем сцену - делим далее белую часть пополам - (10 фотонов и пусть 5 на сером), чёрную - тоже (1 и 3 не важно) . Опять проходим Ваши рассуждения.
    И т.д. Можно делить и радиально и вертикально - придём к классическим мирам для разрешения.
    Что при этом всём будет с ДД согласно Ваших рассуждений?
    И что означает "световая трубка" применительно к объективу? Неужели дискретность объектива настолько реальна ?
     
  5. yacc11 Вы сейчас постиавили некую гипотетическую задачу... Для ПЛАНШЕТНОГО СКАНЕРА. ВЫКИНУВ вопрос о цветоразделении. При этом наложив ОГРОМНОЕ количество допущений и скатившись до уровня средней школы (сами признали). Но, как вы думаете, достаточны ли знания средней школы для решения подобных задач по оптике?

    Например, если пиксели будут стоять на плоскости, то контраст будет влиять не только на ДВА смежных пиксела, а на ДЕВЯТЬ. Именно ДЕВЯТЬ, а не четыре!

    И я не трогаю вопрос с цветоразделением (вы его кстати тоже обошли лихим кавалерийским манёвром), а (между прочим) вопрос о цветоразделении стоит даже при создании оптической системы для сканеров).

    Так что ЛИЧНО МОЁ МНЕНИЕ (ИМХО) все эти прикидки можно трактовать КАК УГОДНО, отстаивая СВОЁ мнение.

    Лично я бы выбрал ФФ+стекло за 500 баксов (если бы вопрос стоял о том как потратить эти 3500 ТОЛЬКО на фотографию). А вся эта околонаучная философия (филос - любовь, софос - мозг) не более чем повод размять пальцы.

    П.С. Если вы используете термин "трубка", то неплохо бы решить для неё задачи на волновые процессы (читай дифракция, интерференция, переизлучение). Думаете это мелочи? В институте вам могут рассказть что за счёт таких "мелочей", получают усиления потока света в СОТНИ раз, в нужных точках...

    П.П.С. В эту тему я больше не ездок, так что можете не трудится отвечать, и так понятно, что я требую слишком большого приближения к реальности, а потому мой выкрик с места учитываться не будет!
     
  6. #6 13 фев 2007 в 03:45 | Про полнокадровость и ДД.
    Последнее редактирование модератором: 13 фев 2007
    Разумеется можно :) И даже очивидно что мы так или иначе придем к мирам... которые вторичны по отношению к разрешающей способности просто как инструмент для ее практической оценки... а глубже
    лежит дифракция:
    http://www.college.ru/physics/courses/op25part2/content/chapter3/section/paragraph9/theory.html
    и вот критерий Релея я и возьму для определения минимального угла, меньше которого будут сказываться волновые эффекты. Луч света с таким минимальным углом ( в двумерном случае - телесный угол ) я и буду считать "световой трубкой", квантом - чтобы не считать кривую распределения интенсивности внутри него. Реально, объектив мне это загрубит. Монохромным светом я просто исключаю хроматическую аберрацию и возражения про то, что нам и цвет надо регистрировать ( используя, скажем, тот же фильтр Байера, чтобы потом той или иной интерполяцией получить его составляющие ).
    Объектив никогда нельзя считать дискретным ( в силу волновой природы света и, как следствие, дифракции ), но при некоторых масштабах задачи можно заменить его эквивалентным дискретным ( что я собственно и сделал, разумеется это применимо с некоторой точностью ).
    Но... не к тому я вел: в рекламной ( именно рекламной ) статье Кэнона указано, что ФФ дает увеличение ДД ( как отношения сигнал/шум ) одного пикселя так как в него попадает больше фотонов, и многие на это попадаются собираясь покупать ФФ именно из-за этого.
    Эти геометрические рассуждения и ведутся к тому, что за счет увеличения площади сенсора и уменьшения плотности пикселей, и, как следствие увелечения площади одного пикселя, мы тем не менее больше фотонов на нем получить не можем, поскольку и количество пикселей становится больше. А поэтому увеличения ДД одного пикселя в этом случае - фигня. А вот улучшение ДД проецируемой сцены за счет более оптимальной разрешающей способности матрица-объектив - это да, но так же можно это увеличить скажем перейдя с 35мм пленки на СФ. Более того, поскольку реальное отношение к детализации изображения имеет именно разрешающая способность системы матрица-объектив ( а не просто либо одного или другого ), то загрубляя одно и увеличивая другое ( в пределах, чтобы не выходить на волновые эффекты ) мы получаем сходные результаты.
     
  7. Дык счас учтем... :) Про дифракцию выше постом я уже сказал ( именно для этого ввел трубки, чтобы с ней не заморачиваться ) - или геометрической оптики нет? Интерференция ... ну она вообще-то характерна для когерентных волн одинаковой поляризации ( дневной свет - некогерентная волна, когерентное излучение изначально из популярных искусственных источников только лазеры дают ), но... может возникать на тонких границах раздела сред ( например, на мыльных пузырях или в планшетных сканерах из-за зазора между пленкой и стеклом или внутри объектива на пленке просветления /делается сознательно/ ), но... после того как свет покинул объектив - где там интеференция? И у нас не планшетный сканер ( где более формулы для микроскопов применимы ). Переизлучение .... такой же волновой эффект как рикошет пули... Да, матрица не идеально черное тело - отражение присутствует, но ... мы просто теряем часть полезного сигнала, а шероховатостью черной внутренней поверхности количество отраженных фотонов, вернувшихся на матрицу, снижают...
    Зачем мне получать усиление в сотни раз в нужных точках? - объектив мне наоборот должен равномерный пространственный сигнал создать ( у нас не фазированная антенная решетка с синтезом апертуры - кстати, там как раз когерентный источник ).

    А еще... еще есть погрешности электрических схем: в практической электронике, например, классы резисторов 2, 5, 10 ( соответсвуют погрешности в % ) - еще добавим? :) Будем электролучевым ( нецифровым ) осциллографом мерить - можно еще 5-10% накинуть ( такова точность амплитуды, измеренной по его экрану ). Может еще рассеяние на взвешенных частицах пыли и неоднородность давления воздуха при срабатывании затвора учесть? :) Легко и запросто! Вопрос - зачем? Если мы измеряем расстояние от Питера до Москвы, то с точностью до метра оно нам не нужно - еще спорить будем, где отправные точки поставить :)
     
  8. RulerM

    RulerM Куратор раздела Hard'N'Soft
    Команда форума

    Регистрация:
    13 фев 2006
    Сообщения:
    6.870
    Симпатии:
    219
    Баллы:
    0
    Адрес:
    Saratov, Russia
    Предупреждения:
    0
    Ну идея проста и понятна - увеличение размера пиксела для 5D играет НЕ определяющую роль в преимуществе его по качеству картинки над кропнутыми матрицами.
    Ну да, это так. Собсно я не думаю, что с этим кто-то спорит.
    Достаточно посчитать размер пиксела для 5D - он отличается от 6 Мп CCD кроп 1.5 минимально, и не может давать сам по себе кардинального улучшения сигнал\шум.

    А вот в совокупности с просто банально другой работой оптики на FF с другим в итоге контрастом и пластикой на выходе - вместе разница кардинальная выходит. Ну и плюс наверняка Кэнон намеренно использует в FF матрицах более навороченную математику в набортных процах, чем в младших кропнутых, что ессно прямо влияет на качество картинки с CMOS, которая всегда отдает сигнал обработанный наборотным процем.
    Так же наверняка банально усиление ячеек производится более дорогим более защищенным от помех и пр. решением.
     
  9. Очень приятно, что Вы, yacc11, пытаеть применить знания, получнные на третьем (и ранее) курсе технического ВУЗа. Проблема лишь в том, что на странице:
    http://web.canon.jp/Imaging/cmos/technology-e/size.html
    всё написано верно. Писали её специалисты. И там довольно доходчиво написано ПОЧЕМУ матрица бОльшего размера обладает бОльшим ДД.

    Вы очень сильно всё усложняете. Даже меня умудрились запутать :)

    И давайте уйдём от понятия фотона - это слишком большие объекты (матрица), с чем вы, кстати, как я понял, легко согласитесь, чтобы приплетать сюда атомную физику. Интерференция, и это написано в школьных учебниках, а образовательный стандарт даже демонтрации обязует проводить по этой теме, налюдается даже от сечи, или лампы накаливания, - может когерентные источники света, всё же, более достыпны, чем Вам кажется?.. ;)

    Я постараюсь навести ясность в этой теме. Возможно, даже с картинками =)
     
  10. На примере корзины с водой? :) Да, бОльший размер более стоек к переполнению, но к нижней чувствительности ( где шумы сопоставимы с уровнем сигнала ) это не имеет ни малейшего отношения :)

    Интерференция? А давайте на опыт Юнга взглянем - http://nature.web.ru/db/msg.html?mid=1165186&uri=but2_1.html - там два источника и заодно посмотрите на характеристический масштаб задачи. Откуда интерференция на свече может взяться как вы думаете? А на лампе накаливания? Маленькая подсказка - когерентность самого источника тут не причем. То, что происходит на ресницах - это дифракция. Эдак щурясь на солнце тоже можно сказать, что есть интерференция и солнце - когерентный источник :) Вообще-то волновые эффекты явно проявляются, если пространственное расстояние кратно длине волны, особенно в ближней зоне. А какая длина света? ( именно из ее малости геометрической оптикой и пользуются). Диаметр объектива это уже другое - это дифракция.
     
  11. Уважаемые, а Вы не сильно меня будете бить :) ,если я для начала скажу, что
    ДД матрицы определяется ДД каждого пикселя в отдельности плюс поправка на процесс обработки(если не брать в учёт оптику) ?

    потом добавлю, что размер ну никак не играет роль на ДД, если пиксели имеют одинаковый ДД и процессор один и тот же.

    А теперь применительно к практике : имеем линзу "не одинаково работающую" по всему кадру, т.е. площади матрицы и имеем совсем разные матрицы, процессоры и алгоритмы обработки.

    Следовательно, возможен вариант как лучшей работы кропа на спец.подобранном объективе в сравнении с ФФ также со "спец. подобранным" объетивом (почему второй в скобках - наверное догадываетесь, хотя ФФ объектив сделать, думаю, сложнее намного по всему полю кадра оптимальным)
     
  12. Не сильно... :)
    Если считать матрицу, как просто датчик - нет. Если учитывать процесс "вытаскивания" с нее информации ( который можно отдельным блоком в функциональной схеме выразить ) и считать за выходной сигнал то, что получилось - да. Более того, этот функциональный блок может вносить свои погрешности или улучшения.

    Да. Но на самом деле - играет ( объяснения - ниже ) :)

    Это мы уже выше лезем... - от простой фиксации сигнала, к его обработке. Наверное ( и скорее всего ) - это в будующем так или иначе будет использоваться. Ну например - более интеллектуальная статистическая обработка учитывая, что у нас есть функция распределения интенсивности ( вспоминаем про критерий Релея ). Более того, как перспективный вариант, идентификация объектива ( т.е. не просто считывание с него текущего фокусного расстояния и текущего зума, но именно идентификатора конкретной модели объектива /возможно это даже уже есть/, т.е. например, 70-200/2.8 Sony v1 или 70-200/2.8 Sigma v1.1 ) и последующей адаптивной коррекции сигнала в соответствии с его специфическими особенностями ( разрешающей способности, нелинейности разрешающей способности, характерных хроматических аберраций ) т.е. хранении на камере базы данных объективов с шаблонами специфической обработки сигнальным процессором.
    Правда, это все упирается во время обработки ( что критично для серийной съемки ). Насколько я понимаю - этого пока нет ( не до этого сейчас ).

    Ну а насчет "размер имеет значение"...
    В моем случае рассматривалось полное поглощение либо некий % поглощения именно чувствительного элемента ( занимающего всю плоскость пикселя ), тогда - не имеет.
    Но в реальности не так ( хотя верхнюю границу мы определили - выше физика не позволит, и там уже увеличивай не увеличивай размер - большего не добъемся, если делать это пропорционально уменьшению кропа ) - на самом деле копаться надо в устройстве чувствительного элемента ( а не вспоминать цветоделение и волновые эффекты ).
    У Альфы - ПЗС. Штука достаточно простая и эффективная ( по шумам ) и более того встроенный АЦП ей не нужен - сигнал эффективно можно вытащить наружу.
    У Кэнона - КМОП, вообще говоря штука более шумная, сигнал эффективно наружу не вытащить, посему логика обработки располагается уже на матрице. И более того... собственно чувствительный элемент занимает где-то 30% от площади пикселя,
    посему увеличив матрицу они просто поймали то, что раньше ловило окружение ( и с этим еще дополнительно приходилось бороться ) - т.е. увеличили КПД пикселя ( что конструктивно стало возможно при увеличении размера ).
    http://www.4pix.ru/article/art.php?id_article=31&id_cat=2

    Впрочем... все равно это упирается в 12 разрядов АЦП и последующую обработку для выхода на 256 градаций RGB - а вот здесь простор есть :)
     

Поделиться этой страницей