Матрицы фотоаппаратов: Виды матриц фотоаппарата и их отличия

Содержание

Чистка матрицы фотоаппарата — цена в Москве, стоимость чистки фотокамеры на YouDo

Чистка матрицы фотоаппарата — что нужно знать?

Почистить загрязненный фотоаппарат опытные специалисты могут в течение нескольких часов. У них для этого есть весь необходимый инструмент и оборудование. Специалисты, зарегистрированные на сайте Юду, готовы почистить фотоаппарат по доступной цене.

Наши мастера гарантируют выполнение работы в оговоренные сроки, профессионализм и ответственный подход к делу. Чистка вашего фотоаппарата будет выполнена аккуратно и быстро. Чистку фотокамеры можно провести и в домашних условиях, но только опытный специалист сможет выполнить эту работу действительно качественно и профессионально.

Стоимость очищения фотокамер от загрязнений

Чистка фотоаппарата нашими мастерами выполняется по доступным ценам. Размер оплаты за проделанную работу устанавливает специалист, учитывая следующие нюансы:

  • срок выполнения чистки
  • марку и модель фотоаппарата
  • необходимость использовать в работе дополнительное оборудование

Стоимость чистки вашей фотокамеры может быть согласована со специалистом до начала выполнения задания.

Наши мастера проведут чистку любого загрязненного фотоаппарата с помощью следующих приспособлений:

  • специальной жидкости для очищения матрицы и всех деталей фотокамеры
  • ткань из микрофибры
  • салфетки для удаления загрязнений с объектива фотокамеры
  • карандаша для очищения
  • специальных щеток или кистей и т.д.

Пыль и другие загрязнения при несвоевременном удалении способны повлиять на работу вашего фотоаппарата. Чистить фотоаппарат необходимо только предназначенными для этого средствами и жидкостями. Наши специалисты используют профессиональные инструменты и расходные материалы.

Сроки выполнения работы мастерами

Исполнители, зарегистрированные на сайте Юду, могут почистить любой современный фотоаппарат в течение нескольких часов. Чистка выполняется быстро и аккуратно. На сроки её проведения могут повлиять следующие нюансы:

  • марка и модель фотокамеры
  • сложность работы
  • необходимость частично или полностью разбирать фотоаппарат

В особо сложных случаях чистка вашего фотоаппарата может занять несколько дней. Наш специалист подскажет срок выполнения задания после того, как проведет осмотр фотоаппаратов.

Наши мастера чистят следующие элементы фотоаппаратов:

  • корпус
  • фильтры и объектив
  • матрица
  • аксессуары

Фотоаппараты, требующие чистки, осматриваются мастерами, после чего делается несколько пробных кадров. По итогу специалист определяет, чистка каких участков необходима.

Подача задания исполнителям

Чистка вашего фотоаппарата будет выполнена после подачи специалистам задания. Оформить заказ на услуги наших мастеров можно на данной странице. Заполните форму и укажите в ней следующие данные:

  • срочность выполнения работы
  • марка и модель фотоаппарата, почистить который необходимо
  • подходящая стоимость работы

Свободные специалисты, занимающиеся очищением фотоаппаратов, увидят задание и обязательно свяжутся с вами. Ваша фотокамера после выполнения всех работ будет функционировать ещё длительное время. Наши специалисты работают без перерывов, что дает вам возможность оформить заказ на их услуги в любое время. После выполнения задания вы оставляете свой отзыв на качество предоставленных специалистом услуг.

Наши мастера готовы выполнить всю необходимую работу по очистке вашей техники от всех загрязнений. Оформите заказ уже сейчас, и специалисты выйдут на связь в минимальные сроки.

Кто делает сенсоры для фотоаппаратов Nikon?

Матрица (сенсор) изображения фотоаппарата Nikon D600 (фото взято на kenrockwell.com)

Не секрет, что много сенсоров для фотоаппаратов Nikon разрабатывает и производит компания Sony. Nikon попросту покупает готовые чипы-сенсоры у Sony.

Nikon также принимает участие в создании сенсоров для своих камер, но в основном компания занимается только проектированием своих собственных сенсоров, и сложно сказать, где именно их производят

. Скорее всего, изготовлением\доработкой самих сенсоров занимаются\занимались компании Renesas (предположительно все сенсоры, которые начинаются на ‘NC’), Sony, Matsushita (факстически, тот же Panasonic) и Towerjazz.

Несколько камер выполнены на сенсорах производства Toshiba. После того, как Sony поглотила Toshiba, указывается Toshiba, а в скобочках Sony.

Также следует обязательно упомянуть, что разработка необычного сенсора JFET-LBCAST для камер Nikon D2H, D2Hs полностью принадлежит Nikon. Потому не стоит однозначно утверждать, что Nikon ничего сама не делает :).

В таблице ниже указано кто разработал\изготовил сенсор.

Внимание: данные в табличке могут не соответствовать действительности, так как очень сложно найти версию сенсора, который используется в том или ином фотоаппарате. Я попытался сделать максимально правильную\правдивую таблицу, если я где-то ошибся, пожалуйста, пишите это в комментариях и обязательно предлагайте ссылку-подтверждение.

Сенсор Модели фотоаппаратов
Nikon NC81338L (CMOS) D3, D700 (сами сенсоры от Matsushita?)
Nikon NC81361A (CMOS) D3s (сам сенсор от Matsushita?)
Nikon NC81362A (CMOS) D3100
Nikon NC81369R (CMOS) D3200
Nikon NC81366W (CMOS) D4, D4s, Df
Nikon JFET-LBCAST (LBCAST) D2h, D2hs
Sony IMX-007-AQ (CMOS) D2x, D2xs
Sony IMX-071 (CMOS) D7000, D5100
Sony IMX-094-AQP (CMOS) D800, D800E, D810, D810a
Sony IMX-021-BQR (CMOS) D300
Sony IMX-038-BQL (CMOS) D90, D5000, D300s (?)
Sony IMX-128-(L)-AQP (CMOS) D600, D610, D750
Sony IMX-028 (CMOS) D3x
Sony ICX-453-AQ (CCD) D40, D50, D70, D70s
Sony ICX-493-AQA (CCD) D40x, D60, D80, D3000
Sony ICX-483-AQA (CCD) D200
Sony ICX-413-AQ (CCD) D100
Sony IMX-193-AQK (CMOS) D7200 (?), D5300, D5500, D5600, D3300, D3400, D3500
Sony (имя модели неизвестно) (CCD) D1, D1h
Sony (имя модели неизвестно) (особый ‘прямоугольный’ CCD) D1x
Toshiba HEZ1 TOS-5105 (CMOS) D5200, D7100
Toshiba (Sony) T4K54 (CMOS) D5, D6 (?)
Sony IMX-321 (CMOS) D500, D7500
Sony IMX-309-AQJ (backside illumination CMOS) D850 (сам сенсор от Towerjazz?)
Sony IMX-309-BQJ (backside illumination CMOS) Nikon Z7, Z7 II (похож на IMX-309-AQJ)
Sony Nikon Z6, Z6 II, Z5 (похож на IMX-128)
Sony? (stacked backside-illuminated CMOS)
Nikon Z9
Sony? (похож на IMX-321)
Nikon Z50, Z fc

Хочу отметить, что сам сенсор – это основа для качественного изображения, но на аппаратном уровне есть еще много важных частей, таких как ширина ADC, возможности процессора и многое другое, которые формируют итоговое изображение.

Мой опыт

Лично мне абсолютно все равно, что там в фотоаппарате, лишь бы он хорошо работал и выполнял нужные задачи. Меня абсолютно не волнует кто, или где делаются те или иные сенсоры. Составленная мной табличка создана больше ради интереса. Конечно, хотелось бы, чтобы компания Nikon сама производила свои сенсоры, так как это сердце современного фотоаппарата, а Nikon знает смысл в качественных вещах. Да и что будет, если Sony перестанет поставлять\продавать свои сенсоры для Nikon?

Также хочу отметить, что Sony производит\продает свои сенсоры не только для Nikon, но и сама производит фотоаппараты на базе своих сенсоров, а также много фотоаппаратов Pentax (а с ним и Samsung) тоже используют сенсоры Sony.

Свои мысли на щекотливую тему сенсоров оставляйте в комментариях.

Комментарии к этой заметке не требуют регистрации. Комментарий может оставить каждый. Для подбора разнообразной фототехники я рекомендую E-Katalog и Aliexpress.

Материал подготовил Аркадий Шаповал. Ищите меня на Youtube | Facebook | VK | Instagram | Twitter.

Замена CMOS матрицы фотоаппарата — «Golden mir»

Замена CMOS матрицы фотоаппарата выполняется только при её выходе из строя или при повреждениях.
Современные матрицы CMOS в фотоаппаратах являются довольно надёжными. Их выход из строя без внешних воздействий очень маловероятен. Повреждения и неисправности матрицы CMOS можно разделить на механические с внешним повреждением стекла или корпуса. И на внутренние, когда матрица остаётся целая, а фактически уже не работает или работает не корректно.

Механическое повреждение матрицы возможно при сильных падениях или ударах фотокамеры. Когда какие-либо обломки и осколки механизма или объектива воздействуют непосредственно на матрицу. При таких повреждениях возможно появление царапин на стекле матрицы CMOS или даже появлению трещин. Такая матрица уже не работоспособна, так как получить изображение с неё без следов царапин или трещин уже не возможно.

Более простой вариант повреждения стекла матрицы CMOS, это появление царапин при попытках очистки матрицы. Царапины могут появиться от применения неподходящего инструмента. Или от неправильного удаления песчинок песка с поверхности стекла матрицы.

Внутренние повреждения матрицы CMOS могут возникать при съёмке солнца или при съёмках на лазерных шоу. При таких дефектах на изображении появляются полосы или пятна. Обычно они бывают чёрного цвета. Пользоваться фотоаппаратом становиться нельзя, так как все снимки будут повреждены.

Назависимо от того, каким образом была вызвана неисправность матрицы CMOS, она подлежит замене. Восстановить или отремонтировать вышедшую из строя матрицу CMOS нельзя. Для выполнения замены матрицы требуется разборка фотокамеры. В зависимости от конструкции камеры и её класса, может потребоваться частичная или практически полная разборка фотоаппарата. Практически всегда после замены матрицы CMOS требуется выполнение настройки фотокамеры.

Самостоятельное выполнение операции по замене матрицы CMOS, в большинстве случаев неосуществимо. Для выполнения такого ремонта требуется применение специализированного оборудования и определённая квалификация мастера осуществляющего ремонт.

 


Контактная информация    —          8 (903) 789 54 70
    г. Москва ул. Сущевский вал дом 5, стр. 12, м. Савёловская, ТЦ «Савёловский», Мобильный ряд, павильон Л-173.
   понедельник — пятница — 10.00-20.30
   суббота — воскресенье — 10.00-19.00

 


Виды чистки матрицы фотоаппаратов

Виды чистки матрицы фотоаппаратов

Различают три типа чистки матрицы фотоаппаратов: бесконтактная, сухая и мокрая чистки.

Бесконтактная чистка матрицы

Только такая чистка матриц является официально разрешенной производителями зеркалок. Заключается этот вид в обдуве поверхности матрицы потоком воздуха из фото-груши. Данный способ является практически полностью безопасным в плане механического повреждения сенсора. Такая чиста матрицы фотоаппарата не панацея в борьбе с очень меленькими частицами, которые удерживаются под влиянием статики, и «приварившимися» пылинкам. Однако продувка матрицы фото-грушей наносит много более мелкой пыли. Крайне не рекомендуется ! После использования вы гарантированно станете нашим клиентом .

Сухая чистка матрицы

Самый распространенный вид сухой чистки матрицы производится с помощью специально кисточки. Такие кисточки могут притягивать пылинки к предварительно наэлектризованным волоскам или же, наоборот, снимают статический заряд с поверхности сенсора, что помогает легко удалить попавшую пыль или грязь. Самое главное в такой чистке матрицы фотоаппарата — это поддерживание кисточек в идеальной чистоте. Однако данный способ чистки неэффективен при чистке прочно прилипших пылинок. Есть также способ удаления пыли с помощью липких палочек и с помощью тонких карандашей LensPen . Все эти методы гарантированно оставляют царапины на матрице.

Мокрая чистка матрицы

Этот способ чистки матрицы проходит с использованием специальных «швабр», которые предварительно смазываются определенной жидкостью. Только данный метод справляется с «приваренной» пылью. Он довольно безопасен для матрицы , но при условии минимального владения такими навыками. Если же вы не обладаете навыками такой чистки матрицы матрицы, самодеятельная чистка может привести к повреждению матрицы и механизмов . Ведь существует множество нюансов, которые надо знать. Мы консультируем бесплатно.Звоните.

Положитесь на опыт профессионалов, а не на свой страх и риск!

 

 

 

Мы профессионально чистим матрицы. В вашем присутствии и с гарантией.
Гарантия 2 недели
Цена услуги составляет 300 грн.
Чистка матрицы производится ТОЛЬКО в вашем присутствии.
Длительность:1 час.
Рабочее время: по договорённости или по записи — тел. 095 3301415.
Батарея фотоаппарата должна быть заряжена на 100%.
При себе иметь карту памяти и желательно все объективы.

Консультируем бесплатно и с удовольствием.

Замена матрицы на фотоаппарате Canon EOS 1100D

Не будет секретом то, что матрица – это самый дорогостоящий компонент любого фотоаппарата. При этом, проще простого нанести вред светочувствительному элементу по незнанию или по несчастливому стечению обстоятельств.

Итак, перечислим все сценарии, в ходе которых матрица фотоаппарата может быть непоправимо (или поправимо) повреждена:

  • Механическое повреждение светочувствительного полотна или защитного стекла в ходе неквалифицированной попытки чистки. Кроме того, беззеркальные фотоаппараты, у которых доступ к матрице появляется сразу после демонтажа объектива. Их сенсор ещё легче повредить даже без попыток чистки, а при переустановке объектива.
  • Вода и влажная среда вредит матрице фотоаппарата ровно также, как и остальным электронным компонентам совершенно любого устройства.
  • Попадание на поверхность матрицы лазера может спровоцировать черные пятна или полосы.
  • Повреждения контактной площадки и шлейфа матрицы.

Диагностика Canon EOS 1100D – почему появились полосы на фотографиях?

К нам был доставлен фотоаппарат Canon EOS 1100D. При заполнении заявки на ремонт, владельцы сообщали, что на всех снимках присутствуют полосы. Также было выявлено, что фотоаппарат Canon EOS 1100D при падении претерпел сильное механическое воздействие.

Инженер принял фотоаппарат в работу, строя предположение о неисправности шлейфа матрицы фотоаппарата Canon EOS 1100D, которая появилась из-за рокового падения.

Однако разбор и осмотр показали, что изначальное предположение было ошибочным – шлейф был цел. Дополнительная диагностика сенсора показала, что возникшая неисправность локализируется на межслойном уровне матрицы фотоаппарата Canon EOS 1100D.

Ремонт фотоаппарата Canon EOS 1100D: замена матрицы

Единственным способом, который поможет избавиться от ненавистных полос в поле снимка, станет замена матрицы фотоаппарата.

Довольно быстро матрица для Canon EOS 1100D была отгружена и доставлена к нам в сервис. Инженер установил её в фотоаппарат.

Далее следовала настройка и синхронизация новой матрицы с системной платой фотоаппарата для корректной цветопередачи и резкости фотографий.

Все мероприятия по замене матрицы на Canon EOS 1100D произведены успешно, поэтому отремонтированный фотоаппарат возвращается к своим владельцам с трёхмесячной гарантией от сервисного центра Фотоблик.

Копирование контента с сайта Fotoblick.ru возможно только при указании ссылки на источник.

© Все права защищены.

Проблемы с матрицей фотоаппарата

Все вещи ломаются и выходят из строя, не составляют и исключение цифровые фотоаппараты. Чем нежнее техника, тем чаще могут встречаться те или иные поломки. Неисправности условно разделяются на физические и технические. К физическим поломкам относятся: попадание влаги или песка внутрь корпуса, механические повреждения, перегрев фотокамеры. К техническим неисправностям относятся сбои в программном обеспечении, неисправность матрицы, повреждения объектива или дисплея и т.д.

Больше половины не гарантийных ремонтов приходится из-за механических повреждений, так как фотоаппарат является переносным оборудованием, то часто его роняют иногда удачно, а иногда и не удачно. В результате падения может повредиться не только корпус, но и внутренние его части, такие как объектив, системная плата, экран.

Много ремонтов происходит из-за такой неполадки как попадание влаги внутрь фотоаппарата. Если случилась такая неприятность, и вы случайно уронили фотокамеру в воду или намочили ее, то нужно сразу же вынуть аккумуляторы питания и отнести ее в сервисный центр. Попадание влаги внутрь грозит окислению практически всех деталей, а если же она побывала еще и в морской воде, то соль может разъесть мелкие соединения. Так что если на первый взгляд вам показалось, что все в порядке и фотоаппарат работает, то лучше всего не тянуть, а отнести его специалистам.

Одной из самых распространенных поломок фотоаппарата является нерабочее программное обеспечение, без него он либо работает не корректно, либо вообще не включается. С такой проблемой лучше идти ни в интернет или горе-мастерам, а прямо в сервисный центр, пока есть шанс реабилитировать то, что осталось.

Также в цифровых фотоаппаратах ломается выдвижной механизм объектива, довольно хрупкая вещь. Часто из строя выходит матрица, а вот поломок связанных с выходом из строя системной платы достаточно маленький процент.

В любом случае, что бы у вас не сломалось в цифровом фотоаппарате не стоит откладывать визит в сервисный центр, ведь жизнь не стоит на месте, есть много моментов, которые просто необходимо сфотографировать.

«Все новое – хорошо забытое старое». Чего не скажешь про цифровой фотоаппарат, который почти полностью вытеснил пленочный. И не напрасно, поскольку цифровой фотоаппарат имеет множество преимуществ. Соответственно, появились и новые проблемы. Поэтому, в этой статье мы рассмотрим основные поломки и неисправности цифровых фотоаппаратов.

Все неисправности условно можно поделить на физические и технические. К физическим относятся: попадание влаги, песка, перегрев фотокамеры, механические повреждения (удары/падения)

1.Попадание влаги внутрь корпуса. Это одна из основных причин поломки. Причем не обязательно ваш фотоаппарат должен попасть под дождь – достаточно, чтобы он полежал некоторое время в сыром помещении. При этом «подступность» влаги в том, что ее действия незаметно и чем дольше ваш аппарат лежит, тем вероятнее его полный выход из строя. При этом внутри аппарата происходят окислительные процессы электронных элементов.

Если у вас возникли подозрения, что в фотоаппарат попала влага (например, кнопка включения и другие кнопки управления не реагируют), то, в первую очередь, необходимо выключить аппарат, вынуть батарею и поместить его в теплое сухое место. Если официальная гарантия закончилась, то можно самому попробовать во всем разобраться. Для этого понадобится ручные инструменты, в комплект которых входят: набор отверток, пинцет, единица из набора для открывания корпусов, салфетка. Раскрутив корпус, диагностику провести просто – если на внутренних деталях нет отложений солей белого цвета (от попавшей влаги), то можно самому произвести просушку деталей с помощью специальной салфетки. Ни в коем случае нельзя использовать фен, поскольку существует вероятность увеличения площади повреждения.

2.Механические повреждения – очень распространенная причина поломки. Учитывая, что фотоаппарат является переносным устройством, то риск падения или удара очень высок. При этом возможны два вида повреждения: внешние – повреждения корпуса или дисплея и внутренние – повреждения электроники, объектива, в т. ч. механизма зум и других деталей.

В первом случае все просто – незначительные царапины или трещины на корпусе на функциональность не влияют. А от разбитый дисплей. но и его можно заменить. Более детальная информацию по замене дисплея к цифрового фотоаппарата вы можете прочитать в предыдущих статьях.

При повреждении внутренних деталей и механизмов, скорее всего, нужно проводить полную разборку либо самого аппарата (body), либо объектива.

Основные признаки поломки объектива связаны с выходом из строя механизма зум, т. е. невозможно произвести фокусировку.

3.Попадание песка – данная неисправность встречается также очень часто, особенно в летний период. Даже мелкие частицы пыли могут произвести к проблемам. Особенно, это касается объектива фотоаппарата. Основными признаками поломки является утрудненное движения механизма объектива либо полная его блокировка.

Для устранения данной неисправности необходимы специальные бумажные шаблоны и жидкость для фиксирования объектива. Если этим способом не удается устранить неисправность, тогда приступаем к разборке фотоаппарата.

4.Нарушение теплового режима. При этом внутренние детали фотоаппарата сильно перегреваются, плавятся – это грозит выходом из строя всего аппарата. В этом случае нужно произвести его разборку, выяснить какие детали вышли из строя и их заменить. Если дела совсем плохи, тогда в сервис-центр, но со своими комплектующими.

К техническим неисправностям относятся: неисправности матрицы, объектива, дисплея и других механизмов, а также сбои в программном обеспечении.

Повреждение дисплея

Данная поломка встречается очень часто. Наиболее подвержены риску цифровые фотоаппараты без защитного стекла. В этих моделях даже при легком надавливании можно повредить дисплей.

Основные признаки неисправности ЖК-дисплея: видимые трещины, растекания жидких кристаллов, частичное отображение информации либо ее полное отсутствие. При возникновении такой неисправности Вы самостоятельно можете заменить дисплей на новый. Все необходимые комплектующие и инструменты для ремонта Вы можете найти в нашем интернет-магазине.

Повреждение объектива

Объектив цифрового фотоаппарата очень чувствителен к физическим и механическим воздействиям. Даже незначительные загрязнения на его поверхности могут причинить ему вред. Поломка проявляется чаще всего в плохой фокусировке изображения и плохой работе зума. Выдвинутый объектив, который не реагирует на включение, свидетельствует о проблемах с механизмом привода. В этом случае возможен выход из строя такой хрупкой детали, как шестерни, зубья которых ломаются. При этом попадания даже самых мелких песчинок между шестерни может заблокировать работу механизма зум.

Тогда нужно почистить объектив, используя специальную бумагу и щеточку. Если проблемы не устранены, то приступаем к разборке и замене деталей. И не экономьте на специальных чистящих средствах для объектива. Но и не переусердствуйте, поскольку частая чистка также негативно сказывается на работе механизмов.

Неисправности фотовспышки

Неисправности фотовспышки – один из распространенных видов поломки цифровых фотоаппаратов. Основные признаки неисправности: отснятое изображения слишком темное или светлое, изображение отсутствует вообще.

Если у вас встроенная фотовспышка, то необходимо произвести разборку самого аппарата и прочистить вспышку. Если и это не поможет, то необходима ее замена. В принципе, процедура не сложная и не требует много усилий. В профессиональных фотоаппаратах используются внешние вспышки, которые подключаются к нему через специальный контакт, так называемый, горячий башмак. Именно его поломка может привести к полному отказу вспышки.

Неисправности интерфейсов фотоаппарата

Поскольку цифровой фотоаппарат удобен тем, что полученные с него снимки можно обрабатывать, то частое использование интерфейсов фотоаппарата просто необходимость – это аудио- и видео выходы, USB разъем и другие разъемы (зависит от модели). Естественно, что и они выходят из строя.

Ремонт интерфейса фотоаппарата в этом случае не составляет труда и заключается в замене расшатавшегося разъема. Для этого вам понадобится набор отверток, который можно приобрести через интернет-магазин.

Конечно, возможны еще некоторые поломки цифровых фотоаппаратов, но они встречаются реже. Если же остановится более детально на моделях, то можно выделить типичные неисправности для каждой модели. Рассмотрим несколько из них:

– Sony DSC-T9: вышел из строя механизм зум, на экран выдает ошибку Е61. Причина и ее решение: заклинило шаговый двигатель механизма зум или повреждены шестерни – необходимо заменить весь механизм.

– CANON ixus 40 (и другие модели): не работает фотовспышка. Причина и ее решение: неисправны элементы микросхемы (25AAJ). Неисправный элемент необходимо заменить на 20AAJ (от схемы вспышки пленочного фотоаппарата).

– Olympus MJV 410: вышла из строя вспышка. Решение проблемы: необходимо припаять разъем от платы вспышки к основной плате.

– NIKON E5000: при включении фотоаппарата объектив выдвигается и стопорится; выключается аппарат только после того, как вынуть и засунуть обратно батарею питания. Проблема и ее решение: проблемы с разъемом CN103 – необходима замена самого разъема.

– Sony DSC-F717: полученное изображение искажено и размазано. Проблема и ее решение: отказ некоторых элементов матрицы – необходимо заменить матрицу.

Как проверить музыку на авторские права на YouTube?

4 объектива для съемки видео на КРОПЕ. Рассмотрим на примере фотоаппаратов Canon.

Как убрать фликер в видео? Убираем мерцание (flicker) в Adobe Premiere Pro с помощью плагина.

Создание видео Love Story. Это вам не фото штамповать!

Зачем вам 10 bit 4:2:2 и S-log?

Выгорает ли матрица фотоаппарата со временем?

Выгорает ли матрица фотоаппарата при его долгом использовании?

В этой заметке речь пойдет не о том, что будет с матрицей, если ее направить на полчаса на солнце или несколько секунд светить в нее лазером мощностью 200 милливатт. Очевидно, что в первом случае она очень сильно нагреется, что может привести к ее быстрой деградации и появлению «горячих» пикселей, во втором случае, она выйдет из строя прямо у вас на глазах.

Выгорает ли матрица фотоаппарата?

Вопрос в другом: многие, в том числе и профессиональные фотографы верят в миф, что матрица у зеркалок со временем портится, цвета тускнеют, снижается динамический диапазон (хотя большинство фотографов вообще не знают, что это такое) и что от зеркалки с пробегом 200 000 надо быстрее избавляться, потому что она уже не торт.

Собственно, меня эти заблуждения всегда только забавляли и не особо волновали, но как-то недавно мне моя знакомая (фотограф) вновь озвучила эту страшную болезнь зеркалок – выгорание матрицы. Я поинтересовался, откуда она это знает, на что она сказала, что ей это поведал продавец в фотомагазине (тоже фотограф). И ладно бы это был супермаркет, где продавцы имеют весьма отдаленное представление касательно технических процессов в фотографии. Но это специализированный магазин фототехники (у нас в городе их всего 2, но какой именно я писать не буду). А сказали этой девочке так, потому что она принесла свой Nikon D600, которому уже больше 2-х лет с жалобами, что на картинке появились дефекты изображения:

– А какой пробег у него?

– Ну под 100 000 уже.

– Так а что вы хотели, матрица уже выгорает.

Такого бреда я не ожидал услышать. Дальше знакомым фотографам лучше покинуть эту страницу, потому что некоторые предложения им могут не понравиться)))

Итак, предположим, что вы сделали 200 000 снимков. Среднее время выдержки примерно 1/200 секунды. (Хотя на самом деле, оно еще меньше, т.к. на улице днем снимают на диафрагмах F1.4 – F2.8 и шаттере 1/2000 – 1/8000. Но мы возьмем самый нереальный вариант – фотограф снимает только ночью в клубе со вспышкой)

Итак, сделав 200 000 фото на средней выдержке 1/200 получается, что свет падал на матрицу 1000 секунд. Это меньше 17 минут. Т.е. на основании логики «выгорания» матрицы, включив Live View или снимая видео, ровно через 17 минут ваша матрица начнет выгорать, цвета тускнеть, контрастность падать. Тогда каким образом миллионы людей, и я в том числе, снимают ЧАСАМИ видео на зеркалки в течение нескольких лет и никаких проблем с матрицей не происходит? На современных фотоаппаратах она даже не перегревается от непрерывной съемки в течение многих часов!

Вот вам и ответ: матрица не «выгорает» от долгого использования. Если у вас дефекты изображения после длительного общения с фотоаппаратом – то вам просто нужно сдать матрицу на чистку.

А теперь, собственно, хочу перейти к главной части этой заметки: почему люди верят в такую чушь? И не простые люди, а фотографы, профессиональные фотографы. Итак, для начала, следует задать вопрос: почему современные фотографы вообще не шарят в том, как работает фотоаппарат на котором они зарабатывают деньги? Почему любой видеограф знает про DSLR в 10 раз больше фотографа? Я не хочу тут разводить писанину на тему, что сложнее – делать видео или снимать фото, это и так очевидно.

Но вот почему любой человек, который освоил режим «M» на фотоаппарате, автоматически причисляется к рангу профессиональных фотографов и считает, что ему больше знать ничего не нужно? Я в 11 лет уже снимал на отцовский «Зенит» и знал, что такое экспонометр. Получается я тогда уже был профессиональным фотографом.

Итак, сколько фотографов из числа ваших знакомых знает ответы на простейшие вопросы о фототехнике:

– Что такое динамический диапазон, в чем он измеряется и как зависит от плотности пикселей на матрице?

– Что такое муар и алиасинг и зачем в некоторых фотоаппаратах стоит оптический фильтр низких частот (Canon 5Ds, Nikon D800), а в некоторых не стоит (Canon 5Ds R, Nikon D800E) и как он влияет на изображение?

– Что такое бандинг и чем 12-битный RAW отличается от 14-битного?

– Что такое Rolling Shutter?

– Кто-то знает, что такое «Native ISO» и насколько радикально зависит динамический диапазон фото от значения светочувствительности?

– Что значит, что стабилизатор объектива компенсирует 4 стопа экспозиции?

– Много ли владельцев Nikon знают, что могут поменять фокусировочный экран и понимают ли они, что это вообще такое?

– Почему в режиме Live View не может работать обычная система автофокуса и нужно ставить дополнительные датчики фокуса прямо на матрицу?

Это абсолютно несложные вопросы, ответы на которые знает практически любой видеограф. Но не знает практически любой фотограф).

Заметьте, здесь нет вопросов про EOS iTR и EOS iSA, нет и о том, чем матрицы с обратной засветкой засветкой лучше обычных КМОП, никто даже не просит расшифровать этот КМОП (CMOS). Нет вопросов про систему экспозамера из 150 000 RGB датчиков, которые объединяется в 252-зонный TTL экспозамер, и чем крестообразный датчик автофокуса лучше обычного, и какие из них могут работать с диафрагмами меньше F2.8, а какие не могут?

Разумеется, чтобы снимать фотографии, можно всего этого и не знать. И продолжать считать, что матрица со временем выгорает. Более того, если человек зарабатывает только фотографией – то он уже автоматически является «профессионалом», потому что это, как не крути, его профессия. Кто-то может сказать, что для того, чтобы делать крутые фотки, все это можно и не знать. Это правда, миллиарды людей на планете вообще в школе не учились и как-то же живут.

Но вот вам один пример: зависимость динамического диапазона Canon 5D Mark III и Nikon D800 от значения ISO.

Теперь вам понятно, почему у Nikon из RAW тени тянутся на «ура», а у Canon это выглядит как грязная каша? Все дело в дополнительных 2-х стопах динамического диапазона. Наверное, вы также замечали, что на больших ISO картинка выглядит более плоской? Теперь вы, хотя бы, будете знать почему. А ведь это непосредственно влияет на качество картинки.

Так, может, лучше немного разобраться, как, все-таки, работает фотоаппарат?

На что влияет диагональ матрицы фотоаппарата

Диагональ матрицы фотоаппарата определяет ее геометрические размеры. Этот параметр обычно указывается в дюймах и записывается в виде дроби, например, 1/1,8. Кто немножко знаком с математикой или помнит со школы теорию дробей, тот сразу поймет, что 1/2,7 меньше, чем 1/1,6. В свою очередь 1/1,6 меньше, чем 2/3. Можно и дальше проводить сравнения, но думаю с этим и так все ясно.

Диагональ матрицы фотоаппарата показывает, какую площадь на ней имеет квадратик размером в 1 пиксель. Понятно, что чем больше площадь пикселя, тем больше информации можно получить от сенсора, а это означает, что получаемые данные будут более точными.

Если линейные размеры матрицы не менять, а продолжать наращивать разрешение, что сейчас наблюдается у ряда моделей фотоаппаратов, то нам не удастся улучшить снимок. Скорее наоборот, появится шум. Поэтому, чем меньше диагональ матрицы фотоаппарата, тем сильнее она шумит.

Если диагональ матрицы фотоаппарата совсем небольшая, а разрешение высокое, то при значениях ISO в 400 единиц матрица начинает давать шумы. Кроме того, само изображение становится как бы замыленным, отсюда и пошло название «цифромыльницы».

Объясняется такое явление очень просто. Размеры сенсора должны быть приведены в соответствие размерам изображения. В ряде моделей фотоаппаратов диагональ изображения гораздо меньше диагонали матрицы фотоаппарата.

Рисунок 1. Сравнительное соотношение диагоналей матриц фотоаппаратов.

Фирма производитель крупным шрифтом указал количество мегапикселей, а реальное разрешение кадра либо вообще не указал, либо сделал его очень мелким шрифтом, прочитать который с ходу не представляется возможным.

Диагональ матрицы фотоаппарата влияет не только на чувствительность и динамический диапазон. Разработчики матриц, увеличивая их разрешение, оставляли максимальную совместимость с моделями ранних выпусков. Это позволяло упростить переход на новые типы ПЗС — матриц.

При этом размер сенсора оставался неизменным, что приводило к уменьшению чувствительности пикселя, а это серьезно сужало динамический диапазон матрицы.

В цифровых камерах, созданных на базе пленочных, диагонали матриц сравнительно большие. Чувствительность давно перешагнула планку в ISO 6 400, что существенно расширило динамический диапазон.

Таким образом, приобретать фотоаппарат с маленькой диагональю матрицы бессмысленно, даже несмотря на тот факт, что цена на такие модели весьма интересная.

P. S. Если данная статья была полезна для вас, поделитесь ею со своими друзьями в социальных сетях! Для этого просто кликните по кнопкам ниже и оставьте свой комментарий!

С этой статьей так же читают:

матриц — Как найти положение и поворот камеры из матрицы 4×4?

Я недостаточно знаком с этой областью, чтобы знать, что такое соглашения, но я могу предоставить некоторый общий контекст.

Однородная матрица камеры размером $ 4 \ times 4 $ преобразует координаты из мирового пространства в пространство камеры. По-видимому, эта матрица , а не , включает перспективную проекцию, поэтому мы фактически говорим об аффинном преобразовании. Сама матрица может сказать вам, где находится камера в мировом пространстве и в каком направлении она указывает, но больше ничего не может сказать — для этого вам нужны другие параметры камеры.

Поскольку мы говорим здесь только о трансформации, нам нужны условные обозначения, чтобы рассказать нам о камере. Я привык к соглашениям о том, что в пространстве камеры камера расположена в начале координат и имеет оси, которые выглядят следующим образом:

Другими словами, камера смотрит вдоль положительной оси Z, а ось Y направлена ​​вверх. В этой системе вы можете преобразовать вектор $ \ left [0, 0, 1 \ right] $ с помощью обратного преобразования, чтобы получить вектор обзора камеры в мировом пространстве и точку $ \ left [0, 0, 0 \ right ] $, ​​чтобы получить положение камеры в мировом пространстве.T \, \ left [\ begin {array} {c} 0 \\ 0 \\ 1 \ end {array} \ right] $.

Это говорит вам примерно столько, сколько вы можете получить из матрицы. Все остальное зависит от других свойств камеры.

матриц — Поиск конкретной матрицы преобразования камеры

Поскольку плоскость, в которой лежат цели, параллельна плоскости изображения, гомография между ними представляет собой простое аффинное преобразование, в частности, равномерное масштабирование с переносом (также с поворотом, если камере разрешено вращаться вокруг своей оси.) Достаточно легко построить матрицу для этого преобразования. Пусть положение камеры в мировых координатах будет $ \ tilde {\ mathbf C} = (x_c, y_c, z_c) $ с $ z_c \ gt0 $, а эффективное фокусное расстояние камеры будет $ f $, так что плоскость изображения равна $ z = c_z-f $. Соответствующая матрица проекции: $$ \ mathcal P = \ begin {bmatrix} f & 0 & -x_c & (z_c-f) x_c \\ 0 & f & -y_c & (z_c-f) y_c \\ 0 & 0 & — (z_c-f) & (z_c-f ) z_c \\ 0 & 0 & -1 & z_c \ end {bmatrix}. $$ Если мы возьмем точку непосредственно под камерой в качестве начала координат изображения, то мы получим гомографию $$ \ mathcal H = \ begin {bmatrix} \ frac f { z_c} & 0 & — \ frac f {z_c} x_c \\ 0 & \ frac f {z_c} & — \ frac f {z_c} y_c \\ 0 & 0 & 1 \ end {bmatrix} = \ begin {bmatrix} \ frac f {z_c} & 0 & 0 \\ 0 & \ frac f {z_c} & 0 \\ 0 & 0 & 1 \ end {bmatrix} \ begin {bmatrix} 1 & 0 & -x_c \\ 0 & 1 & -y_c \\ 0 & 0 & 1 \ end {bmatrix}, $$ i.{-1} = \ begin {bmatrix} \ frac {z_c} f & 0 & x_c \\ 0 & \ frac {z_c} f & y_c \\ 0 & 0 & 1 \ end {bmatrix}. $$

Как вы восстанавливаете положение камеры в мировых координатах по измеренным местоположениям целей, будет зависеть от того, что вы знаете о камере и целях. Очевидно, поскольку вы знаете направление начала координат от каждой цели, вычисление изображения начала координат мира — это простой вопрос поиска пересечения пары линий. Это дает вам три неколлинеарных точки на изображении $ \ mathbf q_0 $, $ \ mathbf q_1 $ и $ \ mathbf q_2 $ — мировое начало и две цели.{-1}. $$ Из этого вы можете восстановить $ x_c $, $ y_c $ и соотношение $ z_c / f $. К сожалению, не зная эффективного фокусного расстояния $ f $, вы не можете восстановить координату $ z $ камеры. Если вы можете определить пару линий на изображении, которые соответствуют ортогональным линиям в исходной плоскости, есть способ восстановить $ f $, но в противном случае вам придется получить эту информацию в другом месте.

Если вы не знаете мировые координаты целей, но знаете их фактические размеры, вы можете использовать это, чтобы восстановить масштабный коэффициент, и, имея его под рукой, вы можете вычислить $ x_c $ и $ y_c $, но для этого потребуется больше данных от изображения, чем только центроиды целей.Если камера имеет неквадратные пиксели и / или имеет перекос, матрица преобразования плоскости исходного изображения в изображение будет иметь вид $$ \ begin {bmatrix} s_x & \ alpha & t_x \\ 0 & s_y & t_y \\ 0 & 0 & 1 \ end {bmatrix} $$ с инверсией $$ \ begin {bmatrix} \ frac1 {s_x} & — {\ alpha \ over s_xs_y} & — \ left ({1 \ over s_x} t_x — {\ alpha \ over s_xs_y} t_y \ right) \ \ 0 & \ frac1 {s_y} & — {1 \ over s_y} t_y \\ 0 & 0 & 1 \ end {bmatrix}. $$ Как и раньше, найти $ x $ — и $ y $ -координаты камеры просто — они последний столбец обратной матрицы, но для определения координаты $ z $ потребуется дополнительная информация о камере.

Матрицы преобразования цвета в цифровых камерах: учебное пособие

1.

Введение

Рассмотрите возможность преобразования сцены, снятой цифровой камерой в необработанном пространстве камеры, в цифровое изображение, подходящее для отображения с использованием цветового пространства, ориентированного на вывод. По крайней мере, есть два принципиально важных вопроса, которые необходимо решить, пытаясь правильно воспроизвести внешний вид цвета. Во-первых, функции отклика цифровых фотоаппаратов отличаются от функций зрительной системы человека (HVS).Широко используемый подход к этой проблеме состоит в том, чтобы рассматривать цветовые пространства как векторные пространства и учитывать различия в ответах путем введения матрицы преобразования цветов. Типом матрицы преобразования цвета, который обычно встречается, является матрица характеристик 3 × 3 T_, которая определяет линейную взаимосвязь между необработанным пространством камеры и эталонным цветовым пространством CIE XYZ:

В общем, необработанные пространства камеры не являются колориметрическими, поэтому приведенное выше преобразование приблизительное. Взаимосвязь может быть оптимизирована для данного источника света путем минимизации цветовой ошибки.Примечательно, что это означает, что оптимальная T_ зависит от характера источника света сцены, 1 , 2 , включая его точку белого (WP). Методология характеристики для определения оптимального T_ описана в разд. 2.4, вместе с иллюстрацией того, как T_ следует нормализовать на практике.

Вторая проблема, которую необходимо решить, — это восприятие сцены освещения WP. Хотя различные механизмы адаптации, используемые HVS, сложны и не до конца понятны, считается, что HVS естественным образом использует механизм хроматической адаптации для регулировки своего восприятия WP освещения сцены для достижения постоянства цвета при различных условиях освещения. 3 , 4 Поскольку датчики цифровой камеры не адаптируются естественным образом таким образом, неправильный баланс белого (WB) будет возникать, когда WP освещения сцены отличается от эталонного белого цветового пространства, связанного с выходом, используемого для кодировать выходное изображение, созданное камерой. Как показано в разд. 3, цифровые камеры должны пытаться имитировать этот механизм хроматической адаптации, используя соответствующее преобразование хроматической адаптации (CAT).

Как обсуждалось в разд.4, современные смартфоны и коммерческие необработанные преобразователи обычно вычисляют оптимальную характеристическую матрицу T_ путем интерполяции между двумя предварительно установленными характеристическими матрицами в соответствии с оценкой WP освещения сцены, и CAT реализуется после применения T_. В традиционных цифровых камерах преобразование цвета обычно переформулируется в терминах множителей необработанных каналов и матриц поворота цвета R_. Этот подход предлагает несколько преимуществ, как обсуждалось в разд. 5. Подобный, но более простой в вычислительном отношении подход используется конвертером исходных данных DCRaw с открытым исходным кодом, как обсуждается в разд.6. Конвертер цифровых негативов Adobe ® с открытым исходным кодом (DNG) предлагает два метода преобразования цветов, и природа цветовых матриц Adobe и прямых матриц обсуждается в разд. 7. Наконец, в разд. 8.

2.

Camera Raw Space

2.1.

Gamut

Необработанное пространство камеры для данной модели камеры возникает из ее набора функций спектральной чувствительности или функций отклика камеры:

Eq. (2)

Ri (λ) = QEi (λ) eλhc, где e — заряд элемента, λ — длина волны, h — постоянная Планка, а c — скорость света.Внешний квантовый выход для мозаики i определяется формулой

Eq. (3)

QEi (λ) = TCFA, i (λ) η (λ) T (λ) FF, где TCFA, i — функция пропускания матрицы цветных фильтров (CFA) для мозаики i, η (λ) — заряд эффективность сбора или внутренняя квантовая эффективность фотоэлемента, а T (λ) — функция пропускания границы раздела SiO2 / Si. 5 Коэффициент заполнения определяется как FF = Adet / Ap, где Adet — это светочувствительная область обнаружения на фотосайте, а Ap — это площадь фотосайта. Спектральная полоса пропускания камеры должна идеально соответствовать видимому спектру, поэтому требуется фильтр, блокирующий инфракрасное излучение.

По аналогии с функциями отклика конуса глаза HVS, которые можно интерпретировать как определение количества основных цветов конуса глаза, которые глаз использует для восприятия цвета при заданном λ, функции отклика камеры можно интерпретировать как определение количества основные цвета необработанного пространства камеры на каждом λ. Например, измеренные функции отклика камеры Nikon D700 показаны на рис. 1. Однако необработанное пространство камеры является колориметрическим, только если выполняется условие Лютера-Айвса: 7 9 , что означает, что отклик камеры функционирует. должно быть точным линейным преобразованием функций отклика конуса глаза, которые косвенно представлены как линейное преобразование из функций согласования цвета CIE для стандартного наблюдателя.

Рис. 1

Функции отклика камеры Nikon D700. Пиковая спектральная чувствительность нормирована на единицу. Данные получены из исх. 6.

Хотя функции отклика конуса глаза подходят для захвата деталей с помощью простого объектива человеческого глаза, в цифровых камерах используются составные линзы, которые были скорректированы на хроматическую аберрацию. Следовательно, функции отклика камеры разработаны с учетом других соображений. 10 , 11 Например, лучшее соотношение сигнал / шум достигается за счет уменьшения перекрытия функций отклика, что соответствует характеристической матрице с меньшими недиагональными элементами. 10 12 Действительно, незначительные цветовые ошибки могут быть заменены на лучшее соотношение сигнал / шум. 10 13 С другой стороны, повышенная корреляция в измерении длины волны может улучшить производительность процедуры цветовой демозаики. 14 Из-за таких компромиссов, а также ограничений, связанных с производством фильтров, на практике функции отклика камеры не являются точными линейными преобразованиями функций отклика конуса глаза.Следовательно, необработанные пространства камеры не являются колориметрическими, поэтому камеры показывают метамерную ошибку. Метамеры — это разные спектральные распределения мощности (SPD), которые HVS воспринимают как один и тот же цвет при просмотре в одинаковых условиях. Камеры с метамерной ошибкой дают разные цветовые отклики на эти метамеры. Метамерная ошибка камеры может быть определена экспериментально и количественно оценена с помощью индекса метамерии чувствительности цифровой фотокамеры (DSC / SMI). 8 , 15

На рисунке 2 показано спектральное геометрическое место HVS на диаграмме цветности xy, которая представляет собой двумерную проекцию цветового пространства CIE XYZ, которая описывает относительные пропорции трехцветных значений.Обратите внимание, что сам спектральный локус имеет форму подковы, а не треугольника из-за того, что перекрытие функций отклика глаз-конус предотвращает независимую стимуляцию глазных колбочек, поэтому цветности, соответствующие координатам цветности (x, y), расположены за пределами спектральные локусы невидимы или воображаемы, поскольку они более насыщены, чем чистые цвета спектра. Цветовой охват необработанного пространства камеры Nikon D700 также показан на рис. 2 и сравнивается с несколькими стандартными цветовыми пространствами для вывода, а именно sRGB, 16 Adobe ® RGB, 17 и ProPhoto RGB. 18 Из-за положений основных цветов необработанного пространства камеры на диаграмме цветности xy, некоторые области гаммы необработанного пространства камеры не достигают спектрального геометрического места HVS, поскольку эти области лежат за пределами треугольной формы, доступной для аддитивных линейных комбинаций три праймериз. Кроме того, заметным следствием метамерной ошибки камеры является то, что необработанная пространственная гамма камеры искажается от треугольной формы, доступной для аддитивных линейных комбинаций трех основных цветов.Некоторые области даже вытеснены за пределы треугольника, доступного для цветового пространства CIE XYZ. 19 См. Исх. 19 для дополнительных примеров.

Рис. 2

Палитра необработанного пространства камеры для Nikon D700 (голубая заштрихованная область), нанесенная на диаграмму цветности xy. Цветовая гамма не является идеальным треугольником, поскольку нарушается условие Лютера-Айвса, что также объясняет, почему определенные области выталкиваются за пределы треугольника, доступного для цветового пространства CIE XYZ, определенного основными цветами, расположенными в (0,0), (0,1 ) и (1,0).Граница серой заштрихованной области в форме подковы определяет спектральное местоположение HVS. Насыщенность уменьшается по мере удаления от спектрального локуса внутрь. Для сравнения указаны (треугольные) гаммы нескольких цветовых пространств, относящихся к стандартному выводу.

Для определения гаммы необработанного пространства камеры первым шагом является измерение функций отклика камеры с использованием монохроматора на дискретном наборе длин волн в соответствии с методом A стандарта ISO 17321-1. 15 Для каждой длины волны функции отклика камеры выдают необработанные относительные трехцветные значения RGB в необработанном пространстве камеры.Второй шаг — преобразовать RGB в относительные значения CIE XYZ путем применения матрицы характеристик, которая удовлетворяет уравнению. (1). Впоследствии координаты цветности (x, y), соответствующие спектральному локусу необработанного пространства камеры, могут быть вычислены с использованием обычных формул x = X / (X + Y + Z) и y = Y / (X + Y + Z ).

Поскольку заданная матрица характеристик оптимизирована для использования с характеристическим источником света, то есть освещением сцены, используемым для выполнения характеристики, другим следствием метамерной ошибки камеры является то, что необработанная пространственная гамма камеры может изменяться в зависимости от применяемой матрицы характеристик.Цветовой охват необработанного пространства камеры Nikon D700, показанный на рис. 2, был получен с использованием матрицы характеристик, оптимизированной для источника света D65 CIE. На рисунке 3 показано, как изменяется цветовая гамма, когда вместо нее применяется матрица характеристик, оптимизированная для источника A CIE.

Рис. 3

То же, что и на рис. 2, за исключением того, что для получения необработанного пространственного охвата камеры использовалась матрица характеристик, оптимизированная для источника света CIE A, а не матрица характеристик, оптимизированная для источника света CIE D65.

2.2.

Необработанные значения

Значения цвета в необработанном пространстве камеры выражаются в виде цифровых исходных значений для каждого необработанного цветового канала, которые аналогичны трехцветным значениям в цветовом пространстве CIE. Для CFA, который использует три типа цветных фильтров, таких как CFA Байера, 20 , необработанные значения, выраженные с использованием единиц, относящихся к выходу, т. Е. Данных / цифровых чисел (DN) или аналого-цифровых единиц, относятся к следующим набор необработанных каналов, обозначенных здесь каллиграфическими символами:

Eq.(4)

[nDN, 1nDN, 2nDN, 3nDN, 4] = [RG1G2B]. Хотя здесь для представления блока Байера использовалась векторная нотация, истинный необработанный вектор пикселей получается только после выполнения цветовой демозаики в в этом случае с каждым фотосайтом будет связано четыре необработанных значения. CFA Байера использует в два раза больше зеленых фильтров, чем красный и синий, что означает, что в целом будут получены два значения G1 и G2, связанные с разными позициями в каждом блоке Байера. Это выгодно с точки зрения общего отношения сигнал / шум, поскольку фотосайты, принадлежащие зеленым мозаикам, более эффективны с точки зрения фотопреобразования.Кроме того, шаблон Байера оптимален с точки зрения уменьшения артефактов наложения спектров, когда три типа фильтров расположены на квадратной сетке. 14 Хотя считается, что большее количество зеленых фильтров обеспечивает повышенное разрешение для сигнала яркости, поскольку стандартная функция яркости 1924 CIE для пиков фотопического зрения при 555 нм, 20 утверждалось, что CFA Байера с двукратным больше синих пикселей, чем красных и зеленых, на самом деле было бы оптимальным для этой цели. 14 При демозаике необработанных данных, соответствующих стандартному CFA Байера, окончательный результат покажет ложные лабиринты или сетки, если соотношение между G1 и G2 меняется по изображению. 21 Программные необработанные преобразователи могут усреднять G1 и G2 вместе, чтобы устранить такие артефакты. 21

Поскольку в принципе существует только три функции отклика камеры, R1 (λ), R2 (λ) и R3 (λ), цветовая характеристика для байеровского CFA рассматривает G1 и G2 как один канал, G. Необработанные значения можно выразить следующим образом:

Ур.(5)

R = k∫λ1λ2R1 (λ) E˜e, λdλ, G = k∫λ1λ2R2 (λ) E˜e, λdλ, B = k∫λ1λ2R3 (λ) E˜e, λdλ. Функции отклика камеры определены формулой. В уравнении (2) интегрирование производится по спектральной полосе пропускания камеры, E˜e, λ — средняя спектральная освещенность на фотосайте, а k — постоянная величина. Выражения для E˜e, λ и k приведены в Приложении.

Фактические необработанные значения, полученные на практике, представляют собой квантованные значения, смоделированные путем взятия целой части уравнения. (5). При преобразовании из необработанного пространства камеры полезно нормализовать исходные значения до диапазона [0,1], разделив уравнение.(5) необработанной точкой отсечения, которая является наивысшим доступным DN.

2.3.

Эталонный белый

Используя приведенную выше нормализацию, эталонный белый цвет необработанного пространства камеры определяется единичным вектором

, выраженным в терминах значений тристимула CIE XYZ или координат цветности (x, y) с Y = 1, эталонного белого необработанного пространства камеры — это WP освещения сцены, которое дает максимально равные исходные значения для нейтрального объекта. (WP SPD определяется трехцветными значениями CIE XYZ, которые соответствуют 100% нейтральному диффузному отражателю, освещенному этим SPD.)

Отсюда следует, что эталонный белый цвет необработанного пространства камеры в принципе можно определить экспериментально, найдя источник света, который дает равные исходные значения для нейтрального объекта. Обратите внимание, что если для декодирования необработанного файла используется конвертер RAW с открытым исходным кодом DCRaw, необходимо отключить WB. С точки зрения колориметрии CIE, эталонный белый цвет необработанного пространства камеры формально определяется формулой

Eq. (7)

[X (WP) Y (WP) Z (WP)] сцена = T_ [R (WP) = 1G (WP) = 1B (WP) = 1] сцена, где Y (WP) = 1 и нижние индексы означают, что WP — это точка освещения сцены.Матрица характеристик 3 × 3 T_ преобразуется из необработанного пространства камеры в CIE XYZ и должна быть оптимизирована для требуемого освещения сцены. Оптимальное значение T_ на данном этапе неизвестно, но в принципе может быть определено с помощью процедуры оптимизации, описанной в разд. 2.4.

Хотя цветовые пространства CIE используют нормализованные единицы, так что их эталонные белые цвета соответствуют WP стандартных источников света CIE, необработанные пространства камеры не нормализуются естественным образом таким образом. Следовательно, эталонный белый цвет необработанного пространства камеры не обязательно является нейтральным цветом, поскольку он обычно расположен далеко от планковского локуса и поэтому не обязательно имеет связанную коррелированную цветовую температуру (CCT).

Обратите внимание, что WP может быть связан с CCT при условии, что его координаты цветности (x, y) достаточно близки к планковскому локусу, но существует много таких координат, которые соответствуют одной и той же CCT. Чтобы различать их, может быть присвоено значение Duv, неофициально называемое цветовым оттенком. 22 Это определяется путем преобразования (x, y) в координаты цветности (u, v) на диаграмме цветности UCS CIE 1960, 23 , 24 , где изотермы нормальны для локуса Планка.В этом представлении CCT является допустимой концепцией только для координат (u, v), расположенных на расстоянии от планковского локуса, которое находится в пределах Duv = ± 0,05 вдоль изотермы. 25

Чтобы увидеть, что эталонный белый цвет необработанного пространства камеры далек от планковского локуса, рассмотрим исходные значения Nikon D700 для нейтрального диффузного отражателя, освещенного источниками освещения CIE A и D65, соответственно,

Eq. (8)

[R (WP) = 0,8878G (WP) = 1,0000B (WP) = 0,4017] A = T_A − 1 [X (WP) = 1,0985Y (WP) = 1,0000Z (WP) = 0.3558] A [R (WP) = 0,4514G (WP) = 1,0000B (WP) = 0,8381] D65 = T_D65−1 [X (WP) = 0,9504Y (WP) = 1,0000Z (WP) = 1,0888] D65, где T_A и T_D65 — это примерные характеристические матрицы, оптимизированные для осветительных приборов CIE A и D65, соответственно. Как показано на рис. 4, WP этих стандартных источников света очень близки к планковскому локусу. Источник света A имеет CCT = 2856 K и Duv = 0,0, а источник света D65 имеет CCT = 6504 K и Duv = 0,0032. Очевидно, что приведенные выше необработанные значения Nikon D700 сильно отличаются от единичного вектора необработанного пространства камеры, и в обоих случаях необходимо применить большие множители к необработанным значениям красных и синих пикселей.Эти множители известны как умножители необработанных каналов, поскольку они обычно применяются к необработанным каналам красного и синего перед цветной демозаикой как часть стратегии преобразования цвета, используемой внутренними механизмами обработки изображений традиционных цифровых камер.

Рис. 4

Расчетные эталонные белые пространства необработанных пространств фотокамер Nikon D700 и Olympus E-M1 по сравнению с WP осветительных приборов CIE A и D65. Планковский локус представлен черной кривой. Цветом отображаются только видимые цветности, содержащиеся в цветовом пространстве sRGB.

Оценку эталонного белого цвета Nikon D700 можно получить, аппроксимируя формулу (7) с использованием легко доступной матрицы характеристик вместо T_. Применение T_A дает (x, y) = (0,3849,0,3058), что соответствует Duv = -0,0378. Это связано с CCT = 3155 K, так как значение Duv находится в пределах допустимого предела, но на рис. 4 показано, что цветовой оттенок является сильным пурпурным. Это справедливо для типичных пространств необработанного снимка в целом. 21 Аналогичная оценка для камеры Olympus E-M1 дает (x, y) = (0.3599,0,2551), что соответствует Duv = −0,0637. У него нет связанной CCT, а цветовой оттенок — очень сильный пурпурный.

Хотя тот факт, что эталонные белые цвета необработанного пространства камеры не являются нейтральными с точки зрения колориметрии CIE, не имеет отношения к окончательному воспроизведенному изображению, он будет показан в разд. 5 видно, что эталонный белый цвет необработанного пространства камеры используется в качестве полезного промежуточного шага в стратегии преобразования цвета, используемой в традиционных цифровых камерах.

2.4.

Цветовая характеристика камеры

Вспомните линейное преобразование из необработанного пространства камеры в CIE XYZ, определенное уравнением.(1):

, где T_ — характеристическая матрица 3 × 3:

Eq. (9)

T _ = [T11T12T13T21T22T23T31T32T33]. Преобразование цветов является приблизительным, поскольку условие Лютера-Айвса не выполняется точно. Как упомянуто во введении, T_ может быть оптимизирован для характеристического источника света, то есть освещения сцены, используемого для выполнения характеризации. 1 , 2 Оптимальная матрица T_ зависит от самого SPD, но в значительной степени зависит от характеристического освещения WP при условии, что источник света является представителем реального SPD.

Матрицы характеристик, оптимизированные для известных источников света, могут быть определены с помощью процедур минимизации цветовых ошибок, основанных на фотографиях, сделанных на стандартной цветовой диаграмме. 2 Несмотря на то, что были разработаны различные методы минимизации, включая методы сохранения WP, 26 описанная ниже процедура основана на стандартизированном методе B ISO 17321-1. 15

Обратите внимание, что ISO 17321-1 использует обработанные изображения, выводимые камерой, а не необработанные данные, и, следовательно, требует инверсии функции оптоэлектронного преобразования камеры (OECF). 27 OECF определяет нелинейную взаимосвязь между освещенностью на плоскости датчика и уровнями цифрового вывода видимого выходного изображения, такого как файл JPEG, созданный камерой. Чтобы обойти необходимость экспериментального определения OECF, ниже описывается вариант метода B из ISO 17321-1. В этом методе используется конвертер исходных данных с открытым исходным кодом DCRaw для декодирования необработанного файла, чтобы необработанные данные можно было использовать напрямую. 28 , 29

  • 1.Сделайте снимок таблицы цветов, освещенной указанным источником света. Поскольку исходные значения масштабируются линейно, важны только их относительные значения. Однако число f N и продолжительность выдержки t следует выбирать так, чтобы избежать клиппирования.

  • 2. Рассчитайте относительные значения тристимула XYZ для каждого участка цветовой диаграммы:

    Eq. (10)

    X = k∫λ1λ2x¯ (λ) Ee, λR (λ) dλY = k∫λ1λ2y¯ (λ) Ee, λR (λ) dλZ = k∫λ1λ2z¯ (λ) Ee, λR (λ) dλ , где Ee, λ — спектральная освещенность, падающая на цветовую диаграмму, измеренная с помощью спектрометра; x¯ (λ), y‾ (λ) и z¯ (λ) — функции согласования цветов в цветовом пространстве CIE XYZ; и интегрирование дискретизируется в сумму с шагом 10 нм и ограничивает λ1 = 380 нм и λ2 = 780 нм.Если не используется трехцветный колориметр, расчет требует знания спектральной отражательной способности каждого участка. В приведенных выше уравнениях спектральная отражательная способность обозначена как R (λ), и ее не следует путать с функциями отклика камеры. Константу нормализации k можно выбрать так, чтобы Y находился в диапазоне [0,1], используя белое пятно в качестве белого эталона.
  • 3. Получите линейное выходное изображение с демозаикой прямо в необработанном пространстве камеры без преобразования в любое другое цветовое пространство.Гамма-кодирование, кривые тона и баланс белого должны быть отключены. Поскольку настоящий метод позволяет обойтись без определения и инвертирования OECF, очень важно отключить WB; в противном случае к необработанным каналам могут применяться множители сырых каналов. При использовании конвертера RAW с открытым исходным кодом DCRaw подходящей командой является

    dcraw -v -r 1 1 1 1-o 0 -4 -T filename. Это дает 16-битный линейный выходной файл TIFF с демозаикой в ​​необработанном пространстве камеры. Если вы работаете с необработанными каналами, а не с необработанными пиксельными векторами с демозаикой, подходящей командой является dcraw -v -D -4 -T filename.Вышеупомянутые команды DCRaw объяснены в таблице 3.
  • 4. Измерьте средние значения R, G и B по блоку пикселей размером 64 × 64 в центре каждого фрагмента. Затем каждый патч может быть связан с соответствующим средним необработанным вектором пикселей.

  • 5. Постройте матрицу A_ 3 × n, содержащую векторы цветового пространства XYZ для каждого фрагмента 1,…, n в виде столбцов:

    Eq. (11)

    A _ = [X1X2 ⋯ XnY1Y2 ⋯ YnZ1Z2 ⋯ Zn]. Точно так же постройте матрицу B_ 3 × n, содержащую соответствующие необработанные векторы пикселей в виде столбцов:

    Eq.(12)

    B _ = [R1R2 ⋯ RnG1G2 ⋯ GnB1B2 ⋯ Bn].
  • 6. Оцените характеристическую матрицу 3 × 3 T_, которая преобразует B_ в A_:

    Предварительное решение получается с использованием минимизации линейных наименьших квадратов: 2 , 15

    Ур. (14)

    T_ = A_B_T (B_B_T) -1, где верхний индекс T обозначает оператор транспонирования.
  • 7. Используйте предварительную оценку T_, чтобы вычислить новый набор оцененных значений тристимула CIE XYZ A_ ‘в соответствии с формулой. (13).Преобразуйте A_ и A′_ в перцептивно однородное эталонное цветовое пространство CIE LAB и вычислите цветовую разность ΔEi между оцененными значениями трехцветного стимула и действительными значениями трехцветного стимула для каждого фрагмента i. Набор {ΔEi} можно использовать для вычисления DSC / SMI. 8 , 15 Обратите внимание, что для точного удовлетворения условия Лютера-Айвса необходимо, чтобы A _ ′ = A_, и в этом случае будет получен результат DSC / SMI, равный 100.

  • 8. Оптимизируйте T_, минимизируя {ΔEi}, используя метод нелинейной оптимизации, рекомендованный ISO 17321-1.Окончательный DSC / SMI определяет окончательную потенциальную цветовую ошибку. В идеале, включите ограничение, которое сохраняет характеристический источник света WP.

  • 9. Масштабируйте окончательный T_ в соответствии с нормализацией, необходимой для его практического применения. Это обсуждается ниже.

Если WB был отключен на шаге 3, характеристическая матрица T_ может использоваться с произвольным освещением сцены. Тем не менее, оптимальные результаты будут получены для освещения сцены с помощью WP, который точно соответствует таковой характеристического источника света.

На рисунке 5 показано, как матричные элементы оптимизированной матрицы характеристик изменяются в зависимости от CCT характеристического источника света для камеры Olympus E-M1.

Рис. 5

Изменение элементов матрицы характеристической матрицы для камеры Olympus E-M1 в зависимости от характеристического источника света CCT.

Для той же камеры на рис. 6 (a) показана фотография цветовой диаграммы в необработанном пространстве камеры, сделанная при освещении D65. Когда значения RGB необработанного пространства камеры интерпретируются как значения RGB в цветовом пространстве sRGB для целей отображения без применения какой-либо матрицы цветовых характеристик, проявляется сильный оттенок зеленого цвета, который возникает из-за большей передачи зеленого фильтра Байера.На рисунке 6 (b) показана та же фотография, преобразованная в цветовое пространство sRGB путем применения оптимизированной матрицы характеристик T_, за которой следует матрица, преобразующая цвета из цветового пространства CIE XYZ в sRGB. Видно, теперь цвета отображаются правильно.

Рис. 6

(a) Фотография цветовой диаграммы в необработанном пространстве камеры, сделанная при освещении D65. (б) Та же фотография, преобразованная в цветовое пространство sRGB.

2,5.

Нормализация матрицы характеристик

Нормализация матрицы характеристик относится к масштабированию всей матрицы таким образом, чтобы все элементы матрицы масштабировались одинаково.Типичная нормализация, применяемая на практике, состоит в том, чтобы гарантировать, что матричные карты между характеристическим источником света WP, выраженным с использованием цветового пространства CIE XYZ, и необработанным пространством камеры, так что необработанные данные просто насыщаются, когда 100% нейтральный диффузный отражатель фотографируется под характеризующим источником света. . Зеленый необработанный канал обычно насыщается первым.

Например, если характеристический источник света — D65, то T_ может быть нормализовано таким образом, чтобы его обратное значение обеспечивало следующее отображение:

Eq.(15)

[R (WP) G (WP) B (WP)] D65 = T_ − 1 [X (WP) = 0,9504Y (WP) = 1,0000Z (WP) = 1,0888] D65, где max {R ( WP), G (WP), B (WP)} = 1. Поскольку необработанный зеленый канал обычно первым насыщается при большинстве типов освещения, обычно бывает, что G (WP) = 1, тогда как R (WP) <1 и B (WP) <1.

Например, матрицы характеристик Olympus E-M1, используемые на рис. 5 для калибровочных осветительных приборов 4200 и 6800 K, определяются формулой

Eq. (16)

T_4200 K = [0,86800,33950,21330,28830,8286-0,02160.0425−0.26471.7637], T_6800 K = [1.21050.25020.18820.45860.8772−0.13280.0936−0.27881.9121]. Эти матрицы нормализованы таким образом, что WP характеристического источника света преобразуется в исходные значения, где зеленый необработанный канал только достигает насыщения. :

Ур. (17)

[R (WP) = 0,6337G (WP) = 1,0000B (WP) = 0,5267] 4200 K = T_4200 K − 1 [X (WP) = 1,0019Y (WP) = 1,0000Z (WP) = 0,6911 ] 4200 K, [R (WP) = 0,4793G (WP) = 1,0000B (WP) = 0,7312] 6800 K = T_6800 K − 1 [X (WP) = 0,9682Y (WP) = 1,0000Z (WP) = 1,1642 ] 6800 K.

3.

Баланс белого

Замечательным свойством HVS является его способность естественным образом приспосабливаться к условиям окружающего освещения.Например, если на снимке, освещенном дневным светом, поместить 100% нейтральный диффузный отражатель, он будет иметь нейтральный белый цвет. Позже днем, когда происходит изменение цветности или CCT освещения сцены, можно ожидать, что цвет отражателя изменится соответствующим образом. Однако отражатель по-прежнему будет иметь нейтральный белый цвет. Другими словами, воспринимаемый цвет объектов остается относительно постоянным при различных типах освещения сцены, что известно как постоянство цвета. 3 , 4

Механизм хроматической адаптации, с помощью которого HVS обеспечивает постоянство цвета, сложен и не до конца понятен, но упрощенное объяснение состоит в том, что HVS нацелен на снижение цветности источника света. 30 Еще в 1902 году фон-Крис предположил, что это достигается независимым масштабированием каждой функции отклика конуса глаза. 3 , 4 Цветовой стимул, который наблюдатель, адаптированный к окружающим условиям, считает нейтральным белым (идеально ахроматическим со 100% относительной яркостью), определяется как адаптированный белый. 31

Поскольку функции отклика камеры естественным образом не имитируют HVS за счет дисконтирования цветности освещения сцены, выходное изображение будет выглядеть слишком теплым или слишком холодным, если оно отображается с использованием освещения с WP, которое не соответствует адаптированному белому для фотографической сцены во время съемки. Это называется неправильным ББ. Проблема может быть решена путем реализации следующей вычислительной стратегии.

  • 1. Сообщите камере об адаптированном белом цвете, прежде чем делать снимок.Из-за сложной зависимости истинно адаптированного белого цвета от окружающих условий, эта задача на практике заменяется более простой задачей, а именно идентифицировать освещение сцены WP. Например, предустановка баланса белого, соответствующая освещению сцены, может быть выбрана вручную, оценка CCT освещенности сцены может быть введена вручную, или камера может вычислить свою собственную оценку путем анализа необработанных данных с использованием автоматической функции баланса белого. Во всех случаях оценка камеры для WP освещения сцены известна как нейтральный 32 камеры или принятый белый (AW). 31 (Этот этап оценки освещенности не следует путать с WB. Оценка освещенности относится к вычислительным подходам, используемым автоматической функцией WB для оценки освещенности сцены WP. Очень простой подход к оценке освещенности — это метод «серого мира», 33 , который предполагает, что среднее значение всех цветов сцены окажется ахроматическим.Другой простой подход состоит в предположении, что самый яркий белый, вероятно, будет соответствовать освещению сцены WP. 34 Однако практические алгоритмы оценки освещенности намного сложнее. 35 , 36 )

  • 2. Выберите стандартный эталонный белый цвет, который будет использоваться при отображении выходного изображения. Если изображение будет отображаться с использованием стандартного цветового пространства, связанного с выводом, такого как sRGB, выбранный эталонный белый цвет будет соответствовать цветовому пространству с указанием вывода, которым в случае sRGB является источник света CIE D65.

  • 3.Хроматически адаптируйте цвета изображения, адаптируя оценку WP освещения сцены (AW) так, чтобы он стал опорным белым для выбранного цветового пространства, ориентированного на вывод. Этот шаг балансировки белого достигается применением CAT.

CAT необходимо применять как часть общего преобразования цвета из необработанного пространства камеры в выбранное цветовое пространство, ориентированное на вывод. Существуют разные подходы к объединению этих компонентов. Типичный подход, используемый в науке о цвете, — это преобразование из необработанного пространства камеры в CIE XYZ, применение CAT, а затем преобразование в выбранное цветовое пространство, указанное на выходе.В случае sRGB,

Eq. (18)

[RLGLBL] D65 = M_sRGB − 1 CAT_AW → D65 T_ [RGB] сцена, где T_ — это матрица характеристик, которая преобразует необработанное пространство камеры в CIE XYZ и оптимизирована для сцены AW, матрица CAT_AW → D65 в цветовом пространстве CIE XYZ применяется CAT, который адаптирует AW к эталонному белому D65 цветового пространства sRGB, и, наконец, M_sRGB-1 представляет собой матрицу, которая преобразует из CIE XYZ в линейную форму цветового пространства sRGB:

Eq . (19)

M_sRGB − 1 = [3,24 · 10−1.5374-0.4986-0.96921.87600.04160.0556-0.20401.0570]. В частности, AW в необработанном пространстве камеры сопоставляется с эталонным белым цветовым пространством, указанным на выходе, определенным единичным вектором в цветовом пространстве, указанном на выходе. :

Ур. (20)

[RL = 1GL = 1BL = 1] D65 = M_sRGB − 1 CAT_AW → D65 T_ [R (AW) G (AW) B (AW)] сцена. Когда закодированное выходное изображение просматривается на откалиброванном мониторе. , объект сцены, который HVS считал белым во время съемки, теперь будет отображаться с использованием эталонного белого цвета D65.В идеале окружающие условия просмотра должны соответствовать условиям, определенным как подходящие для просмотра цветового пространства sRGB.

Если оценка WP освещения сцены далека от истинного WP освещения сцены, то для HVS будет очевиден неверный WB. Если оценка CCT освещенности сцены выше, чем истинная CCT, фотография будет выглядеть слишком теплой. И наоборот, если оценка CCT освещенности сцены ниже истинной CCT, тогда фотография будет выглядеть слишком холодной.

На рис. 7 (а) показана фотография цветовой диаграммы, сделанная при вольфрамовом освещении 2700 K CCT с помощью камеры Olympus E-M1.Матрица характеристик T_ была применена для преобразования цветов в CIE XYZ, а затем M_sRGB-1 для преобразования цветов в sRGB. Очевидно, истинный цвет освещения сцены раскрывается, поскольку хроматическая адаптация камерой не выполняется. Другими словами, фотография выглядит слишком теплой по сравнению с эталонным белым цветом D65 в цветовом пространстве sRGB. На рисунке 7 (b) показана та же фотография после балансировки белого с включением CAT, который хроматически адаптирует освещение сцены WP к эталонному белому цветовому пространству sRGB D65, имеющему 6504 K CCT и Duv = 0.0032 цветовой оттенок.

Рис. 7

(a) Фотография цветовой диаграммы, сделанная при вольфрамовом освещении 2700 K CCT и преобразованная в цветовое пространство sRGB для отображения без какой-либо хроматической адаптации. (b) Фотография с балансировкой белого, полученная путем включения CAT для адаптации WP освещения сцены к эталонному белому D65 цветового пространства sRGB.

3.1.

Хроматические адаптационные преобразования

CAT — это вычислительная техника для настройки WP данного SPD. Он достигает этой цели, пытаясь имитировать механизм хроматической адаптации HVS.В контексте цифровых камер наиболее важными CAT являются CAT Брэдфорда и масштабирование необработанных каналов.

В 1902 году фон-Крис постулировал, что механизм хроматической адаптации можно моделировать как независимое масштабирование каждой функции отклика конуса глаза, 3 , 4 , что эквивалентно масштабированию трехцветных значений L, M и S. в цветовом пространстве LMS. Чтобы проиллюстрировать CAT фон-Криса, рассмотрите возможность адаптации оценки WP освещения сцены (AW) к WP освещения D65:

Eq.(21)

[XYZ] D65 = CAT_AW → D65 [XYZ] сцена. В этом случае CAT фон-Криса, который должен применяться ко всем необработанным векторам пикселей, может быть записан как

Eq. (22)

CAT_AW → D65 = M_vK − 1 [L (D65) L (AW) 000M (D65) M (AW) 000S (D65) S (AW)] M_vK. Матрица M_vK преобразует каждый необработанный вектор пикселей в диагональ матрица в цветовом пространстве LMS. Современные формы M_vK включают в себя матрицы, основанные на основных принципах конуса, определенных CIE в 2006 г. 37 , и матрицу преобразования Ханта – Пойнтера – Эстевеса 38 , определяемую формулой

Eq.(23)

M_vK = [0,389710.68898−0.07868−0.229811.183400.046410.000000.000001.00000]. После применения M_vK значения L, M и S независимо масштабируются в соответствии с гипотезой фон-Криса. В данном примере коэффициенты масштабирования возникают из соотношения между WP AW и D65. Их можно получить из следующих векторов WP:

Eq. (24)

[L (AW) M (AW) S (AW)] = M_vK [X (WP) Y (WP) Z (WP)] сцена [L (D65) M (D65) S (D65)] = M_vK [X (WP) = 0.9504Y (WP) = 1.0000Z (WP) = 1.0888] D65. Наконец, применяется обратная матрица преобразования M_vK для преобразования каждого необработанного вектора пикселей обратно в цветовое пространство CIE XYZ.

Bradford CAT 39 можно рассматривать как улучшенную версию CAT von-Kries. ICC рекомендует упрощенную линеаризованную версию для использования в цифровых изображениях. 40 Линейная КАТ Брэдфорда может быть реализована аналогично КАТ фон-Криса, с той разницей, что трехцветные значения L, M и S заменены на ρ, γ и β, которые соответствуют «резкости». ”Искусственный глазной конус. Матрица преобразования определяется формулой

Eq. (25)

M_BFD = [0.89510.2664-0.1614-0.75021.71350.03670.0389-0.06851.0296].

Аналогично независимому масштабированию функций отклика конуса глаза, предложенному фон-Крисом, тип CAT может применяться в необработанном пространстве камеры путем прямого масштабирования необработанных каналов. Рассмотрим блок Байера для AW, полученный путем фотографирования 100% нейтрального диффузного отражателя при освещении сцены. Следующая операция адаптирует AW к эталонному белому цвету необработанного пространства камеры:

Eq. (26)

[RGB] RW = CAT_AW → RW [RGB] сцена, где

Eq.(27)

CAT_AW → RW = D _ = [1R (AW) 0001G (AW) 0001B (AW)] сцена. Коэффициенты масштабирования по диагонали, известные как множители сырых каналов, могут быть получены непосредственно из необработанных данных с использованием AW, рассчитанного с помощью камера. Например, AW = D65 для освещения сцены D65, в этом случае

Eq. (28)

CAT_D65 → RW = D_D65 = [1R (D65) 0001G (D65) 0001B (D65)], где R (D65), G (D65) и B (D65) извлекаются из блока Байера для 100 % нейтральный диффузный отражатель, сфотографированный при освещении сцены D65.

Было обнаружено, что в контексте цифровых камер тип CAT, определяемый множителями необработанных каналов, лучше работает на практике, особенно в крайних случаях. 21 , 32 Причина этого в том, что множители необработанных каналов применяются в необработанном пространстве камеры до применения матрицы преобразования цвета. Необработанное пространство камеры соответствует физическому устройству захвата, но CAT, такие как линейный CAT Брэдфорда, применяются в цветовом пространстве CIE XYZ после применения матрицы преобразования цвета, содержащей ошибку. В частности, цветовые ошибки, которые были минимизированы в нелинейном цветовом пространстве, таком как CIE LAB, будут неравномерно усилены, поэтому преобразование цвета больше не будет оптимальным. 41

4.

Камеры смартфонов

Производители смартфонов вместе с разработчиками коммерческого программного обеспечения для преобразования необработанных данных обычно реализуют традиционный тип вычислительной стратегии преобразования цвета, используемый в науке о цвете, который был представлен в разд. 3. Поскольку необработанное пространство камеры преобразуется в CIE XYZ на первом этапе, методы обработки изображений могут применяться в цветовом пространстве CIE XYZ (или после преобразования в какое-либо другое промежуточное цветовое пространство) перед окончательным преобразованием в цветовое пространство, указанное на выходе. Цветовое пространство RGB.

Рассмотрим преобразование с балансировкой белого из необработанного пространства камеры в цветовое пространство RGB, ориентированное на вывод. В отличие от традиционных цифровых камер, цветная демозаика обычно выполняется в первую очередь, поэтому векторная нотация, используемая для необработанного пространства камеры ниже, относится к необработанным векторам пикселей, а не к блокам Байера. В случае sRGB преобразование, которое должно применяться к каждому необработанному вектору пикселей, определяется формулой

Eq. (29)

[RLGLBL] D65 = M_sRGB − 1 CAT_AW → D65 T_ [RGB] сцена.Преобразование можно разделить на три этапа.
  • 1. После того, как камера оценила освещенность сцены WP (AW), применяется матрица характеристик T_, оптимизированная для AW, которая преобразует необработанное пространство камеры в CIE XYZ:

    Eq. (30)

    [XYZ] scene = T_ [RGB] scene. Оптимизированная матрица T_ обычно нормализуется так, что AW в пространстве CIE XYZ получается, когда необработанный вектор пикселей, соответствующий нейтральному диффузному отражателю, освещенному AW, просто достигает насыщение:

    Ур.(31)

    [X (AW) Y (AW) Z (AW)] сцена = T_ [R (AW) G (AW) B (AW)] сцена, где Y (WP) = 1 и max {R (AW) ), G (AW), B (AW)} = 1. Как обсуждалось в разд. 2.5, зеленый компонент обычно насыщается первым, поэтому R (AW) <1 и B (AW) <1 в целом.
  • 2. Поскольку T_ не изменяет AW, применяется CAT для достижения WB путем адаптации AW к опорному белому в выбранном цветовом пространстве, ориентированном на вывод. Это D65 в случае sRGB:

    Eq. (32)

    [XYZ] D65 = CAT_AW → D65 [XYZ] сцена. ICC рекомендует реализовать CAT, используя линейную матрицу CAT Брэдфорда, определенную уравнением.(25).
  • 3. Применяется матрица, которая преобразует из CIE XYZ в линейную форму выбранного цветового пространства, ориентированного на вывод. В случае sRGB,

    Eq. (33)

    [RLGLBL] D65 = M_sRGB-1 [XYZ] D65.

Наконец, уровни цифрового вывода выходного изображения определяются путем применения кривой нелинейного гамма-кодирования цветового пространства, указанного на выходе, и уменьшения битовой глубины до 8. В современных цифровых изображениях гамма-кривые кодирования предназначены для минимизации видимых артефакты полос, когда битовая глубина уменьшается, а внесенная нелинейность позже отменяется гаммой дисплея. 28

Чтобы убедиться, что баланс белого достигается правильно, вышеприведенные шаги могут быть выполнены для конкретного случая необработанного вектора пикселей, который соответствует AW. Как требуется по формуле. (20) было обнаружено, что это отображается на эталонный белый цвет упомянутого на выходе цветового пространства, определенного единичным вектором в этом цветовом пространстве:

[RL = 1GL = 1BL = 1] D65 = M_sRGB − 1 CAT_AW → D65 T_ [R (AW) G (AW) B (AW)] сцена.

Хотя матричное преобразование, определенное формулой. (29) кажется простым, матрица характеристик T_ в принципе должна быть оптимизирована для AW.Однако непрактично определять матрицу характеристик, оптимизированную для каждой возможной WP освещения сцены, которая может возникнуть. Например, если CCT указаны с точностью до ближайшего к Кельвина, а цветовым оттенком пренебрегают, тогда потребуется 12000 матриц для покрытия WP освещения сцены от 2000 до 14000 K.

Самое простое в вычислительном отношении решение, используемое на некоторых камерах мобильных телефонов, состоит в приближении оптимизированная матрица характеристик T_ с использованием единственной фиксированной матрицы, оптимизированной для репрезентативного источника света.Например, это может быть освещение D65, и в этом случае T_, оптимизированное для AW, аппроксимируется как T_D65. Недостатком этого очень простого подхода является то, что преобразование цвета теряет некоторую точность, когда WP освещения сцены значительно отличается от WP репрезентативного источника света.

Как описано ниже, передовым решением проблемы является принятие подхода, используемого конвертером Adobe DNG. 32 Идея состоит в том, чтобы интерполировать между двумя предварительно установленными характеристическими матрицами, которые оптимизированы для использования с источником света с низкой или высокой CCT.Для заданного освещения сцены может быть определена интерполированная матрица, оптимизированная для CCT AW.

4.1.

Алгоритм интерполяции

Если используется продвинутый подход, упомянутый выше, оптимизированная матрица характеристик T_, требуемая уравнением. (29) можно вычислить путем интерполяции между двумя характеристическими матрицами T1_ и T2_ на основе оценки CCT освещения сцены, обозначенной CCT (AW), вместе с CCT двух характеризующих осветительных приборов, обозначенных CCT1 и CCT2, соответственно, с CCT1

Первый шаг — надлежащим образом нормализовать T1_ и T2_. Хотя характеристические матрицы обычно нормализуются в соответствии с их соответствующими характеристиками WP источников света, как показано в разд. 2.5, при реализации алгоритма интерполяции удобнее нормализовать T1_ и T2_ в соответствии с общим WP. К сожалению, на данном этапе невозможно выразить AW с использованием цветового пространства CIE XYZ, поскольку T_ еще предстоит определить.Вместо этого общий WP может быть выбран в качестве эталонного белого цветового пространства, связанного с выводом, что составляет D65 для sRGB. В этом случае T1_ и T2_ должны быть масштабированы согласно формуле. (15):

Ур. (34)

[R (WP) G (WP) B (WP)] D65 = T1_ − 1 [X (WP) = 0,9504Y (WP) = 1,0000Z (WP) = 1,0888] D65, [R (WP) G (WP) B (WP)] D65 = T2_ − 1 [X (WP) = 0,9504Y (WP) = 1,0000Z (WP) = 1,0888] D65, где Y (WP) = 1 и max {R (WP) , G (WP), B (WP)} = 1.

Если в смартфоне не используется датчик цвета, который может напрямую оценивать WP освещенности сцены с точки зрения координат цветности (x, y), AW рассчитывается камерой в терминах исходных значений R (AW), G (AW) и B (AW), поэтому AW не может быть выражено с использованием цветового пространства CIE XYZ до интерполяции.Однако соответствующий CCT (AW) требует знания координат цветности (x, y), что означает преобразование в CIE XYZ посредством матричного преобразования T_, которое само зависит от неизвестного CCT (AW). Эта проблема может быть решена с помощью самосогласованной итерационной процедуры. 32

  • 1. Сделайте предположение для координат цветности AW, (x (AW), y (AW)). Например, могут использоваться координаты цветности, соответствующие одному из характеризующих осветительных приборов.

  • 2. Найдите значение CCT CCT (AW), которое соответствует координатам цветности (x (AW), y (AW)). Широко используемый подход заключается в преобразовании (x (AW), y (AW)) в соответствующие координаты цветности (u (AW), v (AW)) на диаграмме цветности UCS 1960 года, 23 , 24 где изотермы нормальны к планковскому локусу. Это позволяет определять CCT (AW) с использованием метода Робертсона. 42 В качестве альтернативы могут быть реализованы приблизительные формулы 43 45 или более современные алгоритмы 46 .

  • 3. Выполните интерполяцию так, чтобы

    Eq. (35)

    T_ (AW) = f [T1_ (CCT1), T2_ (CCT2)], где f — функция интерполяции. Интерполяция действительна, если CCT (AW) CCT2, то T_ следует установить равным T2_.
  • 4. Используйте T_ для преобразования AW из необработанного пространства камеры в цветовое пространство CIE XYZ:

    Eq. (36)

    [X (AW) Y (AW) Z (AW)] сцена = T_ [R (AW) G (AW) B (AW)] сцена. Это дает новое предположение для (x (AW), y (AW)).
  • 5. Повторяйте процедуру, начиная с шага 2, пока (x (AW), y (AW)), CCT (AW) и T_ все не сойдутся к стабильному решению.

После того, как интерполяция была выполнена, T_ наследует нормализацию уравнения. (34). Однако теперь AW можно выразить с использованием цветового пространства CIE XYZ, поэтому T_ можно перенормировать, чтобы удовлетворить уравнению. (31).

Если в смартфоне используется датчик цвета, который может напрямую оценивать WP освещенности сцены с точки зрения координат цветности (x, y), то требуются только шаги 2 и 3, указанные выше.

5.

Традиционные цифровые камеры

Рассмотрим снова сбалансированное по белому преобразование из необработанного пространства камеры в цветовое пространство RGB, относящееся к выходу. В случае sRGB преобразование определяется формулой. (29):

[RLGLBL] D65 = M_sRGB − 1 CAT_AW → D65 T_ [RGB] сцена, где CAT_AW → D65 адаптирует оценку WP освещения сцены (AW) к эталонному белому цветовому пространству sRGB D65. Традиционные производители камер обычно переформулируют приведенное выше уравнение следующим образом:

Eq.(37)

[RLGLBL] D65 = R_D_ [RGB] сцена. Это уравнение можно интерпретировать, разложив преобразование на два этапа.
  • 1. Матрица D_ — это диагональная матрица WB, содержащая необработанные множители каналов, подходящие для AW:

    Eq. (38)

    D _ = [1R (AW) 0001G (AW) 0001B (AW)] сцена. Они применяются к необработанным каналам перед цветной демозаикой. Как показано формулой. (27), множители необработанных каналов, в частности, служат для хроматической адаптации AW к эталонному белому необработанному пространству камеры:

    Eq.(39)

    [R = 1G = 1B = 1] ссылка = сцена D_ [R (AW) G (AW) B (AW)].
  • 2. Матрица R_ — это матрица поворота цвета, оптимизированная для освещения сцены. После выполнения цветовой демозаики R_ применяется для преобразования непосредственно из необработанного пространства камеры в линейную форму выбранного цветового пространства, ориентированного на вывод. По сравнению с уравнениями. (29) и (37), R_ алгебраически определяется как

    Eq. (40)

    R_ = M_sRGB − 1 CAT_AW → D65 T_ D_ − 1. Матрицы поворота цвета обладают тем важным свойством, что каждая из их строк суммируется до единицы:

    Eq.(41)

    R (1,1) + R (1,2) + R (1,3) = 1, R (2,1) + R (2,2) + R (2,3) = 1, R (3,1) + R (3,2) + R (3,3) = 1. Следовательно, R_ сопоставляет эталонный белый цвет необработанного пространства камеры непосредственно с эталонным белым цветовым пространством, указанным на выходе. 21 В случае sRGB,

    Eq. (42)

    [RL = 1GL = 1BL = 1] D65 = R_ [R = 1G = 1B = 1] эталон.

Объединение уравнений. (39) и (42) показывают, что общий WB достигается, поскольку необработанный вектор пикселей, соответствующий AW, отображается на опорный белый цвет упомянутого на выходе цветового пространства:

Eq.(43)

[RL = 1GL = 1BL = 1] D65 = R_D_ [R (AW) G (AW) B (AW)] сцена.

Как и характеристическая матрица T_, матрица вращения цвета R_ в принципе должна быть оптимизирована для освещения сцены. Вместо того, чтобы использовать подход, основанный на интерполяции, переформулировка в форме уравнения. (37) позволяет традиционным производителям камер принять альтернативный и простой в вычислительном отношении подход, который может быть напрямую реализован на архитектуре с фиксированной точкой.

5.1.

Умножитель и развязка матрицы

Хотя уравнение.(37) кажется простой переформулировкой уравнения. (29), он имеет несколько преимуществ, которые возникают из-за извлечения необработанных множителей каналов, содержащихся в матрице D_ ББ. Как показано на фиг. 8, изменение элементов матрицы поворота цвета относительно CCT очень мало. Стабильность выше, чем у элементов традиционной матрицы характеристик T_, как видно из сравнения фиг. 5 и 8.

Рис. 8

Изменение элементов матрицы матрицы вращения R_ raw-to-sRGB, используемой камерой Olympus E-M1, в зависимости от CCT.

Следовательно, достаточно определить небольшой набор из n предварительно установленных матриц поворота цветов, которые покрывают диапазон WP или CCT, причем каждая матрица оптимизирована для конкретной предварительно установленной WP или CCT:

Eq. (44)

R_i = M_sRGB − 1 CAT_AW → D65 T_i D_i − 1, где i = 1… n. Когда AW рассчитывается камерой, может быть выбрана матрица поворота цвета R_i, оптимизированная для наиболее подходящей предустановки WP или CCT. Однако матрица WB D_, соответствующая AW, всегда применяется до R_i, поэтому полное преобразование цвета может быть выражено как

Eq.(45)

[RLGLBL] D65 = (M_sRGB − 1 CAT_AW → D65 T_i D_i − 1) D_ [RGB] сцена. Поскольку D_ отделен от матриц вращения, этот подход позволит добиться правильного баланса белого без необходимости интерполировать матрицы вращения .

Следует отметить, что необработанное пространство камеры правильно представляет сцену (хотя и с использованием нестандартной цветовой модели) и что множители необработанного канала, содержащиеся в D_, не применяются для «исправления» чего-либо, касающегося представления истинного белого цвета сцены с помощью необработанное пространство камеры, как это часто предполагается.Множители применяются для хроматической адаптации AW к эталонному белому в необработанном пространстве камеры как часть общей CAT, необходимой для достижения WB, путем имитации механизма хроматической адаптации HVS. Как показано на рис.4, эталонный белый цвет необработанного пространства камеры обычно является пурпурным цветом при использовании колориметрии CIE, но он служит полезным промежуточным этапом в требуемом преобразовании цвета, поскольку он способствует извлечению компонента масштабирования канала, который можно отделить от матричной операции.К другим преимуществам переформулировки можно отнести следующее.

  • • Множители сырых каналов, содержащиеся в D_, могут быть применены к необработанным каналам до выполнения цветной мозаики. В результате получается более качественная демозаика. 21

  • • Метод может быть эффективно реализован в архитектуре с фиксированной точкой. 47

  • • При желании, часть масштабирования необработанного канала может быть выполнена в аналоговой области с использованием аналогового усиления.Это полезно для качества изображения, если аналого-цифровой преобразователь (АЦП) не имеет достаточно высокой битовой глубины. Обратите внимание, что этот тип аналогового усиления будет влиять на коэффициенты преобразования единицы, относящиеся к входу и выходу gi, определенные формулой. (80) в Приложении.

  • • Необработанные множители каналов, содержащиеся в D_, которые появляются в уравнении. (37) хранятся в метаданных проприетарных необработанных файлов и применяются внутренним механизмом обработки изображений JPEG камеры. Поскольку множители необработанных каналов не влияют на необработанные данные, они могут использоваться внешним программным обеспечением для преобразования необработанных данных, предоставляемым производителем камеры, и могут быть легко настроены пользователем.

  • • Предварительные настройки освещения сцены, которые включают в себя цветовой оттенок, могут быть напрямую реализованы путем сохранения соответствующих предварительно установленных матриц поворота цветов и множителей необработанных каналов, как показано в разд. 5.2.

5.2.

Пример: Olympus E-M1

Хотя цветовые матрицы, используемые производителями камер, как правило, неизвестны, некоторые производители, такие как Sony и Olympus, действительно раскрывают информацию о матрицах поворота цвета, используемых их камерами, которую можно извлечь из необработанных метаданных. .

В таблице 1 перечислены данные, показанные на рис. 8, для предварительно установленных матриц поворота цвета, используемых цифровой камерой Olympus E-M1, а также диапазоны CCT освещения сцены, в которых применяется каждая матрица. На рисунке 9 показано, как множители необработанных каналов для одной и той же камеры меняются в зависимости от CCT. Данные были извлечены из необработанных метаданных с помощью бесплатного приложения ExifTool. 48 Стратегию преобразования цвета камеры можно резюмировать следующим образом.

  • 1.Камера определяет оценку WP освещения сцены (AW), используя алгоритм автоматического баланса белого, выбранную предустановку освещения сцены или настраиваемую CCT, предоставленную пользователем. AW используется для расчета соответствующих множителей необработанных каналов по формуле. (38) так, чтобы диагональная матрица WB D_ могла быть применена к необработанным каналам. В частности, D_ служит для адаптации AW к эталонному белому в необработанном пространстве камеры.

  • 2. После выполнения цветовой демозаики камера выбирает предварительно установленную матрицу поворота цвета R_i, оптимизированную для освещения с помощью CCT, которая обеспечивает наиболее близкое соответствие CCT, связанного с AW, или наиболее близкую предустановку освещения сцены.

  • 3. Камера применяет R_i для преобразования в цветовое пространство, ориентированное на вывод, выбранное в камере пользователем, такое как sRGB. В частности, эталонный белый цвет необработанного пространства камеры отображается на эталонный белый цвет выбранного цветового пространства, ориентированного на вывод, которым является D65 в случае sRGB.

Камера Olympus E-M1 также включает несколько предустановок освещения сцены. Матрицы поворота цвета и соответствующие множители необработанных каналов для этих предустановок сцены перечислены в таблице 2.Обратите внимание на то, что для заданного CCT предварительно заданные матрицы и множители сцены не обязательно совпадают с теми, что перечислены в таблице 1. Это связано с тем, что визуализации предварительно заданных параметров сцены включают цветовой оттенок вдали от планковского локуса, поэтому координаты цветности не обязательно являются такие же, как перечисленные в таблице 1 для данной CCT. По той же причине обратите внимание, что предустановки сюжетных режимов «хорошая погода», «подводный» и «вспышка» фактически используют одну и ту же матрицу поворота цвета, но используют очень разные множители необработанных каналов.

Таблица 1

Матрицы поворота цвета Raw-to-sRGB, соответствующие диапазонам настраиваемых CCT в камере для камеры Olympus E-M1 с объективом 12-100 / 4 и прошивкой v4.1. В среднем столбце перечислены матрицы, извлеченные из необработанных метаданных, которые представляют собой 8-битные числа с фиксированной запятой. При делении на 256 в правом столбце отображаются одни и те же матрицы с четырьмя десятичными знаками, так что сумма каждой строки равна единице, а не 256.

5600
Диапазон CCT (K) Матрица вращения (фиксированная точка) Матрица вращения
2000 → 3000 [320−36−28−683081614−248490] [1.2500-0.1406-0.1094-0.26561.20310.06250.0547-0.96881.9141]
3100 → 3400 [332-52-24-58320-612-192436] [1.2969-0.2031-0.0938-0.22661 −0.02340.0469−0.75001.7031]
3500 → 3700 [340−60−24−56324−1212−172416] [1.3281−0.2344−0.0938−0.21881.2656−0.04690.0461−0.67 6250]
3800 → 4000 [346-68-22-52332-2410-160406] [1,3516-0,2656-0,0859-0,20311,2969-0.09380.0391−0.62501.5859]
4200 → 4400 [346−68−22−48332−2812−160404] [1.3516−0,2656−0,0859−0,18751.2969−0.10940.0461.5901.5
4600 → 5000 [354−76−22−44336−3610−148394] [1,3828−0,2969−0,0859−0,17191,3125−0,14060,0391−0,57811,5391]
[366-88-22-42340-4210-136382] [1,4297-0,3438-0,0859-0,16411,3281-0,16410,0391-0,53131,4922]
5800 → 6600 -27 −42348−508−124372] [1.4609−0.3750−0.0859−0.16411.3594−0.19530.0313−0.48441.4531]
6800 → 14000 [388−108−24−38360−668−112360] [1.5156−0.42 .4063−0.25780.0313−0.43751.4063]

Рис. 9

Множители необработанных каналов, используемые камерой Olympus E-M1, как функция CCT. Камера использует одинаковые множители для обоих зеленых каналов.

Таблица 2

Матрицы поворота цвета Raw-to-sRGB и соответствующие множители необработанных каналов, соответствующие режимам сцены в камере для камеры Olympus E-M1 с объективом 12-100 / 4 и v4.1 прошивка. Все значения представляют собой 8-битные числа с фиксированной запятой, которые можно разделить на 256. Поскольку предустановки режима сцены включают цветовой оттенок вдали от планковского локуса, множители и матрицы не обязательно имеют те же значения, что и пользовательские предустановки CCT с тот же CCT, указанный в Таблице 1.

70 [36 −22−42340−4210−136382] 5500
Режим сцены CCT (K) Множители Матрица вращения (фиксированная точка)
Хорошая погода 5300 474 256 414
Хорошая погода с тенью 7500 552 256 326 [388−108−24−38360−668−112360]
Облачно 6000 Облачно 510 256 380 [374−96−22−42348−508−124372]
Вольфрам (накаливания) 3000 276 256 728 [320−36−28−683081614−2484668]
Холодный белый люминесцентный 4000 470 256 580 [430−168−6−50300612−132376]
Под водой 450 256 444 [366−88−22−42340−4210−136382]
562 256 366 [366−88−22−42340−4210−136382]

Для любой данной модели камеры все предустановленные матрицы поворота цвета зависят от таких факторов, как цветовое пространство на выходе, выбранное пользователь в настройках камеры (например, sRGB или Adobe ® RGB), модель объектива, с которой был сделан снимок, и версия прошивки.Из-за различий в калибровке датчиков между разными примерами одной и той же модели камеры также может быть зависимость от отдельной камеры, используемой для съемки.

Например, на рис. 10 (а) показана фотография цветовой диаграммы в необработанном пространстве камеры, сделанная при освещении D65. Как и на рис. 6 (a), оттенок зеленого цвета возникает из-за того, что значения RGB необработанного пространства камеры интерпретируются как значения RGB в цветовом пространстве sRGB для целей отображения без применения какой-либо матрицы цветовых характеристик для преобразования цветов.На рисунке 10 (b) показана та же фотография после применения диагональной матрицы баланса белого D_ для хроматической адаптации AW к исходному белому пространству камеры. Множители необработанных каналов удаляют зеленый оттенок, но фотография остается в необработанном пространстве камеры. Примечательно, что цвета кажутся реалистичными, хотя и ненасыщенными. Чтобы проиллюстрировать, что эталонный белый цвет необработанного пространства камеры на самом деле является пурпурным цветом при использовании колориметрии CIE, рис.10 (c) преобразует (b) в цветовое пространство sRGB без какой-либо дальнейшей хроматической адаптации, применяя обычную матрицу характеристик T_, за которой следует M_sRGB. −1.Напротив, рис. 10 (d) был получен путем применения соответствующих умножителей необработанных каналов, за которыми следовала матрица поворота цветов sRGB R_ вместо T_ и M_sRGB-1. Матрица вращения цвета включает в себя CAT, который адаптирует эталонный белый цвет необработанного пространства камеры к эталонному белому цветовому пространству sRGB D65. В этом конкретном случае D_ = D_D65, поэтому матрица поворота цвета R_, определенная формулой. (40) становится

Ур. (46)

R_≡R_D65 = M_sRGB − 1 T_D65 D_D65-1. Подставляя в уравнение (37) дает

Ур.(47)

[RLGLBL] D65 = M_sRGB-1 T_D65 D_D65-1 D_D65 [RGB] сцена. Следовательно, матрица вращения обращает эффект матрицы WB, поскольку освещение сцены и дисплея одинаковое.

Рис. 10

(a) Фотография цветовой диаграммы в необработанном пространстве камеры, сделанная при освещении D65. (b) После применения соответствующих коэффициентов необработанных каналов. Они удаляют зеленый оттенок, но фотография остается в необработанном пространстве камеры. (c) После применения соответствующих умножителей необработанных каналов и преобразования в sRGB без какой-либо дальнейшей хроматической адаптации.Белое пятно показывает истинный цвет эталонного белого космического пространства камеры. (d) После применения соответствующих умножителей необработанных каналов и матрицы поворота цветов sRGB R_.

6.

DCRaw Конвертер RAW с открытым исходным кодом

Широко используемый преобразователь RAW с открытым исходным кодом DCRaw (произносится как «dee-see-raw»), написанный Д. Коффином, может обрабатывать большое количество форматов необработанных файлов изображений. Он особенно полезен для научного анализа, поскольку он может декодировать необработанные файлы без демозаики, он может применять линейные кривые тона и может напрямую выводить в необработанное пространство камеры и цветовое пространство CIE XYZ.Некоторые соответствующие команды перечислены в таблице 3. Однако DCRaw по умолчанию выводит непосредственно в цветовое пространство sRGB с WP подсветкой D65, используя вариант традиционной стратегии цифровой камеры, описанной в предыдущем разделе. 28

Напомним, что матрица вращения цвета, оптимизированная для использования с освещением сцены, определяется формулой. (40):

R_ = M_sRGB − 1 CAT_AW → D65 T_ D_ − 1. Хотя цифровые камеры обычно используют небольшой набор предустановленных матриц поворота, оптимизированных для выбора предустановленных источников света, DCRaw вместо этого использует очень простой в вычислительном отношении подход, который использует только матрица одиночного вращения, оптимизированная для освещения сцены D65, R_≈R_D65.Это достигается с помощью характеристической матрицы T_D65, оптимизированной для освещения D65, что означает, что матрица D_-1, содержащаяся в R_, заменяется на D_D65-1, и матрица CAT_AW → D65 не требуется:

Eq. (48)

R_D65 = M_sRGB-1 T_D65 D_D65-1. Диагональная матрица баланса белого D_D65 содержит множители сырых каналов, подходящие для освещения D65:

Eq. (49)

D_D65 = [1R (WP) 0001G (WP) 0001B (WP)] D65 = [1R (D65) 0001G (D65) 0001B (D65)]. Общее преобразование из необработанного пространства камеры в линейную форму sRGB определяется

Eq.(50)

[RLGLBL] D65≈R_D65 D_ [RGB] сцена, которую можно более явно записать как

Eq. (51)

[RLGLBL] D65≈M_sRGB − 1 T_D65 [R (D65) R (AW) 000G (D65) G (AW) 000B (D65) B (AW)] [RGB] сцена. Следовательно, вся хроматическая адаптация выполняется выполняется с использованием множителей сырых каналов. Обратите внимание, что матрица WB D_, соответствующая оценке освещенности сцены, всегда применяется к необработанным данным в формуле. (50), поэтому WB всегда в принципе достигается правильно.

Таблица 3

Выбор соответствующих команд DCraw, доступных в версии 9.28. Обратите внимание, что параметры цветового пространства вывода RGB используют матрицы поворота цветов, и поэтому их следует использовать только с правильными множителями необработанных каналов из-за встроенного CAT.

rgbgr >
-v Распечатать подробные сообщения
-w Использовать камеру WB, если возможно
-A Среднее значение серого поля для WB
Установить индивидуальный WB
+ M / -M Использовать / не использовать встроенную цветовую матрицу
-H [0-9] Режим выделения (0 = клип, 1 = отсоединить, 2 = смешивание, 3+ = перестроение)
-o [0-6] Выходное цветовое пространство (raw, sRGB, Adobe, Wide, ProPhoto, XYZ, ACES)
-d Режим документа ( без цвета, без интерполяции)
-D Режим документа без масштабирования (полностью необработанный)
-W Не повышать яркость изображения автоматически
-b Регулировка яркости ( по умолчанию = 1.0)
-g

Установить пользовательскую кривую гаммы (по умолчанию = 2,222 4,5)
-q [0-3] Установить качество интерполяции
-h Half -размер цветного изображения (в два раза быстрее, чем «-q 0»)
-f Интерполировать RGGB как четыре цвета
-6 Записать 16-битную вместо 8-битной
— 4 Линейный 16-битный, такой же, как «-6 -W -g 1 1»
-T Записать TIFF вместо PPM

Хотя матрица преобразования цвета T_D65 оптимизирована для освещения сцены D65, Применение матрицы поворота цвета R_D65 для преобразования из необработанного пространства камеры в sRGB допустимо для любого CCT освещения сцены, поскольку матрицы поворота цвета изменяются очень медленно в зависимости от CCT, как видно из рис.8. Однако R_D65 является оптимальным выбором для освещения сцены D65, поэтому недостатком этого упрощенного подхода является то, что общее преобразование цвета теряет некоторую точность, когда освещение сцены значительно отличается от D65.

6.1.

Пример: Olympus E-M1

DCRaw использует матрицы поворота цвета, полученные с помощью уравнения. (48), поэтому для данной модели камеры требуется матрица характеристик T_D65. Для этой цели DCRaw использует матрицы Adobe «ColorMatrix2» из конвертера Adobe ® DNG. 32

Из-за требований к логике восстановления, матрицы Adobe отображаются в противоположном направлении по сравнению с обычными матрицами характеристик, определенными в разд. 2.4, и, следовательно,

Ур. (52)

T_D65 = (1cColorMatrix2 _) — 1, где c — нормировочная константа. Для цифровой камеры Olympus E-M1 исходный код DCRaw хранит записи ColorMatrix2 следующим образом: 7687, −1984, −606, −4327, 11928, 2721, −1381, 2339, 6452. Деление на 10000 и преобразование в матричная форма дает

Eq.(53)

ColorMatrix2 _ = [0,7687-0,1984-0,0606-0,43271,19280.2721-0,13810,23390,6452]. Обратитесь к разд. 2.5, что характеристические матрицы обычно нормализованы так, что WP характеристического источника света отображается на необработанные значения, так что максимальное значение (обычно зеленый канал) просто достигает насыщения, когда 100% нейтральный диффузный отражатель фотографируется под характеристическим источником света. Хотя матрицы ColorMatrix2 оптимизированы для освещения CIE D65, они по умолчанию нормализованы в соответствии с WP осветителя CIE D50, а не D65:

Eq.(54)

[R (WP) G (WP) B (WP)] D50 = ColorMatrix2_ [X (WP) = 0,9642Y (WP) = 1,0000Z (WP) = 0,8249] D50, где max {R (WP) , G (WP), B (WP)} = 1. Соответственно, их необходимо масштабировать для использования с DCRaw:

Eq. (55)

[R (WP) G (WP) B (WP)] D65 = 1cColorMatrix2_ [X (WP) = 0.9504Y (WP) = 1.0000Z (WP) = 1.0888] D65, где max {R (WP) , G (WP), B (WP)} = 1. В данном примере найдено, что c = 1,0778, поэтому

Eq. (56)

T_D65-1 = [0,7133-0,1841-0,0562-0,40151,10680,2525-0,12810,21700,5987]. С учетом единичного вектора в цветовом пространстве sRGB указанная выше матрица может использоваться для получения необработанных значений трехцветного изображения для D65. освещение WP:

Ур.(57)

[R (WP) = 0,4325G (WP) = 1,0000B (WP) = 0,7471] D65 = T_D65−1 M_sRGB [RL = 1GL = 1BL = 1] D65, где M_sRGB преобразуется из линейной формы sRGB. в CIE XYZ. Теперь уравнение. (49) можно использовать для извлечения множителей сырых каналов для освещения сцены с D65 WP:

Eq. (58)

D_D65 = [2.311700010001.3385]. Наконец, матрица вращения цвета может быть рассчитана по формуле. (48):

Ур. (59)

R_D65 = [1,7901−0,6689−0,1212−0,21671,7521−0,53540,0543−0,55821,5039]. Сумма в каждой строке при необходимости сводится к единице. Форма матрицы аналогична встроенным в камеру матрицам Olympus, перечисленным в таблице 1.Для целей сравнения соответствующая приведенная матрица является той, которая действительна для CCT источников света сцены в диапазоне от 5800 до 6600 K. Ожидаются некоторые численные различия, поскольку освещение D65 имеет цветовой оттенок Duv = 0,0032. Другие численные различия, вероятно, связаны с разницей в методах характеризации Olympus и Adobe. Кроме того, Adobe использует таблицы HSV (оттенок, насыщенность и значение) для имитации окончательной цветопередачи встроенного в камеру механизма обработки JPEG.

6.2.

DCRaw и MATLAB

Как показано в таблице 3, DCRaw включает множество команд, которые полезны для научных исследований.Однако важно отметить, что параметры цветового пространства вывода RGB используют матрицы поворота цвета, а не конкатенацию необработанных матриц с CIE XYZ и CIE XYZ с матрицами RGB. Поскольку матрицы поворота цвета включают в себя встроенный CAT, эти параметры позволят достичь ожидаемого результата только в сочетании с правильными множителями необработанных каналов. Например, установка множителя каждого необработанного канала на единицу не предотвратит выполнение некоторой частичной хроматической адаптации, если выбран выход sRGB, поскольку матрица вращения цвета DCRaw включает в себя матрицу D_D65-1, которая является типом CAT_RW → D65.

Надежным способом использования DCRaw для научных исследований является команда «dcraw -v -D -4 -T filename», которая обеспечивает линейный 16-битный вывод TIFF в необработанном цветовом пространстве без балансировки белого, демозаики или преобразования цвета. . Последующая обработка может быть выполнена после импорта файла TIFF в MATLAB ® с использованием обычной команды «imread». Ссылка 49 предоставляет учебное пособие по обработке. Цветные диаграммы фотографий в данной статье были получены с использованием этой методики.

Например, после импорта файла в MATLAB с помощью приведенных выше команд видимое выходное изображение в цветовом пространстве sRGB без какой-либо балансировки белого может быть получено путем применения соответствующей характеристической матрицы T_ после цветовой демозаики с последующим прямым применением стандартная матрица CIE XYZ в sRGB, M_sRGB − 1.

7.

Adobe DNG

Adobe ® DNG — это формат файлов с открытым исходным кодом, разработанный Adobe. 32 , 50 Бесплатную программу DNG Converter можно использовать для преобразования любого необработанного файла в формат DNG.

Хотя преобразователь DNG не нацелен на создание видимого выходного изображения, он выполняет преобразование цвета из необработанного пространства камеры в пространство соединения профиля (PCS) на основе цветового пространства CIE XYZ с освещением D50 WP. 40 (Это не фактический эталонный белый цвет CIE XYZ, который является источником света CIE E.) Следовательно, модель обработки цвета, используемая конвертером DNG, должна обеспечивать соответствующие матрицы характеристик вместе со стратегией для достижения правильного баланса белого по отношению к Шт.При обработке файлов DNG необработанные преобразователи могут напрямую отображать из PCS в любое выбранное цветовое пространство, указанное на выходе, и связанный с ним эталонный белый цвет.

Спецификация DNG предоставляет две разные модели обработки цвета, называемые здесь методом 1 и методом 2. Метод 1 использует ту же стратегию, что и смартфоны и коммерческие преобразователи необработанных данных, с той разницей, что данные остаются в PCS. Метод 2, использующий умножители необработанных каналов, использует ту же стратегию, что и традиционные цифровые камеры.Однако множители применяются вместе с так называемой прямой матрицей вместо матрицы вращения, поскольку отображение выполняется на PCS, а не на цветовое пространство RGB, относящееся к выходу.

7.1.

Метод 1: Цветовые матрицы

Преобразование из необработанного пространства камеры в PCS определяется следующим образом:

Eq. (60)

[XYZ] D50 = CAT_AW → D50 C_ − 1 [RGB] сцена. Здесь C_ — это цветовая матрица Adobe, оптимизированная для сцены AW. Из-за требований к логике восстановления, цветовые матрицы Adobe отображаются в направлении от цветового пространства CIE XYZ до необработанного пространства камеры:

Eq.(61)

[RGB] scene = C_ [XYZ] scene. Это направление, противоположное обычной характеристической матрице T_, поэтому после обратного преобразования C_ из необработанного пространства камеры в CIE XYZ для адаптации применяется линейная Брэдфордская CAT AW к WP PCS.

Аналогично проблеме, описанной в гл. 4 для смартфонов, реализация уравнения. (60) усложняется тем, что C_ следует оптимизировать для сцены AW. Оптимизированная матрица C_ определяется путем интерполяции между двумя цветными матрицами, обозначенными ColorMatrix1 и ColorMatrix2, где ColorMatrix1 должен быть получен из характеристики, выполненной с использованием источника света с низким CCT, такого как источник света CIE A, и ColorMatrix2 должен быть получен из характеристики, выполненной с использованием высокого разрешения. Источник света CCT, такой как осветительный прибор CIE D65. 32

Оптимизированная матрица C_ вычисляется путем интерполяции между ColorMatrix1 и ColorMatrix2 на основе оценки CCT освещения сцены, обозначенной CCT (AW), вместе с CCT, связанных с каждым из двух характеризующих источников света, обозначенных CCT1 и CCT2, соответственно. , с CCT1

7.2.

Нормализация цветовой матрицы

Вспомните из разд. 2.5, что характеристические матрицы обычно нормализованы так, что характеризующий источник света WP в цветовом пространстве CIE XYZ просто насыщает необработанные данные в необработанном пространстве камеры и что зеленый необработанный канал обычно насыщается первым.Однако в данном контексте матрицы Adobe ColorMatrix1 и ColorMatrix2 требуют общей нормализации, которая удобна для выполнения интерполяции. Аналогично разд. 4.1 AW неизвестен в терминах цветового пространства CIE XYZ до интерполяции. Вместо этого ColorMatrix1 и ColorMatrix2 по умолчанию нормализованы, так что WP PCS просто насыщает необработанные данные:

Eq. (63)

[R (WP) G (WP) B (WP)] D50 = ColorMatrix1_ [X (WP) = 0,9642Y (WP) = 1,0000Z (WP) = 0,8249] D50, [R (WP) G ( WP) B (WP)] D50 = ColorMatrix2_ [X (WP) = 0.9642Y (WP) = 1,0000Z (WP) = 0,8249] D50, где max {R (WP), G (WP), B (WP)} = 1. Например, значения по умолчанию ColorMatrix1 и ColorMatrix2 для камеры Olympus E-M1, соответственно, нормализованы следующим образом:

Eq. (64)

[R (WP) = 0,5471G (WP) = 1,0000B (WP) = 0,6560] D50 = [1,1528-0,57420,0118-0,24531,02050,2619-0,07510,1890,6539] [X (WP) = 0,9642Y ( WP) = 1,0000Z (WP) = 0,8249] D50, [R (WP) = 0,4928G (WP) = 1,0000B (WP) = 0,6330] D50 = [0,7687-0,1984-0,0606-0,43271,19280,2721-0,13810,23390,6452] [X (WP) = 0,9642Y (WP) = 1,0000Z (WP) = 0,8249] D50.

Интерполированный C_ изначально наследует эту нормализацию.Однако после определения C_ значения CIE XYZ для AW будут известны. Следовательно, исходный код Adobe DNG SDK позже повторно нормализует Eq. (60), так что AW в необработанном пространстве камеры отображается на WP PCS, когда необработанные данные просто насыщаются:

Eq. (65)

[X (WP) = 0.9641Y (WP) = 1.0000Z (WP) = 0.8249] D50 = CAT_AW → D50 C_ − 1 [R (AW) G (AW) B (AW)] сцена, где макс. {R (WP), G (WP), B (WP)} = 1. Это эквивалентно перенормировке C_ следующим образом:

Eq. (66)

[R (AW) G (AW) B (AW)] сцена = C_ [X (AW) Y (AW) Z (AW)] сцена, где Y (AW) = 1 и max {R (WP ), G (WP), B (WP)} = 1.

7.3.

Линейная интерполяция на основе обратной CCT

Алгоритм интерполяции метода 1 такой же, как описанный в разд. 4.1, за исключением того, что ColorMatrix1, ColorMatrix2 и C_ заменяют T1_, T2_ и T_ соответственно. Кроме того, спецификация Adobe DNG требует, чтобы метод интерполяции был линейной интерполяцией на основе обратной CCT. 32

Опять же, сама интерполяция усложняется тем фактом, что AW обычно рассчитывается камерой в терминах исходных значений R (AW), G (AW) и B (AW), но соответствующие CCT ( AW) требует знания координат цветности (x, y).Это означает преобразование в CIE XYZ с помощью матричного преобразования C_, которое само зависит от неизвестного CCT (AW), которое может быть решено с помощью процедуры самосогласованного итерационного анализа.

  • 1. Сделайте предположение для координат цветности AW, (x (AW), y (AW)). Например, могут использоваться координаты цветности, соответствующие одному из характеризующих осветительных приборов.

  • 2. Найдите значение CCT CCT (AW), которое соответствует координатам цветности (x (AW), y (AW)), используя один из методов, перечисленных в шаге 2 разд.4.1.

  • 3. Выполните линейную интерполяцию:

    Ур. (67)

    C_ = α ColorMatrix1 _ + (1 − α) ColorMatrix2_, где α — зависимый от CCT весовой коэффициент, который зависит от обратного CCT:

    Eq. (68)

    α = (CCT (AW)) — 1− (CCT2) −1 (CCT1) −1− (CCT2) −1. Эти веса (обозначены g и 1 − g в исходном коде Adobe DNG SDK) проиллюстрированы на рис. 11 для пары примерных значений CCT1 и CCT2. Интерполяция действительна для CCT (1) ≤CCT (AW) ≤CCT (2). Если CCT (AW) CCT2, то C_ должно быть установите равным ColorMatrix2.
  • 4. Используйте C_ для преобразования AW из необработанного пространства камеры в CIE XYZ:

    Eq. (69)

    [X (AW) Y (AW) Z (AW)] сцена = C_ − 1 [R (AW) G (AW) B (AW)] сцена. Это дает новое предположение для (x (AW) , y (AW)).
  • 5. Повторяйте процедуру, начиная с шага 2, пока (x (AW), y (AW)), CCT (AW) и C_ все не сойдутся к стабильному решению.

  • 6. Нормализуйте преобразование цвета в соответствии с формулой. (65).

На рисунке 12 показаны результаты линейной интерполяции на основе обратной CCT с использованием цветовых матриц Adobe, определенных формулой.(64) для камеры Olympus E-M1. Обратите внимание, что ColorMatrix2 такая же, как определенная формулой. (53), который был извлечен из исходного кода DCRaw.

Рис. 11

Весовые коэффициенты линейной интерполяции α и 1 − α на основе обратной CCT с CCT1 = 2855 K и CCT2 = 6504 K.

Рис. 12

Оптимизированная цветовая матрица C_, построенная как функция CCT и полученные с помощью линейной интерполяции на основе обратной CCT матриц преобразования цветов Adobe ColorMatrix1 (источник света A, CCT2 = 2855 K) и ColorMatrix2 (источник света D65, CCT2 = 6504 K) для камеры Olympus E-M1.

Поскольку C_ отображается в направлении от цветового пространства CIE XYZ к необработанному пространству камеры, инверсию интерполированного C_ можно сравнить с традиционной характеристической матрицей T_ при заданном CCT источника света. На рисунке 13 показан график, обратный интерполированному C_, как функция CCT, и этот рисунок можно сравнить с рисунком 5, на котором показаны стандартные матрицы характеристик для той же камеры, оптимизированные для выбора CCT. Хотя на этих двух графиках используются разные нормализации, поскольку характеристические матрицы нормализованы в соответствии с их характеристическим источником света WP, а не WP PCS, вариации относительно CCT аналогичны.Однако очевидно, что интерполированный C_ теряет точность для CCT ниже CCT1.

Рис. 13

Инверсия интерполированной цветовой матрицы C_, представленной на рис. 12.

7.4.

Метод 2: Прямые матрицы

Рассмотрим преобразование из необработанного пространства камеры в PCS, определенное уравнением. (60):

[XYZ] D50 = CAT_AW → D50 C_ − 1 [RGB] сцена, где C_ — это цветовая матрица Adobe, оптимизированная для сцены AW. Метод 2 переформулирует вышеуказанное преобразование следующим образом:

Eq.(70)

[XYZ] D50 = F_D_ [RGB] сцена. Преобразование цвета можно разделить на два этапа.
  • 1. Аналогично стратегии преобразования цвета традиционных цифровых фотоаппаратов, описанной в разд. 5, диагональная матрица D_, определенная формулой. (38) содержит множители необработанных каналов, подходящие для AW, т. Е. Оценочную оценку WP освещения сцены:

    D _ = [1R (AW) 0001G (AW) 0001B (AW)] сцена. В частности, множители необработанных каналов служат для хроматической адаптировать AW к эталонному белому в необработанном пространстве камеры:

    Eq.(71)

    [R = 1G = 1B = 1] = D_ [R (AW) G (AW) B (AW)] сцена. Обратите внимание, что спецификация Adobe DNG также учитывает необработанные множители каналов, применяемые в аналоговой области. 32 Однако в последних цифровых камерах используются АЦП с относительно высокой битовой глубиной порядка 12 или 14, и, следовательно, в цифровой области используются умножители необработанных каналов.
  • 2. Прямая матрица F_ — это тип характеристической матрицы, которая отображает необработанное пространство камеры в PCS и оптимизирована для освещения сцены.Поскольку PCS основана на цветовом пространстве CIE XYZ с WP освещенности D50, передняя матрица F_ включает в себя встроенный CAT, поскольку она также должна адаптировать эталонный белый необработанного пространства камеры к WP освещения D50:

    Eq . (72)

    [X (WP) = 0,9642Y (WP) = 1,0000Z (WP) = 0,8249] D50 = F_ [R = 1G = 1B = 1].

Поскольку прямая матрица F_ должна быть оптимизирована для сцены AW, на практике она определяется интерполяцией между двумя прямыми матрицами аналогично подходу интерполяции, используемому в методе 1.Спецификация Adobe DNG предоставляет теги для двух прямых матриц, обозначенных ForwardMatrix1 и ForwardMatrix2, которые должны снова быть получены из характеристик, выполненных с использованием источника света с низким CCT и источника света с высоким CCT, соответственно. Следует использовать тот же метод интерполяции, который описан в предыдущем разделе, с ForwardMatrix1, ForwardMatrix2 и F_ вместо ColorMatrix1, ColorMatrix2 и C_, соответственно,

Eq. (73)

F_ = α ForwardMatrix1 _ + (1 − α) ForwardMatrix2_. На рисунке 14 показана оптимизированная прямая матрица, интерполированная из ForwardMatrix1 и ForwardMatrix2 и выраженная как функция CCT для камеры Olympus E-M1.

Рис. 14

Оптимизированная прямая матрица F_, построенная как функция CCT и полученная с помощью линейной интерполяции на основе обратной CCT матрицы Adobe ForwardMatrix1 (источник света A, CCT2 = 2855 K) и прямой матрицы 2 (источник света D65, CCT2 = 6504 K ) матрицы для фотоаппарата Olympus E-M1. Очевидно, что элементы оптимизированной прямой матрицы F_ изменяются очень медленно и стабильно как функция CCT, аналогично элементам матрицы поворота цвета, показанным на рис. 8.

7.5.

Спецификация прямой матрицы

Путем сравнения формул.(60) и (70), F_ алгебраически связана с цветовой матрицей C_ следующим образом:

Ур. (74)

F_ = CAT_AW → D50 C_ − 1 D_ − 1. Поскольку на практике F_ интерполируется из ForwardMatrix1 и ForwardMatrix2, они определяются как

Eq. (75)

ForwardMatrix1_ = CAT_AW → D50 ColorMatrix1_ − 1 D_ − 1ForwardMatrix2_ = CAT_AW → D50 ColorMatrix2_ − 1 D_ − 1 Согласно формуле. (72) оптимизированная прямая матрица F_ по определению нормализована так, что единичный вектор в необработанном пространстве камеры отображается на D50 WP PCS. 32 Это означает, что ForwardMatrix1 и ForwardMatrix2 также должны быть нормализованы таким образом. Например, значения по умолчанию ForwardMatrix1 и ForwardMatrix2 для камеры Olympus E-M1, соответственно, нормализованы следующим образом:

Eq. (76)

[X (WP) = 0,9643Y (WP) = 0,9999Z (WP) = 0,8251] D50 = [0,47340,36180,12910,27650,68270.04070,21160,00060,6129] [R = 1G = 1B = 1], [X ( WP) = 0.9643Y (WP) = 1.0000Z (WP) = 0.8252] D50 = [0.46330.32440.17660.27790.66610.05600.17220.00330.6497] [R = 1G = 1B = 1]. Официальный WP D50 PCS на самом деле X = 0.9642, Y = 1,0000 и Z = 0,8249, 40 , что представляет собой 16-битное дробное приближение истинного D50 WP, определяемого как X = 0,9642, Y = 1,0000 и Z = 0,8251.

8.

Выводы

В первом разделе этого документа показано, как конвертер RAW с открытым исходным кодом DCRaw можно использовать для непосредственного определения характеристик камеры без необходимости определять и инвертировать OECF, а также показано, как матрицы характеристик нормализуются на практике. Как следствие метамерной ошибки камеры, необработанное пространство камеры для типичной камеры оказалось искаженным от треугольной формы, доступной для аддитивных линейных комбинаций трех фиксированных основных цветов на диаграмме цветности xy, а доступная гамма оказалась зависимой на характеристику осветительного прибора.Также было показано, что эталонный белый цвет типичного необработанного пространства камеры имеет сильный пурпурный оттенок.

Впоследствии в этой статье исследовались и сравнивались типы стратегий преобразования цвета, используемые камерами смартфонов и коммерческими преобразователями RAW, механизмами обработки изображений традиционных цифровых камер, DCRaw и преобразователем Adobe DNG.

Смартфоны и приложения для преобразования необработанных данных обычно используют стратегию преобразования цвета, известную в науке о цвете.Это включает в себя применение матрицы характеристик T_ для преобразования из необработанного пространства камеры в цветовое пространство CIE XYZ, CAT для хроматической адаптации оцененного WP освещения сцены к эталонному белому цветового пространства, упомянутого на выходе (например, D65 для sRGB), и, наконец, преобразование из CIE XYZ в линейную форму выбранного цветового пространства, ориентированного на вывод. Поскольку оптимизированная матрица характеристик зависит от CCT, если не выполняется условие Лютера-Айвза, оптимизированная матрица может быть определена путем интерполяции между двумя предварительно установленными характеристическими матрицами, одна оптимизирована для источника света с низкой CCT, а другая оптимизирована для источника света с высокой CCT. .Более простые решения включают использование фиксированной матрицы характеристик, оптимизированной для репрезентативного освещения сцены.

Для традиционных цифровых камер в этой статье показано, как общее преобразование цвета обычно переформулируется в терминах множителей необработанных каналов D_ вместе с набором матриц поворота цветов R_. Множители необработанных каналов действуют как тип CAT, хроматически адаптируя оценку WP освещения сцены к эталонному белому необработанного пространства камеры. Поскольку каждая из строк матрицы поворота цветов в сумме равна единице, матрица поворота впоследствии преобразуется из необработанного пространства камеры непосредственно в выбранное цветовое пространство RGB, относящееся к выходу, и в то же время хроматически адаптирует исходный белый цвет исходного пространства камеры к таковому из цветовое пространство, указанное на выходе.Было показано, что вариация элементов матрицы поворота цвета относительно CCT очень мала, поэтому требуется лишь небольшой выбор предварительно заданных матриц поворота, каждая из которых оптимизирована для заданного предварительно заданного источника света. Это позволяет применять необработанные множители каналов, подходящие для оценки WP освещения сцены, в сочетании с предварительно установленной матрицей поворота, связанной с наиболее подходящим WP. Основное преимущество переформулировки состоит в том, что интерполяция не требуется, и метод может быть эффективно реализован на архитектуре с фиксированной точкой.Кроме того, качество изображения может быть улучшено путем применения умножителей необработанных каналов до цветовой демозаики.

Было показано, что DCRaw использует модель, аналогичную традиционным цифровым камерам, за исключением того, что для каждой камеры используется только одна матрица вращения цвета, в частности матрица R_D65, оптимизированная для освещения D65. Хотя общее преобразование цвета теряет некоторую точность, когда освещение сцены значительно отличается от D65, преимущество отделения множителей сырых каналов от характеристической информации, представленной матрицей вращения цвета, заключается в том, что баланс белого может быть правильно достигнут для любого типа освещения сцены при условии необработанного применяются канальные множители, подходящие для освещения сцены.Было показано, что матрицы вращения, используемые DCRaw, могут быть получены из инверсий матриц цветовых характеристик ColorMatrix2, используемых конвертером Adobe DNG.

Конвертер Adobe DNG отображает необработанное пространство камеры и оценку WP освещения сцены на промежуточный этап в общем преобразовании цвета, а именно на PCS на основе цветового пространства CIE XYZ с WP D50. Метод 1 определяет подход, который также используется в коммерческих преобразователях необработанных данных и современных смартфонах. Цветовая матрица C_, оптимизированная для освещения сцены, получается посредством интерполяции между предварительно установленными матрицами «ColorMatrix1» с низким CCT и «ColorMatrix2» с высоким CCT.Из-за требований логики восстановления выделения эти цветовые матрицы отображаются в противоположном направлении по сравнению с обычными матрицами характеристик. Кроме того, матрицы ColorMatrix1 и ColorMatrix2 изначально нормализованы в соответствии с WP PCS, а не их соответствующими характеристическими осветительными приборами. Поскольку цветовые матрицы Adobe находятся в свободном доступе, их соответствующим образом нормализованные инверсии могут служить полезными высококачественными характеристическими матрицами, когда оборудование для определения характеристик камеры недоступно.

Метод 2, предлагаемый конвертером Adobe DNG, использует множители необработанных каналов аналогично традиционным цифровым камерам. Однако они применяются в сочетании с так называемой прямой матрицей, а не с матрицей вращения, поскольку конвертер Adobe DNG напрямую не сопоставляется с цветовым пространством RGB, указанным на выходе, поэтому сумма строк прямой матрицы не равна единице. Хотя оптимизированная прямая матрица определяется путем интерполяции предварительно заданных матриц «ForwardMatrix1» и «ForwardMatrix2», вариация оптимизированной прямой матрицы по отношению к CCT очень мала, аналогично матрице вращения.

9.

Приложение: Модель необработанных данных

Рассмотрим необработанные значения, выраженные как интегрирование по спектральной полосе пропускания камеры в соответствии с формулой. (5):

R = k∫λ1λ2R1 (λ) E˜e, λdλ, G = k∫λ1λ2R2 (λ) E˜e, λdλ, B = k∫λ1λ2R3 (λ) E˜e, λdλ. Хотя E˜ e, λ можно рассматривать как среднюю спектральную освещенность на фотосъёмке, это более точно описывается как спектральная энергетическая освещённость, свёрнутая с функцией рассеяния точки (PSF) системы камеры (x, y, λ) и измеренная в позиционных координатах ( x, y) на плоскости датчика:

Eq.(77)

E˜e, λ (x, y) = [Ee, λ, ideal (x, y) * h (x, y, λ)] comb [xpx, ypy], где px и py — пиксель смолы в горизонтальном и вертикальном направлениях. Также может быть включена модель шума. 28 , 51 Величина, обозначенная Ee, λ, ideal (x, y), представляет собой идеальную спектральную освещенность на плоскости датчика, которая теоретически может быть получена в отсутствие системы PSF:

Eq. (78)

Eλ, ideal (x, y) = π4Le, λ (xm, ym) 1Nw2T cos4 {φ (xm, ym)}, где Le, λ — соответствующая спектральная яркость сцены, m — увеличение системы, Nw — рабочее f-число объектива, T — коэффициент пропускания линзы, а φ — угол между оптической осью и указанными координатами сцены.Если известен профиль виньетирования объектива, четвертый член косинуса можно заменить коэффициентом относительной освещенности, который представляет собой функцию пространства изображения, описывающую реальный профиль виньетирования. 52

Константа k, которая появляется в уравнении. (5) устанавливает верхнюю границу величины необработанных значений. Можно показать 28 , что k задается как

, где t — продолжительность воздействия, а gi — коэффициент преобразования между счетчиками электронов и исходными значениями для мозаики i, выраженный в единицах e− / DN. 53 , 54 Коэффициент преобразования обратно пропорционален усилению ISO GISO, которое является аналоговой настройкой усиления усилителя с программируемым усилением, расположенного перед АЦП:

Eq. (80)

gi = UGISO, i, U = ne, i, FWCnDN, i, clip. Здесь U — единичный коэффициент усиления, который представляет собой настройку усиления, при которой gi = 1. Полнолуночная емкость обозначается буквами ne, i, FWC и nDN, i, clip — это точка отсечения необработанного сигнала, которая является максимально доступным необработанным уровнем. Это значение не обязательно равно максимальному необработанному уровню, обеспечиваемому АЦП с учетом его битовой глубины M, которая составляет 2M-1 DN, особенно если камера включает смещение смещения, которое вычитается перед записью необработанных данных. 28 , 53

Наименьшее аналоговое усиление определяется GISO = 1, что соответствует базовому усилению ISO. 28 , 51 Числовые значения соответствующих настроек ISO камеры S определяются с использованием выходных данных JPEG, а не необработанных данных. 55 , 56 Эти пользовательские значения также учитывают цифровое усиление, применяемое через градационную кривую JPEG. При сравнении необработанного вывода с камер, основанных на различных форматах сенсоров, по возможности следует использовать эквивалентные, а не одинаковые настройки экспозиции. 57

Как указано в п. 2.2, фактические необработанные значения, полученные на практике, представляют собой квантованные значения, смоделированные путем взятия целой части уравнения. (5), и полезно впоследствии нормализовать их до диапазона [0,1], разделив уравнение. (5) по необработанной точке отсечения.

С любовью к промышленному машинному зрению!

Печенье

MATRIX VISION использует файлы cookie для анализа посещаемости сайта и оптимизации его производительности и улучшений.Выберите, какие файлы cookie, помимо технически необходимых, вы хотите принять. Мы обрабатываем данные в целях анализа и маркетинга только с вашего согласия. Вы можете изменить эти настройки в любое время. Для получения дополнительной информации, в том числе об обработке данных сторонними поставщиками, см. Нашу Политику конфиденциальности.

Показать детали Скрыть детали

  • Необходимо

    Эти файлы cookie необходимы для работы сайта.Они помогают сделать веб-сайт пригодным для использования и включают функции, связанные с безопасностью. Без этих файлов cookie веб-сайт не может работать должным образом.

  • Статистика

    Эти файлы cookie предоставляют нам информацию о том, какие области нашего веб-сайта используются.Для этого мы собираем статистические данные без персональной ссылки. Они позволяют нам постоянно развиваться, адаптировать содержание к вашим потребностям и использовать сети для целевого продвижения наших продуктов.

Подтвердите выбор

Со всем согласен

Матрица камеры обеспечивает трехмерное зрение

27 марта 2019 г. // Кристоф Хаммершмидт

На презентации своего «промежуточного этапа» партнеры консорциума представили первый прототип камеры.Матрица камеры состоит из шестнадцати отдельных камер, расположенных квадратом, которые вместе служат не только как устройства формирования изображения, но и как измерители расстояния. Размер матрицы составляет примерно три на три сантиметра, и она была сделана из полноформатного сенсора высокого разрешения с микролинзами перед ним. Он захватывает сцену с шестнадцати слегка смещенных перспектив для расчета глубины изображения. Небольшой, но эффективный процессор, встроенный в систему камеры, позволяет рассчитывать информацию о глубине в реальном времени.Полученные данные о цвете и глубине служат входными данными для последующих приложений. Благодаря своей компактной конструкции камеру также можно интегрировать в небольшие компоненты в качестве бесконтактного датчика.

Оливер Вазенмюллер, лидер консорциума и со-инициатор проекта DAKARA («Разработка и применение компактной, энергоэффективной и настраиваемой матрицы камеры для пространственного анализа») объясняет: «Матрица камеры впечатляет преимуществами пассивного датчика глубины. в сочетании с компактным дизайном и высокой частотой кадров.Глубинные трехмерные изображения всегда содержат ценную дополнительную информацию к цветным изображениям, что в первую очередь делает возможным применение многих алгоритмов или доводит их до надежности, позволяющей профессиональное применение.

Новая система была тщательно протестирована в двух различных сценариях применения промышленными партнерами DAKARA:

Во время экспериментов в качестве камеры заднего вида через партнера Adasens Automotive GmbH система распознала даже более тонкие конструкции, такие как бордюры или столбы, во время автономной парковки.Он обнаруживает окружающую среду транспортного средства как пространственно, так и метрически и, таким образом, предоставляет гораздо более точную трехмерную информацию, чем современные современные ультразвуковые датчики.


Рассечение матрицы камеры (Часть 2) | Сери Ли

Внешняя матрица принимает форму жесткой матрицы преобразования: матрица вращения $ 3 \ times 3 $ в левом блоке и вектор-столбец $ 3 \ times 1 $ перемещения в правом.

\ [\ begin {bmatrix} \ begin {array} {ccc | c} r_ {11} & r_ {12} & r_ {13} & t_1 \\ r_ {21} & r_ {22} & r_ {23 } & t_2 \\ r_ {31} & r_ {32} & r_ {33} & t_3 \ end {array} \ end {bmatrix} \]

Обычно можно увидеть версию этой матрицы с дополнительной строкой $ (0,0,0,1) $ добавлен снизу. Это делает матрицу квадратной, что позволяет нам дополнительно разложить эту матрицу на поворот с последующим переводом:

\ [\ begin {bmatrix} \ begin {array} {ccc | c} 1 & 0 & 0 & t_1 \\ 0 & 1 & 0 & t_2 \\ 0 & 0 & 0 & t_3 \\ \ hline 0 & 0 & 0 & 1 \ end {array} \ end {bmatrix} \ times \ begin {bmatrix} \ begin {array} {ccc | c} r_ {11} & r_ {12} & r_ {13} & 0 \\ r_ {21} & r_ {22} & r_ {23} & 0 \\ r_ {31} & r_ {32} & r_ {33} & 0 \\ \ hline 0 & 0 & 0 & 1 \ end {array} \ end {bmatrix} \]

Матрица описывает, как преобразовать точки в мировых координатах в координаты камеры.О внешней матрице важно помнить то, что она описывает, как мир трансформируется относительно камеры. Это часто противоречит интуиции, потому что мы обычно хотим указать, как камера трансформируется относительно мира.

Как я уже говорил, часто более естественно указать позу камеры напрямую, чем указывать, как точки мира должны преобразовываться в координаты камеры.

К счастью, построить внешнюю матрицу камеры таким способом просто: просто создайте жесткую матрицу преобразования, которая описывает позу камеры, а затем возьмите ее инверсию.{-1} \]

Пусть $ C $ будет вектором-столбцом, описывающим положение центра камеры в мировых координатах, и пусть $ R_c $ будет матрицей вращения, описывающей ориентацию камеры относительно осей мировых координат. Затем внешняя матрица получается путем инвертирования матрицы позы камеры.

Алгебраически матрица вращения в $ n $ -мерностях представляет собой специальную ортогональную матрицу $ n \ times n $, то есть ортогональную матрицу, определитель которой равен 1.

Мы можем определить матрицу $ R $, которая вращается в $ xy $ -картова плоскость против часовой стрелки на угол $ \ theta $ относительно начала декартовой системы следующим образом: $$ R = \ begin {bmatrix} \ cos \ theta & — \ sin \ theta \\ \ sin \ theta & \ cos \ theta \ end {bmatrix} $$

Набор всех матриц вращения формирует группу, известную как специальная ортогональная группа.T_c \\ t = -RC} \]

Проекция вида модели

В 3D-движках сцены обычно описываются как объекты в трехмерном пространстве, причем каждый объект состоит из множества трехмерных объектов. вершины. В конечном итоге эти объекты визуализируются и отображаются на плоском экране. Визуализация сцены всегда выполняется относительно камеры, и поэтому вершины сцены также должны быть определены относительно обзора камеры.

Сцена, визуализируемая в мировом пространстве, пространстве камеры, а затем нормализованные координаты устройства, представляющие этапы преобразования в конвейере Model View Projection .{\ prime} = P \ cdot V \ cdot M \ cdot vv ′ = P⋅V⋅M⋅v

Положение вершины преобразуется матрицей модели , затем матрицей view , за которой следует проекция матрица, отсюда и название Model View Projection или MVP .

См. Примечания к Преобразованиям матриц для составления матриц, умножения.

Пространство модели

Модели, геометрия и сетки — это некоторые серии вершин, определенных в пространстве модели . Например, геометрия куба может быть определена как 8 вершин: (1,1,1) (1, 1, 1) (1,1,1), (−1, −1, −1) (- 1, — 1, -1) (- 1, −1, −1), (1,1, −1) (1, 1, -1) (1,1, −1) и т. Д.В результате получится куб 2x2x2 с центром в точке (0,0,0) (0, 0, 0) (0,0,0).

Вершины геометрии, определенные в пространстве модели.

Часто геометрия многократно используется в одном рендере, в разных местах или в разных размерах. Размещение уникальных вершин для каждого экземпляра модели является дорогостоящим и ненужным. Один набор геометрических вершин может совместно использоваться несколькими экземплярами, причем каждый экземпляр применяет свой собственный уникальный набор преобразований, представленный матрицей модели . Матрица модели преобразует вершины из пространства модели в мирового пространства .Куб 2x2x2 с центром в точке (0,0,0) (0, 0, 0) (0,0,0) может быть изменен, скручен и размещен в любом месте в сочетании с матрицей модели.

Много кубиков в мировом пространстве.

Матрица MMM модели состоит из преобразования объекта, преобразования TTT, поворота, преобразования RRR и масштабного преобразования SSS. Умножение положения вершины vvv на эту матрицу модели преобразует вектор в мировое пространство .

M = T⋅R⋅Svworld = M⋅vmodel \ begin {align} M & = T \ cdot R \ cdot S \\ v_ {world} & = M \ cdot v_ {модель} \\ \ end {выровнено} Mvworld = T⋅R⋅S = M⋅vmodel

View

Мировое пространство является общей глобальной трехмерной декартовой системой координат.Отрисовываемые объекты, источники света и камеры — все существуют в этом пространстве, определяемом их матрицей модели, все относительно одной и той же точки (0,0,0) (0, 0, 0) (0,0,0).

Поскольку все рендеры выполняются с точки зрения некоторой камеры, все вершины должны быть определены относительно камеры.

Пространство камеры — это система координат, определяемая как камера в точке (0,0,0) (0, 0, 0) (0,0,0), обращенная вниз по оси -Z. Камера также имеет матрицу модели, определяющую ее положение в мировом пространстве. Матрица модели камеры, обратная матрице , преобразует вершины из мирового пространства в пространства камеры или пространства обзора .

Сцена в пространстве камеры, где все относительно камеры, начала координат. См. Матричные преобразования # inverse-matrix для инверсных матриц.

Иногда матрица представления и матрица модели предварительно умножаются и сохраняются как матрица представления . Хотя каждый объект имеет свою собственную матрицу модели, матрица вида используется всеми объектами сцены, так как все они визуализируются одной и той же камерой. Учитывая матрицу модели камеры CCC, любой вектор vvv может быть преобразован из пространства модели в мировое пространство, в пространство камеры.{-1} \\ v_ {камера} & = V \ cdot M \ cdot v_ {модель} \\ \ end {выровнено} Vvcamera = C − 1 = V⋅M⋅vmodel

В системе OpenGL, где камера обращена вниз -Z, любая вершина, которая будет визуализироваться, должна находиться перед камерой, а в пространстве камеры будет иметь отрицательное значение Z.

Проекция

После того, как вершины окажутся в пространстве камеры , они, наконец, могут быть преобразованы в пространство клипа , применив преобразование проекции. Матрица проекции кодирует, какая часть сцены захватывается при рендеринге, определяя пределы обзора камеры.Двумя наиболее распространенными типами проекции являются перспективная и ортогональная .

Перспективная проекция приводит к тому, что объекты кажутся тем меньше, чем дальше они находятся от зрителя. Ортографические проекции не имеют этой функции, которая может быть полезна, например, для технических схем или архитектурных чертежей. Подобно тому, как разные объективы в традиционной камере могут резко изменить поле зрения или искажение, матрица проекции аналогичным образом преобразует сцену.

Дополнительные примечания по 3D-проекции.

После применения матрицы проекции вершины сцены теперь находятся в пространстве клипа . Обратите внимание, что трехмерные вершины представлены четырехмерными векторами однородных координат с w = 1w = 1w = 1.

vclip = P⋅V⋅M⋅vv_ {clip} = P \ cdot V \ cdot M \ cdot vvclip = P⋅V⋅M⋅v

В пространстве камеры после преобразований вида модель www остается неизменным и равно 1. Однако перспективная проекция является важной причиной необходимости 4-й координаты и может больше не равняться 1 после применения проекции.

Вершинный шейдер в OpenGL ожидает, что vec4 gl_Position будет установлено для отсечения координат пространства. После завершения вершинного шейдера и определения положения пространства клипа конвейер автоматически выполняет перспективное деление, разделяя компоненты [x, y, z] [x, y, z] [x, y, z] на значение www, поворачивая 4D вектор обратно в 3D вектор, в результате чего вершина наконец оказывается в нормализованных координатах устройства .

[xndcyndczndc] = [xclip / wclipyclip / wclipzclip / wclip] \ begin {bmatrix} x_ {ndc} \\ y_ {ndc} \\ z_ {ndc} \ end {bmatrix} = \ begin {bmatrix} x_ {clip} / w_ {clip} \\ y_ {clip} / w_ {clip} \\ z_ {clip} / w_ {clip} \ end {bmatrix} ⎣⎡ xndc yndc zndc ⎦⎤ = ⎣⎡ xclip / Wclip yclip / wclip zclip / wclip ⎦⎤ Визуализация объектов в нормализованных координатах устройства.Обратите внимание, что ось Z перевернулась, и теперь камера направлена ​​вниз по оси + Z.

В этот момент конвейер отбрасывает любые вершины за пределами куба 2x2x2 с размерами (−1, −1, −1) (- 1, -1, -1) (- 1, −1, −1) и ( 1,1,1) (1, 1, 1) (1,1,1). Вся видимая сцена, определяемая матрицей проекции, теперь свернута в куб, причем размеры усеченного конуса определяют, сколько было сжато в этот куб, с ближней плоскостью, сопоставленной с z = −1z = -1z = −1 и дальней плоскостью. отображается в z = 1z = 1z = 1.

Глубина в конвейерах OpenGL отображает Z между -1 и 1, тогда как значения глубины Direct3D находятся между 0 и 1.Однако ARB_clip_control OpenGL может изменить это поведение.

Матрицы модели, вида и проекции преобразуют вершины, которые начинаются в пространстве модели , а затем мировом пространстве , пространстве камеры , а затем пространстве клипа . Затем вершины преобразуются в нормализованных координат устройства посредством неявного перспективного деления.

Матрицы фотоаппаратов: Виды матриц фотоаппарата и их отличия

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Пролистать наверх