Размеры матриц видеокамер таблица: Видеонаблюдение

Содержание

Видеонаблюдение

 

Методическое пособие по системам охранного телевидения

Н.В. Будзинский, А.Г. Зайцев, А.С. Гонта, А.А. Михайлов.

 

ПЗС-видеокамера – это видеокамера, созданная на основе прибора с зарядовой связью (ПЗС или CCD). Прибор с зарядовой связью выполняет функции светочувствительного элемента и является аналоговым устройством.

В охранном телевидении прибор с зарядовой связью принято называть ПЗС-матрица.

ПЗС-матрица – это прямоугольная светочувствительная полупроводниковая пластина с соотношением сторон 3:4, которая преобразует падающий на нее свет в электрический сигнал.

Таблица 11 ПЗС-матрицы, обозначения и размеры

ПЗС-матрица состоит из большого числа фоточувствительных ячеек – пикселов, количество которых указывается в паспорте на видеокамеру.

ПЗС-матрицы имеют разные размеры, которые называются форматом матриц и имеют обозначения и размеры, приведенные в таблице 11.

Формат матриц хоть и указан в дюймах, но не соответствует реальному размеру ПЗС-матрицы. Эти форматы исторически перешли к ПЗС-камерам от передающих телевизионных трубок на видиконах и ньювиконах.

Градации яркости

Градации яркости хоть и не являются параметром видеокамеры, но именно они и определяют для пользователя ощущение высокого качества изображения. Что же такое градации яркости?

В изображении, которое мы видим на мониторе, информация передается за счет большего количества градаций яркости. Это означает, что кроме ярких и темных мест в изображении еще имеется много промежуточных градаций, так называемых полутонов. Наличие в изображение большего их количества делает его более художественным, живым, сочным и увеличивает разборчивость элементов изображения.

Максимальное количество градаций яркости, которое природа способна предоставить нам, наверно, бесконечно. Стремиться к воспроизведению такого большого количества градаций яркости, по меньшей мере, расточительно. В бытовом телевидении, по экспертным оценкам, его количество было определено исходя из порога, при котором человек еще замечает разницу в двух соседних значениях яркости. Поэтому количество градаций яркости в результате экспертных оценок составляет величину от 80 до 130 при средней яркости свечения экрана 40 кд/кв. м. При увеличении яркости свечения экрана количество различимых градаций яркости увеличивается.

В CCTV изображение формируется на экране монитора. Для компьютерных систем, работающих под Windows, количество возможных градаций яркости зависит от выбранного режима экрана. Если режим экрана 16 миллионов цветов, то максимальное количество оттенков красного (R), или зеленого (G), или синего (B) равно 255. Во всей этой цветовой палитре, когда R = G = B, появляется оттенок серого. Общее количество оттенков серого или градаций яркости в цветовой палитре 256. Если у нас режим экрана 65 536 цветов, то мы имеем 32 градации яркости, а если изображение выводится в режиме экрана 256 цветов, то количество градаций яркости равно 16.

Разрешающая способность

В настоящее время количество разнопланового оборудования, из которого состоят системы видеонаблюдения, привело к тому, что понятие разрешающая способность стало больше путать пользователей CCTV, чем отвечать на естественный вопрос: «Какая разрешающая способность у этого оборудования?».

Основную путаницу вносит то, что мы ни как не привыкнем к тому, что одно дело количество дискретных элементов (пикселов), которые работают с изображением и совсем другое дело как эти элементы «создают» изображение. И многие пользователи CCTV заметили, что видеокамеры с одинаковыми по количеству пекселов ПЗС матрицами создают совершенно разные по качеству изображения.

Давайте вспомним, что означало понятие разрешающей способности у обыкновенного аналогового телевизора.

Разрешающая способность подразделялась на разрешающую способность по вертикали и по горизонтали.

Разрешающая способность по вертикали – максимальное число горизонтальных линий, которое способно передать оборудование. Разрешающая способность по вертикали ограничена количеством строк в кадре (рис. 27). Так, для стандартов CCIR и SECAM это 625 строк или линий (точно 575), а для EIA – 525 строк или линий (точно 475). Точное значение количества строк отличается от общего количества строк в кадре за счет того, что строки, «находящиеся» в кадровом гасящем импульсе, не передают изображение, а значит, и не должны учитываться в разрешающей способности по вертикали. Но это теоретическое разрешение по вертикали, практически разрешение равно результату умножения 575 или 475 на поправочный коэффициент 0,7 (Келл фактор).

Рис. 27 График разрешающей способности по вертикали, ограниченный количеством строк в кадре

Исходя из вышесказанного, практическое разрешение по вертикали для CCIR и EIA равно 403 и 333 линиям соответственно. Обратите внимание, что разрешение по вертикали измеряется в линиях, а не в телевизионных линиях.

Разрешающая способность по горизонтали это максимальное число вертикальных линий, которое способно передать оборудование (рис. 28). Она зависит от верхней границы полосы частот сигнала и от размера апертуры (диаметра) сканирующего луча. Фактически разрешение по горизонтали в основном и интересует потребителей. Чем больше вертикальных линий умещается по всей ширине строки, тем больше на изображении проработаны мелкие детали.

Рис. 28 Разрешающая способность по горизонтали

На заре эфирного телевидения широко использовался термин: «количество элементов разложения», который соответствовал количеству точек пересечения горизонтальных линий развертки с вертикальными линиями. Общее их количество составляло величину порядка 390 – 400 тысяч.

В настоящее время, с появлением дискретных структур (ПЗС), мы имеем эти же элементы разложения, только они стали называться пикселами.

В эфирном телевидении наличие разрешающих способностей – как по горизонтали, так и по вертикали – создавали определенные неудобства в описании характеристик оборудования. Поэтому возникла необходимость выработать единый параметр для оценки разрешающей способности. Эта задача была решена путем пересчета разрешающей способности по горизонтали к разрешающей способности по вертикали, используя соотношение сторон экрана ¾. В результате чего и появился коэффициент 0,75, а за разрешающую способность принята одна телевизионная линия, или сокращенно «твл».

Например, часто можно видеть такие расчеты:

1. ПЗС-матрица видеокамеры по горизонтали имеет 627 пикселей, то есть она способна прорисовать 627 линий. Разрешающая способность равна 627 х 0,75 = 470 твл.

2. Разрешающая способность камеры 600 твл. Количество пикселей в горизонтальном ряду матрицы 600 : 0,75 = 800 пикселов.

И эти расчеты вполне оправданы. Ведь естественно, что если количество пикселов в одной камере с 752х564 (564 твл), а в другой 520х390 (390 твл), то разрешающая способность первой камеры лучше.

Но количество пикселов и связанное с этим разрешение это только сравнение видеокамер или любого оборудования по «внешним» признакам, т.е. по количеству дискретных элементов в структуре их фоточувствительного элемента – ПЗС матрице. И пока мы не касаемся характеристик изображения, которые формирует оборудование, то такая разрешающая способность имеет право на существование, и совершенно не важно представлена она в виде телевизионных линий или в виде количества пикселов по горизонтали и вертикали. Называть такую разрешающую способность целесообразно как — потенциальная разрешающая способность. Но лучше не использовать в этом случаи понятие разрешающей способности, а характеризовать видеокамеру имеющую 752х564 пикселов в матрице как 0,424 мегапиксельную, что представляет из себя результат умножения количества пикселей по вертикали на количество пикселей по горизонтали. Тем более, что такие аналогии уже присутствуют в фото и  видео технике.

Но как только мы хотим сравнить оборудование по разрешающей способности создаваемого им изображения, количество пикселов в матрице совершенно не достаточно для получения численного значения этой характеристики. Изображение хоть и создается дискретной структурой ПЗС матрицы, но кроме количества пикселов, нужно знать величину еще одного немаловажного параметра. Этот параметр должен характеризовать как каждый пиксел работает с изображением, т.е. как он способен передать все полтона изображения, которые на него проецируются.

В качестве такого параметра выступает контраст, а точнее зависимость величины ухудшения контраста от размера элементов изображения. Другими словами эта характеристика покажет нам, на сколько оборудование ухудшает контраст объектов, находящихся в поле зрения камеры в зависимости от их пространственных размеров.

Но каждый пиксел в ПЗС матрице вроде и «занимается» тем, что накапливает заряды, количество которых пропорционально количеству фотонов света, падающих на него. Если бы мы рассматривали идеальный случай, то количество градаций яркости на изображении было равно количеству электронов, накопленных в потенциальной яме. Но такого не происходить по ряду объективных и субъективных причин.

Любой объект на изображении, который нам интересен, всегда находится на каком то фоне.  Что бы мы могли увидеть объект его яркость должна быть больше или меньше яркости фона. Если яркость объекта ровна яркости фона, то объект сольется с фоном и различить его очень трудно. Отсюда мы приходим к очень важному параметру, определяющему видимость объекта, — к яркостному контрасту объекта с фоном. Аналитическое выражение для его определения выглядит следующим образом:

К = ;

            где:     Еоб –яркость объекта.

                        Eф – яркость фона.

Когда мы определяем предельную разрешающую способность оборудования, по создаваемому им изображению мы как раз должны ответить на вопрос: «Какой минимальный размер изображения способно обработать оборудование, при условии, что контраст между объектом и фоном снизится до предельных значений. На сегодняшний день в качестве предельного значения выступает модуляция равная 10%. Если пересчитать 10% модуляцию в контраст, то контраст будет равен 18,18(18)%. Естественно, что на глаз ни кто не определяет, как снизился контраст изображения, для этого существуют специальные программно-аппаратные средства.

Что же такое модуляция и чем она отличается от контраста?

Прежде всего, приведу широко известную формулу для определения модуляции:

М =

            На самом деле эта формула легко может ввести в заблуждение. Ведь мы с Вами хотим знать, как контрастирует объект наблюдения относительно фона, а модуляция на этот вопрос не дает нам ответа. Модуляция показывает, какой контраст объекта относительно среднего значения яркостей объекта и фона. Если это выразить в виде формулы, то она будет выглядеть так:

М =  = ;         где      Еср =

Поэтому в CCTV основным параметрам, определяющим характеристику изображения должен быть контраст, а не модуляция. Тем более что контраст наиболее чувствительный в областях малых освещенностей.

Значение модуляции равное 10%  приближается к  предельным возможностям человеческого зрения различать две расположенные рядом градации яркости. Поэтому значение разрешающей способности, полученное таким образом, является предельным разрешением. Но пользователям, а тем более проектировщикам интересно знать разрешение оборудования не на предельных его значениях, а во всем диапазоне возможных значений.

Для видеокамер, видеорегистраторов, мониторов и другого оборудования, работающего с видеосигналом, наиболее полную информацию об их разрешении и качестве формируемого изображения предоставляет функция передачи модуляции (ФПМ). Что такое ФПМ, мы рассмотрели в разделе объективы. Но поскольку в CCTV параметр модуляция не отражает физического смысла решаемых видеосистемами задач, целесообразно строить не ФПМ, а частотно контрастную характеристику (ЧКХ). Частотно контрастная характеристика незаменима при определении разрешающей способности оборудования и видеотрактов, а также их линейности во всем диапазоне пространственных частот. Эта характеристика является полным аналогом амплитудно-частотной характеристики (АЧХ), которая широко используется в технике связи, при звуковоспроизведении и в акустических системах. Отличие состоит в том, что АЧХ – это зависимость амплитуды сигнала от частоты, а ЧКХ – зависимость контраста видеосигнала от пространственной частоты. Почему контраст является основным критерием при тестировании видеооборудования? Потому что контраст, а точнее его уменьшение в зависимости от уменьшения пространственных размеров объектов характеризует способность оборудования передавать без искажений все градации яркости объектов на монитор. Чем больше контраст, тем больше полутонов в нем может присутствовать. И наоборот.

Количество градаций яркости, или полутонов, в изображении определяет, насколько «сочным», высокохудожественным оно будет. Если видеооборудование, на вход которого подается сигнал белого и черного цвета, без потери контраста передаст его на устройство отображения, то количество градаций яркости будет определяться только возможностями монитора. Если же оборудование снижает контраст при передаче изображения на монитор, то и количество градаций яркости также будет уменьшаться.

Для видеооборудования ЧКХ выражает зависимость передачи контраста мелких деталей объекта при уменьшении их размеров или, что то же самое, – увеличении пространственной частоты линий на мире, выраженной в их количестве, приходящемся на одну строку изображения.

Частотно контрастная характеристика может строиться по разным мирам, отличающиеся друг от друга контрастом и законом изменения контраста.

Наибольшее распространение получили миры, которые имеют 100% контраст между белыми и черными штрихами. На рис. 29 изображена одна из таких мир, представляющая собой чередующиеся белые и черные полосы, следующие с возрастающей частотой. Верхняя половина представляет собой эталонную миру с контрастом, равным 1, нижняя – изображение миры после прохождения через тестируемое устройство. Хорошо видно, как на нижней половине рис. 29 падает контраст между черным и белым по мере увеличения частоты следования черных и белых полос, а на высоких частотах полосы сливаются, превращаясь в серый фон.

 

Рис. 29 Функция передачи модуляции

Используя эту миру, строят частотно контрастную характеристику. На рис. 30 представлена функция передачи модуляции (Приводим графики ФПМ, а не ЧКХ в связи с отсутствием последних). Ось ординат на графике – это значение модуляции, которое получается на изображении, создаваемом видеокамерой, видеорегистратором, монитором или любым другим испытуемым видеоустройством. Ось абсцисс представляет количество телевизионных линий.

Для примера на рис. 30 приведены ФПМ двух видеорегистраторов и платы видеозахвата компьютерной системы видеонаблюдения. Что бросается в глаза? Прежде всего, модуляция изображения относительно своего исходного значения, равного 1 стала немного меньше, а со значений (100 — 150) твл резко падает до ноля (искажается исходный контраст объекта). При этом плата видеозахвата значительно превосходит видеорегистраторы по предельному разрешению, по четкости, да и максимальный уровень модуляции очень близок к единице.

Рис. 30 ФПМ двух видеорегистраторов и платы видеозахвата компьютерной системы видеонаблюдения

Но, к сожалению, все эти превосходства не позволяют этой плате видеозахвата работать даже с видеокамерами среднего разрешения 420–470 твл. в связи с тем, что предельное разрешение платы видеозахвата по уровню модуляции 0,1 (контраст 0,18) составляет величину 380 твл.

Поскольку каждый элемент в видеотракте снижает контраст, результирующая ФПМ видеотракта, состоящего из объектива, камеры и платы видеозахвата будет еще хуже, чем ФПМ каждого элемента в отдельности. На рис. 31 как раз представлена сквозная характеристика видеотракта. В результате предельное разрешение составило 300 твл, а четкость – 150 твл при хорошей модуляции на низких частотах.

Рис. 31 Сквозная характеристика видеотракта

Наверно, именно потому, что разрешение, которое способны обеспечить цифровые системы обработки видеосигнала, имеют такое низкое значение, во всех рекламных проспектах не приводится параметр «разрешающая способность», а появилась очень странная характеристика: «Средний размер кадра на разрешении 768 x 576, ч/б – 7,7 кб». Но ведь разрешение 768 х 576 пикселей говорит нам о том, что в этот кадр можно вывести изображение с разрешением 576 телевизионных линий. Если этот параметр характеризует предельную возможность экранной области, то это вполне возможно, а вот если подразумеваются возможности платы видеозахвата работать с таким разрешением, то этого просто не может быть. А ведь заказчик платит деньги за конкретное разрешение видеокамер, которое, как он надеется, будет и на экране.

Когда мы покупаем магнитофон (усилитель), то в его паспорте читаем: «Полоса частот от 100 Гц до 12000 Гц». И нам абсолютно ясно, что ниже 100 Гц мы ничего не услышим или услышим с искажениями. То же самое касается и частот выше 12000 Гц. Но поскольку мы собираемся слушать только бардовские песни, то нас такой магнитофон (усилитель) устраивает. Но если мы хотим слушать симфонический оркестр, то ищем оборудование с полосой частот 20 Гц – 20 кГц. Почему же когда мы приобретаем видеорегистратор или компьютерную систему видеонаблюдения, у нас нет никаких характеристик, описывающих для какого качества видеосигнала он рассчитан. То же самое касается и объективов.

Создается впечатление, что объективы, видеорегистраторы и т. п. имеют идеальные характеристики, которых с лихвой хватает для работы с любой видеокамерой. В реальной действительности все как раз наоборот. Видеокамеры ушли далеко вперед по качеству создаваемого ими изображения. А вот устройства обработки видеосигналов, объективы являются реальным тормозом на пути к высокому качеству изображения.

Такое положение дел в CCTV отрицательно сказывается на этапах проектирования систем, ну и конечно, на изображении, качество которого невозможно прогнозировать.

На резкость изображения, которое мы видим на мониторе, оказывают свое влияние все элементы видеотракта. Но причины вызывающие ухудшение резкости у каждого элемента видеотракта свои. Для объективов это одна причина для видеокамер другая, а для радиочастотного кабеля третья.

Но начнем по порядку.

Чтобы не было путаницы, о какой резкости идет речь, будем использовать термин «аппаратная резкость» когда будем рассматривать характеристики оборудования. А термин просто «резкость» оставим для фокусировки объектива.

Что скрывается под термином «аппаратная резкость» любого элемента в видеотракте CCTV? Прежде всего, этот параметр показывает, как рассматриваемый элемент в видеотракте способен обработать смену одного цвета на другой. Идеальное оборудование должно обеспечить вывод информации о смене цвета в элементе изображения таким образом, чтобы никакого промежутка между цветами не было.

Рис. 32 Процесс смены цвета при «аппаратной резкости»

Процесс смены цвета во времени должен произойти мгновенно, а на экране граница между цветами должна отсутствовать (рис. 32, верхняя часть). Но реальная действительность такова, что выполнить эти условия ни один из элементов видеотракта не в состоянии (Это касается любого оборудования не только оборудования CCTV).

Вопрос только в том, насколько оборудование может исказить эту переходную область. Чем она больше, тем сильнее эти искажения заметны на экране монитора и тем аппаратная резкость хуже. На рис. 32 в качестве примера приведен переход от белого к черному. На верхнем рисунке идеальный переход, а на нижнем переход, искажен аппаратурой плохого качества. Искажение как раз и заключается в том, что граница между двумя цветами размыта. Вот эта размытость на границе перехода двух цветов и создает ощущение не резкости при просмотре изображения на мониторе.

Для количественной оценки аппаратной резкости используется переходная характеристика, которая показывает, как быстро во времени происходит процесс смены цвета. Пример переходной характеристики приведен на рис. 33 [13].

Рис. 33 Пример переходной характеристики

Переходная характеристика предназначена для оценки резкости изображения и искажений формы сигнала на границе перехода от черного к белому или наоборот. Переходная характеристика определяет длительность переходного процесса и вид кривой, которой она описывается. Чем ширина переходного процесса уже, тем резкость лучше, и наоборот.

Что представляет собой переходная характеристика? Прежде всего, ось абсцисс – это временная ось, по которой определяют, сколько времени необходимо, чтобы цвет из черного стал белым. И ось ординат, на которой отложены уровни сигнала или в абсолютном их значении или в процентах.

Переходная характеристика дает следующую информацию об оборудовании:

1.                 Аппаратная резкость изображения в микросекундах (мкс).

2.                 Окантовки, как в области белого, так и в области черного в процентах.

3.                 Тянущиеся продолжения в процентах.

Рассмотрим каждую характеристику отдельно.

Аппаратная резкость, как мы уже выше отметили, определяется временем, которое необходимо оборудованию, что бы из черного цвета перейти к белому. В зависимости от того, какой контраст между цветами время перехода разное. Чем меньше контраст, тем быстрей происходит смена цвета. Для тестирования оборудования используют переход между черным и белым цветом при контрасте между ними равном единице. Это самые сложные условия работы оборудования, с точки зрения сохранения резкости. С уменьшением контраста величина аппаратной резкости улучшается, т.е. переходная область делается уже.

Для определения численного значения величины аппаратной резкости на уровнях переходной характеристики 0,1 и 0,9 определяют время начала (Tн) и время завершения (Тк) переходного процесса (рис. 33). Аппаратная резкость вычисляется как Р = Тк – Тн.

Окантовки это искажения в виде колебательного процесса на вершине или спаде переходной характеристики (рис. 33).

Рис. 34 Изображение окантовки

На изображении окантовки проявляются в виде темной или светлой полосы проходящей вдоль границы перехода от одного цвета к другому (рис. 34). Степень отличия цвета окантовки от цветов, между которыми осуществляется переход, зависит от амплитуды колебательного процесса. На рис. 33 это +∆U и -∆U. Чем амплитуда больше, тем окантовка становится, все более заметна на изображении. Окантовки на переходной характеристике могут быть как в области белого, называются «Кайма», так и в области черного – «Бахрома».

Тянущиеся продолжения характеризуют, на сколько быстро заканчивается колебательный процесс. На изображении тянущиеся продолжения выглядят как полосы с убывающей интенсивностью цвета. Для определения количественных значений тянущихся продолжений определяют, как угасает их амплитуда на интервале от t1 к t2.

В технике вещательного телевидения переходная характеристика имеет строго определенные параметры, которые не должны выходить за пределы допустимых значений.

Таблица 12Пределы допустимых значений переходной характеристики

Время, мкс

Предельное значение переходной характеристики, %

не менее

не более

±1,2

-5; +95

+5; +105

±0,4

±0,2

-7

+107

±0,1

-10

+110

±0,0625

+10

+90

Допустимые значения задаются в виде шаблона (рис. 35), внутри которого должна укладываться переходная характеристика (кривая синего цвета).

Рис. 35 Шаблон, внутри которого укладывается переходная характеристика

Если характеристика оборудования не укладывается в отведенный шаблоном диапазон значений, то оборудование не проходит испытания. Эти требования в телевидении очень жесткие и именно поэтому качество телевизионных изображений, не идет ни в какое сравнение с качеством картинки в CCTV.

Для представления о том, какие ограничения задаются в вещательном телевидении на переходную характеристику, приведу выдержку из: «Правила применения оборудования систем телевизионного вещания», утвержденных приказом Министерства информационных технологий и связи Российской Федерации от «10» января 2006г. № 1.

В современных фото и видео камерах, в том числе и CCTV все шире стали применяться искусственные способы повышения резкости изображения. Эта необходимость обусловлена тем, что возможности оборудования формировать резкое изображение ограничены, а желание иметь резкую картинку всегда имеет место. Поэтому искусственное повышение резкости сейчас стало применяться очень часто. Способов, а точнее алгоритмов создания фильтров позволяющих увеличивать резкость много, но мы рассмотрим только один, и на его примере, попробуем объяснить принцип повышения резкости.

Резкость изображения увеличивают на стадии формирования или обработки изображения. Процесс увеличения резкости может происходить, как в видеокамере, так и в устройствах обработки видеосигнала. В Русском языке пока нет термина, который адекватно характеризовал этот процесс, в то же время в фотографии широко используется термин шарпинг (от английского sharpness – величина, характеризующая качество воспроизведения границ участков изображений и контуров). Это понятие резкости — шарпинг имеет уже третий физический смысл, который мы рассматриваем в этой статье.

Основа увеличения резкости с использованием шарпинга заключается в том, что на границах яркостных переходов искусственно увеличивают контраст. Как это происходит? На рис. 36 приведена переходная характеристика процесса изменения цвета с «темного» на «светлый».

Рис. 36 Переходная характеристика процесса изменения цвета с «темного» на «светлый»

Переходная область состоит из двух оттенков серого, являющихся промежуточными цветами между «темным» и «светлым». Причем в исходном изображении этих оттеков нет. Они появились как следствие плохой аппаратной резкости оборудования. На мониторе эти оттенки присутствуют и вызывают эффект размытия границ яркостных переходов, что снижает визуально оцениваемую наблюдателем резкость. Что бы эффект размытия не был так заметен цвета полутонов переходной области (рис. 37) заменяют на другие.

Рис. 37 Длительность переходной области при использовании принципа замены цвета

Принцип замены цвета состоит в том, чтобы контраст цветов переходной области был больше контраста цветов, между которыми происходит переход. В результате такой замены длительность переходной области (рис. 37) значительно сократилась, при этом увеличенный контраст подчеркнул границу перехода между цветами. Результат работы этого эффекта хорошо виден на фотографиях (рис. 38) приведенных на сайте http://www.fototest.ru/articles/59/ в статье: “Да здравствует резкость”.

Рис. 38 Результат принципа замены цвета

Шарпинг описывается несколькими параметрами. Первый из них это – радиус.

Радиус (рис. 37) фактически определяет ширину области, в которой будет повышен контраст. Маленький радиус говорит о том, что будет повышен контраст только близлежащих к границе перехода пикселов. А чем больше радиус, тем больше пикселов «вглубь» от границы будет подвержено изменению контраста. Использование минимальной величины радиуса чревато появлению на изображении искажений в виде ступенек (рис. 39).

Рис. 39  Результат использования минимальной величины радиуса

Порог (рис. 36) определяет, какова должна быть разница исходных полутонов изображения, чтобы к ним было применено увеличение резкости (шарпинг). При малой величине порога увеличение резкости не происходит. Как только порог превысил заданное значение, включается алгоритм увеличения резкости.

Интенсивность (рис. 37) характеризует, насколько сильно будет увеличен контраст между исходными полутонами на границах деталей изображения. Другими словами насколько темнее станут темные полутона и насколько светлее светлые. Чрезмерная величина интенсивности может привести и к искажениям сходных с теми, что мы рассматривали выше (рис. 34), а именно окантовки.

Использование технологий шарпинга не всегда приводит к 100% положительным результатам. Причина заключается в том, что для каждого изображения, к которому необходимо применить шарпинг, нужно подбирать оптимальные значения параметров. Для нашего примера это радиус, порог и интенсивность. В этом случае успех обеспечен. Оборудование CCTV, какой бы алгоритм усиления резкости не использовало, все равно имеет фиксированные значения параметров, выбранные разработчиками только по известным им критериям. Поэтому и результат повышения резкости изображения пользователь видит не всегда. В ближайшей перспективе наверняка в CCTV появится шарпинг с адаптивными способами выбора параметров. Вот тогда аппаратная резкость оборудования за счет шарпинга порадует пользователей.

Чувствительность

Прежде чем привести формулировку чувствительности, хочу напомнить читателям, что в любом устройстве чувствительность – это такое минимальное значение уровня полезного сигнала на входе, при котором на выходе устройства все параметры, характеризующие его качество, находятся в допустимых пределах или снизились на минимально допустимую величину. Обычно эта величина находится в пределах 3 дБ.

Видеокамера не исключение, и ее чувствительность может быть однозначно определена, если известны выходные параметры и критерии их оценки.

Итак, формулировка чувствительности:

чувствительность видеокамеры – минимальное значение отверстия диафрагмы, при котором размах видеосигнала на выходе камеры равен 1 вольту при освещенности тестовой таблицы 2000 лк источником с цветовой температурой 3200 градусов Кельвина [1].

Примечание автора. Самая лучшая формулировка. Критерий 1 В на выходе камеры не совсем корректен. Сигнал с размахом в 1 В может содержать столько паразитных шумов, что картинка будет очень плохого качества. Поэтому было бы правильнее в качестве критерия использовать допустимое отношение сигнал/шум.

Параметр чувствительности записывается как F16.

Чувствительность камеры с F16 выше, чем с F8.

Почему эта формулировка так хороша?

Вы без проблем можете сами сравнить чувствительность имеющихся у вас видеокамер. Даже если у вас нет возможности создать нужное освещение с нужной цветовой температурой, то все равно относительный результат даст однозначный ответ, какая камера имеет более высокую чувствительность.

Отношение сигнал/шум (S/N Ratio, Signal/Noise)

Отношение сигнал/шум – это отношение максимального уровня сигнала (уровень белого) к уровню шума ПЗС-матрицы и остальных электронных компонентов видеокамеры (рис. 39).

Рис. 39 Определение отношения сигнал/шум

Отношение сигнал/шум характеризует «количество» шума, присутствующего в видеосигнале. Связано это с тем, что максимальный уровень сигнала в видеокамере имеет постоянную величину, поддерживаемую системой АРУ и имеющую значение 0,7 В, а собственные шумы могут иметь различные значения, в зависимости от используемой камеры. Чем больше отношение сигнал/шум, тем меньше шума присутствует в видеосигнале и тем лучше изображение на мониторе.

Собственные шумы камеры в основном проявляются на темных участках изображения, поэтому, чем чище материал, из которого изготовлена ПЗС-матрица и чем совершеннее технология ее изготовления, тем меньше собственных шумов присутствует в видеосигнале.

Не стоит забывать и о том, что чем меньше формат матрицы, тем выше ее шумы и (следовательно) ниже чувствительность [2].

Нормальным считается отношение сигнал/шум 45 дБ. У камер высокого класса это отношение достигает 58 дБ.

По рекомендациям CCIR (The International Radio Consultative Committee), существуют пять градаций качества в зависимости от отношения сигнал/шум, которые приведены в таблице 13.

Таблица 13 Пять градаций качества в зависимости от отношения сигнал/шум

Существует и другой способ определения качества сигнала – шкала IRE (Institute of Radio Engineers). В этом случае полный видеосигнал (0,7 вольта без синхросмеси) принимается за 100 единиц IRE. Допустимым считается сигнал около 30 IRE. Некоторые производители, например

BURLE, допустимым считают сигнал 25 IRE, другие – 50 IRE.

Все это говорит о том, что до настоящего времени не выработан единый критерий оценки качества видеосигнала, будь то допустимый уровень шума или шкала IRE, а может быть, и совсем другой критерий.

Динамический диапазон

Этот параметр характеризует возможность видеокамеры работать в широком диапазоне освещенностей. Величину динамического диапазона любых электронных устройств определяют входные каскады. В видеокамере это ПЗС-матрица.

Динамический диапазон это максимальная разница между самым светлым и самым темным элементом изображения, фокусируемым на ПЗС-матрице.

Динамический диапазон у видеокамеры характеризуется свойствами ПЗС-матрицы одновременно воспринимать сигнал с максимальной и минимальной яркостью. В идеальном случае при бесконечно большем динамическом диапазоне у видеокамеры ей не нужен объектив с диафрагмой, регулирующей количество света, попадающего на ПЗС-матрицу. Но в реальной действительности динамический диапазон «снизу» ограничен уровнем собственных шумов, а «сверху» – максимальным уровнем яркости, который приводит к растеканию электронов по поверхности ПЗС-матрицы (блюминг).

Не совсем корректно с точки зрения параметра видеокамеры, но в качестве примера динамический диапазон можно увидеть и в каждой строке видеосигнала. Например, на рис. 40 видно, что сигнал имеет значительно большую динамику, чем динамический диапазон камеры.

Рис. 40 Определение динамического диапазона

Сигнал с низким уровнем освещенности находится в области собственных шумов камеры и на экране не виден. Если уровень собственных шумов уменьшить, то «замаскированный» шумами сигнал будет виден на мониторе. Но это произойдет только в том случае, если видеокамера будет иметь меньший уровень собственных шумов или большее отношение сигнал/шум.

Существует и другая формулировка динамического диапазона, которая часто используется у фотографов, но которая может иметь практическое применение и в CCTV.

Динамический диапазон – это максимальное количество Ф-стопов, которое может передать видеокамера.

Иными словами динамический диапазон это, сколько ступеней градаций яркости может зафиксировать видеокамера, при условии, что каждая градация яркости отличается от соседней на lg2. Разница между двумя соседними значениями диафрагмы, например 5.6 и 8 (уменьшение светового потока в 2 раза) как раз и будет равна одному Ф-стопу.

Чем меньше динамический диапазон у камеры, тем больше информации мы теряем в области слабой освещенности.

Следует помнить, что объект может содержать как ярко освещенные участки, так и глубокие тени, и желательно, чтобы все их оттенки отображались на сформированном ПЗС-матрице изображении.

Но, говоря о динамическом диапазоне оборудования не следует забывать, что существует еще и динамический диапазон изображения, которое формирует видеотракт.

В CCTV динамический диапазон конечного продукта – изображения, как параметр почти не используется хотя динамический диапазон отдельных элементов видеотракта – видеокамер присутствует, но на этом все и заканчивается. Это приводит к тому, что при проектировании CCTV отсутствует возможность прогнозировать качество получаемого изображения, оперировать характеристиками изображения при проектировании, а следовательно и управлять этим качеством при моделировании видеосистем. В связи с этим проектирование CCTV «ушло» от изображения и остановилась на рисовании секторов наблюдения ни чем не отличающихся от секторов ИК датчиков в охранной сигнализации.

В CCTV изображение формируется на экране монитора. Для компьютерных систем, работающих под Windows количество возможных цветов красного (R), или зеленого (G) или синего (B) находится в диапазоне от 0 – 255, т.е. составляет 16 миллионов цветов. Во всей этой цветовой палитре, когда R=G=B появляется оттенок серого. Общее количество оттенков серого или градаций серого в цветовой палитре 256. Если у нас режим экрана 65 536 цветов, то мы имеем 32 градации серого, а если изображение выводится в режиме экрана 256 цветов, то количество градаций серого может быть от 16 до 256 и зависит от используемой палитры, заложенной в Windows или созданной программистами специально для решения поставленных задач [12]. Это означает, что кроме ярких и темных мест в изображении еще имеется много промежуточных градаций так называемых полутонов, количество которых определяется, выбранным режимом экрана. Наличие в изображение большего их количества делает его более художественным, живым, сочным и увеличивает разборчивость элементов изображения. Чем больше динамический диапазон изображения, тем большим количеством градаций серого “оно создается”. Причем для мультиэкрана цвета элементов изображения не соответствуют их реальному значению, а предопределены опять же палитрой Windows. Какая реально палитра используется в компьютерных системах видеонаблюдения наверно известно только программистам, создающих программное обеспечение.

В связи с этим, какое бы количество градаций серого не присутствовало в изображении объекта, расположенного перед камерой, все равно, пройдя, через видеотракт их количество на мониторе будет определяться выбранным режимом экрана.

Если для отображаемой на объекте сцены диапазон градаций серого, выходит за пределы динамического диапазона монитора, то он (динамический диапазон) относительно реального изображения будет «сжат» до возможности монитора, а точнее — выбранного режима экрана.

Если видеокамера или любой элемент в видеотракте оцифровывает изображение с помощью АЦП имеющего разрядность больше 8 бит, то количество градаций серого будет уменьшено до 8 бит путем приведения их к ближайшим значениям градаций серого монитора.

Поскольку динамический диапазон и контраст тесно связаных друг с другом, то на рис. 41 представлен график, который поможет, определить один из параметров, зная другой.

Рис. 41 Взаимосвязь динамического диапазона и контраста

Этот график построен для 256 градаций серого при условии, что шумы на изображении отсутствуют. 

Но, рассуждая о градациях серого, которые способен передать монитор, не следует забывать и о том, что человеческое зрение имеет значительно меньший диапазон различимых градаций. В бытовом телевидении по экспертным оценкам его количество было определено исходя из порога, при котором человек еще замечает разницу в двух соседних значениях серого. Поэтому  количество градаций серого, в результате экспертных оценок составляет величину от 80 до 130 при средней яркости свечения экрана 40 кд/кв.м. [11].  При увеличении яркости свечения экрана количество различимых  градаций серого увеличивается.

Но в каком виде должен быть представлен динамический диапазон изображения? Правильнее было бы использовать динамический диапазон в уже устоявшихся значениях  — децибелах (Дб). Но децибел отражает логарифм отношения напряжения или тока и в зависимости от этого используется сомножитель при логарифме равный 20 или 10 соответственно. Между изменяющимися значениями градаций серого на экране монитора вроде бы нет никаких изменений напряжения или тока. Однако существует пропорциональная зависимость изменения напряжения видеосигнала с изменением градаций серого на экране монитора, поэтому мне кажется возможным определять динамический диапазон изображения как:

                                                           D = 20 lg (Nmax/Nmin)

где:     Nmin – минимальный уровень серого по шкале Windows (0 – 255).

            Nmax – максимальный уровень серого по шкале Windows (0 – 255).

Используя эту зависимость можно вычислить максимально возможный динамический диапазон ч/б изображения, формируемого на экране компьютерного монитора, который равен 48,16дБ. Напомню, что динамический диапазон сверху ограничен максимальным уровнем сигнала, а снизу уровнем шума. В реальной картинке, которая выводится на монитор,  на темных элементах изображения присутствуют и шумы, которые необходимо так же оценить и учесть. Поэтому правильнее за Nmin принимать среднеквадратический уровень шума.

Теперь немного о том, как практически определить динамический диапазон изображения, которое выводится на монитор. Для этого достаточно иметь градационный клин (Рис. 42) на котором каждая градация серого отличается от соседней на lg2. Очень часто градационный клин называют – серая шкала.

Рис. 42 Определение динамическоко диапазона изображения при использовании градационного клина

Если установить его перед видеокамерой, то на мониторе можно подсчитать, сколько градаций серого может передать видеотракт — объектив, камера, монитор. Вот количество различимых градаций серого  и будет характеризовать динамический диапазон, но в терминах Ф-стоп, широко применяемых в фотографии. Но это ориентировочное значение. Почему ориентировочное? Прежде всего, потому, что динамический диапазон определяется на линейной области динамической характеристики. Когда сверху и снизу динамическая характеристика начинает ограничиваться, то есть присутствует явная нелинейность, различать градации серого мы еще можем, но это уже не соответствует истинной динамике сигнала на линейной области (рис. 43).

Рис. 43 Определение реального динамического диапазона изображения

Для правильного определения динамического диапазона изображения по серой шкале существуют специальные программные продукты, которые отслеживают появление нелинейности в характеристики и выдают динамический диапазон изображения только линейной области. Из графика на рис. 43 видно, что реальный динамический диапазон всегда будет меньше своего предельного значения — 48,16дБ.

И еще раз хочу обратить Ваше внимание на то, что мы говорим о динамическом диапазоне и о градациях яркости изображения, которое оператор видит на мониторе. Изменения освещенности на объекте и динамика их изменения нами не рассматривалась и естественно на качество видеотракта не влияет.

Минимальная освещенность

Однозначного определения минимальной освещенности мне найти не удалось. Этот параметр измеряется в люксах и характеризует освещенность на объекте или ПЗС-матрице, при которой видеокамера дает распознаваемый видеосигнал. Из практики известно, что уровень освещенности на ПЗС-матрице приблизительно в 10 раз меньше, чем на объекте.

Зато этот параметр широко используется при тестировании ПЗС-матриц.

Очень часто путают минимальную освещенность и чувствительность. Разница в этих параметрах заключается в том, что чувствительность определяется таким уровнем минимального освещения, при котором сигнал на выходе имеет требуемый размах и заданное отношение сигнал/шум. Параметр минимальная освещенность определяет действительно минимальный уровень освещенности, при котором сигнал еле различим на уровне шумов.

Система автоматической регулировки усиления (Gain Control)

Система автоматической регулировки усиления служит для поддержания максимального уровня видеосигнала на выходе камеры в пределах 0,7 В.

Автоматическая регулировка усиления (АРУ) характеризуется глубиной АРУ и выражается в децибелах.

Глубина АРУ у различных видеокамер может быть от 12 дБ до 30 дБ.

Автоматическая регулировка усиления начинает работать, когда освещенность на объекте имеет низкий уровень, а полностью открытая диафрагма не в состоянии компенсировать недостаток освещенности. Вот в таких случаях АРУ начинает усиливать видеосигнал. Правда, уровень собственных шумов при этом тоже возрастает.

Гамма-коррекция (Gamma Correction)

Гамма-коррекция предназначена для корректировки усиления сигналов яркости в видеокамере и получения комфортного для восприятия человеческим зрением видеоизображения на мониторе. С помощью этой регулировки происходит согласование закона восприятия освещенностей человеческим зрением с линейным законом усиления сигналов в телекамерах и видеомониторах. Исторически это обусловлено тем, что у электронно-лучевой трубки зависимость между количеством испускаемых фотонов и напряжением на катоде близка к формуле . Где  — показатель гамма коррекции. Для жидкокристаллических мониторов, проекторов и т. д., где зависимость между напряжением и яркостью имеет более сложный характер, используются специальные компенсационные схемы.

Гамма-коррекция имеет диапазон изменений от 0,45 до 1. Конкретное значение устанавливается при изготовлении камеры.

В некоторых камерах пользователь имеет возможность изменять это значение по своему усмотрению.

Компенсация встречной засветки (BLC – Back Light Compensation)

Позволяет скомпенсировать ярко освещенный задний план для хорошей проработки объектов, расположенных на переднем плане. К сожалению, при использовании этого режима теряется информация в ярко освещенных участках. Зато остальные градации яркости становятся хорошо проработанными.

Существуют видеокамеры, позволяющие задавать уровень компенсации заднего света не на весь кадр, а на несколько зон, выбранных пользователем (рис. 44).

Рис. 44 Результат использования видеокамеры, позволяющей задавать уровень компенсации заднего света на несколько зон

Количество зон у разных производителей может быть различным. Камеры Mintron разбивают изображение на 48 зон.

Электронный затвор — способность видеокамеры изменять время считывания информации с ПЗС — кристалла и тем самым расширять диапазон освещенности, в котором она способна работать.

Современные камеры выпускаются с автоматическим электронным затвором и с ручным. Камеры с автоматическим электронным затвором могут работать с объективами, не имеющими диафрагмы. Электронные затворы обеспечивают регулировку выдержки в диапазоне от 1/50 до 1/500000.

Видеокамеры с ручным электронным затвором обычно используются для фиксации быстро протекающих процессов, например для чтения номеров, двигающихся по автострадам автомашин. Короткая выдержка не позволяет «смазываться» изображению при быстром перемещении автомобиля перед видеокамерой.

Предназначена для обеспечения синхронной работы группы видеокамер с точностью до кадровой или строчной синхронизации.

Внешняя синхронизация (External) – V-lock (кадровой развертки) или Gen lock (кадровой и строчной разверток) актуальна для видеокамер, питаемых от источника постоянного тока, причем для этой цели может использоваться либо видеосигнал от одной из видеокамер, либо синхросмесь, вырабатываемая специальным прибором – синхронизатором.

Для видеокамер с сетевым питанием удобна синхронизация от сети переменного тока (LL – Line-Lock).

Таблица 14 Климатическое исполнение и температурные режимы работы электрооборудования

Видеокамеры с синхронизацией от сети допускают подстройку фазы. В качестве опорного сигнала используется видеосигнал от одной из камер, а остальные следует подстроить по ней.

Диапазон рабочих температур (Operating Temperature)

Существуют обозначения, определяющие допустимые условия работы видеокамер. Weather Proof Camera – всепогодная видеокамера и Water Proof – водозащищенная.

Такой информации явно недостаточно, чтобы планировать эксплуатацию устройства в разных климатических регионах и при разных вариантах их установки.

Климатические условия и температурные режимы работы электрооборудования, приведены в таблицах 14, 15. Единственное неудобство, что это отечественные требования, а оборудование иностранного производства, естественно проектируют по своим нормам.

Таблица 15 Категория исполнения изделия и их характеристики места размещения

Степень защиты электротехнических изделий от проникновения воды и мелких частиц классифицируют символами IPxx. Начальные буквы IP – International Protection. Первая цифра – это характеристика защиты персонала от соприкосновения с находящимися под напряжением частями оборудования и от попадания внутрь оборудования посторонних твердых тел (таблица 16). Вторая цифра – это характеристика защиты от проникновения воды (таблица 17).

Таблица 16 Степень защиты электротехнических изделий от проникновения воды и мелких частиц

Первая цифра

Краткое описание

0

Защита отсутствует

1

Защита от твердых тел размером более 50 мм

2

Защита от твердых тел размером более 12 мм

3

Защита от твердых тел размером более 2,5 мм

4

Защита от твердых тел размером более 1 мм

5

Защита от пыли

6

Пыленепрницаемость

 

Таблица 17 Характеристика защиты от проникновения воды

Первая цифра

Краткое описание

0

Защита отсутствует

1

Защита от капель воды

2

Защита от капель воды при наклоне до 15 градусов

3

Защита от дождя

4

Защита от брызг

5

Защита от водных струй

6

Защита от волн воды

7

Защита при погружении в воду

8

Защита при длительном погружении в воду

 

 

Термины и определения

Таблица 18 Термины и определения

Термин

Размерность

Сокращения

Определение

Автоматическая регулировка усиления

дБ

АРУ (AGC)

Поддерживает размах видеосигнала на выходе камеры в пределах 1 В. Автоматическая регулировка усиления (АРУ) измеряется в децибелах. Глубина АРУ у различных видеокамер может быть от 12 дБ до 30 дБ.

Внешняя синхронизация

 

ext. sync.

Предназначена для обеспечения синхронной работы во времени кадровой и строчной синхронизации группы видеокамер.

Гамма-коррекция

 

 

Предназначена для изменения закона (линейный, нелинейный) усиления сигнала яркости в видеокамере и получения комфортного для восприятия человеческим зрением видеоизображения на мониторе.

Диапазон рабочих температур

градус Цельсия

 

Характеризует способность видеокамеры безотказно работать в указанных температурных диапазонах.

Динамический диапазон

дБ

 

Динамический диапазон – это максимальная разница между самым светлым и самым темным участками изображения, фокусируемого на ПЗС матрицу

Кадр

 

 

Проход электронного луча кинескопа как по нечетным, так и по четным строкам.

Компенсация встречной засветки

 

BLC

Позволяет скомпенсировать ярко освещенный задний план для хорошей проработки объектов, расположенных на переднем плане.

Минимальная освещенность

люкс

 

Характеризует освещенность на объекте или ПЗС-матрице, при которой видеокамера дает распознаваемый видеосигнал.

Отношение сигнал/шум

дБ

 

Отношение максимального уровня сигнала к уровню шума ПЗС-матрицы.

Переходное кольцо

 

CS to C mount

Совместимы следующие комбинации:

С-кaмepa + С-объeктив,

СS-кaмepa + С-объeктив + СS/С-кольцо,

CS-кaмepa + CS-объeктив.

ПЗС-видеокамера

 

CCD

Видеокамера, созданная на основе прибора с зарядовой связью (ПЗС).

Пиксель

 

 

Элемент изображения.

Полукадр (поле)

 

Field

Проход электронного луча кинескопа только по нечетным строкам (первое поле или полукадр). Проход электронного луча кинескопа только по четным строкам (второе поле или полукадр).

Посадочное место для объектива

 

C-mount

Конструкция посадочного места, имеющая расстояние до ПЗС-кристалла 17,26 мм.

Посадочное место для объектива

 

CS-mount

Конструкция посадочного места, имеющая расстояние до ПЗС-кристалла 12,5 мм.

Размах видеосигнала

Вольт

 

Диапазон значений от уровня белого в видеосигнале до нижнего уровня синхроимпульсов.

Разрешающая способность по вертикали

 

линии

Максимальное число горизонтальных линий, которое способна передать видеокамера.

Разрешающая способность по горизонтали

 

твл

Максимальное число вертикальных линий, которое способна передать видеокамера. Для приведения разрешения по вертикали и разрешения по горизонтали к одной размерности количество линий по горизонтали умножают на 0,75. Полученный результат назван телевизионной линией.

Разъем коаксиальный

 

(BNC)

Разъем, позволяющий быстро осуществлять соединение или рассоединение.

Телевизионная линия

 

твл

Вычисляемый параметр, связывающий разрешение по вертикали и разрешение по горизонтали.

Формат кристалла ПЗС

 

 

Определяет размер ПЗС-кристалла. Существуют форматы 1/4″, 1/3″, 1/2″, 2/3″ и 1″.

Черезстрочная развертка

 

 

Электронный луч за первый проход прорисовывает только нечетные строки (первое поле), а во втором проходе – все четные (второе поле).

Чувствительность

 

F

Минимальное значение отверстия диафрагмы, при котором размах видеосигнала на выходе камеры равен 1 вольту.

Электронный затвор

 

 

Способность видеокамеры изменять время считывания информации с ПЗС-кристалла и тем самым расширять диапазон освещенности, в котором способна работать видеокамера. Существуют электронные затворы от 1/50 до 1/10000 – 1/15000 и 1/100000.

 

таблица. Физический размер матрицы фотоаппарата

Практически каждый современный человек сталкивался с непростой ситуацией по выбору цифрового фотоаппарата. Как его выбрать, чтобы получить качественные снимки? От чего зависит физическое качество снимка? Попытаемся, не углубляясь в тонкости, ответить на эти вопросы. Художественную ценность фотографии в данной статье рассматривать не будем.

Определяющие характеристики цифровой камеры – это количество мегапикселов и размер матрицы фотоаппарата

Что такое пиксел и матрицы? Матрица (синоним – сенсор) – это прямоугольный плоский элемент, заменивший фотоплёнку в старой фотокамере и преобразующий в электрические сигналы изображение, которое попало в неё через объектив. Эту информацию процессор аппарата после оцифровки записывает на карту памяти в виде файла. На матрице расположены пикселы — базовые элементы или точки (микроскопические фотоэлементы-транзисторы), из которых формируется цифровое изображение. Мегапиксел – миллион пикселов. Большинство покупателей ориентируются именно на этот параметр. Производителю цифрового аппарата намного дешевле установить в своё устройство новую матрицу с увеличенным количеством мегапикселов и запустить его в производство, нежели переработать практически всё устройство камеры и обеспечить его большой матрицей. Поэтому в магазине продавец заостряет внимание покупателя именно на параметре, отражающем число мегапикселов, и скромно замалчивает размер матрицы фотоаппарата.

Какие размеры матриц в фотоаппаратах различной стоимости?

Чем больше размеры пиксела и (как следствие) матрицы, тем качественнее снимок. Большой размер пиксела лучше воспринимает свет и точнее определяет цвет. Чем меньше размеры пиксела и матрицы, тем больше помех (шумов) на снимке. Поэтому много мегапикселов вовсе не означает, что качество снимка будет отличное. Размер матрицы – вот определяющий качество снимка и стоимость аппарата параметр. На нижеследующем снимке видна матрица зеркальной камеры. Очистка её производится с помощью специальной программы, которая установлена в фотоаппарате. Прикасаться к матрице руками и любыми предметами абсолютно недопустимо. Это прямой путь к выходу её из строя.

Какие размеры матриц фотоаппаратов бывают, в каких камерах они установлены?

Ответ на этот вопрос ниже.

Размеры матриц фотоаппаратов: таблица

Формат

или дюймы

диагонали

Физический размер, мм

Пример устройства
FF (FullFrame), полный кадр36 × 24Дорогие профессиональные фотокамеры. Canon, Nikon, Sony, Leica
APS-C23,5 × 15,6Зеркалки широкого ценового диапазона Nikon, Canon, Sony
APS-C22,3 × 14,9Зеркалки широкого ценового диапазона Canon, Sony, продвинутые беззеркалки
4/3″ или Micro 4/317,3 × 13,0Беззеркалки широкого ценового диапазона Panasonic, Olympus
1″12,8 × 9,6Беззеркалки Nikon, Samsung и продвинутые компактные фотоаппараты
1/2,3″6,16 × 4,62Подавляющее большинство мыльниц
1/3″4,69 × 3,52Фотокамеры смартфонов

Рекомендации по выбору фотокамеры

Если вы выбираете из нескольких устройств фотоаппарат по количеству мегапикселов, то окончательный вывод разумно делать после того, как выясните, матрицы какого размера в них установлены. Выбор стоит сделать в пользу той фотокамеры, в которой установлена матрица самого большого размера.

Если вы хотите снимать на камеру с большой матрицей, придётся мириться с её большими размерами и весом. Проанализировав рынок фотоаппаратов, становится понятно, что не существует пока небольших и дешёвых полнокадровых камер. А массовая мобильная фототехника сильно ограничена небольшим размером матрицы.

Если вы не предполагаете заниматься фотографией профессионально, то и не стоит тратиться на дорогой фотоаппарат с большим сенсором. Обычные цифровые дешёвые фотоаппараты (современные мыльницы) справятся с этой задачей ненамного хуже навороченных зеркалок и порадуют вас приличными снимками.

Не стоит забывать, что камеры в современных смартфонах также имеют неплохие параметры, которых вполне достаточно для оперативного создания хорошего снимка.

В заключение заметим, что на получение качественного снимка влияет много факторов. Самый важный из них – профессионализм фотографа. И расхожее мнение о том, что крутая камера – залог прекрасных снимков, так же далеко от истины, как и то, что дорогая кисть у художника – гарантия создания шедевров. Фотоаппаратура – всего лишь инструмент. Фотографирует человек, а не камера. Тем не менее в арсеналах у знаменитых фотохудожников трудно найти дешёвую мыльницу. Выбор за вами.

Фокус камеры — Wiki-информация (раздел в разработке) — Поддержка — SafeLook

КРАТКИЕ СВЕДЕНИЯ О МАТРИЦАХ АНАЛОГОВЫХ ВИДЕОКАМЕР ДЛЯ CCTV

Для того, чтобы правильно выбрать видеокамеру или подобрать объектив на замену существующему, необходимо, как минимум, знать следующее:

Видеокамера имеет в своей конструкции основной элемент — матрицу из твердотельных полупроводниковых элементов, преобразующих световой поток в электрические сигналы, которые в дальнейшем передаются на вход системы обработки видеосигналов или же на вход видеомонитора.

В сфере CCTV наиболее распространены несколько типоразмеров матриц ПЗС (или CCD) для видеокамер. Это матрицы типоразмеров 1/8″,1/4″, 1/3″ и 1/2″.

 

Графическое представление размещения матрицы в корпусе видеокамеры и линейные размеры матриц указанных выше типоразмеров (в миллиметрах) приведены на рисунке справа.

УПРОЩЕННЫЙ РАСЧЕТ ФОКУСНОГО РАССТОЯНИЯ ОБЪЕКТИВА

Для упрощенного расчета фокусного расстояния видеокамеры предлагается воспользоваться самой простой формулой: 

F=L*D/d

где L (мм) — размер матрицы (по горизонтали), D (м) — расстояние до объекта, d (м) — размер объекта по горизонтали.

Пример 1: Есть необходимость вести наблюдение за фасадом предприятия (фото 1), ширина зоны обзора камеры около 15 м, расстояние установки видеокамеры около 25 м, видеокамера с матрицей 1/3″.

В результате расчетов у нас получится следующее:

1. F= 4,8(мм) * 25(м) / 15(м) = 8 мм  

Картинка панорамы для видеокамеры с матрицей 1/3″ и F=8 мм, показана на фото 2.

Пример 2: В дальнейшем, кроме указанной первой установленной видеокамеры потребовалась установка второй видеокамеры — для идентификации людей на входе предприятия, проходящих через зону проходной шириной около 6 м, видеокамера с матрицей 1/4″.

В результате расчетов получается следующее значение:

2. F= 3,2(мм) * 25(м) / 6(м) = 13,33 мм (выбираем ближайшее значение из стандартных F=12 мм, учитывая, что угол захвата видеокамеры по горизонтали будет несколько шире требуемых 6 м).

Картинка панорамы для видеокамеры с матрицей 1/4″ и F=12 мм, показана на фото 3.

 

 

Вид на проходную предприятия Панорама камеры (матрица 1/3″, F=8) Панорама камеры (матрица 1/4″, F=12)

 

УГЛЫ ОБЗОРА ВИДЕОКАМЕРЫ (для матрицы 1/3»)

Приведенные в таблице данные приблизительны и даны в качестве справочной информации.

Объектив (фокусное расстояние), мм

Угол обзора по вертикали, град

Угол обзора по горизонтали, град

Угол обзора по диагонали, град

Дистанция обнаружения человека, м

Дистанция идентификации человека, м

Дистанция идентификации 
номера автомобиля, м

2.7

90

120

150

до 18

до 1,2

до 3

2.9

78

104

130

до 20

до 1,5

до 5

3.6

54

72

92

до 40

до 1,8

до 10

4.0

48

65

75

до 55

до 2

до 15

6.0

32

42

53

до 65

до 3

до 20

8.0

24

32

40

до 85

до 4

до 25

12.0

17

22

28

до 110

до 5

до 35

16.0

12

17

21

до 170

до 6

до 50

25.0

8

11

14

до 350

до 10

до 75

50.0

4

5,5

7

до 550

до 15

до 100

75.0

2,8

3,7

4,6

до 700

до 25

 

 

 

 

Зависимость угла обзора от фокусного расстояния

Для выбора объектива под конкретную задачу необходимы следующие данные:
   

    1. Место установки видеокамеры (улица / помещение).
Для уличных видеокамер используются объективы с автоматической диафрагмой (изменение диаметра входного отверстия объектива/регулировка входящего потока света) с управлением Video Drive или Direct Drive. Объективы Video Drive несколько дороже и уже практически не применяются, но предпочтительнее, т.к. быстрее отрабатывают изменения освещенности. Для видеокамер, устанавливаемых в помещении используются объективы с ручной диафрагмой или без диафрагмы.
   
    2. Размер зоны наблюдения,
т.е. размеры и расстояние до объекта наблюдения. Если эти данные известны, то необходимое фокусное расстояние вычисляется по следующим формулам:
f=v*S/V или f=h*S/H,
где f- фокусное расстояние
v- вертикальный размер матрицы
V- вертикальный размер объекта
S- расстояние до объекта
h- горизонтальный размер матрицы
H- горизонтальный размер объекта.

Размер матрицы

Пример.
Необходимо с расстояния 25 м наблюдать за фасадом здания длинной 15 м.
Тогда для видеокамеры с матрицей 1/3″ получим,
f= 4,8*25/15=7,99 мм.
Следовательно, выбираем объектив с фокусным расстоянием 8 мм
.

    3. Формат матрицы видеокамеры.
Видеокамеры с матрицей 1/3″ могут работать с объективами 1/2″ и 1/3″. Видеокамеры 1/2″, только с объективами 1/2″.

    4. Необходимость изменения угла поля зрения в процессе работы.
В этом случае используются ручные Manual Zoom или так называемые Вариофокальные объективы или Motor Zoom — это объективы с дистанционным управлением фокусным расстоянием.

Углы обзора 1/3″ видеокамер.
Все приведенные в таблице данные приблизительные и даны в качестве начальной справки.

 

Зависимость угла зрения (гор.) объектива от его фокусного расстояния

 

Зависимость размера видимого объекта (в метрах) от фокусного расстояния (для ПЗС — 1/3″)


 

Сравнение матриц Starvis SONY и Progressive Scan CMOS для камер видеонаблюдения от производителя Microdigital

В аппаратуре для фото и видеосъемки, луч света, проходя через систему линз, попадает на пленку и засвечивает отдельные участки кадра с определенной интенсивностью. В цифровой технике для видеофиксации изображения, луч света, проходя через объектив и систему зеркал или призм, попадает на матрицу.

Устройство матрицы

Сложная микросхема из множества светочувствительных элементов – фотодиодов, называется матрицей и представляет собой экран небольшого размера. Изображение строится с помощью миниатюрных электронных субэлементов – пикселей. Параметры видеосенсора определяются его геометрическими размерами и количеством пикселей. Типоразмеры светочувствительного экрана камеры видеонаблюдения имеют определенное соотношение сторон и измеряются в дюймах.

Таблица 1. Метрические параметры видеосенсоров

Соотношение сторон

4:3

16:9

Формат матрицы

Диагональ, мм

Высота, мм

Ширина, мм

Высота, мм

Ширина, мм

1/2.8ʺ

6,051

3,632

40843

2,963

5,271

1/2.7ʺ

6,272

3,763

5,021

3,071

5,472

Сейчас все большее распространение, в изготовлении матриц, приобретает технология CMOS или комплементарный металл-оксид полупроводник (КМОП). Именно этот метод изготовления, усовершенствованный корпорацией SONY, положен в основу матриц 1/2.7ʺ Progressive Scan CMOS и 1/2.8ʺ Starvis SONY.

Особенности матрицы 1/2.7ʺ Progressive Scan CMOS

В технологии прогрессивного сканирования, строение матрицы стандартно:

микролинзы;

цветофильтры;

контакты;

светочувствительный слой;

фотоэлементы.

При таком расположении слоев, часть светового потока заслонена сигнальными проводниками и не регистрируется пикселями. К тому же в пикселе КМОП от 30÷50% площади занимает сопутствующая электроника.

Чувствительность матрицы здесь стандартная до 0,02 лк. Особенность технологии – прогрессивная развертка кадра, то есть за один проход луча картинка считывается построчно и выводится на экран. Такая характерность работы матрицы позволяет избежать «сдвигов» при съемке движущихся объектов. Кроме того, прекрасно передается вертикальное перемещение предмета, что тоже немаловажно при некоторых видах видеосъемок.

Благодаря своим особенностям, матрица 1/2.7ʺ Progressive Scan CMOS прекрасно себя реализует в наблюдении за быстро движущимися объектами на расстоянии до 30 м. Динамика и детали изображения получаются четкими, а низкое потребление энергии позволяет вести наблюдение круглосуточно. Для увеличения скорости передачи применяется сжатие изображения.

Особенности матрицы 1/2.8ʺ Starvis SONY

В технологии Starvis или Starlight Visibility, по которой производитель Microdigital выпускает видеокамеры, слои матрицы имеют нестандартный порядок:

фокусирующие линзы;

световые фильтры;

светочувствительный слой;

фотоэлементы;

слой металлизированных контактов.

Поверхность подобной матрицы фиксирует больший световой поток, так как фотоэлементы меньше заслоняются металлическими соединениями.

Контрастность камер с видеосенсором Starvis. Производитель использует в конструкции инфрокрасный фильтр для подсветки матрицы. При работе оборудования не наблюдается засветок, исключены затемнения. Особенно хорошо камера показывает себя на расстояниях свыше 50 м и даже на стометровом удалении. Качество видео отлично, как в черно-белом, так и в цветном режиме работы.

Равномерность и степень освещенности. Благодаря высокой светочувствительности до 0,0001 лк, камеры с матрицами Starvis показывают отличную освещенность на любых расстояниях воспринимаемыми видеокамерами.

Шумы в кадре. Уровень замусоренности изображения оставляет желать лучшего. С «шарпингом» и шумами компании Microdigital еще предстоит работа по дальнейшему усовершенствованию. Хотя последние разработки электронного подавления сторонних шумов дают возможность эффективного наблюдения в ночное и вечернее время на расстоянии до 50 м.

Качество и корректность цветопередачи. На любых расстояниях, камеры с матрицами Starvis, дают приемлемые результаты. Цвета различимы и не сваливаются в серые тона.

Несмотря на меньший размер матрицы, особенности ее технологии показывают отличные результаты в регистрации видеонаблюдения на больших расстояниях и, особенно, в темное время суток. Видимо, такие видеокамеры будут хороши на открытом пространстве, для фиксации цветного изображения на дальности свыше 30-50 метров.

Вывод

Для рынка безопасности и контроля, видеокамеры с матрицами изготовленными по двум различным технологиям, имеют собственные ниши применения. К примеру, камеры, созданные на технологии Progressive Scan, лучше всего покажут себя на дороге при фиксации быстро движущихся автомобилей. А камеры с матрицами Starvis SONY, прекрасно проведут наблюдение за машинами на охраняемой автостоянке. И особенно в ночное время.

CMOS камера (cmos матрица)

SpyG (СпайДжи) by Spyglass Surveillance Systems. Продажа систем видеонаблюдения


 

Для поиска камеры воспользуйтесь Конфигуратором подбора выше

В современных цифровых камерах применяется два типа матриц: CCD матрица (Charged Coupled Device), по-другому их называют еще камеры с ccd  сенсором, и CMOS матрица (Complementary Metal-Oxide Semiconductor) — камеры с cmos сенсером.

Камеры на основе технологии CMOS потребляют меньше энергии (почти в 100 раз по сравнению с CCD камерами). CMOS камеры проще в производстве, следовательно и стоят дешевле в сравнении с камерами со CCD матрицей. Еще одно достоинство технологии CMOS — это интеграция различных процессов в одном чипе, что ведет к миниатюризации устройств.

К недостаткам CMOS камер можно отнести низкий коэффициент заполнения пикселов, что снижает их чувствительность. Поэтому у камер на основе CMOS матриц чаще возникают трудности с подавлением помех и увеличением чувствительности, то есть с качеством получаемого изображения.       

Ключевое различие между CCD камерой и CMOS камерой состоит в том, что CCD матрица (сенсор) преобразует заряды пикселей в аналоговый сигнал, а CMOS матрица в цифровую информацию.

Если раньше все видеокамеры использовали CCD-технологию, то на сегодняшний день основным направлением развития индустрии видеокамер становятся CMOS матрицы, которые дешевле и проще в производстве.

      Код       Наименование
               

    52898       SLC-15I/P IP Камера, CCD 1/3″, 540ТВЛ, купольная, слот SD, PoE, объектив 3.7 — 12 мм F1.4, DC12V
               
    52481       SLC-15M/P IP Камера, CMOS, 1.3M, MPEG4, купольная, слот SD карты, PoE, объектив 3.7 — 12 мм F1.4, DC12V
               
    52467       SLC-79G/20м IP Камера, CCD сенсор, 540ТВЛ, наружная, ИК-подсветка 20м, объектив 3.7 — 12 мм F1.6, DC12V, кронштейн
               
    53749       NEW SLC-7ABM/P IP Камера, CMOS, 720P real time, наружная, H.264, аудио, слот SD, ИК 20м/35 LED, объектив 3.3- 12 мм, PoE, DC12

Корзина

Товаров: 0 Зарегистрируйтесь

Личный кабинет позволит Вам отслеживать свои покупки и видеть оптовые цены


Обратная связь Форум

SpyG  IP камеры видеонаблюдения,  SpyG IP камеры, цифровые камеры SpyG,  купольные камеры SpyG, аналоговые камеры,  видеосервер SpyG,  ПО для видеокамер SpyG, видеорегистратор SpyG,   видео сервер SpyG,  объектив для камер  видеонаблюдения, крепление для камеры, термокожух для камер,  беспроводные камеры,  бескорпусные  видеокамеры, POE, видеокамера CCD, видеокамера CMOS.

Все права защищены

197343, Санкт-Петербург, ул. Матроса Железняка, 57А, офис 41 (4 этаж)
Телефон: (812) 495-68-80 |

Угол обзора объектива камеры видеонаблюдения

Автор: Александр Старченко

Одним из важных параметров, которые необходимо брать во внимание перед покупкой камеры видеонаблюдения, является угол обзора объектива. От этой величины напрямую зависит то, какая площадь наблюдаемого участка попадет в поле зрения камеры. Например, для получения общего обзора участка или тесного помещения необходимо выбирать камеры с широким углом обзора, а при необходимости сосредоточения на каком-либо определенном объекте – с узким.

Содержание:

  1. От каких параметров зависит угол обзора?
  2. Определяем необходимое фокусное расстояние
  3. Какой угол обзора выбрать?

От каких параметров зависит угол обзора?

Угол обзора объектива зависит от двух определяющих его параметров:

  1. Фокусное расстояние, которое имеет объектив;
  2. Размер чувствительного элемента (матрицы).

Следует запомнить, что чем большим ФР обладает объектив, тем меньшим будет угол его обзора, поэтому длиннофокусные объективы обладают возможностью наблюдения за относительно удаленными от камеры объектами, а широкоугольные позволяют охватить большую площадь территории или помещения.

Зависимость угла обзора камеры видеонаблюдения от физического размера матрицы также имеет место быть. Так, чем больше размер матрицы, тем большим будет угол обзора, например:

  • Матрица, диагональ которой составляет ¼ будет иметь угол обзора 64° при фокусном расстоянии 2,8;
  • При этом матрица с диагональю ½ будет иметь угол обзора 96°.

Данные расчеты справедливы для обозначения горизонтального угла обзора, для поиска вертикального угла необходимо брать в расчет соотношение вертикальных и горизонтальных сторон матрицы.

Определяем необходимое фокусное расстояние

Практически во всех случаях возникает необходимость выбора оптимального угла обзора камеры, который может быть определен благодаря расчету ФР объектива. По сути, угол обзора является зависимой величиной от фокусного расстояния. Оно может разниться для каждого конкретного случая, и напрямую зависит от:

  • Расстояния до объекта наблюдения;
  • Размера матрицы;
  • Размера наблюдаемого объекта.

Так, например, угол обзора в 100° хорошо подойдет для небольших тесных помещений, но будет непригоден для наблюдения за удаленными на несколько десятков метров объектами – при просмотре на записи просто невозможно будет различить детали объекта. При увеличении фокусного расстояния сужается угол обзора и появляется возможность наблюдения за относительно отдаленными объектами.

Зная несколько параметров камеры видеонаблюдения и некоторые данные об объекте наблюдения несложно определить необходимое в каждом конкретном случае ФР объектива.

Оптимальное ФР объектива рассчитывают по формуле:

F= h*S/Н или F= v*S/V, где

h – размер горизонтальной стороны матрицы;

S – расстояние до объекта слежения;

H – размер объекта наблюдения по горизонтали;

v – размер вертикальной стороны матрицы;

V – размер объекта наблюдения по вертикали.

Размер вертикальной и горизонтальной сторон сенсора камеры вы можете узнать из данной таблицы:

Для примера рассчитаем простую задачу. Дано: необходимо наблюдать за фасадной стороной небольшого гаража, шириной 4 метра, расстояние до объекта – 10 метров. Размер матрицы – ½ дюйма. Рассчитать подходящее ФР объектива камеры. Для решения воспользуемся формулой, и подставим все необходимые значения:

F=6,4*10/4=16

Рассчитав формулу мы получили, что ФР объектива должно равняться 16, но есть еще один нюанс. Очень важно, чтобы угол обзора камеры был больше рассчитанного, иначе кроме объекта наблюдения больше ничего не будет видно. Поэтому в данном случае оптимальным фокусным расстоянием объектива камеры будет 8-10 мм. Угол обзора при таких значениях будет равен около 35°, и вполне подойдет для видеонаблюдения за гаражом на расстоянии 10 метров. Ниже приведена подробная таблица с углами обзора камер с различными параметрами фокусного расстояния и размерами матрицы.

При необходимости время от времени менять угол обзора, или в любых сложных ситуациях, когда определиться с фокусным расстоянием до покупки камеры бывает проблематично, стоит приобретать камеры с вариофокальным объективом, которые позволяют регулировать угол обзора вручную. Диапазон ФР таких камер обычно лежит в пределах 2,8-12 мм. При использовании вариофокальных объективов вы можете приближать или отдалять картинку без потерь качества благодаря оптическому увеличению объектива.

Какой угол обзора выбрать?

Ответ на этот вопрос зависит от конкретной задачи, ведь каждая ситуация индивидуальна. Например, для видеонаблюдения за большой территорией без необходимости выделения конкретного объекта используют камеры с широкоугольным объективом 2,8-3,6 мм и углом обзора 70-140°.

Угол обзора 60° подобен углу обзора человеческого глаза, и является средним значением. Камеры с таким углом способны передавать детальное изображение с дальностью до объекта наблюдения до 10 м.

Камеры с длиннофокусным объективом и узким углом обзора (10-30°) применяются для наблюдения за отдаленными объектами, расстояние до которых может варьироваться от 20 до 70 метров, и зависит от ФР объектива.

Есть одна интересная особенность, которая позволяет определить расстояние уверенного распознавания объекта, и может служить своеобразной шпаргалкой при выборе камеры. Она заключается в примерном равенстве фокусного расстояния, выраженного в миллиметрах с дистанцией уверенного распознавания в метрах. Например, камера с матрицей 1/3 дюйма и объективом с фокусным расстоянием 12 мм сможет распознать человеческую фигуру на расстоянии 12 метров. На этом расстоянии размер наблюдаемой зоны будет равняться 3 метра в высоту, и 4 в ширину, что позволит достаточно уверенно провести идентификацию человека.

С этим читают:

Понравилась статья? Поделись с друзьями в соц сетях! Таблица сравнения размеров сенсора

CQ

Пленка

Датчик или формат% По сравнению с 3 Perf% По сравнению с полнокадровым Размер датчика или формата (в мм) Круг изображения (в мм)
Пленка Super 35 мм — 3 Perf 16×9 100% 66% 24,9 х 14 28,57
Пленка Super 35 мм — полная диафрагма 107,8% 71,1% 24.9 х 18,1 30,78
Super 16 Fim — 16×9 47,8% 31,6% 11,9 x 6,7 13,66
Пленка Vistavision 35 мм — 8 перф. Горизонт. 158,3% 104,5% 37,72 x 24,92 45,21
Пленка Techniscope 35 мм — 2 Perf 83,8% 55,4 22 x 9,47 23,95
Пленка IMAX 70 мм 298.1% 196,8 70 x 48,5 85,16
65 мм Ultra Panavision 201% 132,7% 52,6 х 23 57,41


Электронный
Датчик или формат% По сравнению с 3 Perf% По сравнению с полнокадровым Размер датчика или формата (в мм) Круг изображения (в мм)
Arri ALEXA / AMIRA — 16×9 95.6% 63,1% 23,8 x 13,4 27,31
Arri ALEXA / ALEXA Mini — 4×3 104% 68,7% 23,8 х 17,8 29,72
Arri ALEXA XT — Открытые ворота 3.2K 117,3% 77,4% 28,17 x 18,13 33,50
Прибытие ALEXA LF ​​4.5K 156,5% 103,3% 36,7 x 25,54 44,71
Прибытие ALEXA 65 6K 209.6% 138,4% 54,12 x 25,58 59,86
КРАСНОЕ ОРУЖИЕ Vista Vision MONSTRO 8K 162,1% 107,0% 40,96 x 21,6 46.31
КРАСНОЕ ОРУЖИЕ или EPIC-W 8K Helium S35 118,3% 78,1% 29,9 x 15,77 33,80
КРАСНОЕ ОРУЖИЕ или ЭПИЧЕСКИЙ ДРАКОН 6K 120,9% 79,8% 30,7 x 15,8 34.53
КРАСНЫЙ EPIC-W GEMINI 5K 124,6% 82,3% 30,72 х 18 35,61
КРАСНЫЙ АЛЫЙ-W Дракон 5K 101,3% 66,9% 25,6 x 13,5 28,94
КРАСНЫЙ ВОРОН Дракон 4.5K 81,1% 53,5% 20,48 x 10,8 23,15
КРАСНЫЙ ЭПИЧЕСКИЙ или АЛЫЙ MX 5K 109,6% 72.4% 27,7 x 14,6 31,30
RED EPIC или SCARLET MX — 5K 16×9 103,9% 68,6% 25,9 x 14,5 29,68
КРАСНЫЙ One MX — 4K 16×9 88,7% 58,6% 22,1 x 12,4 25,34
Canon C700 FF 5.9K 150,8% 99,6% 38,1 х 20,1 43.08
Canon C700 4K Global Shutter — RAW 109.4% 72,2% 27,3 x 15,2 31,25
Canon C700 4.5K — RAW 114,3% 75,5% 28,9 x 15,2 32,65
Canon C700 — все модели S35 4K DCI или 2K 103,8% 68,5% 26,24 x 13,8 29,65
Canon C300 Mk II 4K DCI или 2K 103,8% 68,5% 26,24 x 13,8 29.65
Canon C500 — C300 Mk II / C300 / C100 — 16×9 98,7% 65,2% 24,6 x 13,8 28,21
Canon 7D — режим видео HD 89,5% 59,1% 22,3 x 12,5 25,56
Canon 5D — 1D X — Режим видео HD 144,7% 95,5% 36 x 20,3 41,33
Canon 5D / 1D X 151.5% 100% 26 х 24 43,27
Canon 1D C — 4K 118,2% 78,0% 28,1 x 18,7 33,75
Panasonic AG-AF100 — HD Motion Picture 75,6% 49,9% 18,8 x 10,6 21,58
Панасоник GH5 4K 75,8% 50,0% 17,3 х 13 21,64
Panasonic VariCam35 или LT 4K 105.3% 69,5% 26,69 x 13,85 30,07
Panasonic EVA1 5,7 К 97,4% 64,3% 24,6 x 12,97 27,81
Sony a7S II 4K 150,7% 99,5% 35,8 x 23,9 43,04
Сони F35 / F3 / FS700 / FS100 94,8% 62,6% 23,6 x 13,3 27,15
Sony PXW-FS7 4K 104.6% 69,1% 25,5 x 15,6 29,89
Sony F5 / F55 4K 95,1% 62,8% 23,6 x 13,3 27,09
Sony F65 4K 97,9% 64,6% 24,7 x 13,1 27,96
Sony Venice 6K 152,2% 100,5% 36,2 х 24,1 43,49
GoPro Hero с 3 по 6 черный — 4K 24.7% 13,6% 6,248 x 3,308 7,07
GoPro Hero с 3 по 6 Черный — 16×9 25,1% 16,6% 6,248 x 3,514 7,17
Nikon D810 — видео в формате FX 151,5% 100% 36 х 24 43,27
Nikon D810 — видео в формате DX 94,8% 62,6% 23,6 x 13,3 27,09
Карманная кинокамера Blackmagic 50.1% 33,1% 12,48 x 7,02 14,32
Кинокамера Blackmagic 2.5K 63,5% 41,9% 15,8 x 8,9 18,14
Производственная камера Blackmagic 4K 84,8% 56% 21,12 x 11,88 24,23
Blackmagic Ursa Mini 4.6K 101,8% 67,2% 25,34 x 14,25 29.07
AJA CION 89.1% 58,8% 22,5 x 11,9 25,45
2/3 «HD-камеры для вещания 38,5% 25,4% 8,8 x 6,6 11

Высокоскоростная электроника

Датчик или формат% По сравнению с 3 Perf% По сравнению с полнокадровым Размер датчика или формата (в мм) Круг изображения (в мм)
Fastec TS3Cine — 1280 x 1024 80.2% 52,9% Не опубликовано 22,9
Phantom Miro — 1920 x 1080 77,1% 50,9% 19,2 х 12,0 22,64
Phantom VEO 640S — 2560 x 1600 105,7% 69,8% 25,6 x 16,0 30,19
Phantom Flex 4K — 4096 x 2304 111,1% 73,4% 27,7 x 15,5 31,74
Phantom 65 Золото 205.6% 135,8% 51,2 х 28,8 58,74

Обратите внимание — части этой диаграммы субъективны. Это данные, собранные из различных источников в попытке предоставить простой справочный инструмент, а не исчерпывающий набор измерений и результатов испытаний. Пожалуйста, напишите нам с вашими предложениями об изменениях. Вот ссылка на pdf-версию диаграммы.

Кредит — большая часть этой информации была почерпнута из сравнительной таблицы 35-мм цифровых сенсоров Abel Cine, сравнительной таблицы камер Тома Флетчера, базы данных круговых изображений объективов Duclos и сравнения размеров сенсоров фото- и кинокамер от Zeiss.

Как оценить чувствительность камеры

Сравнение характеристик камеры с использованием стандарта качества изображения EMVA1288

Что внутри:
  • Введение в измерения характеристик изображения на основе EMVA1288
  • Определение различных измерений и способы их измерения
  • Сравнение характеристик камер при слабом освещении при разном времени выдержки
  • Сравнение традиционной ПЗС-матрицы с современной КМОП-матрицей
  • Сравнение поколений сенсоров Sony Pregius
  • Заключение

Сравнить основные характеристики камеры, такие как частота кадров, разрешение и интерфейс, легко; используйте наш новый селектор камеры для фильтрации и сортировки 14+ спецификаций EMVA, чтобы найти точное соответствие требованиям вашего проекта.Однако сравнение характеристик изображений камер, таких как квантовая эффективность, временный темновой шум и способность насыщения, имеет тенденцию быть немного более сложным. Во-первых, нам нужно понять, что на самом деле означают эти различные измерения.


Что такое квантовая эффективность и измеряется ли она на пике или на определенной длине волны? Чем отношение сигнал / шум отличается от динамического диапазона? В этом техническом документе рассматриваются эти вопросы и объясняется, как сравнивать и выбирать камеры на основе данных о характеристиках изображения в соответствии со стандартом EMVA1288.

EMVA1288 — это стандарт, который определяет, какие аспекты характеристик камеры следует измерять, как их измерять и как представлять результаты единым методом. Первый раздел официального документа поможет понять различные аспекты работы датчика изображения. В нем будут изложены основные концепции, которые важно понимать при рассмотрении того, как датчик изображения преобразует свет в цифровое изображение и в конечном итоге определяет производительность датчика. На рисунке 1 представлен один пиксель и освещены эти концепции.

Рисунок 1. Как датчик изображения преобразует свет в цифровое изображение

Сначала нам нужно понять шум, присущий самому свету. Свет состоит из дискретных частиц, фотонов, генерируемых источником света. Поскольку источник света генерирует фотоны в случайное время, в воспринимаемой интенсивности света будет шум. Физика света утверждает, что шум, наблюдаемый в интенсивности света, эквивалентен квадратному корню из числа фотонов, генерируемых источником света.Этот тип шума называется дробовым шумом.

Следует отметить, что количество фотонов, наблюдаемых пикселем, будет зависеть от времени экспозиции и интенсивности света. В этой статье мы будем рассматривать количество фотонов как комбинацию времени экспозиции и интенсивности света. Точно так же размер пикселя оказывает нелинейное влияние на способность датчика собирать свет, потому что его необходимо возвести в квадрат, чтобы определить светочувствительную область. Подробнее об этом пойдет речь в следующей статье в контексте сравнения производительности двух камер.

Первым шагом в оцифровке света является преобразование фотонов в электроны. В этой статье не рассматривается, как это делают датчики, а скорее представлена ​​мера эффективности преобразования. Отношение электронов, генерируемых в процессе оцифровки, к фотонам называется квантовой эффективностью (QE). Пример сенсора на Рисунке 1 имеет QE 50%, потому что 3 электрона генерируются, когда 6 фотонов «падают» на сенсор.

Перед тем, как электроны оцифровываются, они сохраняются в пикселе, называемом колодцем.Количество электронов, которое может храниться в лунке, называется емкостью насыщения или глубиной лунки. Если яма принимает больше электронов, чем емкость насыщения, дополнительные электроны не будут храниться.

Как только пиксель завершает сбор света, измеряется заряд в лунке, и это измерение называется сигналом. Измерение сигнала на рисунке 1 представлено стрелкой. Ошибка, связанная с этим измерением, называется временным темным шумом или шумом считывания.

Наконец, шкала серого определяется путем преобразования значения сигнала, выраженного в электронах, в 16-битное значение пикселя аналогово-цифровых единиц (ADU). Отношение между значением аналогового сигнала и значением цифровой шкалы серого называется усилением и измеряется в электронах на ADU. Параметр усиления, определенный в стандарте EMVA1288, не следует путать с коэффициентом усиления процесса «аналого-цифрового» преобразования.

При оценке характеристик камеры часто используют отношение сигнал-шум и динамический диапазон.Эти два показателя производительности камеры учитывают отношение шума, наблюдаемого камерой, к сигналу. Разница в том, что динамический диапазон учитывает только темпоральный темновой шум, в то время как отношение сигнал / шум также включает среднеквадратичное суммирование дробового шума.

Абсолютный порог чувствительности — это количество фотонов, необходимое для получения сигнала, эквивалентного шуму, наблюдаемому датчиком. Это важный показатель, поскольку он представляет собой теоретическое минимальное количество света, необходимое для наблюдения любого значимого сигнала.Подробности этого измерения будут более подробно описаны в следующих статьях.

Чтобы помочь сравнить датчики и камеры, основанные на стандарте EMVA1288, FLIR провела первое в отрасли всестороннее исследование характеристик изображения более чем 70 моделей камер.

Измерение Определение Под влиянием Установка
Дробовой шум Корень квадратный из сигнала Вызвано природой света e-
Размер пикселя Ну, размер пикселя… Конструкция датчика мкм
Квантовая эффективность Процент фотонов, преобразованных в электроны на определенной длине волны Конструкция датчика%
Временной темновой шум (шум чтения) Шум в датчике при отсутствии сигнала Конструкция сенсора и камеры e-
Насыщаемость (глубина скважины) Количество заряда, которое может удерживать пиксель Конструкция сенсора и камеры e-
Максимальное отношение сигнал / шум Наивысшее возможное отношение сигнала ко всему шуму, включенному в этот сигнал, , включая дробовой шум и временный темновой шум .” Конструкция сенсора и камеры дБ, бит
Динамический диапазон Отношение сигнал / шум, включая только временный темновой шум Конструкция сенсора и камеры дБ, бит
Абсолютный порог чувствительности Количество фотонов, необходимое для получения сигнала, равного шуму Конструкция сенсора и камеры Ƴ
Прирост Параметр, указывающий, насколько большое изменение электронов необходимо для наблюдения изменения в 16-битных ADU (более известных как шкала серого) Конструкция сенсора и камеры e- / ADU

Сравнение характеристик камер при слабом освещении

В рамках этого технического документа мы будем рассматривать такие приложения, как распознавание номерных знаков (LPR) или оптическое распознавание символов (OCR), где обычно используется монохромное изображение, а количество света, которое может улавливать камера, может быть ограничено из-за короткой выдержки. раз.Достаточно просто определить разрешение, частоту кадров и поле зрения, необходимые для решения проблемы изображения, однако решить, будет ли камера иметь достаточную производительность изображения, может быть сложнее.

Эта проблема обычно решается методом проб и ошибок. Давайте рассмотрим пример, в котором разработчик системы технического зрения определяет, что для приложения достаточно VGA-камеры с ’’ CCD, работающей со скоростью 30 кадров в секунду. Первоначальные тесты могут показать, что камера имеет достаточную чувствительность при выдержке 10 мс, когда объект неподвижен.См. Рисунок 2, на котором показан простой пример с символами B, 8, D и 0, которые могут быть легко сбиты с толку алгоритмом машинного зрения. Верхнее левое изображение, полученное с помощью ’’ CCD-камеры, дает изображения, подходящие для обработки изображений.

Рисунок 2: Результаты, полученные с помощью ПЗС-камер 1/4 » и 1/2 » при разном времени выдержки

Однако, когда объект начинает двигаться, время экспозиции необходимо уменьшить, а камера не может предоставить полезную информацию, потому что буквы «B» и «D» нельзя отличить от цифр «8» и «0».Изображения в среднем и нижнем левом углу рисунка 2 показывают ухудшение качества изображения. В частности, ’’ CCD при времени экспозиции 2,5 мс дает изображения, непригодные для обработки изображений.

В данном примере предполагается, что большая глубина резкости не требуется, и поэтому минимальное F-число объектива является приемлемым. Другими словами, невозможно собрать больше света, открыв затвор объектива.

Итак, дизайнеру нужно подумать о другой камере.Вопрос в том, может ли другая камера улучшить производительность системы. Использование более крупного датчика обычно считается хорошим способом решения проблем с низкой освещенностью, поэтому датчик ½ ’’ может быть хорошим выбором. Но вместо того, чтобы продолжать метод проб и ошибок, может оказаться полезным рассмотрение производительности камеры EMVA 1288.

Камера Датчик Размер пикселя (мкм) Квантовая эффективность (%) Темпоральный темновой шум (e-) Емкость насыщения (эл.)
Камера 1/4 ’’
(FL3-GE-03S1M-C)
ICX618 5.6 70 11,73 14 508
Камера 1/2 »
(BFLY-PGE-03S3M-C)
ICX414 9,9 39 19,43 25 949

Глядя на данные EMVA 1288, можно заметить, что ’’ сенсор имеет лучшую квантовую эффективность и более низкий уровень шума, но что ½ ’’ CCD имеет больший пиксель и большую емкость насыщения. В этой статье показано, как определить, будет ли камера ½ «» работать лучше.

На рис. 3 камеры сравниваются путем построения графика зависимости величины сигнала от плотности света (фотоны / мкм2). Сигнал как функция плотности света определяется по следующей формуле:

Важное предположение, сделанное в этой статье, заключается в том, что у объективов одинаковое поле зрения, одинаковое число F и одинаковые настройки камеры.

Рис. 3. Сигнал, создаваемый камерами CCD 1/4 » и 1/2 », в зависимости от уровня освещенности

Подпишитесь, чтобы получить больше подобных статей

Зарегистрироваться

На рисунке показано, что при той же плотности света датчик ½ ’’ будет генерировать более высокий сигнал.Также можно заметить, что насыщение происходит при аналогичном уровне плотности света 700 фотонов / мкм2, однако датчик ½ ’’ имеет значительно более высокую насыщающую способность.

В приложении, рассматриваемом в этом техническом документе, сравнение камер необходимо проводить при низком уровне освещенности. Поэтому рассмотрение уровней шума становится особенно важным.

На рис. 4 показаны сигнал и шум при слабом освещении. Шум, представленный на рисунке, представляет собой сумму среднеквадратичного значения временного темнового шума и дробового шума, который был рассчитан по следующей формуле:

Рисунок 4: Сигнал и шум камер CCD 1/4 » и 1/2 » при низкой освещенности

График показывает, что абсолютный порог чувствительности (уровень освещенности, при котором сигнал равен шуму) достигается датчиком ½ ’’ на несколько более низком уровне, чем у датчика ’’.Более важной мерой, необходимой для определения того, какая камера будет работать лучше при слабом освещении, является отношение сигнал / шум (SNR).

На рисунке 5 показано соотношение сигнал / шум двух камер в зависимости от уровня освещения.

Рисунок 5: Отношение сигнал / шум для камер CCD 1/4 » и 1/2 » при низкой освещенности

Исходя из более высокого отношения сигнал / шум датчика ½ ’’, теория предполагает, что камеры ½ ’’ должны работать лучше, чем камера ’’ при слабом освещении.

Из изображений на Рисунке 2 видно, что при времени экспозиции 2,5 мс датчик ½ ’’ сохраняет форму символов при всех временах выдержки, в то время как датчик ¼ ’’ затрудняет различение символов. Таким образом, датчик ½ ’’ работает лучше, и практические результаты соответствуют теории.

Компания FLIR провела обширное исследование камер и опубликовала результаты работы с изображениями EMVA 1288. Эта информация может использоваться для сравнения производительности различных моделей камер.Хотя реализация камеры действительно влияет на качество изображения, это исследование в целом может быть полезно при сравнении любых двух камер с датчиками, описанными в документе.

FLIR предлагает специальные сравнительные документы камер. Свяжитесь с mv-info@flir.com, чтобы запросить сравнение моделей камер FLIR.

Следует отметить, что метод, описанный в этом техническом документе, полезен для получения общего представления о том, насколько хорошо одна камера будет работать по сравнению с другой. Этот метод может помочь исключить камеры, которые вряд ли улучшат требуемую производительность, однако окончательная проверка производительности камеры проводится в реальном приложении.

Сравнение традиционной ПЗС-матрицы с современной КМОП-матрицей

Теперь мы сравним характеристики традиционного ПЗС-сенсора и современного КМОП-сенсора в условиях низкой освещенности и в сцене с широким диапазоном условий освещения.

В предыдущем разделе мы показали, что камера с Sony ICX414, ½ ”VGA CCD, работает лучше в условиях низкой освещенности, чем камера с Sony ICX618,’ ’VGA CCD. Теперь мы сравним ½ ’’ VGA CCD с новым Sony Pregius IMX249, 1/1.2 ’’ КМОП-матрица с разрешением 2,3 мегапикселя с глобальным затвором.

На первый взгляд это может показаться сравнением «яблок с апельсинами», однако стоимость камер с этими двумя датчиками сопоставима и составляет примерно 400 евро, интересующая область VGA в CMOS-камере на самом деле ближе к оптическому размеру ¼ » камера и частота кадров также аналогичны при разрешении VGA.

Данные EMVA 1288 для камер показывают, что CMOS-датчик IMX249 имеет значительно лучшую квантовую эффективность, более низкий уровень шума и более высокую насыщающую способность.С другой стороны, матрица CCD ICX414 имеет больший пиксель, что было критическим параметром в примере, представленном в предыдущей статье.

Камера Датчик Размер пикселя (мкм) Квантовая эффективность (%) Темпоральный темновой шум (e-) Емкость насыщения (эл.)
Камера CCD 1/2 «
(BFLY-PGE-03S3M-C)
ICX414 9.9 39 19,43 25 949
1 / 1,2-дюймовая CMOS-камера
(BFLY-PGE-23S6M-C)
IMX249 5,86 80 7,11 33,105

Рисунок 6. Отношение сигнал / шум датчиков ICX414 CCD и IMX249 CMOS при низких уровнях освещенности

Рисунок 7: Результаты, полученные с помощью датчиков ICX414 CCD и IMX249 CMOS при разном времени экспозиции

Более интересное сравнение проводится при более высокой интенсивности света из-за разницы в способности насыщения между двумя датчиками.На рис. 8 показан сигнал как функция интенсивности света во всем диапазоне интенсивностей света. Из графика видно, что ПЗС-сенсор ICX414 достигнет насыщающей способности около 700 фотонов / мкм 2 , в то время как CMOS-сенсор IMX249 будет насыщаться при более чем 1200 фотонов / мкм 2 .

Рисунок 8: Сигнал, создаваемый ПЗС-матрицей ICX414 и КМОП-матрицей IMX249, в зависимости от уровня освещенности

Первый вывод, который можно сделать, заключается в том, что изображение, создаваемое датчиком ICX414 CCD, будет ярче, чем изображение, созданное датчиком IMX249 CMOS.Если это не очевидно из графика, рассмотрите изображение, которое будет получено при плотности около 700 фотонов / мкм2. В случае сенсора ICX414 CCD изображение должно иметь самые высокие уровни шкалы серого, скорее всего, насыщенное, в то время как сенсор IMX249 CMOS будет выдавать изображение с яркостью чуть более 50% от максимальной. Это наблюдение важно, потому что наивный подход к оценке чувствительности камеры заключается в наблюдении за яркостью изображения. Другими словами, предполагается, что более яркое изображение будет получено с камеры с более высокими характеристиками.Однако это неверно, и в этом примере на самом деле все наоборот: камера, которая создает более темные изображения, на самом деле имеет лучшую производительность.

Рисунок 9: Результаты, полученные с помощью датчиков ICX414 CCD и IMX249 CMOS в сложных условиях освещения

Второе наблюдение заключается в том, что CMOS-датчик IMX249 создает изображения, которые полезны для обработки изображений в более широком диапазоне условий освещения. На рисунке 9 показана одна и та же сцена, полученная двумя камерами.Следует отметить, что более темная часть изображений была улучшена для отображения, однако основные данные не были изменены. Из изображений можно заметить, что ПЗС ICX414 насыщена в светлых областях сцены, в то же время в темных областях слишком много шума, чтобы символы были разборчивы. Напротив, CMOS-датчик IMX249 создает четкие символы в ярких и темных частях сцены.

Наконец, мы можем сделать вывод, что недавняя технология CMOS с глобальным затвором стала жизнеспособной альтернативой CCD в приложениях машинного зрения.Датчики не только менее дороги, имеют более высокую частоту кадров при эквивалентном разрешении и не имеют таких артефактов, как размытие и размытие, но и превосходят по характеристикам изображения ПЗС-матрицы.

Сравнение поколений Sony Pregius

Как мы уже говорили в предыдущем разделе, размер сенсора сильно влияет на производительность сенсора из-за того, что более крупные пиксели позволяют собирать в них большее максимальное количество фотонов, а также позволяют собирать больше фотонов при тех же условиях освещения.Компромисс для увеличения размера пикселя заключается в том, что размер сенсора должен быть больше, чтобы соответствовать заданному разрешению, по сравнению с использованием сенсора с меньшим размером пикселя, что увеличивает стоимость сенсора. На рисунке ниже показано, как изменился размер пикселя между различными поколениями сенсоров Sony Pregius.

Рисунок 10: Различия в размере пикселей между датчиками Sony Pregius разных поколений

Несмотря на тенденцию к уменьшению размера пикселя (помимо сенсора 3-го поколения), качество изображения сенсора увеличивалось с каждым поколением, за исключением емкости сенсора.Основная причина улучшения качества изображения заключается в низком временном темновом шуме датчика, обнаруженного во 2-м поколении и более поздних версиях. На приведенном ниже рисунке показано, как временный темновой шум датчика прогрессировал в различных поколениях датчика Pregius.


Рис. 11. Pregius S поддерживает низкий уровень шума чтения
Чтобы получить полное представление о характеристиках датчика изображения, пожалуйста, обратитесь к таблице ниже, где указаны характеристики типичного датчика каждого поколения Pregius.

Просматривая приведенную выше таблицу, можно заметить, что, несмотря на наименьший размер пикселя, качество изображения датчика Pregius S сравнимо с датчиками 2-го и 3-го поколения, это связано с конструкцией датчика с задней подсветкой, которая позволяет использовать более широкий угол входа фотона, который помогает захватить больше света на пиксель.


Рис. 12. Датчики BSI меняют традиционную конструкцию датчика с передней подсветкой, что упрощает проникновение фотонов на светочувствительный фотодиод каждого пикселя

Эта новая конструкция сенсора позволяет семейству сенсоров Pregius S поддерживать характеристики изображения предыдущих поколений, используя при этом самый маленький пиксель, что приводит к сенсорам с более высоким разрешением по относительно низким ценам.

Заключение

В этом техническом документе мы изучили ключевые концепции, используемые при оценке характеристик камеры. Мы представили стандарт EMVA1288 и применили результаты для сравнения характеристик камеры в различных условиях освещения. Есть еще много других аспектов производительности камеры, которые можно учитывать при оценке камеры. Например, квантовая эффективность резко меняется на разных длинах волн, поэтому камера, которая хорошо работает на 525 нм, может не работать так хорошо, когда источник света находится на частотах, близких к инфракрасному (БИК).Точно так же при длительной экспозиции, характерной для флуоресценции и астрономических изображений, необходимо учитывать влияние темнового тока, типа шума, который важен при чрезвычайно низких уровнях освещенности.

Выбрать подходящую камеру на основе характеристик изображения непросто, однако мы надеемся, что этот технический документ немного помог разобраться в этой увлекательной и сложной теме.

Отфильтруйте и отсортируйте, используя более 14 спецификаций EMVA, чтобы найти точное соответствие требованиям вашего проекта — Попробуйте наш новый селектор камеры.

Сравнение производительности современных высокоскоростных видеокамер для научных приложений

1.

Введение

С конца 19 века наши знания основывались на прогрессе, достигнутом в высокоскоростной фотографии. 1 Приборные ограничения были препятствием для полного понимания определенных явлений в течение почти 100 лет, но высокоскоростная фотография теперь обеспечивает исследователям необходимый уровень производительности для отслеживания высокоскоростных процессов.Помимо широкого использования в фильмах и спортивных трансляциях, высокоскоростные камеры используются во множестве приложений, включая баллистические, взрывные, гидродинамические, сгорание или краш-тесты транспортных средств для передовых исследований и разработок. 2 4

Многие методы были предложены для увеличения временного разрешения с тех пор, как фотография была изобретена в 1840-х годах. Низкая чувствительность опор для фотографий (таких как медные или стеклянные пластины) в то время не позволяла производить съемку в жанре экшн при нормальном освещении.Чтобы преодолеть недостаток светочувствительности и связанное с этим размытие при движении, в первые дни использовались вспышки с короткой продолжительностью освещения. 5 , 6 Почти полтора века назад Марей 7 разработал фотографическую винтовку, способную снимать серию кадров со скоростью до 60 кадров в секунду (fps). Высокоскоростная фотография была усилена более светочувствительными эмульсиями, а также появлением рулонной пленки в конце 19 века.Рулонная пленка (или катушка в кинематографии) позволила крупномасштабное развитие кино или кинофильма наряду с высокоскоростной фотографией. Прерывистая конструкция камеры, аналогичная кинематографу, была улучшена, чтобы увеличить частоту кадров до нескольких сотен и даже до 1000 кадров в секунду в начале 1930-х годов. 8 Для более высоких скоростей камера с поворотной призмой могла записывать «зарегистрированные» изображения со скоростью до 18 kfps с четырехгранной призмой и 16-мм пленкой в ​​середине 1960-х годов. 9 Эта технология синхронизирует призму и пленку таким образом, что они обе движутся с пропорциональной скоростью.Первоначально использовавшийся для полосовой фотографии, 10 , 11 Миллер решил «полосатый» эффект поворотных зеркальных камер для двухмерной фотографии, используя ретрансляционные линзы для перефокусировки изображений на пленку. 12 Доработана конструкция для получения фотографий атомных взрывов со скоростью более 10 Mfps. 13

Прогресс в полупроводниковой технологии и изобретение устройства с зарядовой связью (ПЗС) 14 открыли дверь в эру цифровых изображений.Изобретенная примерно в то же время технология комплементарных металлооксидных полупроводников (CMOS) не получала такого же развития, как CCD, для приложений обработки изображений до начала 1990-х годов. Прорыв в создании высокоскоростной CMOS-камеры был сделан благодаря дизайну Etoh. 15 Камера, выпускаемая Photron, смогла получить 4500 кадров в секунду при полном разрешении (256 × 256 пикселей2) за счет использования 16 параллельных считывателей и усилителя микроканальной пластины. Несмотря на то, что пленочные камеры предлагали лучшие характеристики, цифровая высокоскоростная съемка изображений была важным шагом вперед в то время, поскольку цифровой формат давал немедленные результаты, не требуя проявки пленки.Основное преимущество CMOS-камер перед технологией CCD для высокоскоростной визуализации заключается в том, что заряд или напряжение считываются для каждого пикселя, в то время как они передаются от пикселя к пикселю и в регистр в датчике CCD. Такая передача от пикселя к пикселю позволяет увеличить размер каждой светочувствительной области, но существенно снижает скорость считывания пикселей. Принцип работы КМОП-камер «от фотона до счета» кратко описан в следующем разделе.

Тем не менее, в зависимости от архитектуры, технологии CCD и CMOS оказались подходящими вариантами для разработки высокоскоростных камер. 16 Большинство методов высокоскоростной фотографии, описанных выше, были применены к цифровой обработке изображений. Камера с вращающимся зеркалом 25 Mfps была разработана Chin et al. 17 с использованием 128 ПЗС-сенсоров вместо пленки. С помощью этой технологии можно достичь более высоких скоростей, превышающих несколько сотен миллионов кадров в секунду, но очень низкое количество света требует использования усилителей гейта. Эти устройства, называемые кадрирующими камерами, имеют ограниченное количество кадров для записи, обычно от 12 до 128 изображений.Другой дизайн принадлежит Etoh, 18 , который разработал камеру со скоростью 1 Mfps с использованием встроенной ПЗС-матрицы для хранения изображений . Камера смогла записать 100 кадров в полном разрешении (312 × 260 пикселей2) с различной скоростью вплоть до вышеупомянутой частоты кадров. В настоящее время можно найти коммерческие камеры с встроенным датчиком изображения с увеличенным разрешением и номинальной скоростью до 10 Mfps, использующие модифицированные или гибридные CMOS-датчики. Серийные камеры относятся к отдельному классу из-за различного подхода и взглядов на получение изображений.Тем не менее, Gao et al. 19 недавно расширил границы высокоскоростного 2-мерного изображения, представив сжатую сверхбыструю фотографию, позволяющую записывать переходные сцены со скоростью до 100 Гбит / с с использованием метода полос. Этот подход основан на использовании полосовой камеры для получения изображения объекта, которое было пространственно закодировано во времени из-за цифрового микрозеркального устройства, расположенного выше по потоку. Недавно Ehn et al. 20 захватил триллионы изображений в секунду путем восстановления зависящей от времени ориентации шаблона кодированного освещения сцены с помощью сверхбыстрого лазера за одну экспозицию.

В данном исследовании основное внимание уделяется коммерчески доступным высокопроизводительным высокоскоростным КМОП-камерам для непрерывной записи, а это означает, что общее количество кадров зависит только от разрешения и емкости памяти. Это означает, что кадрирующие камеры или встроенные камеры хранения не рассматривались в данной оценке. Всего было протестировано пять высокоскоростных камер от четырех производителей, но производительность и надежность ограничили сравнение с соответствующими первоклассными продуктами (на момент написания) от двух основных производителей высокоскоростных камер.Цель данной рукописи — представить процедуры тестирования, используемые для оценки камер, а также результаты оценки. Результаты будут сосредоточены на характеристиках и производительности с общей точки зрения, с акцентом на высокоскоростные приложения. Учитывая патентованный характер каждого дизайна, мы в основном воздерживаемся от попыток описать основную структуру и характеристики этих устройств формирования изображений. Еще одна важная цель этого отчета — сообщить особенности камеры, которые влияют на количественную оценку для научных приложений, тем самым помогая исследователям в будущих экспериментах, а также определяя возможности для будущих разработок производителями камер.

Документ разделен на пять разделов. После настоящего вводного раздела приводится базовое описание принципа работы КМОП-камеры, за которым следует неполный список параметров и характеристик, важных для высокоскоростной научной визуализации. В разделе 3 подробно описаны процедуры, используемые для оценки различных параметров высокоскоростных камер. В разделе 4 представлены результаты определения характеристик, с акцентом на различия между двумя исследуемыми камерами, а также предлагаются сравнения с другими научными устройствами визуализации.Раздел 5 завершает эту рукопись, резюмируя результаты настоящего исследования.

2.

Высокоскоростная цифровая обработка изображений

Как упоминалось в разд. 1, высокоскоростные цифровые камеры стремительно развиваются в последнее десятилетие. Чтобы понять важные параметры высокоскоростных камер и их взаимосвязь с различными показателями, доступными для оценки их характеристик, требуется некоторый опыт работы с камерой.

2.1.

Обзор принципа работы датчиков CMOS

Две камеры, представленные и оцененные в этой работе, оснащены датчиками CMOS.Преимущество CMOS перед CCD относительно скорости было упомянуто в разд. 1. На сегодняшний день технология CMOS доминирует в области датчиков изображения, хотя высокоскоростные камеры составляют небольшую долю на рынке. Производители двух камер, тестируемых в этом исследовании, производили высокоскоростные камеры и раздвигали границы технологий каждый раз, когда выпускалась новая итерация.

Датчик CMOS (или CCD) основан на металлооксидном полупроводнике, что означает, что полевые транзисторы используются для затвора заряда, исходящего от полупроводника, т.е.е., светочувствительная область. Фотосайт (полупроводник), используемый в большинстве современных фотоаппаратов, — это кремний. Кремний используется потому, что соотношение энергетической щели или запрещенной зоны проводимости, равное 1,1 эВ, почти идеально для длин волн видимого или ближнего инфракрасного диапазона. Это означает, что когда фотон с более высокой энергией (выше 1,1 эВ или ниже 1127 нм) ударяется о поверхность кремния, этот фотон будет поглощен кремнием и произведет заряд, предполагая идеальное преобразование. Заряд связан с количеством фотонов, попадающих в светочувствительную область и преобразующихся полупроводником.Кремний легирован различными материалами с положительными и отрицательными зарядами для создания диодоподобной структуры. Как объяснено в разд. 1, основное различие между КМОП и ПЗС-сенсором заключается в том, как заряды перемещаются из фотоблока к считывающей части сенсора (или электронике камеры). Датчик CMOS считывает заряд в виде напряжения или тока непосредственно рядом с фотосайтом на пикселе. Это позволяет производить параллельное считывание, что является большим преимуществом, когда дело доходит до скорости. Несколько транзисторов используются для выполнения необходимых операций по перемещению и считыванию заряда, производимого полупроводником: сброс, переключение и считывание.Транзистор сброса позволяет восстановить исходный потенциал фотоблока (фотодиода), переключающий транзистор позволяет размещать заряд (фотоэлектроны) на шине считывания, а транзистор считывания преобразует заряд в выходное напряжение, которое подается на шину считывания. считывающая шина. Эта общая трехтранзисторная архитектура активных пикселей по-прежнему используется во многих камерах, но отсутствие глобального затвора, то есть типичного рольставни, делает эту компоновку непригодной для высокоскоростной визуализации. Обычно используются другие архитектуры, использующие больше транзисторов для выполнения различных функций, необходимых для высокоскоростной цифровой обработки изображений, таких как перенос затвора или глобальный затвор, что означает, что все пиксели экспонируются одновременно.После преобразования заряда в напряжение он дополнительно усиливается и отправляется на несколько встроенных аналого-цифровых преобразователей (АЦП). Напряжение, полученное из фотонов каждого пикселя, преобразуется в цифровые единицы в зависимости от уровня и разрядности АЦП (например, 12 бит). Затем цифровая информация передается в запоминающее устройство камеры. Встроенная память является важной частью непрерывной записи высокоскоростных систем камер, таких как исследуемые. Благодаря высокой скорости непрерывного считывания пикселей таких камер, количество информации, сохраняемой в памяти каждую секунду, превышает обычные скорости передачи.В частности, для поддержания скорости передачи необходимо использовать разработанные твердотельные драйверы.

2.2.

Особенности высокоскоростных камер

Оценка высокоскоростных цифровых камер во многих аспектах аналогична оценке любого устройства цифровой обработки изображений. Высокоскоростная часть оценки имеет дело с критическими по времени параметрами, такими как время цифровой экспозиции или минимальное межкадровое время. Поскольку датчики оптимизированы по скорости, их конструкция и архитектура могут отличаться от типичных датчиков CMOS.Таким образом, может быть сложно сравнивать результаты тестов с однокадровыми камерами.

Характеристики и производительность высокоскоростных цифровых камер взаимосвязаны, но количества, указанные в документации производителя, представляют лишь небольшую часть фактических характеристик камеры. Технические характеристики двух камер, оцениваемых в данной работе, представлены в гл. 4 (см. Таблицу 1), но в следующих параграфах дается описание различных параметров, связанных с общими характеристиками и производительностью камеры.

Таблица 1

Характеристики и технические характеристики двух высокоскоростных камер предоставлены соответствующими производителями камер. Чувствительность ISO указана в ISO 12232 Ssat21 для вольфрамового освещения. Спектральный отклик дан при 10% QE.

Тип сенсора CMOS
Свойства Камера A Камера B
Разрешение сенсора (pix2) 1280 × 800 1024 × 1024
Технология сенсора CMOS CMOS
Монохромный Монохромный
Размер пикселя 28 мкм 20 мкм
Битовая глубина 12-битный 12-битный
Максимальное считывание пикселей 26.3 Гпикс / с 21,5 Гпикс / с
Максимальная частота кадров 1 × 106 кадров в секунду 2,1 × 106 кадров в секунду
Минимальная выдержка 265 нс 159 нс
20 Минимальный интервал между кадрами2020 375 нс 500 нс
Максимальная чувствительность ISO 100000 50 000
Спектральный отклик (нм) 365–965 380–910
Фактор заполнения 65% 58%
Пик QE 51% 46%

Одной из первых характеристик цифрового изображения является количество пикселей или разрешение сенсора.Количество пикселей аналогично количеству строк на экране телевизора или компьютера. Чем выше число, тем больше пространственной информации может содержать изображение. Современные профессиональные или научные цифровые CMOS-камеры могут рассчитывать более 50 мегапикселей на матрицу 35-мм (полнокадрового) формата. Соотношение количества пикселей и физического размера датчика обеспечивает шаг пикселя или расстояние между двумя центрами пикселей по одному характеристическому измерению. Большинство датчиков используют квадратные пиксели, но прямоугольные пиксели также довольно распространены.Во многих случаях вместо шага используется размер пикселя, поэтому предполагается, что между пикселями нет промежутка. Размер пикселя (или шаг) для стандартных устройств с креплением на объектив может варьироваться от нескольких микрон для научных камер с высоким разрешением до более 30 мкм для высокоскоростных систем. Как описано ранее, размер пикселя не влияет напрямую на размер светочувствительной области из-за наличия электроники на пикселе. Коэффициент заполнения позволяет измерить размер фотосайта как соотношение между светочувствительной областью и площадью пикселей.Чтобы преодолеть уменьшенную светочувствительную область пикселя, матрица микролинз обычно размещается над датчиком, чтобы улучшить сбор света и увеличить эффективный коэффициент заполнения. Понятно, что размер пикселя и коэффициент заполнения являются двумя ключевыми параметрами для высокоскоростной визуализации, поскольку большие пиксели и коэффициенты заполнения собирают больше света. Разрядность блока оцифровки камеры (то есть АЦП) — еще один очень важный параметр цифрового изображения. В случае высокоскоростных камер цифровой динамический диапазон (битовая глубина) является результатом компромисса между качеством изображения (динамический диапазон, шум и т. Д.).) и скорость конвертации (считывание пикселей).

Не всегда указывается в спецификации, эффективность фотонного преобразования является еще одним важным фактором для создания цифровых изображений. Эффективность преобразования фотонов в фотоэлектроны, обычно называемая квантовой эффективностью (QE), зависит от длины волны и представляет собой процент фотонов, преобразованных в фотоэлектроны или заряд полупроводником. Многие свойства, касающиеся работы или производительности сенсора, которые имеют большое значение для общей производительности камеры, не всегда раскрываются производителями из-за защиты интеллектуальной собственности.Одной из характеристик датчика, которую часто упускают из виду, является полная емкость скважины (или полная глубина скважины). Эта величина, обычно выражаемая в электронах, предоставляет информацию о емкостных свойствах фотосайта через количество электронов, с которыми может справиться один пиксель до насыщения. Это связано с фактическим динамическим диапазоном датчика, если известен фотоэлектронный шум. Фотоэлектронный шум возникает из-за фотонного шума, шума считывания и темнового тока и представляет собой шум, наведенный в полупроводниковой и преобразовательной электронике, размещенной в пикселе.Фотонный шум возникает из-за статистического шума в количестве фотонов, попадающих на датчик, обычно он выражается в электронах. Шум чтения, также выраженный в электронах, соответствует шуму, создаваемому преобразованием фотоэлектронов в напряжение, а также шуму усиления на кристалле. Темновой ток создается несколькими процессами, происходящими внутри полупроводника; обычно это количество электронов / пиксель / с и связано с общим количеством фотонов, попадающих на датчик. Другой тип шума, важный для визуализации, — это фиксированный структурный шум, 22 , который представляет пространственные неоднородности интенсивности, наблюдаемые по всему датчику.Этот шум возникает из-за производственных допусков в отношении легирования кремния, характеристик транзисторов (скорость переключения, дрожание и т. Д.), Разницы в усилении усилителей на пикселях или других пространственно-зависимых переменных, таких как многоканальное усиление и аналого-цифровое преобразование. Коэффициент преобразования, применяемый на пиксельной площадке, является еще одной интересной характеристикой, касающейся производительности цифровой камеры; к сожалению, это редко упоминается в спецификации. Как видно из названия, коэффициент преобразования относится к коэффициенту, применяемому для преобразования фотоэлектронов в напряжение.Общее усиление также должно включать каскады усиления вне кристалла, чтобы напряжение могло быть связано с фотонами. Преобразование электронов в напряжение и усиление существенно улучшились за последние десятилетия разработки APS, снизив уровень шума на порядки, позволив более высокий коэффициент усиления и улучшив характеристики в условиях низкой освещенности.

Все элементы цифровой высокоскоростной камеры, описанные выше, приводят к получению цифровых изображений разного качества в зависимости от характеристик и характеристик каждой части.Таким образом, показатели могут использоваться для оценки качества конечного продукта: изображений. Ожидается, что идеальная камера обеспечит измерение количества фотонов, попадающих на датчик с визуализируемой сцены при любых условиях. Типичные величины, относящиеся к количественной оценке фотонов в камерах на основе КМОП и проверенные в этой работе, включают отношение сигнал / шум (SNR), линейность интенсивности камеры, частоту кадров (или пропускную способность пикселей) или светочувствительность. Основываясь на прошлом опыте, необходимо изучить другие параметры, влияющие на количественную оценку света в высокоскоростных КМОП-камерах.Процедуры различных тестов подробно описаны в гл. 3.

3.

Методология определения характеристик

В этом разделе подробно описаны методы, предлагаемые для оценки цифровых фотоаппаратов. Несмотря на то, что эти тесты были нацелены на высокоскоростные камеры, они хорошо адаптированы к системам с более низкой скоростью или высоким разрешением. В этом разделе также описывается оборудование, разработанное и используемое для испытаний.

Оборудование, разработанное для этих испытаний, включает пространственно однородный источник света с возможностью коротких импульсов.Различные экспериментальные установки предлагали легко регулируемые и контролируемые параметры для имитации различных стратегий освещения и захвата камеры. Камеры и оптика были жестко прикреплены к оптическому столу с демпфированием 8 × 4 фута (примерно 2400 × 1200 мм). Лабораторная температура и давление контролировались на протяжении испытаний. Освещение в комнате было сведено к минимуму для целей тестирования, и было проверено, что оно не влияет на полученные данные. Точное позиционирование для контроля расстояний, что особенно важно при количественной оценке фотонного сбора, обеспечивалось расположением трехмерных микрометрических столиков.Квадратная светодиодная (LED) панель размером 4 дюйма, оснащенная излучателями королевского синего цвета с центром около 460 нм, использовалась для непрерывного, рассеянного и почти монохроматического освещения. Для диффузного широкополосного освещения использовалась 8-дюймовая интегрирующая сфера Hoffman Optics, оснащенная вольфрамовой лампой и регулируемым затвором (микрометрическая точность). Интегрирующая сфера оснащена фотодетектором, откалиброванным при номинальном токе, подаваемом на вольфрамовую нить накала. Пикоамперметр отслеживает освещенность фотоприемника, соответствующую выходной яркости интегрирующей сферы.Когда требовалось точечное, импульсное и почти монохроматическое освещение, использовалась сверхбыстрая светодиодная система, оснащенная либо зеленым излучателем 9 мм2 (с центром около 520 нм), либо с фиолетовым излучателем 1 мм2 (с центром на 405 нм). На рисунке 1 показаны нормированные спектральные яркости различных источников освещения, использованных в экспериментах.

Рис. 1

Нормализованная яркость как функция длины волны для синей светодиодной панели, интегрирующей сферы, зеленой и фиолетовой светодиодных систем, используемых в качестве источников освещения.

Сверхбыстрые светодиодные системы способны генерировать очень короткие импульсы с частотой следования мегагерц. При оснащении небольшим (1 мм2) фиолетовым излучателем система может генерировать световые импульсы длительностью до 10 нс с достаточной интенсивностью для освещения сенсоров камеры до цифрового насыщения в большинстве условий. С другой стороны, излучатель большего размера (зеленый, 9 мм2) может производить световые импульсы длительностью менее 100 нс с пиковой оптической мощностью более 40 Вт. Максимальное спектральное освещение откалиброванной интегрирующей сферы расположено около 1060 нм с максимальной спектральной яркостью 0.616 Вт / ср / нм / м2 на выходе.

Точная синхронизация имеет первостепенное значение при оценке быстродействия затвора камеры и межкадрового взаимодействия, а также дрожания. Для обеспечения точности синхронизации использовался генератор сигналов произвольной формы с частотой 80 МГц. Из-за сложной электроники, используемой для генерации сверхбыстрых светодиодных импульсов, была измерена временная задержка между командным сигналом и фактическим оптическим выходом светодиодного излучателя. На рис. 2 показан командный сигнал и импульсный сигнал светодиода, полученный высокоскоростным (полоса 150 МГц) силиконовым фотодетектором 1 мм2.Два сигнала регистрировались цифровым осциллографом с полосой пропускания 1 ГГц. Светодиодная система питалась напряжением питания 30 В и командным сигналом 5 В длительностью 20 нс.

Рис. 2

Командный сигнал и измеренный световой поток для короткого импульса с использованием фиолетового светодиода. Светодиодная система управляется сигналом питания 30 В и командой длительностью 20 нс (черная кривая). Оптический выход задерживается на ~ 60 нс от командного сигнала.

На рисунке 2 показано, что задержка между командным сигналом и фактическим световым потоком от светодиодной системы составляет ~ 60 нс.Обратите внимание, что изменение напряжения питания изменяет задержку; например, напряжение питания 15 В задержит световой выход еще на 15 нс, а общая задержка составит 75 нс. Ширина импульса светодиода немного короче (15 нс), чем команда 20 нс (обе оцениваются на полную ширину на полувысоте). Мы полагаем, что низкоуровневый хвост, наблюдаемый на измеренном импульсе светодиода, связан с емкостными эффектами в фотодиоде при высоких уровнях выходного сигнала, несмотря на широкую полосу пропускания устройства.

Обе камеры были протестированы с объективом, прикрепленным к переднему креплению объектива Nikon F-типа, и без него.При использовании объектива использовался универсальный объектив Nikkor 50 мм, f / 1.2. Объектив использовался с разными настройками скорости, в зависимости от требований тестирования (освещения): f / 1.2, f / 2 и f / 8. Использование объектива, а также настройки — диафрагма (диафрагма) и положение кольца фокусировки — подробно описаны далее в описании различных выполненных тестов.

Как упоминалось ранее, камеры прошли серию испытаний с целью оценки их характеристик в различных типах приложений.В следующих параграфах будут описаны различные тесты, а также процедуры, используемые для каждого из них в этом исследовании.

3.1.

Производительность считывания

Эффективная пропускная способность пикселей учитывает время получения кадра и время считывания кадра. Чтобы обеспечить более универсальную метрику, эффективная пропускная способность пикселей представлена ​​здесь в пикселях / с. Это определяется математически как разрешение Resimg, умноженное на максимальную частоту кадров, связанную с Facq:

Eq.(1)

Rpix = Resimg × Facq, где Rpix — эффективная пропускная способность пикселей. Разрешение просто получается путем учета количества пикселей, полученных в изображении. Частота кадров — это частота сбора данных в герцах (Гц) или кадрах в секунду. Обратите внимание, что фактическая скорость считывания пикселей может быть извлечена из эффективной пропускной способности пикселей, если известны фактическое получение изображения и время между кадрами. Это будет обсуждаться в рамках тестирования производительности электронного затвора.

3.2.

Интенсивность Отклик Линейность

Есть разные способы проверить реакцию камер на разные уровни интенсивности света.Стандарт EMVA 1288 23 можно использовать в качестве руководства для оценки и составления отчетов о линейности камер цифровых систем сбора данных. С практической точки зрения простой способ измерить реакцию камеры — просто изменить время экспозиции, охватывая динамический диапазон, сохраняя постоянную освещенность. Этот метод предполагает, что фактическое время стробирования экспозиции соответствует установленной длительности.

В этой работе реакция камеры на интенсивность освещения была протестирована с использованием калиброванной интегрирующей сферы, описанной ранее.Выходная яркость варьировалась от нуля до насыщения с интегрирующей сферой, размещенной прямо напротив F-байонета камеры, то есть на фланце, без линзы, как показано на рис. 3. Поскольку фактические спектральные фотонные преобразования двух камеры неизвестны, отклики цифровых камер представлены как функция нормализованной яркости. Отклик на интенсивность, как правило, является внутренней характеристикой сенсора, но тесты были повторены при нескольких частотах кадров и длительностях экспозиции.

Рис. 3

Схематическое изображение откалиброванной интегрирующей сферы перед камерой с выходным портом, расположенным на монтажном фланце объектива.

Обратите внимание, что, как и для большинства результатов, представленных в этой работе, цифровой уровень интенсивности будет охватывать диапазон от 0 до 4000 Cts, а не 4096 уровней, предлагаемых битовой глубиной камер (12 бит). Это связано с тем, что, с одной стороны, коррекция темного поля и изменение интенсивности пикселей из-за шума ограничивают нижний и верхний пределы динамического диапазона соответственно.С другой стороны, как упоминалось выше, камера A сбрасывает темное изображение на положительное значение (чтобы учесть цифровое распределение интенсивности вокруг значения сброса), что, в свою очередь, ограничивает используемый динамический диапазон немного ниже ожидаемой 12-битной глубины.

3.3.

Отношение сигнал / шум изображения

SNR устройства формирования изображения является важнейшей информацией. Это становится особенно важным в сочетании со светочувствительностью камеры. В этой работе SNR было измерено как функция цифрового уровня (интенсивность света в Cts) с использованием следующего выражения для выражения в децибелах:

Eq.(2)

SNR = 20 · log (мкSσS).

В формуле. (2) μS и σS — среднее и стандартное отклонение сигнала S соответственно. Чтобы измерить SNR во всем динамическом диапазоне камеры, датчик освещался диагональным градиентом интенсивности, охватывающим весь динамический диапазон. Затем было вычислено отношение сигнал / шум по формуле. (2) на всех пикселях сенсора, кроме крайних концов динамического диапазона (0 и 4095 Cts). Преимущество этого метода по сравнению с равномерным изменением интенсивности освещения по датчику состоит в том, что SNR может быть получено во всем динамическом диапазоне с одним набором изображений (в данном случае 100 изображений).Обратите внимание, что результаты были подтверждены при нескольких значениях интенсивности при равномерном освещении датчика с использованием данных, записанных для оценки линейности, описанной выше.

3.4.

Чувствительность камеры

При съемке на высоких частотах чувствительность имеет решающее значение для визуализации из-за недостаточного времени интегрирования. Из-за вышеупомянутых недостатков стандартов на импортируемые пленки необходимо разработать подробные процедуры для объективного сравнения устройств. Методы оценки чувствительности сенсора камеры включают использование объектива камеры или без него, освещение широкополосным или почти монохроматическим светом, непрерывным или импульсным источником света, размещением источника света в ближнем или дальнем поле и т. Д.Выбранный метод измерения чувствительности камеры аналогичен тому, как этот параметр обычно тестируется в стандартах оценки датчиков (см. ISO 12232 21 ) с использованием откалиброванного источника освещения, такого как интегрирующая сфера на основе вольфрама, описанная ранее. Подобно расположению, используемому для оценки линейности камеры, источник размещается непосредственно напротив фланца F-крепления (см. Рис. 3). Поскольку интегрирующая сфера является непрерывным источником, изменение времени экспозиции между камерами может поставить под угрозу достоверность испытаний.Камеры работали со скоростью 1000 кадров в секунду, полагаясь на относительно длительное время экспозиции (50 мкс) для ограничения различий между камерами, и любая разница во времени экспозиции учитывалась при анализе данных (см. Раздел 3.5). Интенсивность света варьировалась таким образом, чтобы можно было полностью оценить цифровой динамический диапазон камеры. Только равномерно освещенная центральная область датчика была усреднена и количественно определена, чтобы избежать эффекта спада интенсивности около краев. На двух камерах, имеющих разные размеры пикселей, лучистый поток, испускаемый источником, корректировался по площади пикселей.

В этом случае трудно количественно оценить освещенность из-за неизвестных параметров, таких как спектральный отклик или фотонное преобразование для обеих камер. Ток фотодиода (в мкА), измеренный на откалиброванном источнике света, можно использовать вместо фотонной освещенности. Этот метод имеет серьезный недостаток из-за широкополосного источника освещения, что означает, что различия в спектральном отклике камеры могут быть интерпретированы как различия в чувствительности, особенно важные в ближнем инфракрасном диапазоне.Следует также отметить, что линейность камеры влияет на результаты этих тестов, вызывая ошибки, если камеры ведут себя иначе.

Еще одно важное замечание, касающееся чувствительности, заключается в том, что он не должен отделяться от отношения сигнал / шум, потому что, подобно повышенному шуму, наблюдаемому в высокочувствительных пленках (высокие значения ISO), цифровые датчики могут обеспечивать высокую чувствительность, но плохие шумовые характеристики (в зависимости от количества электронов, которые нужно подсчитать. конверсия). Это означает, что чувствительность следует сравнивать при равных значениях SNR, как это было проверено методом Snoise стандарта ISO 12232: 2006.К сожалению, метод Ssat ISO 12232: 2006 полагается на уровень насыщения, а не на заданное значение SNR, тем самым опуская эту важную информацию. Ни в том, ни в другом случае стандарт ISO 12232: 2006 не учитывает различия в размере пикселей, что очень затрудняет сравнение между различными датчиками.

3.5.

Производительность электронного затвора

Точность времени экспозиции — еще один важный параметр для высокоскоростных камер. Поскольку время экспозиции потенциально очень короткое (в некоторых случаях менее 1 мкс), время нарастания и спада формы затвора должно быть очень коротким.Точность была проверена путем прохождения короткого светового импульса во времени через заслонку экспонирования. Фиолетовый светодиодный источник света использовался в условиях, представленных на рис. 2 (30 В, 20 нс), давая световой импульс длительностью 15 нс. Источник света располагался на расстоянии 60 мм от 50-миллиметрового объектива (при f / 1,2), прикрепленного к камере; спроектированный рассеиватель располагался на расстоянии 25 мм от линзы для равномерного распределения света. Были протестированы два времени экспозиции: 2,5 и 50 мкс при 100 и 10 кГц соответственно. Обратите внимание, что целевая цифровая интенсивность в середине строба экспозиции соответствует половине динамического диапазона.Другим аспектом времени стробирования является точность, называемая дрожанием, означающая, насколько повторяемо стробирование экспозиции по отношению к триггеру изображения (или периоду кадра). И точность, и прецизионность были измерены с помощью процедуры тестирования, описанной выше.

3.6.

Запаздывание изображения

Влияние кадра (n) на последующие (n + 1, n + 2 и т. Д.) Обычно называется двоением изображения или запаздыванием изображения. Этот эффект «памяти» является повторяющейся проблемой в цифровых системах обработки изображений, а высокоскоростные КМОП-камеры также страдают от запаздывания изображения. 24 , 25 Эффекты различаются от камеры к камере (или от датчика к датчику), но одним из типичных проявлений является появление затемненной версии предыдущего изображения. На рис. 4 представлен наглядный пример эффектов запаздывания изображения при съемке с высокоскоростной камеры Sandia Thunderbird на заднем фоне. На рис. 4 (a) показан логотип Sandia с задней подсветкой, а на рис. 4 (b) показано последующее изображение, когда освещение было выключено. Диапазон интенсивности был скорректирован, чтобы выделить эффекты запаздывания изображения, и отображается в верхнем левом углу обоих изображений.

Рис. 4

Примеры изображений, показывающие эффекты запаздывания изображения. (а) объект с задней подсветкой (логотип Sandia Thunderbird) и (б) последующий неосвещенный кадр и эффекты запаздывания изображения. Обратите внимание, что цифровой диапазон интенсивности, указанный в верхнем левом углу, был скорректирован, чтобы выделить эти эффекты.

В этом примере эффекты запаздывания изображения можно оценить за пределами логотипа Sandia на рис. 4 (b), с более темными областями, соответствующими освещенным областям на ранее полученном изображении.В этом случае запаздывание изображения приводит к уменьшению интенсивности на последующем неосвещенном кадре по сравнению с ожидаемым уровнем. Следует отметить, что этот набор изображений не был получен с помощью камер, исследованных в данной работе. В зависимости от датчика или конфигурации света (от светлого к темному или от темного к светлому) эта «призрачная» версия предыдущего изображения может быть либо положительной (последующая интенсивность изображения выше ожидаемой), либо отрицательной (последующая интенсивность изображения ниже. чем ожидалось).Из-за различных проявлений этого отставания было выдвинуто несколько гипотез для его объяснения. Большинство объяснений согласны с тем фактом, что некоторый заряд не истощается в схеме считывания и остается в кремниевых слоях или, возможно, в полупроводнике. Таким образом, этот заряд считывается в следующем кадре и вызывает эффект двоения. Запаздывание изображения потенциально влияет на каждый кадр, но становится особенно очевидным, когда интенсивность значительно различается между изображениями. Исследования показали, что запаздывание изображения имеет тенденцию увеличиваться с увеличением размера фотодиода (площади пикселей). 26 Таким образом, устранение запаздывания изображения, безусловно, было большой проблемой для соответствующих групп разработчиков двух датчиков камеры из-за больших пикселей. Есть много способов оценить и измерить запаздывание изображения; но описание и количественная оценка многих эффектов существенно расширили бы эту статью. Авторы все еще исследуют отставание изображения и работают над внедрением процедур коррекции для обеих камер.

В настоящем исследовании рассматривается пространственная зависимость запаздывания изображения, но также количественно определяется величина запаздывания с точки зрения интенсивности изображения.В этой работе задержка изображения оценивалась путем равномерного освещения экрана рассеивателя синей светодиодной панелью и использования импульсного мощного драйвера зеленого светодиода для освещения небольшой области изображения. Камеры были оснащены объективом 50 мм (при f / 1,2) и фокусировались на рассеивателе, расположенном на расстоянии ~ 500 мм от фланцев F-крепления соответствующих камер. Схема установки, показывающая различные светодиодные источники света, рассеивающий экран и камеру, оснащенную 50-миллиметровым объективом, представлена ​​на рис.5. Зеленый светодиодный источник включали один раз каждые пять кадров, оставляя четыре слабо освещенных изображения между световыми импульсами. Противоположный график также был протестирован, когда все, кроме одного кадра, освещались светодиодным световым импульсом в течение пяти кадров. Повторяемость импульса светодиода имеет решающее значение для этого теста, и его постоянство было проверено путем мониторинга импульсов с помощью широкополосного фотодиода. Система импульсных светодиодов контролировалась по температуре для увеличения повторяемости импульсов. Обе системы освещения (импульсные и непрерывные светодиоды) были настроены таким образом, чтобы поддерживать одинаковые уровни цифровой яркости на обеих камерах.Слегка освещенный фон необходим для предотвращения падения распределения интенсивности камеры до нижней границы цифровой шкалы интенсивности. Более подробная информация о задержке изображения и эффектах приводится позже вместе с результатами.

Рис. 5

Схема, показывающая устройство, используемое для оценки задержки изображения камеры. (a) Экран рассеивателя и светодиодные источники света показаны слева, (b) а камера справа.

4.

Результаты тестов и сравнения

Результаты, представленные в этом разделе, показывают результаты тестов, выполненных в соответствии с процедурами, подробно описанными в предыдущем разделе, для двух современных высокоскоростных камер.Важно отметить, что, поскольку технология цифровых камер постоянно развивается, тесты и результаты, представленные в этой работе, соответствуют высокопроизводительным моделям двух основных производителей таких высокоскоростных камер на дату представления этого документа. Как упоминалось в разд. 1, высококачественные камеры других производителей были протестированы, но ни производительность, ни удобство использования не оказались сопоставимыми с двумя оцениваемыми здесь устройствами: Phantom v2512 и Photron SA-Z. Результаты тестов, представленные ниже, зависят от камеры, и другие модели от того же производителя могут вести себя по-разному.Чтобы избежать смешения и избежать путаницы в отношении этих двух камер, они будут называться камерой A для Phantom v2512 и камерой B для Photron SA-Z. Характеристики и заданные рабочие характеристики двух тестируемых камер представлены в таблице 1.

Можно быстро заметить, что две камеры разные, при этом большинство параметров, перечисленных в таблице 1, имеют разные значения, хотя многие параметры совпадают из-за высоких значений. скоростной характер устройств. В спецификациях уже обнаружены некоторые интересные конструктивные различия: камера B оснащена квадратным сенсором с меньшими пикселями по сравнению с камерой A и широкоэкранным сенсором с более крупными пикселями (28 против 20 мкм).Следует отметить, что хотя в высокоскоростных камерах обычно используются датчики с одинаковыми размерами пикселей, они больше по сравнению с большинством датчиков CMOS. Обе камеры используют нефильтрованные (монохромные) CMOS-сенсоры, но разница в заявленной чувствительности (стандарт ISO 12232 21 ) существенна. Значения чувствительности, указанные в таблице 1, могут быть получены в результате различных процедур тестирования. Еще одна слабость заключается в том, что тест ISO не учитывает различия в эффективных размерах пикселей (шагах) между камерами.Очевидно, что более крупные пиксели будут собирать больше света, чем более мелкие, остальные параметры считаются эквивалентными. Таким образом, авторы не считают, что указанные значения ISO следует использовать для оценки светочувствительности одной камеры. Что касается скорости, то, несмотря на то, что опубликованные максимальные показания камеры A превосходят показания камеры B, последняя может достигать более высокой частоты кадров. Камера B имеет более короткое время электронной экспозиции, но минимальное межкадровое время больше, чем у камеры A.Как и ожидалось, на основе сенсорной технологии обе камеры имеют одинаковые максимальные QE и спектральные диапазоны, при этом камера A имеет небольшое преимущество в этом отношении. Важно отметить, что несмотря на то, что две камеры разные, на бумаге обе они обеспечивают высочайшее качество изображения. Некоторые цифры в таблице 1 на самом деле в два раза выше, чем у аналогичных высокоскоростных камер высокого класса, доступных около десяти лет назад.

Другие важные соображения, не указанные в спецификациях, касаются способа форматирования и вывода данных камерой для постанализа.Каждая камера отличается, и высокоскоростные камеры обычно предлагают свой собственный формат для вывода данных в дополнение к обычным форматам изображений (например, tiff, jpeg, png). В этом исследовании для обработки данных использовались родные высокоскоростные упакованные форматы с соответствующих камер. Данные, содержащиеся в этих форматах, не обрабатываются и не сжимаются.

Обе камеры оснащены коррекцией плоского поля в отношении интенсивности фона, цель которой состоит в том, чтобы снизить уровень фона до нуля путем смещения уровня интенсивности для всех пикселей на уровень интенсивности темного изображения.С одной стороны, эта функция обеспечивает более плоские и приятные на вид изображения за счет эффективного подавления фиксированного структурного шума, но также обеспечивает полное использование 12-битных цифровых уровней в записанных изображениях. Недостатком является то, что, поскольку ожидается, что все пиксели будут иметь нулевое количество, распределение шума ограничено наполовину, что искусственно обеспечивает среднее положительное значение интенсивности. Другая проблема заключается в том, что трудно узнать фактический цифровой уровень, соответствующий интенсивности света около нижнего края шкалы.Обратите внимание, что обе камеры предлагают пользователю разные способы решения этой проблемы. Камера A смещает цифровой уровень на 64 единицы (Cts) в сохраненных необработанных данных, таким образом обеспечивая полное распределение шума и «реальное» среднее значение для нулевого уровня интенсивности света. Камера B позволяет пользователю отключить коррекцию темного поля, обеспечивая тем самым фактическое темное изображение. Основными проблемами этого метода являются значительный фиксированный структурный шум и уменьшение цифрового динамического диапазона из-за относительно высокого уровня темноты.

Есть много способов оценить или протестировать системы сбора данных, и результаты зависят от методологий, используемых во время тестирования. Основная цель настоящих испытаний состояла в том, чтобы сравнить две коммерческие камеры определенного класса в строго контролируемой среде, условиях и процедурах. Поскольку информация о конкретных конструкциях камер является частной собственностью, иногда сложно объяснить результаты испытаний, как упоминалось в разд. 1. В таких случаях влияние недостаточной производительности камеры будет интерпретироваться как практические проблемы, возникающие во время экспериментов по высокоскоростной визуализации.

4.1.

Скорость захвата

Вероятно, первая информация, которая приходит на ум относительно высокоскоростных камер, — это скорость захвата конкретной модели. Однако максимальная частота кадров камеры не обязательно дает исчерпывающий ответ для оценки скорости ее захвата. Пропускная способность пикселей обеспечивает более универсальное количество, сочетая скорость получения и размер изображений. Данные, представленные на рис. 6, не требовали какой-либо специальной процедуры тестирования, а только применяли уравнение.(1) к частоте кадров и соответствующему разрешению изображения. Символы представляют максимальную скорость передачи данных, которую камеры могут получить при полном разрешении, все доступные разрешения при соотношении сторон 2∶1, а также максимальное разрешение при абсолютной частоте кадров камеры. Были протестированы другие соотношения сторон, и оказалось, что соотношение сторон 1: 1 обеспечивает худшую производительность для обеих камер, в то время как более широкие форматы обычно улучшают общую пропускную способность. Соотношение сторон 2: 1 было использовано для удобства и простоты сравнения между камерами.

Рис. 6

Пропускная способность пикселей как функция частоты кадров для обеих камер. Символы представляют фактические данные, а линии соответствуют линейной подгонке соответствующих данных для обеих камер.

Нижняя ось представлена ​​в логарифмическом масштабе, показывая монотонную, почти линейную зависимость для обеих камер. Пропускная способность пикселей, представленная на рис. 6, показывает, что обе камеры сравнимы, с общей пропускной способностью более 20 Gpix / s и максимальной частотой кадров 1 Mfps или более.В то же время очевидно, что камера A работает лучше, чем камера B на большинстве частот захвата. Точка пересечения с применением линейной аппроксимации между точками сообщенных данных находится между 600 и 700 кГц. Обе камеры могут регистрировать миллион кадров в секунду или более, при этом камера B обеспечивает заметное преимущество по сравнению с камерой A на сверхвысоких скоростях. При такой частоте кадров камера A имеет пиковое значение чуть выше 4 Гпикс / с, а камера B выдает почти 6 Гпикс / с в том же поле, поддерживая превосходную производительность камеры B при более высокой частоте кадров.

4.2.

Интенсивность отклика

Линейный отклик детектора имеет первостепенное значение для любой попытки количественного определения света. Двумерная визуализация экстинкции, например, представляет собой тип эксперимента, в котором желательна линейная характеристика интенсивности, чтобы избежать исправлений при постобработке. Результаты испытаний на линейность с применением описанного выше метода показаны на рис. 7. Отклики обеих камер с точки зрения цифрового уровня интенсивности представлены как функция нормализованной интенсивности освещения от откалиброванного источника света.Мы признаем, что цифровые уровни сообщаются до 4000 Cts, а не 4095 Cts (12 бит), главным образом, чтобы избежать насыщения. Черная пунктирная линия представляет собой прямую линию, соединяющую оба крайних значения (0 и 4000 Cts), это называется методом конечной точки и обычно используется для визуальной оценки реакции камеры. Для получения оценок по методу наименьших квадратов для откликов камеры с нулевым цифровым уровнем пересечения были вычислены линейные регрессии, и они также нанесены на график.

Рис. 7

Цифровой уровень интенсивности как функция нормированной интенсивности освещения для обеих камер.Пунктирная черная линия представляет соответствие конечной точки, в то время как цветные пунктирные линии представляют собой линейные регрессии по методу наименьших квадратов с нулевой начальной точкой для ответов обеих камер.

Обе камеры демонстрируют довольно хорошие отклики на интенсивность освещения с заметным преимуществом для камеры A. Тем не менее, даже при том, что камеры ведут себя хорошо, они не являются идеально линейными, что можно увидеть по сравнению с различными вариантами посадки, изображенными на рис. Коэффициенты детерминации, полученные методом наименьших квадратов, оба были выше R2 = 0.99. Если посмотреть на отклонение от линии конечной точки, ошибка в измеренной интенсивности остается ниже 4% для камеры A, в то время как для камеры B она более чем вдвое превышает этот показатель. Примечательно добавить, что другие тесты проводились при других конфигурациях камеры (например, частота кадров, время выдержки) возвращают идентичные профили. Можно отметить, что неопределенность не представлена ​​на этом графике, потому что комбинированное отклонение, исходящее от точности считывания яркости камеры (см. Раздел SNR ниже, предполагающий ошибку считывания ниже 0.6%), а погрешность выходной яркости откалиброванного источника света (измеренная фотодиодом) незначительны в результатах испытаний на рис. 7.

При применении коррекции необходимо сделать выбор, чтобы камера реагировала. линейно с фотонной интенсивностью. Для этого широко используется метод конечной точки. Преимущество коррекции на основе конечной точки заключается в том, что она сохраняет динамический диапазон в одном масштабе, что может быть полезно (или необходимо) при работе с 8, 12 или 16-битными целыми числами.С другой стороны, величина коррекции будет максимальной (почти до 10% для камеры B) около середины динамического диапазона, что, безусловно, соответствует наиболее используемому диапазону интенсивности. Регрессии наименьших квадратов, представленные на рис. 7, ограничивают величину коррекции во всем диапазоне, так что измеренные цифровые значения интенсивности изменяются минимально. Предостережение метода заключается в том, что скорректированная интенсивность может выходить за пределы собственной битовой глубины устройства формирования изображения, но интенсивности всегда можно уменьшить, чтобы соответствовать исходному цифровому динамическому диапазону инструмента.

4.3.

Отношение сигнал / шум

SNR системы визуализации — еще один важный показатель. На SNR цифровой системы формирования изображения также влияет размер пикселя, и его также можно сообщать как функцию плотности света (то есть на единицу площади). Более распространенный способ — построить график отношения сигнал / шум как функцию интенсивности света. В случае фиг. 8 и для визуального сравнения отношения сигнал / шум камер, отношение сигнал / шум для каждого пикселя было построено как функция среднего цифрового уровня того же самого пикселя, применяя уравнение.(2). Такой подход к построению всех пикселей обеспечивает справку относительно отклонения между пикселями путем создания облака точек. Пунктирные линии для обеих камер представляют средний SNR камер по всем пикселям как функцию считанного цифрового уровня.

Рис. 8

SNR как функция цифровой интенсивности для обеих камер. Точки данных были рассчитаны по формуле. (2). Пороги «приемлемого» и «отличного» отношения сигнал / шум основаны на рекомендациях стандарта ISO 12232.

Первое наблюдение, которое необходимо сделать на рис. 8, — это высокие уровни SNR, достигаемые обеими камерами. Усредненное по пикселям пиковое отношение сигнал / шум для камеры A составляет более 45 дБ, в то время как оно почти достигает 42 дБ для камеры B. Разница в SNR составляет ∼4 дБ выше четверти динамического диапазона, что является преимуществом камеры A. В соответствии со стандартом ISO 12232, упомянутым ранее, обе камеры демонстрируют «отличный SNR» (SNR = 40 дБ), но камера A достигает этого уровня примерно в половине своего динамического диапазона, а камера B достигает порога 40 дБ на ∼80% от своего динамического диапазона. динамический диапазон.Линия «приемлемого SNR» при SNR = 10 дБ также была определена на основе стандарта ISO. Из-за разных размеров пикселей ожидается более высокое SNR, достигаемое камерой A, поскольку более крупные пиксели могут вместить более крупный фотосайт в дополнение к превосходным коэффициентам заполнения. Разница в 4 дБ между двумя камерами согласуется с коэффициентом 2 в площади между пикселями, которые, как ожидается, увеличивают эффективную светочувствительную площадь камеры A более чем в два раза по сравнению с камерой B. Профиль кривых SNR для обеих камер очень похож. а форма предполагает, что SNR определяется дробовым шумом для обеих камер, что типично для цифровых систем обработки изображений.

4.4.

Чувствительность камеры

Как указано выше, чувствительность высокоскоростной камеры имеет решающее значение для большинства экспериментов. Из-за разных размеров пикселей поток, исходящий от источника, был скорректирован с учетом разницы в области пикселей между двумя камерами. Яркость источника с корректировкой по площади показана на рис. 9 как функция цифрового уровня, достигаемого каждой камерой. Эти результаты были получены путем корректировки лучистого потока от калиброванной интегрирующей сферы, измеренного фотодиодом для области пикселей, и сравнения его со средней цифровой интенсивностью центральной области чипа.Как упоминалось ранее, даже несмотря на то, что яркость источника известна, различия в спектральном отклике камеры ограничивают интерпретацию. Обратите внимание, что двум камерам не требуется одинаковая яркость для достижения цифровой насыщенности, как ожидалось, из-за разных областей пикселей. Как подробно описано ранее, максимальный зарегистрированный цифровой уровень составляет 4000 Cts, по сравнению с 4095 Cts, ожидаемыми для этих 12-битных камер, чтобы избежать насыщения пикселей.

Рис. 9

Яркость источника освещения (на основе тока фотодиода) с поправкой на площадь пикселей как функция цифрового уровня для обеих камер от откалиброванного широкополосного источника света.Более низкая интенсивность источника для достижения заданного цифрового уровня указывает на более высокую чувствительность.

Когда яркость источника корректируется для области пикселей, обе камеры демонстрируют относительно схожие характеристики чувствительности с небольшим преимуществом по сравнению с камерой B, достигая цифрового насыщения перед камерой A, снятой при том же лучистом потоке. Неопределенность здесь не представлена ​​по причинам, упомянутым выше в отношении Рис. 7, что неопределенность незначительна и не влияет на выводы. Без информации об ОСШ, представленной выше, эти результаты были бы неожиданными, учитывая, что коэффициент заполнения, QE и расширенный спектральный отклик отдают предпочтение камере A.Возвращаясь к результатам SNR на рис. 8, можно сказать, что преимущество камеры B исчезает по сравнению с уровнями iso-SNR. Преимущество камеры A в отношении отношения сигнал / шум 4 дБ более чем компенсирует небольшой дефицит чувствительности, показанный на рис. 9. Большая площадь пикселя камеры A, безусловно, отвечает за превосходное отношение сигнал / шум из-за, как и ожидалось, большего размера фотосайтов (при условии, что крышка электроники то же пространство), как было предложено выше. Поэтому камера B должна полагаться на более высокий коэффициент преобразования, чтобы достичь указанной чувствительности.Более высокое усиление в конечном итоге приводит к ухудшению максимального отношения сигнал / шум, как показано на рис. 8.

С другой стороны, меньшие пиксели камеры B должны обеспечивать более высокое (цифровое) разрешение изображения, когда камеры используют ту же оптику (увеличение ). Размер пикселя становится важным при использовании камеры с линзой микроскопа, 27 , где более высокое цифровое разрешение, являющееся результатом меньших пикселей, может обеспечить повышенную детализацию изображения при определенных условиях. Размер пикселя — это один из параметров сенсора, влияющий на производительность камеры, но в зависимости от ситуации он будет зависеть от предпочтения пикселей меньшего или большего размера.Мы должны еще раз подчеркнуть, что эти измерения были выполнены с использованием широкополосного источника света и что спектральные характеристики камер влияют на эти результаты. Чтобы определить, является ли камера A или B более чувствительной с более практической точки зрения (эксперименты), тот же тест следует провести с монохроматическим светом, соответствующим длине волны экспериментов.

4.5.

Global Shutter Performance

Точность времени экспозиции может быть или не иметь решающего значения для некоторых экспериментов.Однако повторяемость экспозиции — еще один очень важный параметр высокоскоростных камер. Как описано ранее, профиль строба экспонирования был измерен для обеих камер в разных рабочих условиях. Результаты этих тестов представлены на рисунке 10, на котором показаны нормализованные огибающие интенсивности пикселей для соответствующей камеры на частоте 100 кГц с временем экспозиции 2,5 мкс (настройка программного обеспечения). Сплошные линии соответствуют нормированной средней интенсивности по освещенной области, контролируемой в каждый момент времени (каждые 100 нс).Нижний и верхний конверты показывают общую дисперсию вокруг среднего для всех равномерно освещенных пикселей. Интенсивности были скомпилированы, а затем усреднены по 100 изображениям, как и для большинства экспериментов, описанных в этом документе.

Рис. 10

Нормализованная амплитуда сигнала как функция времени с момента запуска кадра для обеих камер (профиль строба экспозиции). Области соответствуют огибающим нормированных интенсивностей пикселей в равномерно освещенной области. Обе камеры были установлены на 100 kfps и 2.Время экспозиции 5 мкс.

Стробы экспозиции двух камер, изображенные на рис. 10, имеют некоторые различия. Камера B начинает открываться немного раньше, чем камера A, но наклон меньше, что позволяет камере A достичь полной экспозиции раньше. Аналогичные наблюдения могут быть сделаны во время переходного периода закрытия с более медленным наклоном закрытия для камеры B. С количественной точки зрения камера A показывает времена нарастания и спада (от 10% до 90%) ∼190 нс, в то время как камера B открывается через ∼ 630 нс и закрывается примерно за 540 нс.Фактическая длительность затвора (на основе полной ширины на полувысоте) для камеры A соответствовала установленному значению с длительностью затвора 2,50 мкс. Камера B оставалась открытой немного дольше, чем указано, с длительностью экспозиции 2,79 мкс. Исследуя другие времена выдержки и частоту кадров камеры, камера A обеспечивала ширину строба в соответствии с длительностью, указанной камерой (которая может отличаться от установленного значения) на протяжении всех тестов. С другой стороны, камера B постоянно держала затвор открытым на ∼0,3 мкс дольше установленного значения.Эти различия минимальны и не должны влиять на эксперименты для всех, кроме самого короткого времени выдержки. В экстремальных условиях можно ожидать, что время нарастания и спада двух камер ограничит динамический диапазон во время субмикросекундных экспозиций.

Линии стандартного отклонения на рис. 10 для обеих камер также различаются: камера B показывает большее отклонение по интенсивности, чем камера A. Можно заметить, что переходные процессы (открытие и закрытие) камеры B представляют большое отклонение по сравнению с камерой A .Более пристальный взгляд на этот аспект показал, что не все пиксели открываются и закрываются одновременно, как ожидалось при реализации глобального затвора. Другими словами, некоторые пиксели открываются раньше, чем другие. Интересно, что большинство пикселей имеют одинаковую ширину строба экспозиции, а это означает, что пиксели, открывающиеся раньше, также закрываются раньше, и наоборот. Это поведение показано на рис. 11 (a) и 11 (b), на которых карты нормализованной интенсивности примерно на полпути во время переходного процесса открытия отображаются для обеих камер.На рисунке 11 (c) показана соответствующая гистограмма интенсивности для двух карт.

Рис. 11

(a) и (b) Нормализованное пространственное распределение интенсивности для обеих камер во время переходного периода открытия окна экспонирования. (c) Гистограмма показывает нормализованное распределение интенсивности, связанное с двумя картами, показанными выше. Обе камеры были установлены на 100 kfps и время экспозиции 2,5 мкс, отображая область 512 × 256 pix2.

Нормализованные карты интенсивности на рис. 11 показывают, что интенсивность на изображении камеры B в течение периода открытия электронного затвора сильно различается по сравнению с интенсивностью камеры A.Изменение интенсивности не представляет собой определенного рисунка, а скорее создает впечатление, что изображение загрязнено «пятнами». Это признак того, что не все пиксели открываются одновременно, о чем свидетельствует большое отклонение, показанное на рис. 10. Считается, что такое поведение происходит из-за различий в характеристиках между различными электронными устройствами (транзисторами с глобальным затвором), содержащимися в каждом пикселе. . Это временное несоответствие между пикселями, скорее всего, связано с несогласованным временем переключения транзистора или порогом напряжения срабатывания.Узор «пятен» на изображении одинаков на протяжении всей последовательности изображений для обеих камер, при этом одни и те же пиксели открываются и закрываются рано. Точно так же пиксели, открывающиеся немного позже среднего, закрываются позже, и делают это постоянно. Аналогичное наблюдение было сделано при различных конфигурациях камеры, причем поведение экспозиции зависит от пикселей. Это означает, что один пиксель открытия и закрытия датчика на ранней стадии в одной конфигурации (то есть при частоте кадров камеры, разрешении и времени экспозиции), как ожидается, будет открываться и закрываться раньше в другой, и наоборот.

Чтобы количественно оценить влияние этого разброса на время открытия пикселей, внизу рисунка приведены гистограммы интенсивности для двух карт. Из распределений интенсивности, снятых в середине периода открытия затвора, можно заметить, что разброс для камеры B шире, чем для камеры A. Распределение интенсивности для камеры B почти вдвое больше, чем для камеры A: 20 % диапазона яркости (полная ширина на полувысоте) для камеры B и 12% для камеры A.Распределения [рис. 11 (c)] во время переходных процессов для обеих камер наблюдается относительно большой разброс по интенсивности. Это может ограничить количественную оценку интенсивности коротких прерывистых источников света. Несмотря на то, что различия, представленные на рис. 11 между двумя камерами, существенны, они не так заметны, как предполагают результаты на рис. 10. Это связано с тем, что диапазон интенсивности во время переходного открытия и закрытия сравним, в то время как временная реакция на открытие и закрытие затвора камеры B значительно менее точна, чем у камеры A.

4.6.

Запаздывание изображения

Когда между последовательными изображениями возникают градиенты интенсивности освещения, одно конкретное распределение интенсивности изображения (глобальное или пространственное) может влиять на последующий кадр (ы). Высокоскоростная визуализация направлена ​​на визуализацию быстрых и кратковременных явлений, и в этом случае интенсивность контролируемого света может сильно различаться между изображениями. Еще одна типичная экспериментальная установка, демонстрирующая высокую разницу в яркости между кадрами, — это когда система работает в режиме разделения изображений, аналогичном показанному на рис.4. Как объяснялось ранее, отставание изображения — сложный процесс, и его рассмотрение выходит за рамки данной рукописи. Результаты тестов, представленные после этого, предоставляют читателю основную информацию о задержке изображения, а также о влиянии на две протестированные камеры. На рисунке 12 показаны два набора из четырех изображений, каждый из которых соответствует камерам A или B. Как подробно описано в методике, применяемой для оценки задержки изображения, камеры отображали слабо освещенную поверхность, чтобы намеренно компенсировать количество изображений выше нуля.Эта фоновая подсветка однородна по всему изображению с интенсивностью ~ 200 Cts (примерно 5% динамического диапазона), как показано на верхнем левом изображении каждого набора. Импульсное световое пятно освещало отображаемую поверхность в пяти освещенных, пяти неосвещенных последовательностях, так что были освещены пять последовательных кадров, которым предшествовали или следовали пять последовательных неосвещенных кадров. На верхнем правом изображении каждого набора на рис. 12 показано импульсное световое пятно (с удаленным слабо освещенным фоном).Шкала интенсивности представлена ​​с правой стороны в цифровых уровнях (Cts), а импульсное освещение было отрегулировано для получения ~ 80% цифрового динамического диапазона камеры. Обе камеры были установлены на 1000 кадров в секунду и время экспозиции 50 мкс, и даже несмотря на то, что было записано полное поле зрения для каждой камеры, результаты, представленные в них, соответствуют области 800 × 800 пикселей 2 для целей сравнения. Каждая карта на рис. 12 является результатом среднего, вычисленного за 100 повторений.

Рис. 12

Влияние запаздывания на пространственное распределение интенсивности изображения для обеих камер.В верхнем ряду показаны интенсивность фона и особенности светового импульса. В нижнем ряду показано отставание изображения для кадра n + 1 после светящегося или темного кадра. Обратите внимание на разные шкалы отображаемой интенсивности.

Нижняя левая карта каждого набора показывает эффект запаздывания, когда «запаздывающее» изображение (n + 1) не освещается, а сразу следует за набором подсвеченных кадров (со световым импульсом), отмеченным импульсом и соответствующим кадр n. Карты интенсивности для обеих камер получены с помощью следующего выражения:

Eq.(3)

Iight = In + 1 − IBG.

В формуле. (3) ILight — это скорректированная по фону интенсивность для кадра n + 1, оценивающая интенсивность запаздывания изображения для неосвещенного кадра, следующего за освещенным изображением. Переменные In + 1 и IBG соответствуют интенсивностям «запаздывающего» кадра и фонового изображения. Интенсивность фонового изображения IBG соответствует интенсивности слабо освещенного фона, как подробно описано выше. Мы подтвердили, что этот подход был подходящим, проверив, что фон восстановился после любого запаздывания после последовательности световых импульсов.

Последнее изображение каждого набора (внизу справа) на рис. 12 является противоположностью описанному выше, с импульсным изображением сразу после темного кадра. Величина запаздывания изображения в этом случае получается с помощью следующего выражения:

Eq. (4)

IDark = In + 1 − IPulse.

Уравнение (4) обеспечивает интенсивность запаздывания изображения ILight для освещенного изображения n + 1, следующего за набором слабо освещенных (темных) изображений. IPulse — изображение со световым импульсом; оно принимается как изображение, предшествующее последнему кадру последовательности с импульсной подсветкой.Было показано, что этот кадр представляет распределение интенсивности и величину в соответствии с непрерывной (без пропущенных импульсов) последовательностью световых импульсов.

Нижний ряд рис. 12 показывает, что обе камеры страдают от запаздывания изображения, влияющего на интенсивность изображения порядка 70 Cts. Если уделить больше внимания пространственному распределению изображений с задержкой, можно увидеть, что камеры ведут себя по-другому. Схема освещения от импульсного светодиода в верхней части рисунка 12 (импульс) показывает область импульсного освещения, вызывающую градиент интенсивности (при этом предыдущее или последующее изображение темное).Размер пятна подчеркивает различия между двумя камерами, когда речь идет о цифровом пространственном разрешении. Благодаря своим большим пикселям камера A представляет меньшее световое пятно, чем камера B. Кроме того, следует отметить, что две камеры имеют немного разные расстояния между фланцами (расстояние от датчика до фланца с F-креплением), что влияет на эффективное увеличение системы и размер отображаемого пятна.

Две пары изображений в нижней части рис. 12 показывают влияние запаздывания изображения на пространственное распределение интенсивности.Нижние левые изображения показывают, что интенсивность опускается ниже исходного уровня фона для неосвещенного кадра, следующего за изображением со световым импульсом. Величина изменения интенсивности аналогична для камер A и B, хотя камера A показывает немного более серьезное отставание. «Призрачное» изображение находится в пространственном согласии с рисунком освещения для камеры A, с проявлением запаздывания, возникающего в месте импульса, и аналогичного аспекта. Это отличается от камеры B, где задержка, по-видимому, сосредоточена вокруг центральной точки датчика.Дальнейший анализ показал, что существует небольшая пространственная зависимость от камеры B, но большинство эффектов «запаздывания» наблюдается в центре чипа. Падение интенсивности после освещенного кадра вызывает проблемы с коррекцией темного поля, поскольку значения пикселей упадут ниже нулевого значения сброса (нижняя часть цифровой шкалы). Это объясняет, почему для выполнения этих тестов и количественной оценки величины запаздывания изображения необходимо равномерное освещение.

Поведение в некоторой степени похоже, в противоположном смысле, для графика освещения темный-светлый.В этой ситуации интенсивность первого освещенного кадра увеличивается по сравнению со значением постоянной освещенности. В отличие от предыдущего случая, когда интенсивность уменьшилась, такое поведение будет называться положительным запаздыванием изображения. Величина запаздывания изображения для камеры B в этом случае аналогична величине, измеренной на темном кадре. Несмотря на то, что эффект виден на камере A, кажется, что он менее подвержен влиянию, чем камера B в этой конфигурации. Прежде чем рассматривать величину задержки в рассмотренных выше случаях, стоит упомянуть, что для обеих камер требуется более одного изображения, чтобы датчик полностью восстановился и стабилизировался до базового уровня.

На рисунке 13 представлены гистограммы распределения интенсивности, количественно определяющие запаздывание изображения при двух протестированных конфигурациях. Эти гистограммы представляют интенсивность запаздывания на картах, представленных в ILight и IDark для обеих камер на рис. 12. Представлены все пиксели пораженной области, как показано на рис. 12, включая общую дисперсию интенсивности. Опять же, эти результаты были усреднены по 100 повторениям, чтобы ограничить значимость изменчивости и неопределенности от выстрела к выстрелу.

Рис. 13

Гистограммы интенсивности, количественно определяющие влияние запаздывания на интенсивность изображения для обеих камер при взаимных конфигурациях освещения. (a) Камера A и (b) камера B.

Видно, что в режиме светового и темного освещения (ILight) запаздывание снижает уровень изображения на 70 Cts для обеих камер (при установленном освещении). до 75% динамического диапазона). С другой стороны, когда освещенный кадр следует за темным (IDark), поведение камеры B выглядит обратным, в то время как камера A не показывает заметных эффектов, с большей частью центра распределения около 0 Cts.Как упоминалось ранее, очень сложно дать полное описание задержки изображения для камеры B из-за глобальной зависимости от интенсивности (охват области, разрешение и т. Д.). И наоборот, кажется, что легче исправить эффекты на камере A, и зависимость может быть построена на основе разницы в интенсивности. В ходе дальнейшего тестирования было измерено максимальное падение интенсивности из-за запаздывания изображения для камеры A чуть ниже 100 Cts (с разницей интенсивности 4000 Cts), что составляет около 2,5% от динамического диапазона. Эти результаты были одинаковыми во всех конфигурациях тестов.

Во время различных тестов на задержку изображения мы заметили, что задержка для камеры B, похоже, связана с общей интенсивностью на чипе, основанной на величине и охвате площади. Например, когда освещение покрывает весь чип, эффекты значительно выше, чем когда освещается только небольшая часть (как в текущем случае). Такое поведение также наблюдается, когда камера работает с более низким разрешением, что обычно приводит к более мягким эффектам задержки. Однако дальнейшее исследование показывает, что измеренная цифровая интенсивность в режиме пропущенного освещения отличается от изображений с непрерывным освещением.

Результаты, представленные выше, показывают, что обе камеры ведут себя по-разному, когда дело доходит до запаздывания изображения, но эта задержка, по-видимому, связана с электроникой датчика. Поведение обеих камер, показывающее перерегулирование или недорегулирование в зависимости от графика освещения, обычно наблюдается в усилителях, особенно в системах с высокой пропускной способностью, как и ожидалось для высокоскоростных камер, считывающих более 20 миллиардов пикселей в секунду.

Мы исследовали отставание изображения на многих высокоскоростных камерах, понимаем всю сложность и определили эффективные процедуры коррекции, чтобы исправить эти системы и сделать их более надежными.В следующей статье будут подробно описаны результаты нашего анализа и предложены методы коррекции для получения количественной информации об интенсивности фотонов от этих современных высокоскоростных устройств формирования изображений.

Обзор методологий, основанных на машинном зрении, для измерения смещения в строительных конструкциях

В этом исследовании системы машинного зрения в литературе классифицируются на основе методологий обработки видео. Типичный программный пакет для обработки видео может уместиться в трехкомпонентную структуру, показанную на рис.2. Полученные данные смещения могут быть интерпретированы для оценки состояния моста.

Рис. 2

Процедуры обработки видео для измерения смещения конструкции и общие методы на каждом этапе

Если кампания мониторинга предназначена только для идентификации системы и точные значения вибрации [40, 41] не требуются, отслеживание цели может быть единственной частью всей необходимой процедуры обработки видео, но может потребоваться преобразование координат для выравнивания движения изображения. направления со структурными осями.

Далее отдельно рассматриваются методы калибровки камеры, отслеживания цели и расчета смещения конструкции в литературе.

Калибровка камеры

Калибровка камеры касается построения отношения проекции между трехмерными структурными точками в структурной системе координат и соответствующими двухмерными точками в плоскости изображения. Определенное преобразование проекции можно использовать для восстановления реальных местоположений целей в структуре с учетом целевых местоположений на изображении.

В литературе сообщается о трех категориях преобразования проекции, включая полную матрицу проекции, плоскую гомографию и масштабный коэффициент, как указано в таблице 2. В большинстве случаев преобразование проекции следует полной перспективной модели, хотя его можно упростить до аффинного. модель камеры, когда камеры оснащены объективами с большим фокусным расстоянием [25].

Таблица 2 Преобразование проекции из плоскости структуры в плоскость изображения
Полная матрица проекции
Принцип

Полная матрица проекции — это общая форма преобразования проекции из трехмерной структурной системы в плоскость двухмерного изображения без ограничений на ориентацию камеры и направления движения конструкции и обычно используется для восстановления целевой трехмерной структурной смещение.{\ text {T}}) \) в плоскости 2D-изображения,

$$ \ alpha \ {{\ mathbf {u}} \} = [H] _ {3 \ times 4} \ {{\ mathbf { X}} _ {W} \}, $$

(1)

где \ ([H] _ {3 \ times 4} \) — полная матрица проекции, а \ (\ alpha \) — произвольный коэффициент.

Рис. 3

Модель проекции камеры: центральная перспективная проекция

Процесс калибровки показан на рис. 4 с двумя основными этапами. Внутренняя матрица камеры обычно оценивается в лаборатории путем анализа набора изображений калибровочного объекта, снятых с разных точек зрения [42].Калибровочный объект обычно представляет собой плоскую плоскость или трехмерный объект с точечным рисунком или сеткой с известным интервалом, таким как узор шахматной доски, показанный на рис. 4. Требуются по крайней мере три вида калибровочного объекта с четырьмя угловыми точками, но рекомендуется использовать не менее десяти изображений для получения более надежных оценок [43]. После лабораторной калибровки все функции линз, например отключены автофокус и автоматическая стабилизация изображения, которые могут привести к изменению внутренних параметров камеры.

Фиг.4

Шаги калибровки для оценки полной матрицы проекции

В бытовых камерах и камерах смартфонов всегда используются широкоугольные объективы для увеличения поля зрения [15], что приводит к искажению изображений, особенно в угловых областях кадра, как показано на рис. 5a. Параметры дисторсии линзы также можно было оценить при лабораторной калибровке и применить для коррекции изображения с помощью выпрямленного изображения на рис. 5б. Для камер, оснащенных объективами, не дающими видимого искажения объектива, этап коррекции искажения не требуется.Естественно, для контрольных измерений предпочтительно располагать целевую область в центральной области поля зрения [10], которая подвергается меньшему искажению линзы, как показано на рис. 5a.

Рис. 5

Изображения шахматной доски, сделанные сессионной камерой GoPro Hero 4: — исходное изображение ; и b изображение после коррекции искажения

На втором этапе внешняя матрица камеры, представляющая положение и ориентацию камеры, оценивается на месте посредством точечных соответствий, т.е.е. Трехмерные структурные координаты контрольных точек и двухмерные координаты их проекций на изображении. При наличии, по крайней мере, четырех наборов точечных соответствий, оптимизация методом наименьших квадратов используется для поиска наилучшего варианта внешней матрицы камеры, который минимизирует общую ошибку повторного проецирования между обнаруженными точками изображения и рассчитанными точками проекции изображения.

Алгоритмы калибровки доступны в Vision System Toolbox в MATLAB и в библиотеке с открытым исходным кодом OpenCV.

Обзор приложения

Калибровка камеры для оценки полной проекционной матрицы обычно используется для измерения трехмерного структурного смещения, с несколькими примерами, иллюстрирующими метод: процедуры лабораторной калибровки и калибровки камеры на месте описаны Kim et al.[44] в приложении к мониторингу смещения конструкции в трехпролетном мосту при вибрации, вызванной грузовиком. Жизнеспособность систем захвата движения для лабораторных измерений вибрации была подтверждена [34] с использованием Т-образной калибровочной палочки для оценки внешних параметров камеры. В случае длиннопролетного моста Martins et al. [14] применили метод калибровки для измерения трехмерного смещения конструкции в середине пролета с помощью набора из четырех активных целей. Предполагаемые параметры камеры могут быть уточнены, если задействовано несколько камер с перекрывающимися видами.{2} \), и два оптических центра камеры должны быть в одной плоскости, как показано на рис. 6.

Рис. 6

Эпиполярная геометрия Принцип стереоскопического зрения

Примечания

Полная матрица проецирования является точным представлением соотношения проецирования и, таким образом, применима к любой конфигурации камер на объекте. Проблемы с искажением объектива, характерные для потребительских фотоаппаратов, не препятствуют их использованию для таких измерений, поскольку поправки на искажение легко вносятся с помощью лабораторной калибровки камеры.

Для калибровки камеры на месте требуется информация о местоположении некоторых структурных точек. Согласно существующим исследованиям, это в основном достигается за счет установки искусственных мишеней. Включить искусственные мишени в лабораторные испытания несложно, например: прикрепление плоской мишени в виде шахматной доски [24, 44] или размещение плоской Т-образной палочки в поле зрения [17, 34], в то время как усилия по установке при полевых испытаниях [14] намного больше. Существующие примеры двух полевых применений суммированы в Таблице 3, что указывает на применимость этого метода для испытаний как на ближнем, так и на большом расстоянии.{\ text {T}}) \)

$$ \ alpha \ {{\ mathbf {u}} \} = [P] _ {3 \ times 3} \ {{\ mathbf {X}} _ {P} \}, $$

(2)

где \ ([P] _ {3 \ times 3} \) — матрица плоской гомографии, а \ (\ alpha \) — произвольный коэффициент.

Реконструированные результаты с использованием плоской гомографии обычно представляют собой двумерное структурное смещение целей.

Для процесса калибровки требуется по крайней мере четыре набора двухмерных точечных соответствий [46], аналогично процессу оценки на месте в методе полной проекции.

Обзор приложения

Планарная гомография учитывает геометрические искажения в процессе проецирования и, таким образом, не имеет ограничений на позиционирование камеры [47]. Прямое линейное преобразование 2D эффективно для оценки плоской гомографии [48], например, метод применялся для отслеживания колебаний лабораторной стальной рамы с плотным набором маркеров, приклеенных к поверхности [48], и деформации в середине пролета. длиннопролетного моста с прикрепленной планарной искусственной мишенью [49].

Примечания

Плоская гомография не накладывает ограничений на позиционирование камеры и может использоваться для восстановления целевых 2D структурных смещений. В его применении обычно геометрическая информация, необходимая для калибровки, предоставляется путем прикрепления искусственных плоских целей с известными размерами.

Этот метод калибровки основан на предположении, что цель движется внутри структурной плоскости с незначительным движением вдоль третьей оси. Любое движение, не содержащееся в этой плоскости, приведет к ошибке измерения, если движение не является чисто перпендикулярным оптической оси камеры.

Масштабный коэффициент
Принцип

Масштабный коэффициент — это простейшее преобразование проекции, предполагающее одинаковую глубину резкости для всех проецируемых точек или конфигурацию камеры, в которой оптическая ось перпендикулярна одной структурной плоскости [48]. При таком предположении процесс отображения преобразуется в 1D – 1D проекцию, показанную на рис. 7. Масштабный коэффициент \ ({\ text {SF}} \) от структурного смещения до движения изображения может быть определен с помощью одномерного соответствия или расстояние от камеры до цели,

$$ {\ text {SF}} = \ frac {{\ left | {P_ {I} Q_ {I}} \ right |}} {{\ left | {P_ {S} Q_ {S}} \ right |}}, $$

(3)

$$ {\ text {или}} \; {\ text {SF}} = \ frac {{f _ {\ text {pix}}}} {D}, $$

(4)

где \ (\ left | {P_ {S} Q_ {S}} \ right | \) и \ (\ left | {P_ {I} Q_ {I}} \ right | \) — известные физические размеры на структурная поверхность и соответствующая длина пикселя проекции на изображении; \ (f _ {\ text {pix}} \) — фокусное расстояние объектива камеры в пикселях; а \ (D \) обозначает расстояние от оптического центра камеры до плоскости структурной поверхности.

Рис. 7

Модель проекции камеры, когда оптическая ось камеры перпендикулярна поверхности конструкции

Для системы, объединяющей камеру с тахеометром, коэффициент проекции, называемый угловым разрешением [50, 51], используется для выполнения преобразования, которое представляет значение угла (\ (\ alpha \) на рис. 7) от оптического датчика камеры. ось к линии проекции с длиной проекции (\ (\ left | {O_ {I} P_ {I}} \ right | \)) в один пиксель. В принципе, это преобразование проекции аналогично масштабному коэффициенту, оцениваемому расстоянием от камеры до цели в формуле.(4) где расстояние \ (D \) измеряется непосредственно прибором электронного измерения расстояния (EDM), а фокусное расстояние \ (f _ {\ text {pix}} \) связано с угловым разрешением \ (\ theta \) автор:

$$ \ theta \ приблизительно \ tan \ theta = 1 / f _ {\ text {pix}}. $$

(5)

Обзор приложения

Масштабный коэффициент широко использовался для преобразования движения изображения в структурное смещение с характеристиками, представленными в таблице 4. В основном масштабный коэффициент определяется с помощью известного размера в искусственной цели, прикрепленной к конструкции [5, 8,9, 10, 12, 13, 15, 52,53,54,55,56,57], в то время как метод, использующий расстояние от камеры до цели [22], менее популярен.Для двумерного измерения смещения конструкции масштабные коэффициенты для двух осей в целевой плоскости калибруются отдельно в соответствии с размерными соотношениями [53,54,55,56]. Анализ ошибок показывает, что масштабный коэффициент по размерному соответствию менее чувствителен к наклону оптической оси камеры [8]. Однако масштабный коэффициент, использующий расстояние от камеры до цели, не зависит от искусственных целей и, таким образом, является более простым способом реализации полностью бесконтактного мониторинга [22].

Таблица 4 Особенности двух методов калибровки масштабного коэффициента
Примечания

Масштабный коэффициент — это простейшее преобразование проекции, особенно когда не используется искусственная цель [15, 22], и работает, когда оптическая ось камеры перпендикулярна поверхности конструкции.Позиционирование камеры менее критично [8], когда для калибровки используются известные структурные размеры. Однако при применении масштабного коэффициента, полученного на основе расстояния от камеры до цели, угол наклона оптической оси камеры предполагается менее 10 ° с помощью лабораторных проверочных испытаний на небольшом расстоянии (≤ 3,7 м) [58]. Следует обратить внимание на то, чтобы для измерения двухмерного смещения к разным осям применялись разные масштабные коэффициенты. Этот простой метод также может использоваться с камерами, имеющими видимое искажение объектива, поскольку можно использовать ранее описанный метод коррекции искажения объектива [15, 57].

Слежение за целями

Слежение за целями — ключевая часть пакета программного обеспечения для обработки видео. В этом исследовании методы слежения за целями делятся на четыре типа на основе характеристик цели, показанных в таблице 5, частично ссылаясь на [59].

Таблица 5 Категории способов сопровождения целей
Сопоставление с шаблоном
Принцип

Сопоставление с шаблоном — это классический метод отслеживания цели путем поиска в новом кадре области, наиболее близкой к заранее заданному шаблону, в соответствии с процедурами, показанными на рис.8. Прямоугольная область, которая является подмножеством в опорной рамке, сначала выбирается в качестве шаблона и может быть либо искусственной целью [5], либо характерной целью на структурной поверхности [8]. Критерий корреляции необходим для оценки уровня сходства между шаблоном и новым подмножеством изображений. Надежными критериями сопоставления являются нормализованная кросс-корреляция с нулевым средним (ZNCC) и нормализованная сумма квадратов разностей с нулевым средним (ZNSSD), которые нечувствительны к смещению и линейному масштабу освещения [35], в то время как также сообщается другой критерий сходства, основанный на коде ориентации. быть эффективным [60].{‘}) \) обозначают значения интенсивности изображения в указанных точках пикселей в области шаблона и в новом кадре; \ (f_ {m} \) и \ (g_ {m} \) обозначают средние значения интенсивности в области шаблона и в новом кадре; а \ (\ Delta f \) и \ (\ Delta g \) обозначают стандартные отклонения значений интенсивности в области шаблона и в новом кадре.

Рис. 8

Процедуры метода сопоставления шаблонов для сопровождения цели: горизонтальные и вертикальные координаты центра цели в плоскости изображения обозначены как U и V соответственно; а нижние индексы 0 и 1 представляют координаты изображения в опорном и новом кадрах соответственно

Местоположение на карте корреляции, достигающее наибольшего сходства, принимается в качестве нового местоположения изображения цели.По умолчанию разрешение установлено на уровне пикселей, поэтому для уточнения результата до уровня субпикселей используются схемы интерполяции [8]. Возможные методы интерполяции включают бикубическую интерполяцию [56], полиномиальную интерполяцию второго порядка [57] в пространственной области и интерполяцию с заполнением нулями в частотной области [8]. Если выбранная цель включает в себя надежные и идентифицируемые признаки, обнаружение угла Харриса, которое идентифицирует точки пересечения краев через значение оценки, относящееся к собственным значениям матрицы градиента изображения, могло бы быть альтернативой для уточнения исходного местоположения сопоставления [24].

Обзор приложения

Сопоставление шаблонов — это признанный метод, широко применяемый в структурном мониторинге с самых ранних работ по мостам Хамбер и Северн в 1990-х годах [5, 6]. Недавние применения включают испытания по мониторингу смещения на железнодорожном мосту [8], длиннопролетном мосту [13] и высотном здании [7].

Цифровая корреляция изображений (DIC) — это расширение сопоставления шаблонов, в основном используемое в экспериментальной механике [32, 35], с той разницей, что DIC учитывает искажение формы при большой деформации [61], т.е.е. Сопоставление с шаблоном Лукаса – Канаде [62]. В качестве примера, в упражнении по мониторингу короткопролетных железнодорожных мостов [63] использовались нормализованное сопоставление на основе корреляции и сопоставление Лукаса – Канаде, и было выявлено высокое сходство как во временной, так и в частотной области.

Примечания

Сопоставление шаблонов легко использовать без вмешательства пользователя, за исключением первоначального выбора области шаблона. Он не предъявляет каких-либо особых требований к шаблонам целей и был проверен, чтобы хорошо работать для отслеживания искусственных плоских целей с определенными шаблонами [5, 6, 24], целей светодиодных ламп [13] и объектов-мишеней на структурных поверхностях [8].

Сопоставление шаблонов не является устойчивым к изменениям затенения, освещения [30, 63] и фоновых условий [64] в поле, хотя чувствительность к изменениям освещения может быть снижена с помощью настроек автоматической экспозиции камеры [30]. Этот метод также не подходит для отслеживания тонких структурных компонентов, поскольку прямоугольное изображение подмножества, используемое в качестве шаблона, может включать фоновые пиксели с непоследовательным движением.

Сопоставление характерных точек
Принцип

Вместо анализа всех местоположений в пределах цели сопоставление характерных точек применяется к разреженным «особым» точкам в целевой области, независимо обнаруживая эти особые точки на двух изображениях и затем находя соответствия точек на основе их местный облик.«Особые» точки на изображении, называемые «точками интереса» или «ключевыми точками» в компьютерном зрении, — это те, которые являются стабильными, отличительными и инвариантными по отношению к трансформации изображения и изменениям освещения, например, углы зданий, соединительные болты или другие участки с интересными деталями. формы [65].

Процедуры показаны на рис. 9. Популярным детектором ключевых точек на этапе (1) является угловой детектор Харриса [66], который широко используется в приложениях для мониторинга конструкций [11, 15, 22, 24, 57]. Вместо того, чтобы использовать значения пикселей непосредственно для сравнения сходства, ключевые точки часто извлекаются и описываются более сложным представлением (т.е. дескриптор функции) в соответствии с формой и внешним видом небольшого окна вокруг ключевой точки [65]. Общие дескрипторы и их критерии сопоставления указаны в таблице 6. Дескрипторы на основе чисел с плавающей запятой (например, масштабно-инвариантное преобразование признаков (SIFT) [67] и ускоренные устойчивые функции (SURF) [68]) представлены векторами с плавающей запятой, обычно отражающие различные локальные градиенты интенсивности узора вокруг ключевой точки. Дескрипторы на основе двоичных строк (например, надежные двоичные независимые элементарные функции (BRIEF) [69], ориентированные FAST и повернутые BRIEF (ORB) [70] и быстрый дескриптор ключевых точек сетчатки глаза (FREAK) [71]) представлены двоичными векторами (с элементами 0 и 1) путем попарного сравнения интенсивностей изображений (т.е. независимо от того, больше ли первое или меньше второго) по специальному шаблону вокруг ключевой точки. Критерием соответствия между двумя двоичными дескрипторами обычно является расстояние Хэмминга [69], равное количеству элементов, которые различаются между двумя векторами.

Рис. 9

Процедуры сопоставления характерных точек для сопровождения цели

Таблица 6 Категории дескрипторов признаков и соответствующие критерии соответствия

Для проверки соответствия совпадающих ключевых точек на этапе (3) часто используется геометрическое выравнивание на основе того, могут ли ключевые точки на первом изображении соответствовать ключевым точкам на втором изображении после определенного геометрического преобразования.Широко используемые подходы для отбрасывания выбросов — это RANdom SAmple Consensus (RANSAC) [72] и метод наименьшей медианы квадратов (LMS) [73]. Выходные данные отслеживания — это среднее движение ключевых точек в изображении, которое по своей природе имеет субпиксельное разрешение и может быть преобразовано в целевое местоположение на изображении.

Обзор приложения

Song et al. [74] предложили метод сопровождения цели, основанный на круговом преобразовании Хафа для обнаружения маркеров и алгоритме когерентного дрейфа точки для сопоставления маркеров, и этот метод был применен для системной идентификации стальной консольной балки в лаборатории.Полевые приложения включают Khuc и Catbas [22, 75], которые применили методы FREAK и SIFT для измерения деформации конструкции стадиона и железнодорожного моста, а также Ehrhart и Lienhart [59, 64], которые применили метод ORB для измерения деформации за короткое время. пролетный мост.

Заметки

Сопоставление характерных точек — эффективный метод, поскольку он работает с разреженными точками, а не со всей областью, как при сопоставлении с шаблоном. Этот метод использует локальные дескрипторы для представления ключевых точек вместо яркости необработанного изображения и менее чувствителен к изменению освещения, изменению формы и изменению масштаба.

Однако соответствие характерных точек требует, чтобы целевая область имела богатые текстуры для различимости в течение всего периода записи. Также несколько параметров необходимо настроить вручную в соответствии с опытом или оценками пользователей, например порог контрастности для детектора признаков и порог расстояния в критериях соответствия. Эти настройки параметров могут зависеть от изменений окружающей среды, например порог удаления выбросов может изменяться в зависимости от условий освещения [22].

В настоящее время метод сопоставления характерных точек был подтвержден только в нескольких тестах коротких измерений [22, 59, 64, 75].Однако возможность долгосрочного мониторинга с точки зрения стабильности в течение нескольких часов и как выбрать лучшие дескрипторы функций — это открытые вопросы.

Оценка оптического потока
Принцип

Вместо поиска совпадающих местоположений полной области или разреженных ключевых точек оценка оптического потока обнаруживает движения или потоки всех пикселей в целевой области. Оптический поток — это кажущаяся скорость движения в изображении в результате сдвига яркости [76].Расчет накладывает два ограничения: одно временное ограничение на свойства изображения (например, постоянство интенсивности изображения для одного и того же рисунка во времени) и одно пространственное ограничение, которое моделирует свойства потока в изображении (например, когерентное движение в соседних пикселях) [77]. Затем определяется и оптимизируется функция, отражающая эти два ограничения, для получения точной оценки скорости потока для каждого пикселя. В приложениях для мониторинга конструкций выходной сигнал может быть преобразован в движение изображения вместо скорости путем замены временного градиента свойств изображения в функции на изменение свойств изображения между двумя дискретными кадрами.Удаление выбросов используется для сохранения только ощутимых движений изображения, а среднее движение изображений встраиваемых пикселей преобразуется в целевое местоположение, по сути имеющее субпиксельное разрешение.

Оценка оптического потока — это устоявшийся метод с несколькими вариантами методов, такими как «дифференциал», «пространственно-временная энергия» и «на основе фазы». В этом разделе обсуждаются только два метода: дифференциальный метод Лукаса и Канаде (LK) [78] и фазовый метод [79].

Оценка оптического потока LK [78] основана на предположении постоянства яркости, т.е.е. проекция одной и той же точки имеет одинаковую интенсивность изображения в каждом кадре. Поскольку угловые точки или ключевые точки являются хорошими функциями математически для вычисления оптических потоков, метод LK обычно применяется для разреженной оценки вместо вычисления для каждого пикселя. С ключевыми точками, обнаруженными в опорном кадре, обычно с использованием углового детектора Ши – Томази [80], алгоритм LK применяется для вычисления движения изображения каждой ключевой точки в новом кадре на основе пространственно-временных вариаций яркости изображения,

$$ \ left [ {\ begin {array} {* {20} c} {\ sum \ nolimits_ {i} {I_ {xi} ^ {2}}} & {\ sum \ nolimits_ {i} {I_ {xi} I_ {yi} }} \\ {\ sum \ nolimits_ {i} {I_ {xi} I_ {yi}}} & {\ sum \ nolimits_ {i} {I_ {yi} ^ {2}}} \\ \ end {array} } \ right] \ left [{\ begin {array} {* {20} c} {dx} \\ {dy} \\ \ end {array}} \ right] = \ left [{\ begin {array} { * {20} c} {- \ sum \ nolimits_ {i} {I_ {xi} I_ {ti}}} \\ {- \ sum \ nolimits_ {i} {I_ {yi} I_ {ti}}} \\ \ end {array}} \ right], $$

(7)

где \ (dx \) и \ (dy \) обозначают оптические потоки в горизонтальном и вертикальном направлениях плоскости изображения; \ (I_ {x} \), \ (I_ {y} \) и \ (I_ {t} \) представляют пространственные и временные градиенты интенсивности изображения; а \ (i \) обозначает положение i -го пикселя в квадратном фрагменте (например,грамм. \ (3 \ times 3 \)) вокруг характерной точки \ ((x, y) \). Затем движение изображения оценивается после отбрасывания оценок ложного движения согласно RANSAC или LMS, как и при сопоставлении характерных точек.

Оценка оптического потока на основе фазы основана на предположении о локальном постоянстве фазы. Метод, впервые предложенный Флитом и Джепсоном [79], привлекает новое внимание вместе с техникой увеличения движения [81], которая визуализирует движения в последовательностях изображений, которые не видны невооруженным глазом.Математические детали оценки оптического потока на основе фазы объясняются в [23], а алгоритм кратко резюмируется здесь.

Теорема о сдвиге Фурье указывает, что задержка сигнала во временной области соответствует линейному изменению фазы в частотной области. Точно так же движение изображения в пространственной области также отражается в фазовых изменениях в пространственно-частотной области. Фаза здесь — это локальная фаза [82], соответствующая конкретному пространственному положению, а не всему изображению, обычно получаемая с помощью квадратурной пары фильтров, состоящей из четной действительной части и нечетной мнимой части [83], т.е.е. Фильтры Габора [84] и фильтры производной Гаусса [23] (показаны на рис. 10). Затем движение изображения в каждом пикселе оценивается по пространственно-временным изменениям локальной фазы для отфильтрованного изображения.

Рис. 10

Изображение после фильтрации квадратурной парой фильтров производной Гаусса в направлении ширины изображения: a действительная часть фильтров производной Гаусса; b мнимая часть фильтров с производной Гаусса; c необработанное изображение тросов опоры пешеходного моста; d действительная часть данных отфильтрованного изображения; и e мнимая часть данных

отфильтрованного изображения
Обзор приложения
Оценка оптического потока

LK применялась в лабораторных испытаниях многоэтажной металлической башни [15] для идентификации системы, а также для полевого применения при измерении деформации пешеходного моста [59] и измерении вибрации анкерного троса моста [15]. 85, 86].

Реализации оценки оптического потока на основе фазы были в основном сосредоточены на идентификации системы, то есть на извлечении модальных частот и форм колебаний в лабораторных испытаниях [23, 87] и идентификации модальных частот высотных башенных зданий [88].

Примечания

Оценка оптического потока позволяет отслеживать особенности на структурной поверхности без необходимости использования искусственных целей. Он обеспечивает быстрые и точные результаты в контролируемых условиях окружающей среды.

Как и сопоставление характерных точек, при оценке оптического потока предпочтение отдается целевым образцам с четкими и надежными характеристиками на протяжении всего периода тестирования.Кромки не подходят для отслеживания из-за «проблемы с апертурой», то есть только компонент движения, перпендикулярный локальному направлению кромки, может быть обнаружен вместо истинного движения кромки. Если движение конструкции по краям является одномерным перемещением с известным направлением, например вибрация опорного троса моста [85], оценка оптического потока возможна.

Оценка оптического потока на основе фаз в основном применяется для идентификации систем в лаборатории, но ее труднее использовать в полевых условиях из-за высокого уровня шума сигнала [88].Измерение движения изображения чувствительно к выбору местоположения пикселя [89], в то время как стратегия выбора для обеспечения удовлетворительного измерения еще четко не сообщается. Изменение условий освещения и фона может привести к явной ошибке измерения [88].

Слежение на основе формы

Помимо общих методов, существуют также некоторые методы слежения за целями, которые зависят от особых форм целевых шаблонов, которые могут появляться в изготовленных на заказ искусственных целях или конструктивных элементах (например,грамм. линейные кабели). В таблице 7 приводится сводка часто используемых целевых шаблонов. Из-за отсутствия общности эти методы имеют ограничения для применения.

Таблица 7 Примеры отслеживания на основе формы
Сводка по характеристикам слежения за целями

Что касается слежения за целями, номинальное разрешение алгоритма может быть лучше 0,01 пикселя, в то время как заявленная точность на практике варьируется от 0,5 до 0,01 пикселя [95]. Обработка в реальном времени была реализована в [8, 49, 63] с использованием метода сопоставления шаблонов, в [16, 86] с использованием метода оценки оптического потока и в [13, 51, 52, 53] с использованием отслеживания на основе формы. подходы.Хотя это не описано в существующих приложениях, подход сопоставления характерных точек может использоваться для приложений в реальном времени [70]. Среди четырех методов отслеживания сопоставление шаблонов требует наименьшего вмешательства пользователя, за исключением первоначального выбора области шаблона, в то время как в других трех методах в качестве вводимых пользователем данных требуются некоторые пороговые значения, которые могут зависеть от окружающей среды.

Ehrhart и Lienhart [64] оценили эффективность трех методов (оптический поток, сопоставление шаблонов и сопоставление характерных точек) путем отслеживания структурных особенностей пешеходного моста и сообщили, что сопоставление характерных точек устойчиво к изменениям фоновых условий (т.е. снегопад), тогда как смещение во времени наблюдалось при измерениях двумя другими методами. Busca et al. [96] оценили три метода (сопоставление шаблонов, обнаружение краев и корреляция цифровых изображений) на железнодорожном мосту со стальными фермами, сделав вывод, что эти три метода обеспечивают схожие характеристики слежения, в то время как точность слежения для естественных целей несколько хуже. Khaloo и Lattanzi [97] исследовали четыре метода оценки оптического потока для измерения плотного смещения. Исследование показало, что метод classic + NL (т.е. введение взвешенного нелокального члена в классические формулировки оптического потока [77]) обеспечило наиболее последовательные и точные измерения. Однако схемы от грубого к точному (т. Е. Построение пирамид изображений для каждого кадра и вычисление оптических потоков на каждом уровне пирамид, чтобы избавиться от ограничения малого движения) необходимы для методов Лукаса – Канаде и Хорна – Шунка, чтобы иметь дело с большими смещение.

Расчет смещения конструкции

Смещение конструкции может быть легко получено из изменения структурных координат с учетом местоположения изображения цели (результат отслеживания цели) и отношения преобразования проекции (результат калибровки камеры).В этом случае преобразование проекции представляет собой фиксированное значение или матрицу без каких-либо обновлений во время теста.

Другой менее распространенный метод получения структурного смещения основан на изменении внешней матрицы камеры реального времени. Внешняя матрица камеры представляет позу камеры, то есть положение и ориентацию относительно структурной системы. Поскольку камера физически фиксируется во время записи, изменение внешней матрицы камеры связано с изменением позы цели (положения и ориентации) и может использоваться для оценки движений цели в шести степенях свободы (6DOF).

Преобразование офлайн-проекции
Принцип

Для приложений с одной камерой, использующих масштабный коэффициент или плоскую гомографию, 2D структурные координаты / смещение выводятся однозначно путем преобразования целевого местоположения / движения на изображении в структуру с помощью значения преобразования проекции или матрица.

Когда две или более камеры с перекрывающимися видами используются для наблюдения за одной и той же целью, трехмерное структурное смещение может быть извлечено на основе метода триангуляции [46].

Обзор приложений

Применение масштабного коэффициента и плоской гомографии для измерения двухмерных структурных смещений было рассмотрено в разд. 3.1.

Для стереоскопического обзора или нескольких камер метод триангуляции использовался в [24, 33, 98] для измерения трехмерных структурных смещений. Компоновка с несколькими камерами обеспечивает более надежные результаты, чем одно изображение, но качество измерения во многом зависит от временной синхронизации записей камеры.

Онлайн-оценка позы
Принцип

Для приложений с одной камерой использование фиксированной связи преобразования проекции поддерживает восстановление только двухмерного структурного смещения.Некоторые исследователи пытались получить больше информации о движении цели (до 6DOF) с помощью одной камеры, обновляя позу цели в реальном времени в структурной системе.

Оценка внешней матрицы камеры выполняется для каждого кадра, а трехмерные поступательные и вращательные движения цели извлекаются из изменений внешней матрицы камеры по сравнению с исходным кадром. Для процесса калибровки требуется как минимум четыре неколлинеарных точки с известными размерами или промежутками в конструкции, которые должны иметь постоянное движение.

Обзор приложения

Greenbaum et al. [99] применили метод онлайн-оценки позы для лабораторного трехмерного измерения движения колеблющегося твердого объекта с несколькими целями с известными положениями, распределенными на его поверхности. В полевых условиях Чанг и Сяо [11] использовали плоскую мишень с квадратной сеткой, прикрепленной к поверхности моста, для измерения структурного смещения 6DOF, в то время как Martins et al. [14] отслеживали четыре некомпланарных светодиодных мишени вместе, чтобы восстановить трехмерное структурное движение в длиннопролетном мосту.

Замечания

Самым большим преимуществом метода является возможность извлечения структурных движений 6DOF из одной камеры, но он предъявляет высокие требования к природе отслеживаемых целей, которые должны состоять как минимум из четырех неколлинеарных точек с точно известной геометрией. . Мишень или набор целевых точек должны иметь жесткие движения и быть видимыми в течение всего периода записи, например искусственные плоские цели с выступающими угловыми точками [11], распределенные точки цели на поверхности конструкции [99] или набор светодиодных целей [14].

Этот метод не может измерять поступательное движение вдоль оптической оси камеры [11]; Таким образом, камера должна быть настроена таким образом, чтобы избегать движения в любом интересующем направлении.

Точность измерения этого метода может быть хуже, чем у метода преобразования автономной проекции. В испытании по мониторингу пешеходного моста, проведенном Чангом и Сяо [11], использование камеры с фокусным расстоянием 36,4 мм, расположенной на расстоянии примерно 5,2 м от середины пролета, генерировало шум измерения со стандартными отклонениями 0,76 и 1,09 мм в двух горизонтальных направлениях.Это было намного больше, чем можно было бы достичь с помощью автономного метода преобразования проекции в аналогичном тесте [100] (отслеживание вертикального смещения моста 0,2 мм с фокусным расстоянием 85 мм и расстоянием от камеры до цели 27 м). Следовательно, этот метод не рекомендуется для полевых применений, если только размер цели не является незначительным по сравнению с расстоянием от камеры до цели [96].

Canon U.S.A., Inc. | Сравнение

НЕПОДВИЖНОЕ ИЗОБРАЖЕНИЕ
Датчик изображения Эффективных пикселей / Размер

EOS 5D Mark IV

Прибл.Полнокадровый 30,4 м / 35 мм

EOS 5D Mark III

Прибл. Полнокадровый, 22,3 м / 35 мм

Скорость ISO (расширенный ISO)

100–32000 (L: 50, h2: 51200, h3: 102400)

100–25600 (L: 50, h2: 51200, h3: 102400)

AF №точек фокусировки (подробнее)

61 точка (41 точка крестового типа, 61 точка при f / 8)
• Вертикально расширенная область АФ

61 точка (41 точка крестообразного типа,
центральная одиночная точка при f / 8)

Диапазон измерения

EV -3 — 18

ЭВ-2 — 18

Метод автофокусировки (искатель)

Регистрация вторичного изображения, автофокусировка с определением фазы

Регистрация вторичного изображения, автофокусировка с определением фазы

Датчик AF (фото LV / видео LV)

Двухпиксельный CMOS AF

Контрастный AF

AE Датчик

Прибл.150,000 RGB + IR
датчик дозирования

Система дозирования IFCL с 63-зонным двухслойным датчиком дозирования

Съемка с подавлением мерцания

Есть

Привод Скорость серийной съемки

Прибл.7,0 кадра в секунду *

Прибл. 6,0 кадра в секунду *

Макс. серия (JPEG LF / RAW)

JPEG: пока карта не заполнится / RAW: 17 или более снимков
(при использовании карты памяти UDMA7 CF или карты памяти UHS-I SD)

JPEG: 16270 снимков / RAW: 18 снимков
(при использовании высокоскоростной CF-карты 128 ГБ)

Запись Носитель записи

CF (совместимый с UDMA7 типа I) + SD (совместимый с UHS-I)

CF + SD

Жалюзи Sync.Скорость

1/200 сек.

1/200 сек.

Видоискатель Охват / увеличение

Прибл. 100% / прибл. 0,71 х

Прибл.100% / прибл. 0,71 х

Окошко

Прибл. 21 мм

Прибл. 21 мм

Видоискатель LCD

Интеллектуальный видоискатель II

Интеллектуальный видоискатель

Задержка срабатывания

Прибл.58 мс

Прибл. 59 мс

Оптическая коррекция линзы

• Коррекция периферийной освещенности /
Коррекция хроматической аберрации
(во время обработки RAW + съемки JPEG)
• Коррекция искажения
(во время обработки RAW + съемка JPEG)
• Коррекция дифракции
(во время обработки RAW + съемки JPEG)
• Цифровой оптимизатор объектива
(при обработке RAW + съемке JPEG)

• Коррекция периферийной освещенности /
Коррекция хроматической аберрации
(при обработке RAW + съемка в формате JPEG)
• Коррекция искажений (при обработке RAW)

ВИДЕО
Размер видеозаписи / частота кадров (максимальная)

[4K] 4096 x 2160: 30p
[Full HD MOV] 1920 x 1080: 60p
[Full HD MP4] 1920 x 1080: 60p
[HD] 1280 x 720: 120p
(видео с высокой частотой кадров: без звука)

[Full HD] 1920 x 1080: 30p
[HD] 1280 x 720: 60p
[SD] 640 x 480: 30p

Метод сжатия видео

[4K] Motion JPEG
[Full HD / HD MOV / MP4] MPEG-4 AVC / H.264

MPEG-4 AVC / H.264

Порт для наушников

Есть

Есть

Скорость ISO

[Full HD] 100–25600 (h3: 102400)
[4K] 100–12800 (h3: 102400)

[Full HD] 100–12800 (H: 25600)

Выход HDMI

Да (только Full HD)

Есть

ДРУГИЕ
ЖК-монитор Размер / Разрешение

Широкий 3.2 дюйма (3: 2) / 1 620 000 точек

Широкий 3,2 дюйма (3: 2) / 1 040 000 точек

Сенсорная панель

Да (для всех функций)

IF USB

3.: Встроенный

GPS / Wi-Fi®: совместим с аксессуаром

Совместимость приложений для смартфонов

Да (через встроенный Wi-Fi®)

Прочность Циклы срабатывания затвора

150 000

150 000

Внешний вид Размеры (Ш x В x Г)

Прибл.5,93 x 4,58 x 2,99 дюйма /
150,7 x 116,4 x 75,9 мм

Прибл. 6,0 x 4,6 x 3,0 дюйма /
152,0 x 116,4 x 76,4 мм

Масса (только корпус)

Прибл. 28,22 унций. / 800 г

Прибл.30,3 унций. / 860 г

Принадлежность Аккумулятор

LP-E6 / E6N

LP-E6 / E6N

Беспроводной передатчик файлов

WFT-E7 (IEEE802.11а / б / г / н)

WFT-E7 (IEEE802.11a / b / g / n)

Защита кабеля

Обзор камеры Apple iPhone 12 Pro Max: большой и красивый

Объявленный в прошлом месяце как лучшее устройство в семействе iPhone 12, iPhone 12 Pro Max оснащен самым большим экраном и самой впечатляющей основной камерой из новой партии телефонов Apple.Основная широкоугольная камера оснащена линзой f / 1.6, эквивалентной 26 мм, перед датчиком на 12 МП с разрешением 1,7 мкм (больше, чем у датчика 12 МП 1,4 мкм в iPhone 12 Pro и iPhone 11 Pro Max). Он также оснащен системой оптической стабилизации на основе сенсора, впервые для Apple (большинство модулей камеры телефона смещают объектив, а не сенсор, чтобы компенсировать движение камеры). Есть сверхширокая камера, эквивалентная 13 мм, и телемодуль, эквивалентный 65 мм, который предлагает 2,5-кратный зум по сравнению с основной камерой (немного больше, чем у iPhone 11 Pro Max или 12 Pro), а также необычный датчик LiDAR. для построения карт глубины.

На бумаге iPhone 12 Pro Max обладает самыми впечатляющими на сегодняшний день возможностями обработки изображений среди телефонов Apple. Прочтите наш обзор, выполненный в рамках новой версии 4 протокола тестирования камеры DXOMARK, чтобы узнать, как она работает.

Основные характеристики камеры:

  • Первичный: сенсор 12 МП (места для фотосъемки 1,7 мкм), объектив с диафрагмой f / 1,6 в эквиваленте 26 мм, OIS со сдвигом сенсора, PDAF
  • Сверхширокий: сенсор 12 МП, 1 / 3,6 ″, эквивалент 13 мм (при измерении 14 мм), f / 2.Объектив с 4 диафрагмами
  • Tele: 12-мегапиксельная матрица 1 / 3,4 ″, объектив с диафрагмой f / 2,2 в эквиваленте 65 мм, PDAF, OIS
  • Датчик глубины LiDAR
  • Светодиодная вспышка
  • 4K Dolby Vision HDR-видео при 24/30/60 кадров в секунду (протестировано 2160p / 30 кадров в секунду)

О тестах камеры DXOMARK: Для оценки и анализа наших обзоров камер смартфонов инженеры DXOMARK снимают и оценивают более 3000 тестовых изображений и более 2,5 часов видео как в контролируемых лабораторных условиях, так и в естественных условиях в помещении и на открытом воздухе, используя настройки камеры по умолчанию.Эта статья предназначена для освещения наиболее важных результатов нашего тестирования. Для получения дополнительной информации о протоколе тестирования камеры DXOMARK щелкните здесь. Подробнее о том, как мы оцениваем камеры смартфонов, можно узнать здесь.

Итоги испытаний


Apple iPhone 12 Pro Max

130

камера

iPhone от Apple, как правило, обеспечивает очень хорошее качество изображения, но прошлогодние модели были опущены в нашем рейтинге последними и лучшими из других производителей телефонов.С iPhone 12 Pro Max Apple снова штурмует вершины нашей базы данных, но пока не достигает вершины. Его впечатляющая оценка камеры в DXOMARK (130) ставит ее чуть ниже первой тройки, но ее отличная промежуточная оценка в 138 баллов, основанная на высокой производительности с небольшими ошибками, уступает только Huawei Mate 40 Pro на момент написания этой статьи.

Экспозиция в целом точная (как и следовало ожидать), особенно на портретах, и даже при очень низком уровне освещенности. Однако менее впечатляющий динамический диапазон удерживает оценку экспозиции, поскольку светлые участки и тени имеют тенденцию обрезаться, когда камера смотрит на сцены с очень высоким диапазоном яркости.Цвет, как правило, приятный, особенно в помещении, где слегка теплый оттенок часто бывает лестным. Однако в сценах с высоким динамическим диапазоном цвет менее надежен.

Автофокусировка особенно быстрая и точная, а iPhone 12 Pro Max установил новый рекорд для этой промежуточной оценки. Несмотря на больший сенсор, основная камера также поддерживает достаточную глубину резкости (и правильно ею управляет), чтобы держать всех в фокусе на наших групповых тестовых снимках.

Телефон уравновешивает текстуру и шум лучше, чем iPhone 11 Pro Max, и сохраняет текстуру очень хорошо, камера цепляется за детали даже при падении уровня освещенности.Уровень шума также ниже, чем у его предшественника. Но, несмотря на улучшения, лучшим из конкурентов по-прежнему удается более ловко балансировать шум и детализацию.

Apple была одним из первых, кто начал имитировать размытие фона с помощью специального портретного режима, и ее последняя попытка в этом iPhone дает хорошие результаты с довольно хорошим разделением объектов, естественным градиентом размытия и равномерным шумом по всему кадру. Однако этот причудливый датчик LiDAR, по-видимому, не является завершающим этапом картирования глубины, поскольку мы по-прежнему видим артефакты вокруг сложных объектов, таких как волосы.

Артефакты изображения достаточно хорошо контролируются, но iPhone 12 Pro Max на самом деле делает небольшой шаг назад по сравнению со своим предшественником, теряя три балла в этой промежуточной оценке. Сдвиг оттенка, квантование цвета, звон и двоение часто видны, если вы их ищете.

В помещении Apple iPhone 12 Pro Max снимает детализированные изображения с приятной цветопередачей.

iPhone 12 Pro Max получил 68 баллов по нашему новому показателю Zoom, который сочетает в себе оценки Wide и Tele.Это существенное улучшение по сравнению с 11 Pro Max (которое мы повторно тестировали с новым протоколом), но оно значительно отстает от лучших среди конкурентов. Этот iPhone неплохо справляется с широким спектром вопросов, предлагая большой охват и хорошее общее качество изображения (с некоторыми оговорками). При умеренном коэффициенте масштабирования телемодуль телефона работает очень хорошо.

Однако iPhone 12 Pro Max не может конкурировать по длинному диапазону зума с лучшими из своих противников. Xiaomi, Huawei и другие активно работают над расширением досягаемости телефонов с теле-модулями с длинным фокусным расстоянием, в то время как iPhone является скромным 65-миллиметровым эквивалентом.

Экспозиция точная, а контраст хорошо регулируется, за исключением некоторого отсечения светлых участков.

Цвета яркие и приятные на открытом воздухе, особенно при умеренной обработке HDR.

iPhone 12 Pro Max с результатом 113 баллов по видео занимает второе место в нашем тестировании видео с Huawei P40 Pro, оставляя Huawei Mate 40 Pro на вершине списка. Apple добавляет поддержку Dolby Vision HDR, которая действительно обеспечивает высокий динамический диапазон и приятное отображение тонов при воспроизведении на совместимом дисплее.В целом динамический диапазон широк, хотя в экстремальных ситуациях светлые участки могут срезаться.

Текстура и шум хорошо сбалансированы в большинстве условий, с низким уровнем шума и большим количеством деталей при съемке на открытом воздухе или при умеренном внутреннем освещении. Уровни освещенности должны стать довольно низкими, прежде чем шум станет навязчивым, а детализация упадет. Цвет в целом приятный, несмотря на некоторые небольшие искажения баланса белого, которые иногда видны (особенно при очень слабом освещении).

Как и в случае со снимками, автофокусировка видео является точной и быстрой, с быстрым и плавным переключением при изменении расстояния до объекта.Стабилизация также эффективна, в том числе при ходьбе или панорамировании.

Несмотря на то, что экспозиция в целом точна, наши тестеры заметили небольшую нестабильность экспозиции при любых условиях. Иногда появляются блики и квантование цвета, но в целом качество видео отличное.

Apple iPhone 12 Pro Max, видео на улице

Объяснение оценок фотографий

iPhone 12 Pro Max набрал 138 баллов за фото благодаря отличным результатам по большинству показателей качества изображения.В этом разделе мы более подробно рассмотрим, как определялся каждый промежуточный балл, и сравним качество изображения с некоторыми ключевыми конкурентами.

Экспозиция и контраст

Apple iPhone 12 Pro Max

93

111

Huawei P50 Pro

Лучшее: Huawei P50 Pro (111)

Экспозиция iPhone 12 Pro Max не уступает большинству других флагманских предложений, но оставляет место для улучшения, когда дело касается сцен с высоким динамическим диапазоном.Целевая экспозиция обычно точна, особенно когда речь идет о лицах.

В этой сцене с подсветкой оба iPhone выдувают небо, хотя 12 Pro Max обеспечивает лучшую экспозицию на лицах моделей. Мы также видим блики на снимках с iPhone.

Apple iPhone 12 Pro Max: яркие моменты

Apple iPhone 11 Pro Max, яркие блики, недоэкспонированные лица

Huawei P40 Pro, лучше выдержка

Упорное сцепление iPhone 12 Pro Max с заданной экспозицией показано в примерах ниже.Оба устройства для сравнения, возможно, убаюкиваемые условиями низкой освещенности и белым фоном, довольно серьезно недоэкспонируют лицо объекта, в то время как 12 Pro Max лучше справляется с сохранением его яркости.

Apple iPhone 12 Pro Max, небольшая недодержка на лице

Apple iPhone 11 Pro Max, хуже недодержка на лице

Huawei P40 Pro, хуже недодержка на лице

Цвет

Apple iPhone 12 Pro Max

101

107

Apple iPhone 13 Pro Max

Лучшее: Apple iPhone 13 Pro Max (107)

iPhone 12 Pro Max получил высокую оценку цветов.Рендеринг в целом приятен как в помещении, так и на улице (хотя на улице иногда появляется легкий синий оттенок). Тем не менее, цветопередача в сценах с высоким динамическим диапазоном может вызывать затруднения, принимая почти мультяшный вид. В приведенных ниже примерах у нас есть очень хороший цвет на объекте переднего плана от 12 Pro Max, но цвет HDR на заднем плане выглядит нечетким, как и оттенок кожи другой модели. Более старый iPhone лучше справляется с фоном, но недоэкспонирует основной объект, в то время как Huawei использует более сбалансированный подход, хотя и с немного размытым взглядом на людей.

Apple iPhone 12 Pro Max, нечетная цветопередача HDR

Apple iPhone 11 Pro Max, более темный передний план

Huawei P40 Pro, сбалансированные, но слегка размытые цвета

В помещении iPhone имеет тенденцию к более теплой цветопередаче, чем известна Apple, с в целом приятными результатами.

Apple iPhone 12 Pro Max, отличная цветопередача

Huawei P40 Pro, легкий желтый оттенок, менее приятные оттенки кожи

Samsung Galaxy Note20 Ultra 5G, хороший цвет, но с очень легким розовым оттенком в телесных тонах

Автофокус

Apple iPhone 12 Pro Max

109

Наивысший балл

Apple берет корону автофокусировки с iPhone 12 Pro Max, получив наивысший результат, который мы зафиксировали на сегодняшний день.Автофокусировка работает быстро и точно в любых условиях. Одним из открытий нашего нового протокола тестирования является то, что диапазон яркости сцены может иметь такое же влияние на производительность автофокуса, как и общий уровень освещенности, и довольно много телефонов, которые демонстрируют отличные характеристики при равномерном освещении, спотыкаются при столкновении с широким динамическим диапазоном. сцена. Но, как мы видим на диаграмме ниже, iPhone не смущает разброс яркости в 7 EV, обеспечивая плотно сгруппированный кластер таймингов, которые фактически ожидают срабатывания затвора примерно на десятую долю секунды для ощущения мгновенности.Справедливо предположить, что такая выдающаяся производительность автофокусировки, по крайней мере частично, связана с новой системой Apple LiDAR.

Сравнение автофокуса при наружном освещении (1000 люкс) с вариацией 7 EV

Apple также хорошо управляет глубиной резкости, что становится все более серьезной проблемой, поскольку размеры сенсора в телефонах увеличиваются, а фиксированная диафрагма становится шире. В наших тестах с людьми, находящимися на разном расстоянии, iPhone хорошо справился с выбором точки фокусировки, которая максимизирует резкость как для близких, так и для удаленных объектов.

Apple iPhone 12 Pro Max, глубина резкости

Apple iPhone 12 Pro Max, кадрирование, фоновый объект в фокусе

Huawei P40 Pro, глубина резкости

Huawei P40 Pro, кадрирование, фоновый объект немного не в фокусе

Samsung Galaxy Note20 Ultra 5G, глубина резкости

Samsung Galaxy Note20 Ultra 5G, кадрирование, фоновый объект немного не в фокусе

Текстура

Apple iPhone 12 Pro Max

101

111

Xiaomi Mi 11

Лучшее: Xiaomi Mi 11 (111)

Шум

Apple iPhone 12 Pro Max

75

99

Huawei P50 Pro

Лучшее: Huawei P50 Pro (99)

iPhone 12 Pro Max получил очень хорошую оценку текстуры, подтверждая наблюдения, что он очень хорошо сохраняет детали даже при падении уровня освещенности.В этом отношении он лучше, чем 11 Pro Max, в большей части протестированного диапазона, и в приведенной ниже таблице мы видим, что он значительно превосходит эталонное устройство Samsung при очень низком уровне освещенности, хотя и не может поспевать за Huawei. когда гаснет свет.

Сравнение текстур (пунктирные линии представляют отклонение от среднего)

В приведенных ниже примерах при довольно сложных условиях смешанного освещения в помещении (яркое окно на заднем плане все усложняет) iPhone 12 Pro Max заметно лучше справляется с мелкими деталями, чем его предшественник, хотя Huawei превосходит оба.

Apple iPhone 12 Pro Max, интерьерная текстура

Apple iPhone 12 Pro Max, кадрирование, хорошая детализация

Apple iPhone 11 Pro Max, интерьерная текстура

Apple iPhone 11 Pro Max, кадрирование, меньше деталей

Huawei P40 Pro, интерьерная текстура

Huawei P40 Pro, кадрирование, отличная детализация

Шумовые характеристики iPhone 12 Pro Max менее впечатляющие, по крайней мере, по флагманским стандартам, хотя при слабом освещении это явное улучшение по сравнению с предшественником.На диаграмме ниже мы видим, что у Samsung более высокий базовый уровень шума, а новый iPhone остается ниже него на протяжении большей части тестового диапазона. С другой стороны, Huawei обычно лучше контролирует шум, чем другие устройства.

Эти лабораторные результаты подтверждены в примерах ниже. Новый iPhone сохраняет больше деталей при меньшем уровне шума, чем его предшественник, но Huawei производит большее впечатление, чем оба (несмотря на некоторую недодержку).

Apple iPhone 12 Pro Max, низкий уровень шума

Apple iPhone 12 Pro Max, кадрирование, заметны некоторые шумы

Apple iPhone 11 Pro Max, низкий уровень шума

Apple iPhone 11 Pro Max, кадрирование, больше шума

Huawei P40 Pro, низкий уровень шума

Huawei P40 Pro, кадрирование, меньше шума

Артефакты

Apple iPhone 12 Pro Max

65

75

Google Pixel 4

Лучшее: Google Pixel 4 (75)

В целом на iPhone 12 Pro Max артефакты изображения достаточно хорошо контролируются, но есть возможности для улучшения.Телефон теряет наибольшее количество баллов в этой промежуточной оценке за квантование цвета, что происходит, когда цветовые градации, которые должны отображаться плавно, не являются гладкими, но звон (из-за чрезмерной резкости) также является проблемой. К другим более незначительным эффектам относятся сдвиг оттенка, ореолы, муар и артефакты слияния (ошибки при объединении данных с нескольких камер).

В приведенном ниже примере мы видим квантование цвета и сдвиг оттенка в небе.

Apple iPhone 12 Pro Max, квантование цвета

Apple iPhone 12 Pro Max, кадрирование, искусственные градиенты цвета

В этом примере двоение изображения возникает из-за того, что не учитывается перемещение между сложенными кадрами.

Apple iPhone 12 Pro Max, ореолы

Apple iPhone 12 Pro Max, кадрирование, ореолы

Ночь

Apple iPhone 12 Pro Max

64

82

Huawei Mate 40 Pro +

Лучший: Huawei Mate 40 Pro + (82)

iPhone 12 Pro Max — способный ночной шутер и улучшение по сравнению с 11 Pro Max, но он отстает от лучших среди конкурентов.Экспозиции хороши даже при слабом освещении, а динамический диапазон довольно широк. Цвета обычно приятные. В приведенном ниже примере iPhone обеспечивает хорошую яркую экспозицию и уравновешивает шум и детализацию лучше, чем Samsung. И Samsung, и Huawei дают немного более темную экспозицию, но отличная производительность P40 Pro в ночное время отличает его от двух других.

Apple iPhone 12 Pro Max, вспышка выключена

Apple iPhone 12 Pro Max, кадрирование, хорошая детализация и выдержка

Samsung Galaxy Note20 Ultra 5G, вспышка выключена

Samsung Galaxy Note20 Ultra 5G, кадрирование, низкая экспозиция, больше шума

Huawei P40 Pro, вспышка выключена

Huawei P40 Pro, кадрирование, низкий уровень шума, хорошая детализация, слегка темная выдержка

При съемке портретов ночью в автоматическом режиме Apple не допускает срабатывания вспышки — выбор, с которым могут согласиться некоторые фотографы, но это может привести к недоэкспонированию в условиях недостаточной освещенности.

Боке

Apple iPhone 12 Pro Max

70

80

Huawei P50 Pro

Лучшее: Huawei P50 Pro (80)

iPhone 12 Pro Max снимает приятные изображения в портретном режиме с имитацией малой глубины резкости. Эффект боке выглядит естественно, и iPhone в значительной степени избегает ловушек, в которые попадают некоторые конкуренты при попытке естественного рендеринга лиц в этом режиме: приятные оттенки кожи и хорошие уровни детализации, хотя эталонное устройство Huawei, которое действительно превосходит этот трюк немного лучше сохраняет детали на лице.

Apple iPhone 12 Pro Max, приятный эффект боке

Apple iPhone 11 Pro Max, приятный эффект боке

Huawei P40 Pro, приятный эффект боке

iPhone довольно хорошо отделяет объект от фона, но, как и большинство устройств, он делает ошибки по краям, особенно с трудными границами, такими как волосы. Датчик LiDAR, похоже, не имеет здесь большого значения, по крайней мере, при нормальном освещении (маркетинг Apple подчеркивает его способность создавать карты глубины при слабом освещении, но это не является частью нашего протокола тестирования).

Помимо ошибок границ, которые довольно типичны, наши тестеры также отметили, что в одном случае iPhone полностью игнорировал размытие переднего плана. В остальном градиент размытия довольно естественный и является хорошим улучшением по сравнению с 11 Pro Max.

Apple iPhone 12 Pro Max, боке на улице

Apple iPhone 12 Pro Max, хорошая оценка глубины

Apple iPhone 11 Pro Max, боке на улице

Apple iPhone 11 Pro Max, кадрирование, хорошая оценка глубины

Huawei P40 Pro, боке на улице

Huawei P40 Pro, кадрирование, отличная оценка глубины

Новый топовый iPhone также неплохо снимает имитацию боке при слабом освещении.Он сохраняет как естественный эффект боке, так и хорошую детализацию даже в очень темных условиях благодаря использованию LiDAR и активации ночного режима в режиме боке. Тестирование боке при слабом освещении в настоящее время не является частью нашего протокола тестирования, как мы упоминали выше, но мы добавили несколько образцов боке при слабом освещении в нашу галерею в конце этого обзора, чтобы вы могли посмотреть.

Предварительный просмотр

Apple iPhone 12 Pro Max

77

80

Apple iPhone 13 Pro Max

Лучшее: Apple iPhone 13 Pro Max (80)

Когда мы представили наш тестовый тест Preview, Apple оказалась далеко впереди конкурентов, когда дело дошло до точного отображения того, что вы получите на экране, а iPhone 11 Pro Max имел наивысший балл Preview до сих пор.IPhone 12 Pro Max и его собрат, не относящийся к Max, теперь занимают первое место, но по этому показателю еще есть много возможностей для роста отрасли в целом, поскольку даже с этим устройством, получившим наивысшие баллы, вы видите не то, что нужно. Т именно то, что вы получите. В общем, экспозиция на изображении для предварительного просмотра приблизительно соответствует тому, что на самом деле запечатлено на фотографии; динамический диапазон обычно также близок, хотя при предварительном просмотре он может быть более ограничен, как показано ниже.

Предварительный просмотр: точная экспозиция, немного HDR

Захват: более широкий динамический диапазон

Эффект боке в портретном режиме предварительно просматривается с приближением карты глубины, поэтому размытие имеет тенденцию распространяться на объект больше, чем на окончательном изображении.Масштабирование также не было усовершенствовано, с прыжками при переходе между камерами и случайными нестабильностями баланса белого и экспозиции.

Предварительный просмотр: имитация боке в предварительном просмотре с преувеличенными ошибками глубины

Захват: лучшая оценка глубины

Объяснение оценок масштабирования

iPhone 12 Pro Max получил 68 баллов Zoom, опередив его большинство флагманских телефонов, которые мы тестировали с этим новым протоколом. Оценка Zoom представляет собой комбинацию оценок по широкому и телескопическому изображениям.В этом разделе мы более подробно рассмотрим, как были достигнуты эти промежуточные оценки, и сравним качество масштабируемого изображения с некоторыми ключевыми конкурентами.

Tele

Apple iPhone 12 Pro Max

87

140

Huawei P50 Pro

Лучшее: Huawei P50 Pro (140)

iPhone 12 Pro Max превосходит своего предшественника в этом промежуточном балле, но, за исключением Pixel 5, другие современные флагманские телефоны, которые мы тестировали, работают лучше.Новый iPhone немного расширился по сравнению с 11 Pro Max, но многие конкуренты идут намного дальше, отсюда и разница в оценках. Тем не менее, при средних диапазонах масштабирования, равных или чуть превышающих родное фокусное расстояние теле модуля iPhone, результаты очень хорошие.

Однако при более близком увеличении мы обнаруживаем одну область, в которой iPhone 12 Pro превосходит своего старшего брата. Поскольку телефон 12 Pro имеет более короткий модуль масштабирования, эквивалентный 52 мм, он начинает работать раньше в диапазоне масштабирования, чем камера 12 Pro Max, эквивалентная 65 мм.Вместо того, чтобы объединять вывод телекамеры с широкоугольным, как это делают некоторые телефоны, iPhone 12 Pro Max просто обрезает широкоугольную камеру, что приводит к более низкому качеству, чем 12 Pro в этом диапазоне. Примечание: мы обычно ссылаемся на коэффициенты масштабирования с основной широкоугольной камерой в качестве основы, поэтому мы называем это 2,5-кратным масштабированием.

Apple iPhone 12 Pro Max, зум с близкого расстояния

Apple iPhone 12 Pro Max, кадрирование, низкая детализация

Apple iPhone 12 Pro, зум с близкого расстояния

Apple iPhone 12 Pro, кадрирование, хорошая детализация

Однако, как только телемодуль срабатывает, он работает лучше, опережая iPhone 12 Pro и 11 Pro Max, хотя есть некоторая потеря деталей и больше шума, чем в идеале.Экспозиция и цвет на обоих iPhone заметно лучше, чем у Samsung ниже.

Apple iPhone 12 Pro Max, средний зум

Apple iPhone 12 Pro Max, кадрирование, хорошая детализация

Samsung Galaxy Note20 Ultra 5G, средний зум

Samsung Galaxy Note20 Ultra 5G, кадрирование, меньше деталей

Apple iPhone 11 Pro Max, средний зум

Apple iPhone 11 Pro Max, кадрирование, меньше деталей, больше шума

На таких длинных диапазонах зума iPhone 12 Pro Max сильно кадрирует из-за телесенсора, и качество резко падает (как и следовало ожидать).

широкий

Apple iPhone 12 Pro Max

41

57

Huawei P50 Pro

Лучшее: Huawei P50 Pro (57)

Этот iPhone компенсирует свой невысокий рейтинг в Tele с хорошими показателями Wide. Apple впервые представила 13-миллиметровый сверхширокий модуль в iPhone 11 и 11 Pro, и здесь он продолжает эту спецификацию. Хотя эта камера не так универсальна, как сверхширокоугольный объектив Xiaomi Mi 10 Ultra, она по-прежнему имеет много преимуществ и превосходит многих конкурентов с точки зрения охвата.Качество изображения в целом хорошее, хотя иногда виден зеленый оттенок (см. Ниже), а детализация и динамический диапазон могут быть лучше.

Apple iPhone 12 Pro Max, сверхширокий

Apple iPhone 12 Pro Max, обрезка, хорошее покрытие, легкий зеленый оттенок

Huawei P40 Pro, сверхширокий

Samsung Galaxy Note20 Ultra 5G, сверхширокий

Samsung Galaxy Note20 Ultra 5G, кадрирование

Объяснение оценок видео

Общая оценка видео устройства определяется на основе его производительности и результатов по ряду атрибутов так же, как оценка для фотографий.Мы протестировали видеорежим iPhone 12 Pro Max с разрешением 4K, 30 кадрами в секунду и режимом HDR (Dolby Vision 8.4), который в целом показал наилучшие результаты. Мы проанализировали HDR-видео Apple, используя HDR-совместимый дисплей (Apple XDR Pro Display), и мы проанализировали сравниваемые устройства в этом тесте, используя их собственный режим SDR (стандартный динамический диапазон) и дисплеи SDR.

Apple iPhone 12 Pro Max набрал 113 баллов по видео, заняв второе место в нашей базе данных на момент написания этой статьи.Его промежуточные оценки видео следующие: Экспозиция (99), Цвет (99), Автофокус (103), Текстура (84), Шум (102), Артефакты (78) и Стабилизация (101). В этом разделе мы более подробно рассмотрим сильные и слабые стороны устройства в отношении видео и проведем некоторые сравнения с его основными конкурентами.

iPhone 12 Pro Max снимает видео с хорошей экспозицией при довольно низком уровне освещенности, но экспозиция действительно падает, когда все становится очень тусклым. Этот iPhone работает немного лучше, чем 11 Pro Max, но Huawei P40 Pro поддерживает более точную экспозицию в очень темных условиях.

Сравнение экспозиции цели видео

Цветопередача в целом приятная, с приятными оттенками кожи как в помещении, так и на улице. Наши тестеры действительно заметили небольшие цветовые оттенки, и иногда случаются выбросы баланса белого, когда качество освещения внезапно меняется, когда телефон чрезмерно компенсирует это изменение, прежде чем резервное копирование для более точного результата. Видеозаписи демонстрируют низкий уровень шума до очень низкого уровня освещенности. Детали также сильны при ярком свете. Он падает по мере того, как свет падает, но при самых низких уровнях освещенности это все еще неплохо.

Apple iPhone 12 Pro Max, видео в помещении

Apple iPhone 11 Pro Max, видео в помещении

Huawei P40 Pro, видео в помещении

Наши лабораторные измерения подтверждают, что шумовые характеристики очень хорошие при ярком свете, а затем в значительной степени соответствуют превосходному прецеденту, созданному Huawei P40 Pro, с очень хорошими характеристиками вплоть до почти темноты при яркости 1 люкс.

На этой диаграмме текстур мы видим, что iPhone 12 Pro Max сохраняет больше деталей, чем Huawei, при самом низком уровне освещенности, хотя Huawei лучше показывает средние значения.

Как и в случае с фотографиями, iPhone 12 Pro Max имеет быструю и точную автофокусировку при съемке видео. Камера быстро плавно меняет фокус при необходимости, когда объект перемещается или меняется, и отслеживание является эффективным. Тем не менее, наши тестеры заметили случайные пропуски зажигания при очень слабом освещении, когда автофокусировка фиксировалась на фоне, а не на объекте.

Apple iPhone 12 Pro Max, видео при слабом освещении

Apple iPhone 11 Pro Max, видео при слабом освещении

Huawei P40 Pro, видео при слабом освещении

Видео артефакты в целом хорошо контролируются, но наши тестеры заметили некоторую засветку линз и квантование цвета, а также неестественную визуализацию в частях сцены с тонкими цветовыми градиентами. Возможно, благодаря подходу со смещением сенсора, система стабилизации видео iPhone 12 Pro Max очень эффективна для сохранения устойчивости снимков и не вызывает артефактов сдвига кадра.

Заключение

Последний флагман Apple полезен перед своим предшественником почти во всех отношениях. Качество изображения очень хорошее, автофокус молниеносный и точный, детализация высокая, а цвета в целом приятные. Apple остается лидером по производительности предварительного просмотра, поэтому то, что вы видите при создании кадра, очень похоже на окончательный результат. Динамический диапазон мог бы быть лучше, но мобильные фотографы в целом должны быть довольны.

Самым слабым звеном этого iPhone является отсутствие возможности длительного масштабирования, чего мы чаще наблюдаем у флагманов конкурентов.Если для вас важен охват, то есть другие телефоны, которые превосходят по этому показателю (но ни один из них не работает под управлением iOS).

Качество видео в целом отличное, чуть ли не лучшее, что мы видели. Широкий динамический диапазон, хорошая цветопередача, низкий уровень шума и эффективная стабилизация делают этот iPhone хорошим выбором для пользователей, которым важны возможности видео.

iPhone 12 Pro Max не разочарует мобильных фотографов, приверженных экосистеме iOS и готовых расстаться с изрядной покупной ценой.

Плюсы
  • Быстрый и точный автофокус
  • Точная экспозиция
  • Приятный теплый баланс белого в помещении и при слабом освещении
  • Высокая детализация при хорошем освещении
  • Широкий динамический диапазон в видео
  • Приятная цветопередача и оттенки кожи в большинстве видеороликов
  • Шум в видео обычно хорошо контролируется.
  • Стабилизация видео эффективна.
Минусы
  • В кадрах динамический диапазон ограничен.
  • На фотографиях часто виден шум, особенно при слабом освещении.
  • Цвет может выглядеть неестественно в сценах HDR.
  • Квантование цвета, ореолы, сдвиг оттенка и звенящие артефакты на фотографиях
  • Нестабильность экспозиции в видео
  • Баланс белого в видео при слабом освещении
  • Артефакты засветки и квантования цвета в видео

Также ознакомьтесь с нашей галереей Apple iPhone 12 Pro Max ниже. В него входят изображения, снятые нашими специалистами в различных ситуациях и режимах съемки, которые вы можете просмотреть и изучить.


я

Выдержка: 1/1225 с

ISO: 32

F-число: f / 1.6

35 мм Эквивалентное фокусное расстояние: 26 мм

я я

Выдержка: 1/7 с

ISO: 2000

F-число: f / 1.6

35 мм Эквивалентное фокусное расстояние: 26 мм

я я

Выдержка: 1/24 с

ISO: 1000

F-число: f / 1.6

35 мм Эквивалентное фокусное расстояние: 26 мм

я я

Выдержка: 1/14 с

ISO: 2000

F-число: f / 1.6

35 мм Эквивалентное фокусное расстояние: 26 мм

я я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я

Режим боке

я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я

Режим боке

я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я

Режим боке

я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я

Режим боке

я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я

Режим боке

я

Выдержка: N.A

ISO: N.A

F-номер: N.A

35 мм Эквивалентное фокусное расстояние: N.A

я

Режим боке

Примечание о форматах изображений для этого обзора: Apple iPhone 12 Pro Max записывает фотографии в цветовом пространстве DCI-P3, которое также использует дисплеи Apple.DCI-P3 новее и больше, чем цветовое пространство sRGB, используемое большинством устройств. Поэтому, чтобы изображения, которые мы использовали в обзоре, правильно отображались в самых разных браузерах и устройствах, мы преобразовали оригиналы из DCI-P3 в sRGB. В некоторых случаях это может немного снизить насыщенность цвета по сравнению с тем, что вы бы увидели при просмотре исходных изображений на дисплее с калибровкой DCI-P3 с соответствующим программным обеспечением. Мы также захватили исходные изображения с использованием нового HEIF (высокоэффективного формата изображений), но затем преобразовали их в очень высококачественные файлы JPEG для просмотра в стандартных браузерах и программах для редактирования изображений.(HEIF очень похож на JPEG, но обеспечивает лучшее сжатие для аналогичного качества изображения, поэтому при преобразовании размер файла образца изображения больше, чем он был при съемке.)

Мы загрузили HDR-видео iPhone 12 Pro Max, в которых используется технология Dolby Vision 8.4, на YouTube без изменений. Мы рекомендуем смотреть их на совместимом дисплее, чтобы получить наилучшие впечатления. При этом обработка YouTube может изменить качество видео, которое находится вне нашего контроля.


Видео


В прессе

Схема таблицы камер — ArcGIS Pro | Документация

ObjectID

Обязательно

Числовой

Уникальный идентификатор номера для каждой камеры.

CameraID

Обязательно

Строка

Первичный ключ, определяющий параметры камеры.

FocalLength

Обязательно

Числовое

Фокусное расстояние объектива камеры, измеренное в микронах.

PrincipalX

Дополнительно

Числовой

Координата X главной точки автоколлимации, измеренная в микронах.Если не определено, значение по умолчанию — 0.

Основная точка — это смещение между исходным центром и главной точкой автоколлимации (PPA). Предполагается, что главная точка симметрии (PPS) такая же, как и PPA.

Основные Y

Дополнительно

Числовые

Координата Y главной точки автоколлимации, измеренная в микронах. Если не определено, значение по умолчанию — 0.

Основная точка — это смещение между реперным центром и PPA. Предполагается, что PPS совпадает с PPA.

BlockName

Необязательно

Строка

Имя блока (проекта), в котором находится изображение.

NRows

Необязательно

Числовой

Количество строк пикселей в изображении.

NColumns

Необязательно

Числовой

Число столбцов пикселей в изображении.

NBands

Необязательно

Числовой

Количество полос пикселей в изображении.

PixelType

Необязательно

Числовой или Строка

Тип пикселя для изображения в виде числового значения, соответствующего rstPixelType или соответствующей строки.

Числовое значение, соответствующее rstPixelType: PT_U1 = 0, PT_U2 = 1, PT_U4 = 2, PT_UCHAR = 3, PT_CHAR = 4, PT_USHORT = 5, PT_SHORT = 6, PT_ULONG = 7, PT_LONG = 8, = PT_LONG = 8, = PTFF PT_DOUBLE = 10, PT_COMPLEX = 11, PT_DCOMPLEX = 12, PT_CSHORT = 12, PT_CLONG = 14.

Строка соответствия: 8_BIT_UNSIGNED, 8_BIT_SIGNED, 16_BIT_UNSIGNED, 16_BIT_SIGNED, 32_BIT_UNSIGNED, 32_BIT_SIGNED, 32_BIT_FLOAT, 1_BIT_ 4_BIT.

PixelSize

Дополнительно

Числовой

Размер пикселя датчика.

Единица микрон.

FilmCoordinateSystem (FCS)

Необязательно

Integer

Определяет пленочную систему координат отсканированного аэрофотоснимка и цифровой аэрофотосъемки. Он используется для вычисления реперной информации и построения аффинного преобразования.

Обычная практика использования корпуса цифровой аэрофотосъемки заключается в том, что X камеры совмещен с направление полета (вариант 1, X_RIGHT_Y_UP, по умолчанию).FCS используется для размещения не стандартные кейсы.

  • 1 — X_RIGHT_Y_UP, где начало системы координат отсканированной фотографии является центром, а положительный X указывает вправо, а положительный Y указывает вверх. Это значение по умолчанию.
  • 2 — X_UP_Y_LEFT, где начало системы координат отсканированной фотографии является центром, а положительная точка X указывает вверх, а положительная точка Y — влево.
  • 3 — X_LEFT_Y_DOWN, где начало системы координат отсканированной фотографии является центром, а положительная точка X указывает влево, а положительная точка Y — вниз.
  • 4 — X_DOWN_Y_RIGHT, где начало системы координат отсканированной фотографии является центром, положительное значение X указывает вниз, а положительное значение Y — вправо.

SRS

Необязательно

Строка

Система координат, связанная с точкой перспективы как путь к файлу или WKID (код EPSG). Для кода EPSG системы координат для x, y и z разделены точкой с запятой (;), например 26918; 5773.Если не определено, по умолчанию используется указанная пользователем система координат или система координат, определенная в пространственной привязке данных мозаики. Пространственная привязка также может быть определена для каждого элемента изображения в наборе данных мозаики. Если параметр SRS определен как в таблице камер, так и в таблице кадров, значение в таблице кадров будет иметь приоритет.

OrientationType

Необязательно

Строка

Определяет способ описания параметров внешней ориентации вращения (EO).По умолчанию — OPK.

OPK — указывает, что параметры вращательного EO определены как углы в полях Omega, Phi, Kappa, Angle Direction и Polarity.

Матрица — указывает, что параметры вращения EO определены как матрица из девяти коэффициентов в поле «Матрица».

AverageZ

Дополнительно

Числовой

Средняя высота земли.По умолчанию используется значение, указанное в свойствах ортотрансформирования типа растра, или ноль, если оно не указано.

ApplyECC

Необязательно

Boolean

Указывает, следует ли учитывать кривизну земли при применении преобразований относительно координат земли. По умолчанию — ЛОЖЬ.

True — учитывает кривизну земли при применении преобразований относительно наземных координат.

Неверно. Предполагается, что Земля плоская.

EarthRadius

Необязательно

Числовое

Альтернативное значение, используемое для кривизны выравнивания земли. Значение по умолчанию — 6378137,0 метров.

Единицы измерения — метры.

AngleDirection

Необязательно

String

Задает направление углов EO.Значение по умолчанию -1.

-1: указывает, что углы EO указаны по часовой стрелке.

+1: указывает, что углы EO указаны в направлении против часовой стрелки.

Полярность

Необязательно

Числовой

Указывает, находится ли плоскость изображения на той же или на противоположной стороне центра перспективы, что и объект или плоскость земли.По умолчанию — 1, что является противоположной стороной.

-1: указывает противоположную сторону плоскости изображения.

+1: указывает на ту же сторону плоскости изображения.

Тип искажения

Необязательно

Строка

Определяет способ описания искажения объектива. По умолчанию — DistortionModel.

По умолчанию используется модель искажения.

Модель искажения — указывает, что коррекция искажения описывается коэффициентами, определенными в полях Радиальный и Тангенциальный.

Таблица искажений — указывает, что искажение определяется как набор пар (r, v), указывающих радиальное расстояние и соответствующее значение искажения. Радиальные расстояния и радиальные искажения. поля должны быть заполнены.

Radial

Для типа искажения = DistortionModel

String

Задает набор из четырех разделенных пробелом или точкой с запятой коэффициентов, описывающих радиальное искажение, например 0; 0; 0; 0; 0; 0; 0; 0 для K0; K 1 ; K 2 ; K 3 .

Tangential

Для типа искажения = DistortionModel

String

Задает набор из двух разделенных пробелом или точкой с запятой тангенциальных коэффициентов искажения6 0, например, для 9364 0 1 ; P 2 .

RadialDistances

Дополнительно

String

Радиальные расстояния, разделенные пробелом или точкой с запятой, указываются в виде упорядоченного набора значений N .Каждому значению расстояния r [i] соответствует соответствующее значение искажения d [i] в ​​поле RadialDistortions.

Единица измерения микрометры.

Радиальные искажения

Необязательно

Строка

Значения искажения, разделенные пробелом или точкой с запятой, отображаются в виде упорядоченного набора значений N . Каждое значение искажения d [i] соответствует значению расстояния r [i] в ​​поле RadialDistance.

Единица измерения микрометры.

FilmFiducials

Необязательно

Числовые

Сохраняет исходные координаты камеры в микронах.

Формат представляет собой пары значений, разделенные точкой с запятой, например, «106003.0 -106000.0; -105997.0 -106001.0; -106002.0 105998.0; 105999.0 106000.0».

В этом примере показаны четыре угловых реперных точки, тогда как некоторые камеры могут иметь четыре краевых реперных точки, в то время как другие камеры могут иметь 8 реперных точек.

AffineDirection

Необязательно

Строка

Задает направление аффинного преобразования ввода-вывода. Если не указано, предполагается, что по умолчанию используется направление от изображения к фильму (+1).

+1: изображение на пленку.

-1: преобразование пленки в изображение.

Поля A0, A1, A2 и B0, B1, B2

Необязательно.Не требуется, если задан размер пикселя.

Числовой

Коэффициент аффинного преобразования, который устанавливает взаимосвязь между пространством изображения и пространством фильма.

Размеры матриц видеокамер таблица: Видеонаблюдение

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Пролистать наверх