Мегапиксели

ник ищется
А не подскажет ли кто: при устанонвке разрешения (скажем на сони а65, т.к. юзаю её) 6 мп вместо 24, как происходит формирование одного пиксела будущего изображения? Методом объединения информации с соседних четырех ячеек или определенные пиксели просто тупо не участвуют в процессе съемки?
0
NК
От пользователя mail_administrator
А если я, на кропнутый аппарат одену широкоугольную насадку, он станет полнокадровым?


да :-)
есть Speed Booster от Metabones ;-) -- "превращает" кроп NEX в FF да еще светосилу на 1 стоп подгоняет :cool:

[Сообщение изменено пользователем 14.05.2014 12:48]
0 / 1
dimasin
От пользователя
есть Speed Booster от Metabones ;-) -- "превращает" кроп NEX в FF да еще светосилу на 1 стоп подгоняет :cool:

А если сразу два, ваще убойная весчь :lol:
0
mail_administrator
От пользователя
Speed buster

Я не про это. Я про насадку перед Вашим кропнутым стеклышком :-D
0
dimasin
От пользователя j-one
Задам нубский вопрос. Вот раньше были матрицы 6-10мегапикселей. Часто на форумах их называют "жирными" почему- понятно. Вопрос если у меня сейчас 16 мегапиксельная камера и я переведу ее в режим 6 мегапикселей, станет ли у меня тот самый " жирный" пиксель, или ничего, кроме размера снимка не изменится? Я конечно и сам попробую поэкспериментировать, но тк глаз еще не наметан могу тонкости и не разглядеть сразу. :-D

Что то я не припомню такой кнопки, возможно, что это связано с качеством сжатия в jpeg, но лучше посмотреть в инструкции что бы это могло значить.
Вообще, все что связано с матрицами дело темное. Объединение нескольких маленьких пикселей в один "жирный" было бы возможно в черно/белых матрицах. А в тех матрицах, что у нас в аппаратах, пиксели, к сожалению, уже объединены.
Из тех 16М что у Вас примерно 4М красных, 4М синих и 8М зеленых пикселей. Поэтому, чтобы получить 16М цветных, соседние пиксели объединяют. Если после такой обработки объединить сигналы с соседних точек кадра, то никакого прироста сигнала не произойдет. Точнее будет сказать, что не произойдет прироста отношения сигнал/шум, т.к. шум соседних пикселей зависим (коррелирован) и будет складываться так же, как и полезный сигнал.
Шум каждого пикселя матрицы в отдельности, в первом приближении, можно считать независимым. Но после того, как из них был получен суммарный цвет для каждой из 16М точек цветного кадра, где каждая точка на самом деле содержит сигнал (и шум) соседних пикселей матрицы, шум в соседних точках кадра уже не будет независимым, так как один и тот же пиксель матрицы будет участвовать в создании соседних точек кадра.
В гипотетической черно/белой матрице каждый пиксель со своим сигналом и случайным шумом соответствовал бы одной точке в кадре. Поэтому объединение сигналов (и шумов) с соседних пикселей дало бы прирост соотношения сигнал/шум за счет усреднения шума.
2 / 1
dimasin
От пользователя mail_administrator
Я не про это. Я про насадку перед Вашим кропнутым стеклышком :-D

Чтобы не заморачиваться, используйте всегда только полно кадровую оптику :lol:
0
Net_Diver
От пользователя dimasin
А в тех матрицах, что у нас в аппаратах, пиксели, к сожалению, уже объединены.

Простите, не могли бы вы уточнить где именно, по Вашему мнению, происходит сие "усреднение" и по какому конкретно алгоритму? :beach:
0
dimasin
От пользователя Net_Diver
Простите, не могли бы вы уточнить где именно, по Вашему мнению, происходит сие "усреднение" и по какому конкретно алгоритму?


http://ru.wikipedia.org/wiki/%D4%E8%EB%FC%F2%F0_%C...
1 / 0
Dos Deviants
[Сообщение удалено пользователем 24.12.2014 17:39]
0
Давным давно, года два назад. Фотографировал микроскопом матрицу в 10мп. И 20 МП.
Визуально пиксели одинаковые. Расстояние между пикселями разное. Можно попробовать повторить эксперимент, если микроскоп отрою.

По вопросу уменьшения размера.
В фотоаппаратах Кэнон пиксели отключаются линиями.
Как это осуществляется технически - незнаю. Инфу об этом видел в презентации Кэнон года 3-4 назад.
0
dimasin
От пользователя Perfecto R
И все-таки там нет ответа на вопрос: как в современных камерах происходит формирование одного пиксела изображения при уменьшении разрешения.

Разрешения чего? Если Вы имеете в виду конечный jpeg, то матрица тут не причем, разрешение уменьшается алгоритмами сжатия jpeg. Можете сами нагуглить, если интересует. О матрице стоит говорить если у Вас есть в фотоаппарате фича изменения размеров RAW. Лично я таких фотоаппаратов не встречал.
0
Harwest
От пользователя dimasin
О матрице стоит говорить если у Вас есть в фотоаппарате фича изменения размеров RAW. Лично я таких фотоаппаратов не встречал.

Например Canon 50D три разрешения: RAW, sRAW1, sRAW2
1 / 1
dimasin
От пользователя Harwest
Например Canon 50D три разрешения: RAW, sRAW1, sRAW2

Вот, тут что то есть: http://prometej-photo.ru/publ/article/vrednye_piks...
Но, как я понимаю, алгоритм получения RAW меньшего разрешения производитель не раскрывает. Ну и еще вопрос интересный, как сравнивать RAW разных разрешений? Растягивать RAW меньшего разрешения или сжимать RAW большего разрешения будет неправильно. Поскольку и в том и другом случае один из них будет преобразован. Ставить два одинаковых монитора на разном расстоянии, чтобы при наблюдении из одной точки размеры картинки обоих RAW были одинаковы?
1 / 0
Net_Diver
От пользователя dimasin
А в тех матрицах, что у нас в аппаратах, пиксели, к сожалению, уже объединены.


От пользователя Net_Diver
Простите, не могли бы вы уточнить где именно, по Вашему мнению, происходит сие "усреднение" и по какому конкретно алгоритму?


От пользователя dimasin
http://ru.wikipedia.org/wiki/%D4%E8%EB%FC%F2%F0_%C...


Вы это прочитали? Собственно то, что там написано и противоречит вашему утверждению, о том что в Ваших аппаратах "пиксели, к сожалению, уже объединены". :-D

А вот здесь, собственно ответы на все вопросы.
От пользователя dimasin
Вот, тут что то есть: http://prometej-photo.ru/publ/article/vrednye_piks...
Но, как я понимаю, алгоритм получения RAW меньшего разрешения производитель не раскрывает.

А какая разница? Чудес не будет. Разве не логично снимать в максимальном разрешении RAW для Canon (для меня открытие, что такое бывает), или несжатом(сжатом без потерь) RAW для Nikon, а потом при "проявке" выбирать метод демозаики в зависимости от того, что хочется получить на выходе из этого конкретного негатива ???
Память по нынешним временам не настолько дорога, чтобы её требовалось экономить.
Что ещё против такого подхода? Время?
Если речь о работе, где время - деньги, то аргумент серьёзный. Если же речь о фото как о хобби, то можно себе позволить получать максимальное качество из возможного на текущем стекле и железе.

Цитата из статьи, ссылку на которую Вы привели:
"А вот с точки зрения печати и превью для просмотра (особенно при сильном кадрировании уже снятой карточки) в ход пойдут те самые мегапиксели, которые дадут тем больше свободы для получения качественного снимка, чем их изначально больше. Это касается как шумов, так и резкости."

Не так уж много и изменилось со времени этой публикации, разве что матрицами в 36Мп теперь никого не удивишь, память стала дешевле, да комп уже требуется совсем серьёзный под работу с такими объёмами.
0
dimasin
От пользователя Net_Diver
Вы это прочитали? Собственно то, что там написано и противоречит вашему утверждению, о том что в Ваших аппаратах "пиксели, к сожалению, уже объединены". :-D

Цитирую: " И только 4 предметных точки, рядом расположенных и спроецированных объективом на блок пикселей RGGB, приближенно формируют полный набор RGB 1-й усредненной предметной точки. Далее, процессор камеры должен, используя специальные математические методы интерполяции, рассчитать для каждой точки недостающие цветовые составляющие."
Откуда "процессор камеры" должен взять недостающие данные о недостающих цветовых составляющих? Он может их взять только из соседних пикселей нужного цвета и интерполировать из них недостающий цвет для текущего пикселя. Это по сути и есть объединение соседних пикселей.
0
Net_Diver
От пользователя dimasin
интерполировать из них недостающий цвет для текущего пикселя. Это по сути и есть объединение соседних пикселей.

1. "Процессор камеры" или компьютера на котором обрабатывается сырой слепок состояния матрицы записанный в RAW формате могут использовать и используют не тупое усреднение, а более хитрую математику.
2. Алгоритмы дебайеризации могут быть разными, в том числе и такие, которые считают значения соседних одноцветных пикселей суммированно.
3. То что с Canon можно получать RAW разного разрешения, это скорее всего аппаратные фокусы типа чтения через строчку.
0
dimasin
От пользователя Net_Diver
1. "Процессор камеры" или компьютера на котором обрабатывается сырой слепок состояния матрицы записанный в RAW формате могут использовать и используют не тупое усреднение, а более хитрую математику.
2. Алгоритмы дебайеризации могут быть разными, в том числе и такие, которые считают значения соседних одноцветных пикселей суммированно.
3. То что с Canon можно получать RAW разного разрешения, это скорее всего аппаратные фокусы типа чтения через строчку.

Это все не имеет значения, потому что какие бы ухищрения не использовал процессор, в результирующем RAW шум в соседних пикселях будет коррелирован. Именно поэтому будет неэффективно сложение сигнала соседних пикселей RAW файла для повышения соотношения сигнал/шум. Другое дело использование режима с уменьшением количества пикселей в исходном RAW. В этом случае, возможно и есть некий прирост соотношения сигнал/шум, но судя по приведенным выше ссылкам этот прирост настолько незначителен, что может быть получен более совершенными алгоритмами подавления шума при сохранении исходного разрешения RAW.
0
Harwest
Интересно было бы провести эксперимент со съемкой очень мелкой черно-белой сетки на пределе разрешающей способности объектива и матрицы. При съемке менять только 1 параметр - размер RAW.
0
Net_Diver
От пользователя dimasin
в результирующем RAW шум в соседних пикселях будет коррелирован

Откуда следует это утверждение?
Откуда вообще понятие какого то "результирующего" и "исходного" RAW?
В RAW содержится 4-монохромных канала RGGB, сдвинутых друг, относительно друга на пиксель. О каком усреднении вы продолжаете речь?
При демозаике вполне реально можно посчитать за один, 4 ближайших пикселя одного цвета. Физически, это ни что иное как увеличение суммарной площади фотоприёмника в 4 раза. Получится лучше соотношение сигнал/шум, при меньшем в те же 4 раза разрешении. Не то ли это самое, о чём плачут желающие жирного пикселя?
По сравнению с обработкой шумодавом мелких пикселей с последующим ресайзом выигрыша не получится, но эффект от такого алгоритма демозаики есть. Массово применяемые методы сложнее и дают больший эффект. Паровоз изобретён давненько.
Итого, мелкий пиксель современных матриц вполне себе обоснованное решение, а не просто "маркетинговая уловка", как это модно и глупо утверждать.

[Сообщение изменено пользователем 26.05.2014 05:27]
0
dimasin
От пользователя Net_Diver
Откуда следует это утверждение?
Откуда вообще понятие какого то "результирующего" и "исходного" RAW?

"Исходный" RAW - это сигнал, взятый непосредственно с матрицы. Есть матрица, допустим 16 млн. пикселей, из них 4 млн. пикселей покрыто красным светофильтром, 4 млн. синим и 8 млн. зеленым. На выходе, после обработки получается 16 млн. пиксельный RAW, в котором каждый пиксель содержит уже не один, а три цвета. Откуда берутся недостающие цвета? Они получаются путем сложнейшей интерполяции, алгоритм которой производитель не раскрывает. Но суть в том, что какой бы сложный алгоритм не был в результирующем пикселе RAW файла содержится комбинация сигналов и шума соседних пикселей. Отсюда и мой вывод о корреляции шума в соседних пикселях.
От пользователя Net_Diver
При демозаике вполне реально можно посчитать за один, 4 ближайших пикселя одного цвета. Физически, это ни что иное как увеличение суммарной площади фотоприёмника в 4 раза. Получится лучше соотношение сигнал/шум, при меньшем в те же 4 раза разрешении. Не то ли это самое, о чём плачут желающие жирного пикселя?

Очень возможно, что как раз таким образом в некоторых фотоаппаратах и формируется RAW с меньшим разрешением.
0 / 1
Онаним
Люблю креативных людей, которые вместо того, чтобы прочитать полстранички, выдумывают такие интересные сюжеты про секретные алгоритмы и результирующие RAW.
1 / 0
dimasin
От пользователя Онаним
Люблю креативных людей, которые вместо того, чтобы прочитать полстранички, выдумывают такие интересные сюжеты про секретные алгоритмы и результирующие RAW.

Если у Вас есть какая либо информация о том как именно в фотокамерах Canon получаются файлы RAW с различным разрешением, поделитесь.
0
Онаним
От пользователя dimasin
Если у Вас есть какая либо информация о том как именно в фотокамерах Canon получаются файлы RAW с различным разрешением, поделитесь.


http://blog.lexa.ru/2013/07/14/pro_sraw.html
0
dimasin
От пользователя Онаним
http://blog.lexa.ru/2013/07/14/pro_sraw.html

Ну так и я об этом же и говорю, "результирующий" RAW, тот, что записан у Вас на карту памяти, в одном пикселе содержит три цветовые составляющие (или яркостный сигнал и две цветоразностные компоненты, разницы нет, поскольку одно из другого получается линейной комбинацией составляющих), а "исходный", т.е. то, что по идее должен получать процессор фотокамеры, должен содержать только по одной цветовой составляющей на один пиксель результирующего RAW. Это не так только для матриц Foveon http://ru.wikipedia.org/wiki/Foveon_X3
Предполагается, что недостающие цвета получаются при помощи интерполяции из соседних пикселей. Каков алгоритм этой интерполяции, вопрос, но на мой взгляд, в фотокамерах где перед матрицей установлен размывающий фильтр, особенно не заморачиваются. Т.е. недостающие цвета получают методом это простой линейной интерполяции недостающих цветов соседних пикселей, но Net_Diver считает что там используется " более хитрая математика".

[Сообщение изменено пользователем 26.05.2014 13:13]

[Сообщение изменено пользователем 26.05.2014 13:14]
0
Valj2005
странные дебаты вообще)) в никоне размер кадра и на jpeg и на raw задается одним дейтсвием. следовательно, рав получается такием же алгоритмом как и джипег. и внимание! производители пишут САМИ, что этот параметр влияет только на РАЗМЕР файла и возможный отпечаток (в точках).

так что придумывать, что включи в 50д пол-матрицы и пиксили начнут дружно обниматься, усреднять сигнал друг друга, уменьшать шумы, а производитель не сном не духом... не, не возможно!

да и как вы себе представляете физику процесса? в пленке светочуствительная частица крупнее, получает 1 единицу информации. тут обединим 2 физические сущности, которые должны получить одну единицу информации и ОДИНАКОВО ее интерпретировать. это не возможно! следовательно 3 варианта: 1 - половина пикселей просто отключается, оставаясь при этом мелкими точечками, 2: информация с пар пикселей усредняеется, 3: половина пикселей просто игнорируется.

в каком случае пиксель "ужирняется"? ни в каком. вывод: размер в пикселях вляет только на РАЗМЕР файла и возможный отпечаток (в точках)
0 / 3
Авторизуйтесь, чтобы принять участие в дискуссии.