« 2020年4月 | トップページ | 2020年6月 »
映像制作の世界でよく話題になるLUT。
ラットと発音することが多い。
LUT = Look Up Tableのことで、
もともとはプログラミングで使われていた手法です。
ものすごく簡単な例
以下のような入出力関数があったとします。
y = log2(3x^3 + 1000/x)
画像の各画素ごとにこの計算をする必要があるならば
800万画素の場合、毎フレーム上記の式の計算を800万回行う必要があります。
例えば画像データだと、xの取りうる値は0-255の整数なので、
あらかじめ計算した値を表に入れておけば、
参照するだけで済むので処理量を削減することができます。
プログラミング的な使い方は処理量の削減ですが、
画像処理的にはトーンカーブが一種のLUTです。
画像左:トーンカーブ適用前
画像右:中央にあるRGBのトーンカーブを適用
トーンカーブは入出力が1:1の1次元なので1DLUTです。
トーンカーブで変更できるのは輝度だけなので、色相や彩度は変更不可能。
これに対して、入力が(R,G,B)の3つ、
出力も(R,G,B)の3つなのが3DLUTです。
これであれば、青空を暗めの赤にするなど自由自在。
実際に画像処理をする際には、3次元だと
人間の感覚的に扱うのが難しいので、彩度、色相、輝度
の3つそれぞれで扱うことが多いです。
AdobeCameraRAWやLightroomだとこの部分で操作
RGBそれぞれの値を数値で変化させるわけではなく、
色の種類ごとに色相・彩度・輝度を変化させます。
写真で撮ると白のLEDが青紫っぽく、
緑のLEDが黄色っぽく写ってしまっています。
そこでパラメータを以下のように変更しました。
黄色と緑の色相をより緑っぽく、
青と紫の彩度を下げています。
この例では微細な変化ですが、
大きく変化させることで
写真や映像の印象を一気に変えることもできます。
だいぶ前に、
ペンタックスQを色々いじっていたときに遊んでいたコボーグ。
|
カメラレンズと同じようなスペックで言うと
2群2枚の200mm F5.6のレンズです。
口径36mmのアポクロマート設計。
カメラに付けるときには、接眼レンズを用いず
望遠鏡の鏡筒を直接マウントにつけます。
望遠鏡で天体を見るときには接眼レンズを使用します。
人間の目もレンズなので、それを含めて網膜に像を結像させる。
接眼レンズの焦点距離は5mm-40mm位です。
望遠鏡の倍率は
対物レンズの焦点距離/接眼レンズの焦点距離
で求められます。
200mmのコボーグに5mmの接眼レンズを付けると倍率は40倍。
目での見かけの大きさは、対象の天体に1/40近づいたときと同じように見えます。
地球と月の距離は大体38万Kmなので、
このシステムで月を見ると、月から9500kmの距離で見たのと同じ大きさになります。
接眼レンズを付けた状態で、スマホのカメラで像を撮影することができます。
iPhoneのレンズの35mm換算焦点距離は28mm
なので、40倍すると、1120mm相当です。
この撮影方法はiPhoneのピントを無限遠に合わせるのでコリメート法といわれる。
ちなみにペンタックスQで200mm直焦点で撮影すると換算焦点距離は920mm。
40倍のコリメート法より月が少し小さく映っている。
シグマの一眼などに使われているフォビオンセンサは
縦分離で色情報を得る特殊なセンサです。
上の図で、左側が多くのカメラで使われている
ベイヤ配列のセンサです。
各画素にRGBそれぞれのカラーフィルタがあり
それにより色情報を得ています。
RGBの三原色からフルカラーを得るために
補間という方法が使われます。
フォビオンセンサは図でいうとZ方向に色を分離するので
縦分離型と呼ばれることがあります。
縦分離とはどういうことかというと、
光の波長ごとの特性を利用して色を分離する仕組みです。
波長の長い光ほど、
撮像素子面(シリコン)の奥の方まで入っていきます。
これは、太陽が頭上にある昼間は
通過する空気層が薄いので青い光まで地上に届く、
夕方になると、通過する空気層が多くなるので赤い光だけ届く、
という自然現象と同じです。
センサの各層を
Top,Middle,Bottomとします。
Top層はRGBすべての光が入ってきます。
Middle層はRGの光のみ。
Bottom層はRの光のみ入ってきます。
Rの信号を得るにはBottom層の情報を用いれば良い。
Gの信号を得るためには、(M - B)で得られます。
Bの信号は(T - M)で得ることができます。
このようにして補間をすることなく各画素で
RGBのフルカラーの情報を得ることができます。
ただし、その構造上、
色分離が悪かったり、高感度に弱いなどの弱点もあります。
また、カメラで使われる画像処理エンジン
(最近はDSP = DigitalSignal Processor)は汎用のものは
ベイヤー配列の補間を行う専用回路が組み込まれています。
そのため、高速に補間が行えるのですが
フォビオンのようなセンサの出力は扱いづらい。
場合によっては一度、画像をベイヤ配列に並べ替えて
そこから画像を作っていく必要も出てきます。
最近のコメント