2022年5月
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        
無料ブログはココログ

« 2021年10月 | トップページ | 2021年12月 »

2021年11月

2021年11月30日 (火)

・撮像素子とは

このブログの記事カテゴリに「撮像素子関連」というものがあるが
そもそも撮像素子について詳しく説明している記事がありませんでした。

撮像素子とはその名前の通り、
フィルムに変わり、光による像を映して電気信号へと変換する素子です。
センサーとかCCDとかCMOSとか記載することもありますが、
それは実は正確ではありません。
センサーは、単に外部の情報を収集する装置のことだし、
CCDやCMOSは回路の種類の名前です。

撮像素子は、複数のフォトダイオードが
碁盤の目状にずらっと並んでいます。
このフォトダイオードの数が画素数。

Image-3

フォトダイオードの詳しい仕組みはここでは説明しませんが、
基本的には光が当たると電荷が貯まります。
強い光ほどたくさん電荷が貯まります。

 

CCDとはこの貯まった電荷を伝送する素子の名前。
下の図の緑の部分がCCD、オレンジが光電変換素子です
青がトランスファーゲート

Image-1

フォトダイオードにたまった電荷がゲートを通り最初のCCDに移ります。
次に隣のCCDに電圧をかけることで電荷が移動します。
これを繰り返すことで、電荷を運んでいきます。

Image-2

下の図のような16x16画素のCCDイメージャに像が投影された時を考えます。
17_20211130180901

白いところほど明るく、電荷がたくさんたまります。
電荷は白い丸で表しています。

下のアニメーションのように、
縦のCCDと横のCCDをうまく使って電荷を伝送していきます。
最後の出力部分でアンプとAD変換が行われてデジタルデータになります。

 

これを見るとわかりますが、すべての画素の電荷が同時にCCDに移されるので
ローリング歪みは発生しません。グローバルシャッターです。
ただし、電荷の転送の間は露光できなかったり、
電荷の伝送に電圧をかけるので電力が大きかったり制約があるので、
ライブビューや動画撮影は難しいという欠点があります。

Image-1_20211130180901


最近ほとんどのカメラで使われているCMOSは
以下の図のようになっています。

Image-5

緑の部分がCMOSです。
CMOSイメージャでの電荷読み出しは
行選択回路と列選択回路で座標を指定して行われます。
Image-6
赤いところを読み出し。
順番に指定して読み出ししていくので、ローリング歪みが生じます。
また、CCDに比べると、
フォトダイオードの周りに回路が沢山ついているのがわかります。
これによって、フォトダイオードの位置が井戸底のようになって
感度が下がってしまいます。

また、アンプがCCDでは出力の手前に一つついているのに対して
CMOSでは各画素についています。
これによりアンプの画素ごとのバラツキがノイズにつながります。

こんな感じで原理的にはCMOSのほうが高感度に弱いのですが、
最近はマイクロレンズの最適化、裏面照射、など
様々な技術を用いることでCCDよりも高感度を実現しています。

CCDで様々な技術を用いて高感度化させればいいと思うかもしれませんが、
CCDは特殊なプロセスで製造されるため、専用工場が必要になってしまいます。
なので流用が効きやすいCMOSのほうに投資されたという背景があります。

 


style="display:block"
data-ad-client="ca-pub-9933859295183410"
data-ad-slot="8984069502"
data-ad-format="auto"
data-full-width-responsive="true">

2021年11月25日 (木)

・半導体不足

世界的な半導体不足がカメラにも影響してきました。
各社が製品の供給不足でお届けまで時間がかかる、
となっています。

これまでに車の納車が遅れるだとかいろいろニュースになっていましたが
ついにソニーも特定機種のカメラの受注ができないという状態に。

半導体は、電化製品にはもれなく使われています。
何かを制御するには半導体が必要。

Resize180135
100均のLEDライト。
これも、ライトの点滅モードとか制御するのにつかわれている。

不足の一番の原因はコロナ。
世界各地でロックダウンが起きたりして、
半導体工場が稼働できなかったり、材料が入ってこなかったりしました。
物流も混乱していて、それによる調達問題も生じています。
また、コロナによってPCやゲームの需要が一気に増えたことも原因です。

カメラ関係の半導体だと2020年に起きた旭化成の工場の火災も大きい。
ナノオーダープロセスの半導体工場だと、空気中のわずかなホコリも製品に影響してしまうので
クリーンルーム内で作られていたりするので
工場を再度立ち上げるのにも非常に時間がかかります。

半導体を作る設備のパーツすら不足している状態。
この状況がいつまで続くかは専門家でも意見が分かれている状態です。

2021年11月17日 (水)

・アストロトレーサー × インターバル撮影

星空撮影では画像重ね合わせでノイズリダクションをするのが
最近の常套手段です。

この手法の利点は、一枚一枚の撮影の露光時間を短くできるので、
風などでぶれたコマを除外したり、
赤道儀の追尾制度が多少悪くてもOK
等があります。
シャッター速度を短くする分、感度を上げる必要がありますが
そこは重ね合わせでカバー。

アストロトレーサーを使うと、天体追尾できますが
望遠だとあまり追尾時間を長くできません。
200mmでも設定上、60秒くらいは追尾できますが
実際に精度よく追尾できるのは20-30秒くらいが限界。

Resize180131 

また、超広角で風景を入れて撮影すると、
レンズの歪みの影響で、周辺は星が流れてしまいます。

Resize180132
右上の星が放射方向に流れている。

これらの問題解決のために、複数枚撮影してコンポジットは
とても有効です。

しかし、アストロトレーサーを使用しているときは
インターバル撮影設定ができない。
毎回シャッターボタンを押すのは面倒くさいので
外部のインターバル機能付きレリーズを使用するのが楽。


 

レリーズケーブルがつけられる機種なら
これを購入すればOK。
設定は撮影間隔を1秒にすれば
露光終了から一秒以内で次のシャッターが切れます。

レリーズケーブルがつけられないエントリーモデルとかだと
ちょっと面倒くさい。

純正赤外線リモコンだとインターバル設定ができないので
それ用の装置を購入する必要があります。

ここで販売しているリモコンを購入。

電源はUSB-microのモバイルバッテリーが必要なので
カードタイプのものを購入して張り付けてあります。

Resize180127


 

これをカメラのリモコン赤外線受光窓近くに設置するのが難しい。
私は苦肉の策として以下の方法で付けています。

Resize180128

まず、100均でちょうどいいサイズのケースを購入。
ここにパテを盛って、斜めの面を作って
そこに面ファスナーを張り付け。

カメラ側にも面ファスナー(やわらかいほう)を張ってしまっています。
Resize180129

カメラとリモコンを取り付けた様子
Resize180130

かなりかっこ悪いですが、天体用と割り切って使うしかない。

2021年11月10日 (水)

・AIは万能ではない

最近は、AI(DeepLearning)を使えばこんなに凄いことができる
みたいな記事をいくつか書きました。

しかし、何かをやるときにAIを使うのが楽かというと、そうではありません。
AIにも弱点があります。

まず、学習させるためのデータセットを集めるのが大変。
例えば顔検出器を作る場合は、大量の顔データが必要になります。
ネット上に顔が写った写真はいくらでもありますが、
勝手に使うと肖像権や個人情報の問題が生じます。

権利が問題ない画像データを集め、
また、顔位置がどこにあるか、というラベル付け作業も生じます。

Dl-2

GoogleやFaceBookのようにすでに利用可能なデータをたくさん持っている会社は強い。

また、AIを使うと何か想像以上のことができる、というのは間違いです。
人間が認識できないことはできません。

Dl-1
深度推定ネットワークの出力結果
上側のシーンのように、人間が見て手前と奥がわかる写真なら
推定も正しくできています。
しかし、下の写真のように、手前と奥が人間でもわかりにくいシーンだと
AIもわからない。

AIができるのは、特徴量やパターンを認識して、それを識別することです。
写真を見て、
「この写真は300mmくらいの望遠でとられているな」と判断できれば
その画像に何らかの特徴量があるので、
AIもそれを識別して焦点距離算出することはできる。

 

AIを使えば確実に解ける問題でも、何でもかんでもAIを使う必要もありません。
AIを使うことが目的になってはいけない。
求める性能にもよりますが、従来のアルゴリズムベース(ルールベース)
十分に解ける問題であれば、わざわざAIにする必要もない。
学習データを集めるのも大変だし。

例えばライブカメラ映像から天気を判断する問題であれば、
空領域が水色だったら晴れ、白かったら曇り、という簡単なルールでいい。

2021年11月 4日 (木)

・スマホのマクロ撮影はなぜ超広角レンズで行うのか

iPhone13でついにマクロ撮影に対応しました。

 

最近のハイエンドスマホでは、
広角(メインカメラ-センササイズ大きい24mm相当)
超広角(16mm相当-センササイズはメインより小さい)
望遠(50mm相当-F値が暗いことが多い)
の3眼構成になっていることが多いです。

iPhone13proも同様にこのような構成になっています。
マクロ撮影ができるのは、一番性能の良い広角ではなく超広角です。

一眼性能の良い広角レンズではなく、超広角で行っているのには
いくつか理由が考えられます。


1:超広角だと被写界深度が深い

焦点距離が短くなるほど、被写界深度が深くなります。
そうすると、ピント合わせも楽になります。
オートフォーカスでも、マクロ撮影となると
スキャン範囲が広くなり、フォーカスが遅くなりがちですが
被写界深度が深ければそれほど精度を求めずに
高速にフォーカシングすることができます。


2:超広角のほうがレンズの厚みを減らせる

焦点距離が長くなると、
その分センサまでの距離も必要になるのでレンズが長くなってしまいます。
スマホでは厚みが問題になるので、
焦点距離の長い望遠のレンズは屈曲型を採用していたりします。
(ペリスコープとか呼ばれることもある)
マクロ域に焦点を合わせるためにはレンズをなるべく繰り出す必要があります。

Resize117626


繰り出すためにはレンズ部分をさらに出っ張らせる必要がある。

 434_o       

現状でさえレンズ部の出っ張りを指摘されているので、
これ以上出っ張らせることは避けたい。
そうすると出っ張りを抑えるためには焦点距離の短い超広角に
マクロ機能を持たせるのが現実的です。

そのほかのメーカでも超広角レンズでマクロ撮影をしていたり、
マクロ撮影専用のレンズを搭載している機種もあります。

 

« 2021年10月 | トップページ | 2021年12月 »