2018-02-09 Fri
本当に期待しているのは明るさだけじゃなく色もわかるイメージセンサーだけどね。それが作られたら根幹技術としてノーベル賞に匹敵しそうだから真空管が突如トランジスタになったよう革命が必要で、宇宙船でも墜落して技術盗まなきゃ地球人には作れそうもない。噂サイトを通じて本当に出ている三層式イメージセンサーの特許が話題にのぼっていた...
過去にソニーから 3 CCD のデジカメの噂があったが結局製品としてはお目にかからず、もっと昔に存在したのは 2 CCD か 3 CCD の業務用でのみ。二管式、 2 CCD が存在したのはビデオカメラの転用だからと考えられ、輝度と色相で1個ずつ使うってことだろう。3 CCD方式もビデオとなればデータ圧縮のため記録時には情報を欠落させているので 2 CCD方式も まんざら悪くない。
なのに、ずっと単板式でやってきて写真界で誰もブーブー言ってない。写真雑誌で記事を書くようなカメラマンという芸術系が技術に言及してるってのが問題だから変なところにケチが付く。技術系だと観測機材のような目線だから正しいことを求めてるからね。だからレンズで歪むのが嫌いで、ディストーションゼロを謳ってるのが気になる。現実にゼロは無理にしても、日本製の単焦点ですら歪曲しすぎてるから。
人間は色より明るさ、水平より垂直解像度に敏感だってことを元にしてる。だから画像処理ソフトなんかで垂直方向の画素数を下手に変えると画像がすごく汚く見える。それは簡単に実験でき、パソコンの液晶モニターでビデオカードの設定解像度と液晶の画素数が狂うと劇的に汚く見える。上記の歪曲の補正を画像処理ソフトで行うと水平、垂直とも変な方向で拡大縮小が行われるので解像度が著しく落ちる。だったら歪んでたほうがマシってのが私の選択。三層の話じゃないけどレンズの光学特性に反してイメージセンサーが平面だってのも問題。
シグマが買収した三層式イメージセンサーを除くとプリズム分光による方式だから大型化が避けられない。イメージセンサーが豆粒なビデオカメラだから3 CCD / 3 CMOS が可能だったわけで35mmカメラでやったら中判を越える大きさになっていたでしょうしレンズも変更になる。それでプリズム分光は諦めてたが、噂サイトによると現在締め付けてる三層式の特許があと何年かで切れるらしい。
過去にソニーで「なぜ、三層式イメージセンサー使わないんですか?」って質問したことがあるが、透過率が悪いからって答えをされたことがある。デジタルカメラを使ってれば明るさが大事ってことくらいわかってるので、それは致命的だと思ったが、三管式ビデオカメラからわかっている会社だけに思うところはあったのだろう。1画像で受けた光量を減らすことなくRGB分光するような三層式でもいいが小ささを考えと実現できるとは到底思えず、Foveonのように波長によって透過する違いを使うしかないのだろう。
写真業界の連中ってブツブツ細かいことまで言うくせに、デジカメが妄想でやってるとも思える色の作り方について強く言及している記事を読んだことがない。そのくせ意味の低いレンズのボケへの言及にはカルト教かのよう異様なほど記述とメディア洗脳されちまって変なことに気づいてない。
今のセンサーは入射した光を波長ごとに分解することができない。波長ごと感度も違うものしか作れないところにヒントがありそうだが、別々の波長が飛び込んでも積算された1つの電気信号になっちゃう。だからセンサーに入射する前に光学フィルターで特定の波長に制限して別けるしかない。1点(1画素)に3つのセンサーがあってRGB分光すると1点の光量が減りすぎてしまう。
そのように1画素で色がわからないから周囲の画素の組み合わせの推測で決められるがゆえ起きる偽色や計算ミスによって生じる色の狂いが出れば文句つけるが、大元に斬り込まないのが日本のカメラ雑誌だな。だいたい合っているため計算によって行う色の推測を認めてしまったが故に進化が滞ったのではないだろうか。濃淡が少ないものを写すときはいいが、激しいような模様や景色を撮影すると、なにかと輪郭に難が見えてくる。縮小して使えばなんのことはないが、画素数が増えたのを利用して等倍で切り出して使おうとすると気になる。
一眼レフカメラがデジタル化する前に三管式ビデオカメラから3板式CCDビデオカメラの違いを理解していた側からすると、3 CCDじゃないのに数十万円もするデジタル一眼レフカメラは選択肢がない=仕方が無いという状況だった。アナログレコードのごとくフィルムに固執する人以外にはデジタル一眼カメラが作る写真のほうが桁違いに綺麗でしたから。あとは可聴域に制限されたCDがハイレゾ音楽に変わったように進化を待っていればよく、画素数を広さとすれば深みであるところも 8, 10, 12, 14ビットと十分に上がってきた。
理解できない中学生時代だったか、人間は8bit 256階調でRGB、256×256×256=約1670万色しか識別できないって言われたのだが、実際に8bitでは地図の等高線のように見えることがあり、256階調より多くが必要だったから増えてきた。音の聞こえるの先の体感と違って映像は見えるか、見えないかが全てなので人間が見えなくて不要なら進化させる必要がない。256階調じゃ話にならないから増やした。多少の過剰部分は画像処理の計算ミスを覆い隠すのに必要だが、これ以上の階調数は人間が見るためとしては不要でしょう。安易な部分より難しい部分の研究を進めてくれたほうがありがたい。
放送用にも使えるノンリニア ビデオ 編集機を扱っていた際、CODEC の細かいバグが問題になっており、ビデオの場合は YUV(輝度・色差) と RGB の変換によって輪郭の色が狂ったりすることがあった。この変換が生じたのはビデオがYUVで編集するパソコンがRGBだから。
理由は違えど写真というか単板式イメージセンサーでは色データがないところから周囲との計算によって割り出すから、予測ができないか予測が外れると色が狂う。ほかにも通常のモアレとは違う模様が出るのに遭遇したことが何度もあったが故意に再現することができず原因は不明だった。カメラごと悪い特性なのかバグだったのか?
RGB三層式にしてもモアレの発生とは関係ないが色の問題は解決するし、近年は、おさらばできたものの、いまいましいローパスフィルターが原理的に不要になる。長年、デジタルカメラの画像って言えば、ローパスフィルターのせいで現実より鈍った写真となるのを元に戻すため画像処理ソフトで アンシャープマスク フィルター(輪郭強調)を使うのが必須でした。
発色もだが、そういう処理が必須になるから現実離れした写真が一般的に広まってる。「そんな色の空、空気が澄んだ冬でも日本で有り得ない(地球で有り得ない)」ってプリクラの捏造レベルな写真が溢れかえってる。Photoshopじゃなく付属品がそれを可能にしてるから現実派には受け入れがたい。ある種の芸術作品として故意にいじってる写真を否定する気は全くなく、狂わせているのをあたかも現実かのように広まるのが気になるだけ。
私は不気味にしか見えたことがないカラコンで、本当に可愛いと思う子ほど使わないわけだが、現実の良さが求められる時代は来るのだろうか。それとも、人間が別人になってしまうような捏造ソフトが流行ってるように、このまま非現実化が続くのだろうか?
→ sonyalpharumors > 2018年2月7日投稿 噂記事
| emisaki | 2018-02-09 Fri 21:17 | 映像音声::情報・考察 |
この記事に対するコメントの受付は終了しています。
コメント
先頭へ △