先日のYouTubeのRAWデータ現像の生放送の感想から発生した話として、当ブログ「せってみろ!」からFacebookにリンク投稿した先で質問されたことを取り上げます。
RAWデータ現像って?
基本的にRAWデータの現像処理をするアプリケーションである「Lightroom」を生放送で使いました。LightroomはAdobeから発表された時から使っています。最初はPhotoshopのCamera RAWによる単独現像処理を連続でできるようになったアプリケーションという立場でしたが、今は単なるRAW現像処理を超えたとも言える能力を持っています。
そもそも「現像処理」という言葉は、フィルムで使われていた言葉です。フィルムに散布されている銀(臭化銀など感光性があるハロゲン化銀)に光が当たると、銀そのものは変化しませんが「潜像」と言って光を受けたというエネルギーを保持しています。これを「現像」するのですが、英語で言うと「Development」で、発展発達という意味です。つまり潜像状態の銀に対してアルカリ性の薬品によって銀を黒化させて育てて大きくして見えるようにする化学変化を指します。
基本的にフィルムに対する現像処理でやれたことというのは、基本的には指定の現像時間(銀が育つ時間)で、フィルムメーカーが設定している「適切な」階調となるように調整することです。その他、現像時間を調整して、銀の育ち方をコントロールすることで、ざっくり言うと指定より明るくする「増感処理」やその逆の「減感処理」をしたり、薬品そのものを調整して、明るさをあまり変化させないようにコントラストの立ち上がり方を調整する、というようなことをしていました。
現像処理は、暗室の中(またはタンクなど遮光された器具)で行います。フィルムは全暗室、カラーフィルムは指定の波長の極めてわずかな光をつけることも可能ですがほぼ全暗室です。しかし白黒のプリントは、青色以外を感じない銀を使っているので、オレンジ色や赤い色の波長のみの暗めの光の中で作業できます。このように現像処理中は「光を嫌う」わけですが、白黒プリントの現像最中に「あえて」光を当てて極端な銀の変化を使った作品が、マン・レイのソラリゼーションのシリーズです。
閑話休題。
では化学処理ではないデジタルの現像処理とはなんでしょうか。
RAWデータの現像は、銀のように物質を大きく育てるわけではありません。センサーが受けた光ですが、センサーそのものに「色」を判断することはできません。いわゆる白黒フィルム状態です。もしもRAWデータそのものを見ることができるなら、白黒階調の絵になっていることでしょう。そこで光の波長を光の3原色である「赤・緑・青」のフィルターを通して色を限定化して記録し、1画素の周囲の自身以外のフィルターを通した画素の情報と演算することで、その1画素に来ていたとする光の色とその量を算出しています。いわゆるベイヤー配列カラーフィルターってやつが作用するわけですね。
ざっくり言えば、RAWデータそのものには見えていない色等の情報を「現像」することによって「見える化」する処理のことを「RAWデータ現像」と示すわけです。
ところが先の通り、RAWデータ現像処理専門アプリケーションである「Lightroom」(もちろんLightroomに限ったことではなく、メジャーなRAWデータ現像処理アプリケーションであるCapture Oneも、SILKYPIX Developer Studioも、DxO OpticsProも、各種メーカーが提供しているアプリケーションでもほぼ同様なことが言えます)は、技術の積み重ねと発展を遂げて、フィルムで言うところの現像の意味を超えた処理が同時にできるようになりました。つまり、明るさの調整だけではなく、トリミング(正確にはクロッピングですけど、日本ではトリミングの方がつかわれている)や回転をしたり、演算の際に色の出方を調整したり(白黒にする、しかも白黒でカラーフィルターをかけたようなコントラストの強い白黒にするとか、ネガフィルム風な色とか、色が派手なポジフィルムのようにするとか)、コントラストそのものを自由に変えたり、使っているレンズの情報を取り入れてレンズの収差を解消させたり、高感度設定で撮影した際に発生したノイズを軽減したり、まー色々な調整ができるようになりました。この辺りまでは写真の階調に関する話がほとんどですが、センサーに付いていたゴミを修復したり、複数のデータを重ねたり繋げたり、マスク処理で色や明るさを部分的に調整したり、といったPhotoshopでやることみたいな「レタッチ」の機能までできるようになってきました。
現像とレタッチの境界線
で、生放送ではLightroomを使ったわけですが、Lightroomが持っている機能を存分に使って、「レタッチ」的なこともやりました。具体的に言うと、全体の明るさを調整するだけではなく、マスクやブラシを使った部分調整を行いました。
ここで、ひとつの疑問が生じた訳です。
明るさやコントラストや色調整をRAWデータに対して施して、データの見える化、つまり写真データとして現像すること以外に、本来Photoshopの領域とも言える部分調整や修復などといった「レタッチ」作業も、RAWデータ現像処理の一環と言えるのか?
確かに疑問といえば疑問ですよね。
私は、RAWデータに入っている情報を最大限まで引き出す作業のことを「RAWデータ現像処理」と呼んでいます。したがってPhotoshopでの「レタッチ」的な部分も必要あればやることも、現像処理の一環だと考えます。Photoshopが発達し、それに伴ってLightroomも発達し、相互に技術提供があって、お互いにやれることが増えたのだ、とも言えます。現像とレタッチの境界線が、非常に曖昧になっています。
しかし、単なる曖昧ではありません。現像処理でやるべき理由がいくつかあります。
それは、RAWデータからレタッチも含めた各種調整を行ってできたデータと、一度現像が終わった後にPhotoshopでレタッチ調整することでは、データの成り行きに大きな違いが生じるからです。つまりスタートラインに良い状態のデータを作ってPhotoshopに渡したほうが、最終仕上がりが良くなると考えているからです。
その中の理由のひとつに、8bitと16bitというデータの形式があります。私もほとんどの場合は、現像処理を8bitで出力し、後の作業をして仕上げます。
8bitカラーというのは、RGB各色に対して8bit、つまり256段階の階調の組み合わせでフルカラーを形成しています。その総数は16,777,216色です。ちなみに16bitは、RGBの各色に対して65,536段階なので、その3乗の、281,474,976,710,656色で構成されています。もちろん16bitは情報量がそれだけ増えるということなので、ファイルサイズも当然大きくなります。例えば、4000x6000のセンサー、2400万画素の8bitデータはPhotoshop上で約68.7MBですが、16bitデータになると約137.3MBに跳ね上がります。16bitデータを使った処理をしようと思うと、それなりにパワフルなコンピュータが必要です。また、一般的な画像保存形式である「JPEG」は、16bitの保存ができません。一般的に16bitファイルを保存しようと思ったら、PSD、TIFF、PINGあたりを選択する必要があります。
少々ずれましたが、例えば最終目的がインターネット上のサービスに対して写真を使う(ブログ、Facebook、Instagram、webサイトを作る等)場合、そのほとんどがJPEG形式を使用します。また銀塩プリントもインクジェットも商業印刷も、紙に対して出力できるのは、8bitのみです。プリント出力の場合は、不可逆圧縮形式であるJPEGは使わずに、無圧縮のPSDかTIFFを使っています。
私自身は、最終仕上がり(成果物)を少しでも良くしたいと考えます。そのためPhotoshopでのレタッチ作業は、なるべく8bitの元画像に無理をさせないような行程を踏みます。ここを詳しくやるととんでもない文章量になるので、いつか解説ね。したがって、Photoshopへ渡す写真データは、なるべく自分自身が持つ最終イメージの8割以上の完成度を目安にした調整具合が必要なので、RAWデータから調整できることはしっかりと整えた上で、RAWデータ現像をしたいと考えているわけです。それゆえ、過去で言うところの「現像処理」の領域をちょっと超えたあたりの「RAWデータ現像処理」をしています。
ね。写真の裏処理って、面倒でしょw。
モデル:木村直軌さん
SONY α7R II + Sonnar T* FE 55mm F1.8 ZA
この写真は、Lightroomで現像したのみ。全体的な明るさ、色温度、色、コントラストを調整して、空あたりを暗く落として、周辺光量も落として、直軌さんの顔を少し明るくした上で、RAWデータ現像して作りました。この写真にはPhotoshopを使っていません。