天文はかせ幕下

raw現像を取り入れた画像処理の流れ

新しい画像処理フロー

多少なりに考えるところがありまして、天体写真の画像処理のフローを以下のように変更しました。

  1. (入力:デジカメのraw画像のライトフレーム)
    --> RStacker(フリーソフト)でそれぞれをダーク・フラット処理--> (出力:raw画像)
  2. (1.の出力データ)
    --> Photoshop(1000円/月)で黒レベル・ハイライト調整 (具体的には,ハイライトや白レベルを下げて星の白トビ部分の輝度が255未満になるように調整,ヒストグラムのピークが1/3よりも大きい場合は,黒レベル・シャドウを下げて,ピークがだいたい1/3くらいになるように調整),フリンジ処理・彩度強調 (<-これは必ずしもやらなくて良い)をしつつRAW現像--> (出力:16bit tiff, カラースペースはAbode RGB color)
  3. (2.の出力データ)
    --> DeepSkyStacker(DSS) (フリーソフト)でコンポジット
    --> (出力:16bit tiff画像)
  4. (3.の出力データ)
    --> Photoshop(1000円/月)でレタッチ
    --> 最終画像

 これは、海外の掲示板サイト

Astro Image Processing Work Flow, Clarkvision.com

を参考にしました。ちなみに従来の画像処理フローは

  1. (入力:デジカメのraw画像のライトフレーム)
    --> DeepSkyStacker (フリーソフト)でダーク・フラット・スタック処理
    --> (出力:16bit tiff画像)
  2. (1.の出力データ)
    --> Photoshop(1000円/月)でレタッチ

という単純なものでした。

もっとも重要と考える改善点は、赤字でしめしたRAW現像です。これをDSSでのスタック処理の前に行うようにしています*1(RStackerを取り入れた理由は後述*2しますが、便宜上のことにすぎません)。

まずは結果の比較

昨年の12月に五枚沢というところで撮影していたバラ星雲とコーン星雲の写真を比較して見ます。EOS60DaとSigma 70mm Macroでの撮影です。

旧来の方法(下)

rossetta_for_comparison

新しい方法(下)

rosette and cone nebula

今までよりは、photoshopのレタッチで、色が引き出せるようになったと思います。

理由とか背景とか

これまで何枚か天体写真を撮影していて、もっとも不満だったのは画像の「色が貧しい」ことでした。特に青色が。輝星や銀河の淡い部分の青が出ないのです。これはいままで何回か考察していて

  1. そもそもデジカメは青が出ない(冷却CCDでのLRGB合成と比較して)
  2. 光害カットフィルターが青を落としている
  3. そもそもDSSの内部処理は、色が消える傾向がある(?)
  4. 輝星の青は、白飛びして消えている

などが原因かなと考えていました。

この中の4.の要因を抑えるために、RAW現像内のハイライト処理で星が白飛びしないようにパラメータを調整したかったというのが、今回の変更の主な動機です*3

そもそも、RAW現像というのは、RGGBの4つベイヤーから得られたモノクロ画像を合成してカラー画像(tiffやjpg)にするプロセスです。旧来の方法では、DeepSkyStackerがこれをやっていたわけで、そこには何の恣意的な操作もありませんでした。RAW現像によって画像の情報量は落ちるので、そこに何らかの調整が必要なのは確かだろうと思います。

今後は、RAW現像でのパラメター調整を最適化して行きたいのですが、なにか参考になるサイトはないかと探しています。

*1:有償ソフトのステライメージを使っていた(いる)人たちにとっては、RAW現像をしてからスタックするというのは常識かもしれません。しかし我々はDSSから天体写真に入ったためか、RAW現像の位置付けがよくわからないまま現在に至った次第です。

*2:RStackerを取り入れた理由ですが、私の環境ではPhotoShopのRAW現像によってなぜか画像サイズが微妙に変わってしまって、DSSでのダークフラット補正の一括処理ができなかったためです。RAW現像したtiffをDSSに放り込んで今まで通り処理できれば簡単なのですが。

*3:できればFlatAideProの対数現像を、輝星の白飛び抑制に取り入れたいのですが、具体的な処理の仕方がわからない。そもそもFlartAIdeはRAW現像ができるの?