天文はかせ幕下

追尾速度と大気差:40年前の天文ガイド掲載の謎グラフをめぐる議論

事の起こり

ある日のこと。星沼会のSWATユーザーである、うーちゃんと丹羽さんが、Discord上で謎の議論をしていました。キングスレートとか赤道儀の低空モードがどうとかこうとか言っています。

キングスレート?は初めて聞く言葉です。話題になっていたのはSWATブログのこのエントリでした

上のリンクに掲載されていたグラフを、ブログ主の加曽利さんの許可を得て、ココに転載します。

40年以上前に海外で発表されたデータを元に当時の天文ガイド誌が記事にしたもののトレースです。その肝心の元記事が見つからず、正確な見方がよくわかりませんが、…(SWATブログより引用)

とのことですが、加曽利さんによれば、これは大気差の影響を考慮した赤道儀の追尾速度を表すグラフなのだろうとのこと。つまりこのグラフがあれば、撮影する天体の時角と赤緯から、各瞬間での赤道儀の最適な追尾速度をはじき出せるわけです。

ちなみに、うーちゃんと丹羽さんが話していたキングスレートの86190秒とは、多くの天体の撮影に対して平均的に、恒星時(86164秒)*1よりも妥当と言える追尾速度を表していると思われます。

上のグラフの正式名称が知りたいところですが、分かりません。このエントリーでは「追尾速度図」と呼ぶことにしましょう。それにしても、40年以上前の謎のグラフ...、なんだかロマンがあるではないですか。俄然興味が湧いてきました。

以下の概要:

結論から申しますと、上のグラフには一部間違いがあることが分かりました。そのために解釈にも混乱が生じていたようです。専門家の沖田博文さんと議論していただき、グラフを修正して、その解釈についても確認することが出来ましたので、報告します。またSWATブログでもこの結果についての記事を加曽利さんが書いてくださいました。

大気差とは

星の光が地球の大気に入ると、レンズのようにその進路がわずかに曲がります。それによって我々が観測する星の位置は、実際の方向よりも角度Rだけ天頂方向にズレて見えます。この角度Rのことを大気差と言います。

大気差によって星は上方に浮かび上がって見える

大気差Rの大きさは角度で表すことが出来ますが、その値は気圧や気温、大気の状態などによって変化するので正確に定めることはできません。しかし詳細な測定から、観測する天体の高度hとRの関係を表す近似式が知られています。それによれば

 R=\dfrac{A}{\tan h} \hspace{20pt}(1)

であり、Aは地上1気圧0℃の条件で60.0615秒角になります*2。次のグラフは上の式をプロットしたものです

このように大気差は天体の高度が上がるほどにその影響が小さくなります。ただしこの式は、h<15°あたりで精度が落ちるので注意が必要です。

たとえば、h=60°あたりで30秒角ですので、135mmレンズをASI2600MCにつけて撮影した場合、5pxほどのズレとなります。

大気差があると星が動く速度が変わる(直感的説明)

このような大気差が存在すると、見かけの天体の動きが遅くなったり、速くなったりします。下の図はそれを直感的に説明したものです

星の動きが変化する理由。左は南の空、右は北の空を表す

左の図は、南中前後の天体の1時間の動きを表しています。実際の星は東から西へ約15°動きます。しかし大気差によって、天体は天頂方向に一定角度浮かび上がって見えていますので、図から分かるように、見かけの星の1時間の動きは15°よりも小さくなります。よって、この場合は動きが遅くなります。

ほとんどの場合、大気差によって見かけの天体の運動は遅くなります。しかし興味深いことに、天体が北極星の下側を回る場合のみ反対のことが起こります。

右の図は北の空での天体の1時間の動きを表しています。大気差によって天体が浮かび上がると、見かけの星の1時間の動きは15°よりも大きくなります。よって、この場合は動きが速くなります。

うえの追尾速度図で言えば、天体の見かけの動きが遅くなる場合は、縦軸の値が恒星時よりも長くなり、また見かけの動きが速くなる場合は、縦軸の値が恒星時よりも短くなります。

修正版「追尾速度図」

上の直感的説明を踏まえて、SWATブログに掲載された追尾速度図を見てみますと、赤緯が+55°と+80°の曲線の振る舞いが奇妙であることに気づきます。グラフは北緯40°のデータですので、この2本の曲線は、北の空で地平の下に沈まない天体を示していますが、その場合、追尾速度が恒星時より短くなるのは、時角12h付近のみであるはずです。しかしグラフでは、0hでも追尾速度が恒星時より短くなっています。

これを理解するために、ノート「導入エラーの定量的評価」を公開されている沖田博文さんに不躾にも連絡を取り、教えてもらいました。

https://www.astr.tohoku.ac.jp/~h-okita/research/airt40/pointing/pointing_error.pdf

巨大自作ドブソニアンによる眼視スケッチで有名な沖田さんです

沖田さんは数日間にわたって、理解が遅い私との議論にトコトン付き合ってくれました。本当にありがとうございました。どさくさに紛れて、「いつか、自作のドブソニアンで星を見せてくださいー」って約束までしちゃいました。

おっと話がそれました。

上のノートには、大気差の時角方向成分を与える式が計算されていて、その変化率から極軸が一回転するのに要する時間を計算できます。その値を時角についてプロットすることで、上記の「謎のグラフ」に対応する曲線が得られることがわかりました。

その結果、SWATブログに掲載のオリジナルのグラフは、やっぱり子午線付近の値が間違っているだろうと結論しました。結果として得られた修正版の「追尾速度図」はこうなります。

ででん!

このグラフは、上の(1)式で表される大気差をRをもとに純粋に数学的な計算を行い、プロットしたものです(計算は沖田さんがやってくれました)。我々に勘違いが無ければ、これが正しい追尾速度図になるはずです。

観測地点を北緯40°として、赤緯-40°から+80°の曲線を10°刻みでプロットしました。ただし赤緯50°の曲線は、北の空で天体が地表に接するために除外しています。横軸が追尾する天体の時角で0hが子午線を表しています。縦軸はその局所的な移動速度から算出した極軸1回転に要する時間です。例えば赤緯+40°(黄の実線)の天体が時角6hの位置にあるときの移動速度から、天体は86250秒で極軸を一周することになります。

このグラフから分かることを箇条書きにしておきます。

  • 追尾速度が恒星時を下回るのは、赤緯+60°以上、時角12h付近のみである。
  • (興味深いことに)天頂付近でも大気差の影響はあり、追尾速度は恒星時よりも遅い。
  • キングスレートは、赤緯0℃から+40°、時角-3hから+3hの広い範囲にわたって、とても妥当な追尾速度になっている。
  • SWATブログに示されていた「低空モード」86230秒は、赤緯-25°付近の天体を追尾するにあたっては、やはり妥当である。

天頂でも星の移動が遅くなる理由(20240717 追記)

天頂では大気差 R がゼロになるにもかかわらず、追尾速度は恒星時よりも遅くなります。その理由は、高校の物理で勉強するスネルの法則を使って説明することが出来ます。

下の図をご覧ください。観測する星が南中直前の位置にあるとします。その大気差を考慮した「見かけの星」の位置が天頂から小さな角度 β だけ手前にあったとしましょう。「実際の星」が角度 α にあるとすると、スネルの法則から

 \alpha = n\beta

です(ここで n は大気の屈折率で、15℃ 1気圧でおよそn=1.0003です)。

さて、天頂では大気差がゼロですから、上の図の状態から一定時間が経過したのち、「見かけの星」と「実際の星」は同時に天頂に到達するはずです。よって、「見かけの星」は「実際の星」よりも \dfrac{\beta}{\alpha}=\dfrac{1}{n} だけ遅く動いていることになります。

恒星時とは「実際の星」が極軸を一周するのに要する時間のことでした。「見かけの星」が上の図の瞬間での移動速度を保って極軸を一周として、それに要する時間は恒星時の n 倍になります。ところでキングスレートの値を思い出すと、恒星時との比が

86190/86162=1.0003

となって、なんと大気の屈折率にピッタリ一致します。つまり分かってみれば単純なことですが、キングスレートとはスネルの法則の現われに過ぎなかったのでした。

大気差が追尾速度に与える影響(ガチ計算)

上のグラフを得るための計算についても書いておこうと思いますが、ここで体力が尽きました。

一言注意しておきますと、上の沖田さんのノートでは、ある一つの式が間違っていました。今回の私との議論で、沖田さんがそれに気づき、間違いを修正して得られたのが上のグラフです。

なので修正版の計算を記録しておこうと思います。記事が出来上がったら以下にリンクを貼りますので、お待ちを(2024年7月16日)

*1:恒星時:大気差が無い場合に天体が極軸を一周するのに要する時間

*2:参考:大気差 - Wikipedia

Vicent Peris氏考案ののMultiscale Gradient Correctionを試してみました

はじめに

Pixinsightのウェブページに、現在、開発チームがすすめているというMARS(Multiscale All-sky Reference Survey)プロジェクトの情報があります

MARSは、光害などの影響を取り除いた全天の輝度分布情報を取得する取り組みである(とのことです)。その目的は、より正確な勾配補正ツールの実現にあります。

従来のDBEやGraXpert、Gradient Correctionなどの勾配補正ツールは、あくまで天体写真の構図の範囲内で、見た目がフラットになるように補正するだけもので、必ずしも夜空の本来の輝度分布を再現するものではありませんでした。とくに構図が星や天体で埋め尽くされて背景が無い場合は、かなり正確さが犠牲になるはずです。

しかし、MARSプロジェクトが実現すると、これまでとは一線を画した100点満点に近い勾配補正ツールが実現することになります。その基本は

「対象の天体写真よりも広い構図をカバーするMARSデータを参照して勾配を補正する」

という考え方で、その具体的な手続きはPixisight開発チームのVicent Preis氏のアイデアが元になっています。詳細は、Multiscale Gradient Correction(MGC)としてPixisightのウェブページに紹介されています。

中身は結構単純で、真似できそうです。個人の撮影でも、例えば500mmの鏡筒である領域を撮影するとき、その周辺を135mmのカメラレンズで同時に撮影しておけば、MARSのデータが無くても実現できます。

以下に紹介する方法は、近々Pixinsightのプロセスに取り入れられるはずで、すぐに無用になってしまうかもしれません。ですが、その考え方を理解する意味でも、自分で試してみました、というのが今回の内容です

Multiscale Gradient Correction

0)基本的な考え方

2年前の蔵王で、焦点距離420mm+APS-Cの組み合わせで撮影した干潟星雲と、70mm+フルサイズの画角で撮影したいて座付近を例にします。

勾配補正を行う干潟星雲周辺の画像(左)と、より広範囲の天の川画像(右)

左の画像のカブリ補正を行うのに、右の広角画像を使うのがMGCの基本的な考え方です。これ以降、ガブリ補正の対象画像を「T1」、広角の画像を「T2」と呼ぶことにします。

ここで、どちらの画像にも光害に伴うカブリがあることに注意します。しかし広範囲の「T2」から「T1」部分を切り取った画像「T2_registered」のカブリは、「T1」そのもののカブリよりもずっと単純であることが重要な点です。実際比較してみますそれが良く分かります

左が「T1」画像、右が「T2」の該当部分をクロップしたもの

そこで、あらかじめ「T2」画像に対しておおざっぱなカブリ補正を実行しておけば、そこから「T1」部分を切り取った「T2_registered」画像は十分にフラットで、「T1」のカブリ補正を行う際の正確なリファレンスとして使えるだろう、というわけです。

具体的な手続きを、以下に説明します:

1)準備

まず

・必要に応じて「T2」に1次のABE(Automatic Background Extraction)を実行し、カブリ補正をする。

・「T1」「T2」の両方にSPCCやCCなどで、色補正をする。

をやっておきます。すると下のようになりました

準備が終わったあとの画像

2)「T1」を基準にして「T2」を位置合わせ

StarAlignmentツールを使って、「T1」を基準にして「T2」を位置合わせします。その際、「T2」のプレビューで「T1」部分をなるべく正確に指定しておき、”Restrict to preview”オプションをオンにしておくと上手く行きます

位置合わせが済んだ画像に「T2_registered」と名前を付けます。さらに「T1」のクローンを作って「model」と名前を付けておきます。

左から「model」「T1」「T2_registered」

3)Multiscale Median Transformで大きな構造を取り出す

Multiscale Median Transformプロセスを起動して、Layersを9とし、1~9のレイヤーにバツマークを付けて無効にし、のこりのRを有効にした状態で、「T2_registered」と「model」に実行します。

MMTの実行

MMTの実行後

MMTで取り除くレイヤーの大きさは、天体写真の内容によってことなるのでその都度調整する必要がありそうです。だいたい、レイヤー8~9までを取り除けば上手く行くそうです。

4)PixelMathでカブリのモデルを作る

カブリのモデルは、

「model」ー(「T2_registered」の中央値からの変化量 )

を引き算することで作ります。Pixel Mathを起動して

symbol: k
RGB/K: model - k*( T2_registered - med( T2_registered) )

と入力します。このとき「model」に残っている星雲の構造がしっかり消えるようにkの値を調整します。下に、kを0.01から0.03まで変えた場合の結果を示します。

k=0.01,0.02,0.03のそれぞれの結果

k=0.01では星雲の構造が少し残っていて、0.03では星雲を引きすぎています。ここではk=0.02を採用しました。

得られたカブリのモデル画像

5)PixelMathで「T1」から「model」を引き算する

そして最後のカブリ補正は

「T1」ー(「model」の中央値からの変化量 )

を計算して実行します。ふたたびPixelMathを起動して

RGB/K: T1 - ( model - med(model) )

と入力し、「T1」に対して実行します。以上で完了です。

結果の比較

元画像、MGC、Gradient Correction、DBEと並べました。

どの結果も、十分フラットになっているように見えて、甲乙はつけがたい結果でした。また、DBEとMultiscale Gradient Correctionの結果が多少コントラスト高めに見えるのは、どちらも構造が多少引き算されてしまった結果かもしれません。

終わりに

以上紹介しましたとおり、MGCは、ある程度手数のかかる方法ではあります。ですが、非常に淡い構造を描出する場合や、光害の酷い環境での撮影、あるいは構図全体が星雲に覆われていて背景のない画像を処理する場合などには有力な方法になりそうです。ある意味でセルフフラット補正に似た処理なので、MMTのレイヤー値をうまく調整すれば、センサーについたゴミも補正できてしまうのが大きいです。

一方で、MMTで取り除くレイヤー値や、PixelMathでのパラメータ値(上の説明での”k”の値)の設定によっては、カブリだけでなく天体の構造を差し引いてしまう可能性があって、完全なカブリ補正と言えるためには、そのあたりの調整が必要そうです。近くPixinsightに追加されるプロセスでは、これがどのように解決されているかも、注目したいところです。

MGCのリファレンス画像は、おおざっぱな構造だけが参照されるので、星が流れていたり、星に収差があったりしても特に問題ありません。撮影中、使わなくなった古いカメラとレンズをポタ赤に載せて、ノータッチで同じ領域を撮って得られた画像で十分ですし、さらに言えばガイドカメラで撮影された画像がいくつか保存されていれば、それで事足りるようにもおもいます(PHD2はガイド画像を保存できたのでしたっけ?)

ともかく、近々MARSプロジェクトが完成してPixinsightに導入されれば、ワンタッチで実行できる強力な手法になるのは間違いなさそうで、同時に画像処理がすべてオートマチック化される日がまた一歩近づきつつあるように感じます

 

アイキャッチ

 

「カラーカメラ+光害カットフィルター」のデータをカスタマイズしてSPCCに適用する手続き

LNR-NやLPS-P2などの各種光害カットフィルター、あるいはCometBandPassやL-Extremeなどバンドパス系のフィルターなど...、これらのフィルターをカラーカメラに取り付けて撮影した天体写真に対して、PixinsightのSPCCを適用する場合は、RGB各チャンネルの光の透過率のデータをカスタマイズする必要があります。

その方法についてまとめたいと思います。

(SPCCの基本的な事柄や使い方についてはコチラを参照ください)

1.フィルターのデータをゲットする

まず以下のいずれかのサイトから、フィルター・各種カメラのカラーフィルタのデータをダウンロードしてください:

Pi Filter 2024 - Google ドライブ

リンク先は私のGoogle Driveです。これを書いている2024年6月現在に発売されているフィルターや各種カメラのカラーフィルターのデータが入ったcsv形式*1のファイルが落ちてきます(元のデータは、こちらから落としてきたもので、含まれていなかったSightronのQBPやCBP、DBPのデータをコモンが自作して加えました)。

1-1.欲しいフィルターのデータが含まれていない場合

その場合は、PlotDigitizerなどのグラフから数値を読み取るツールをつかって、各メーカーが公表しているフィルターの透過率と波長のグラフから、データを取得する必要があります。そのデータを、次のようなCSVテキストファイルで保存してください

type,"filter"
name,"xxxxx"
channel,"R/G/B/PAN"
wavelength," 482,483,484,485,...,1000"
transmission,"0.0,0.0,0.05,0.08,...,0.0"

nameは任意、channelは光害カットフィルターなら”PAN”*2、4,5行目がフィルターのデータです。wavelengthの値は小さい順に並んでいる必要があります。これらのcsvファイルは適当なフォルダーに保存しておいてください。

2.フィルターのcsvデータをpixinisightに取り込む

2024年6月現在の最新版(ver.1.8.9-2 buid1605)では、FilterManagerプロセスを使ってフィルターのデータを管理するようになっています。

FilterManagerプロセスの場所

FilterManegerプロセス

FilterManegerを開きましたら、Taskから”Merge CSV filter definitions”を選び、上のcsvファイルを保存してあるフォルダを指定して、●ボタンをクリックすることでフィルタのデータを取り込むことが出来ます。

成功すれば、CurveExplorerから取り込んだ各種フィルターのグラフを参照できます。例えば下のSightronDualBPのデータはコモンが作成して上記のリンクに加えていたものです。

2-1. 注)旧バージョンのPixinsightの場合

build1605以前のPixinisightでは、FilterManegerプロセスは存在せず、SPCC本体と一体になっています。

SPCCのFileManagementの変更

このブログではBuikd1605以降のバージョンを前提にして説明しますが、SPCC内のFileManagementとCurveExplorer機能をつかっても同じことが実行可能です。

3.カメラの特性と、フィルターの透過率を組み合わせる

これ以降は、コモンの撮影データを元に説明しますので、皆さんの撮影環境に置き換えて実行して下さい。下の画像は、ASI294MC-ProにIDAS NBZフィルターを取り付けて撮影したものです。カブリ補正とBackground Neutrizationを済ませています。

SPCCを適用する前

この画像に正しくSPCCをかけるためには、ASI294MC-ProのベイヤーフィルターとNBZフィルターを組み合わせた(透過率を掛け算した)データをRGBについてそれぞれ3つずつ用意する必要があります。

やってみます。再び、CurveExplorerを開きます。

ここから294mcのベイヤーフィルターとNBZフィルターを選ぶわけです。294mcの各ベイヤーフィルターの特性はSony Color Sensor R/G/Bとだいたい対応しています。なので例えばRチャンネルなら、次の図のように(Sony Color Sensor R)と(IDAS NBZ)を二つ選択してオレンジに反転させた状態にします。複数選択はCTRLキーを押しながらクリックで行えます。

そうしたら、左下の右から2番目のアイコンをクリックします。Filter nameとfilter channelを入力する欄が出現するので

Filter name:IDAS_NBZ/SONY_R ←(任意)
filter channel:R

などとしてOkを押します。これをGとBチャンネルについても同様に行います。最後に、FIlterManagerでもういちど●をクリックしてフィルターデータをマージしておきます(忘れやすい)。

4. SPCCの適用結果

以上で準備は整いましたので、SPCCを実行してみましょう。以下のように、R/G/B の各filterに上で組み合わせたフィルターデータを指定します。

QE Curveは”ideal QE Curve”のままで大丈夫です(ここで特定のカメラを指定してしまうと、フィルターの特性を「二度掛け」してしまうことになります)(ベイターフィルターの透過率には、センサーの量子効率のデータも含まれているので、ここで特定のカメラを指定してしまうと、量子効率を「二度掛け」してしまうことになります)

実行すると次のような結果でした(うーん、ほんのり変化・・・)。

SPCC適用後

ちなみにグラフは以下の通り

B/Gのばらつきが大きいのが気になりますけど、ぜひ皆様の環境でも試してもらえたらうれしいです。

 

アイキャッチ

 

*1:数値や文字列をカンマで区切ったファイル形式のこと

*2:どういう意味?

6年前に卒業したOBが訪問してくれました

先週の日曜日、天文部OBのアベ君が遊びに来てくれました。

彼はいま東京で起業して、オンライン料理教室「シェフレピ」を手掛ける会社のCTOとして頑張っています。

今回は、最近一緒に住み始めたという彼女も連れてきてくれて、コモンも感激しました。とてもかわいい女性で、写真を載せればブログのアクセスも増えること間違いなしですが、自重いたします。

アベ君と一緒に天体写真を撮っていたのは、2017年ごろ。もう7年も前になります。当時はPixinsightのことはまだ知らず、ようやくオートガイドが出来るようになって、よっちゃん氏の動画など見ながらPhotoshopと格闘していました。

今にして思えば、大した作品もものに出来ず、迷走を重ねていたあのころが一番楽しかったかもしれません。

当時のブログの記事も、かなり滅茶苦茶なことを書いていて、なかなか笑えるのでここにまとめておきます。

1)「コミュ障アベ」初登場の回

2)アベといっしょに、はじめてのおーとがいど

3)撮影の誘いを断るアベ、彼女でもできたのか?

4)雲男アベ

5)レンズ落下事件と、実はこの時の犯人だったアベ(笑)

 

アベ君、時間ができたらぜひ3人でまた天体写真を撮りに行きましょう。コメントくださいね

 

蔵王でVixen VSD90SSを試してみました

先週、11日の火曜日。今シーズン初の蔵王に行ってきました。

目的は、星沼会で借りているVSD90SSのレビューです。同じく丹羽さんから借りているASI6200MCを装着して夏の天の川の周辺を撮影しました。

撮影の様子。VSD90SSと私

レビューは星沼会のブログに掲載しました。もしご興味あればご覧ください

 

撮影したのはM16とM17の周辺。初めて使う撮影システムで余裕が無く、構図を工夫できませんでした。定番構図ではありますがさすがに軽く100万円越えの機材だけあって、100分の短い露光時間でも絵になってくれました

M16 and M17

Date: 2024-6-11
Location: Mt. Zao, Yamagata
Camera: ASI6200mc
Lens: Vixen VSD90ss
Exposure: 300s x 20f (total 105min)
Processing: Pixinsight

 

当日は久しぶりに柊二☆さんと。最近の天体写真のモチベーションについて、愚痴を聞いてもらいながらの撮影でした。またツイッターでつながっている @star_rito さんも近くで撮影されていたそうで、こんど蔵王でお見掛けしたらお話ししてみようと思います。

 

赤福について

※若干唐突ですが、最近記事にするネタが枯渇気味なので、無内容な随筆をたまに書いていきます。不評であれば止めます

 

赤福という餅は、とても不快な餅である。箱に1ダースも餅を並べて一人では食べきれないが、かといって二人で食べようにも、そのうちに餅や餡が箱の壁面やヘラにへばりついて、汚らしいことこの上ない。なぜあのようなものが名物として売れているのか。」

などと、職場での昼食の折に同僚Aが話していた。コモンは赤福を比較的好むが、考えてみればその通りかもしれないなと思った。

饅頭とか大福といった菓子は、中身の餡がぐずぐずにならないように餅の皮で包んである。これはけだし合理的である。対して赤福は、本来は外皮であるところの餅が内側にあって、それを中身であるところの餡が包んでいる。

上は頭蓋を脳みそで覆うような愚挙であって、なぜそのようなことをするのか?そのような菓子が他にあるだろうか?

「おはぎがそうなんじゃない?」

もう一人の同僚Bのこの指摘を受けて、コモンは目から鱗が落ちる思いがした。確かに! おはぎ、あるいは牡丹餅は、半殺しにした米をつぶあんで包んだ形状をとっている。しかし今の今まで、私は赤福を食べる時におはぎを想ったことはなく、また逆もしかりだ vice versa.

「なるほど、赤福はおはぎの親戚なんだね!」

しかし赤福を憎む同僚Aの意見は違っていた。

「個人的には、赤福のルーツは餅入り汁粉でかなと思ってる。打ち捨てられ半日ほど放置された汁粉の水分が飛んで、赤福になった……つまり赤福は汁粉の成れの果てだ」

そんな感じで、このような下らない議論はなお30分ほど続いたのであった。

岩手南部で低緯度オーロラ!

はじめに

最近のこもんの対人コミュニケーションは、過半数SNSで占められてしまっています。その偏った世界から見ると5月11日は大オーロラ祭りでした。皆さんはいかがだったでしょうか?

休日だったこともあり、「ひょっとしたら見えるかも?」の期待で家族総出で観測に行ってきました。こちらはその時に撮影したお写真で、オーロラらしきものを撮影できました。

pano

2024-5-11 20:22(JST), a7s Sigma20mmF1.4 DG DN Art, ISO1600, 10秒露光, 1x3パノラマ合成, 室根山山頂

肉眼ではうっすらとしか見えなかったんですけど、以下ではドキュメント形式で遠征の様子をお伝えします。

事の起こり

その土曜日はすこし汗ばむ陽気でした。こもんは近所の筋トレジムで筋トレをしていました。そのとき空の上で「Xクラスフレア」と呼ばれる太陽表面での大規模な爆発が相次いで発生。それにともなって今夜、北海道以南でもオーロラが観測できるのではという話題が、SNSでトレンドになっていました。

こう呟いたら、コメントをくれた かのーぷす さんや柊二☆さんと、さっそく遠征先の相談が始まりました。

栗駒山は北の視界がいまいち」
「田束山は気仙沼のあかりが邪魔ですね」
「室根山の北側はどうでしたっけ」
「すぐ出発するなら種山高原まで行っても良いかも」

つぎつぎと撮影地の候補があがるうちに、こもんはやる気がみなぎってきてしまいました。

筋トレから帰宅して、さっそく家族と遠征の交渉します。「オーロラ」というキーワードが効いたのか、妻や子供たちも乗り気です(意外!) 私の床屋、長男の塾など予定を全てキャンセルし、家族総出で北へ向け長距離のドライブをすることになったのでした。

7年前の苦い思い出

じつは低緯度オーロラの可能性が話題に上ることはそれほど珍しくありません。顧問にとって思い出深いのは、7年ちかく前のこの時の出来事です:

このときも太陽フレア発生の報をうけて、当時1年生だったはたけくんなど強引に連れ出しました。奥州市の衣川国見平スキー場まで出かけて、特に成果なく帰ってきたのでした。

それ以来、東北での低緯度オーロラの観測は難しい。見られてもせいぜい北海度以北なのだな、と思っていました。今回も、

「あまり期待しないでね」

と家族に言い聞かせていました。

当日の記録

撮影地、到着時の様子

撮影地は、岩手県南部一関市の室根山に決定しました。

こちらが室根山の位置です。山頂の標高は800mほどあり、北方向の遠野市までは40kmほど離れています。

16時に名取を出発して、到着は19時ころでした。空は普通の空です。

7年前の失敗が頭をよぎり焦りました。ともかく撮影の準備をします。家族はコンビニ弁当を食べながら呑気に日没を待っています。

時系列の空の変化

以下では薄明終了にかけてのそらの変化を時系列に掲載します。きらら天文台3階のベランダスペースをお借りして撮影しました。写真中央がほぼ真北になります。

19:27 ISO400, 10秒露光, F2.8
普通の夕焼けの空です。SigmaFpで撮影しました

19:42 ISO6400 1秒露光 F1.4
この写真から、赤外改造したSony α7Sでの撮影に切り替え、感度をあげています。東側から星が映るようになっていますが、いつもの夕空です。左下の赤い領域は夕焼けの赤です。

19:50 ISO1600, 10秒露光, F1.4
あたりはかなり暗くなって、春の星空が広がってきました。カメラで撮影すると西空にはわずかに薄明が残っています。真北の方向が薄く紫がかっていますが、街明かりの被りなのか、区別がつきません。肉眼では何も見えませんでした。

20:08 ISO1600, 10秒露光, F1.4
最後に天文薄明終了直前の20時8分の様子。この時刻で、写真に映る空の赤さが通常と違うなとはっきりに認識しました。

こもんのとなりで2名、同じように撮影をされている方々がいて、それぞれのCanonPentaxの(おそらく非改造の)カメラでも同じように赤く写っています。

「うーん、これがオーロラなんですかね?」

肉眼ではほとんど見えないので、みなさん半信半疑でした。

タイムラプスにして初めてオーロラであることが判明

こちらは帰宅後に作成したタイムラプス映像です。SigmaFpにてISO6400、20秒露光F2.8で撮影しました。彩度とコントラストを強調しています

再生していただくと、08秒〜10秒あたりで、縦縞のゆらめきが見て取れます。時刻にして20時30分頃です。これでもって「オーロラ確定」といって良さそうです。

ちなみに、動画の右下でチョコチョコ動いているのが我々家族です。オーロラがピークに達した時間帯、こもんは写真を撮影せず、家族と空を眺めていました。その時にほんのうっすらと空が赤く見えていました。雲抜けの蔵王で、たまに大気光が見えることがありますが、それと同じくらいの淡さでした。人間の目が赤の感度が低いこともあり、低緯度オーロラは、本当に空が暗いところに行かないと観察は難しのだと、実感した次第です。

 

最後にこちらはピーク直後の20時40分に撮影した星景写真with低緯度オーロラで、かつサムネ用です。

orora211

ニュース報道など

今回は突発的な天文現象だったこともあって、ニュース報道も多かったです。Twitterでよくやりとりしている方々も結構たくさん記事に登場しておりました。

僭越ながら私も「だいこもんさん」として取材に協力し、テレビなどでも上のタイムラプス映像を使ってもらいました。

 



 

5月連休は神割崎でアンタレス付近

今年の5月連休は、晴天と新月に恵まれました。神割崎に遠征して名所「アンタレス付近」を撮影することができました。

3年ぶりの撮影でした。

使用鏡筒は前回と変わらず、Mamiya Aposekor 250mmF4.5のツインです。カメラはASI2600MCとMMの並列同架にバージョンアップ(3年前は2台のEOS6Dで撮影)。まずは結果から。3x2の6枚モザイク合成になります

Rho Ophiuchi: in the composition like a hanging scroll

date: 2024-0504
location: kamiwari-saki, miyagi, japan
optics: Mamiya Aposekor 250mm F4.5 x 2
camera: ASI2600mc and ASI2600mm
exposure: 3x2=6 panel mosaic, 180s x 12f(RGB) + 180s x 12f(Lum), total 7.2h, gain=100
processing: Pixinsight, Astropixel processor, Photoshop

暗い左上の領域から、右下の天の川中心部に向けての輝度の変化がアピールポイントです。

画像処理は何度か試行錯誤しました。一回目は分子雲をガリガリに引き出して見ましたら、なんだか美しくない仕上がりになってしまいボツ。気を取り直して2回目はストレッチを控えめにしたら、今度はなんだか物足りません。「うーんコノヤロ、えいや!」と最後に構図を縦に。したらばアンタレス付近の星雲が斜めに垂れる柳の木のような塩梅にみえて、一幅の掛け軸みたくよい感じになりました。

「でもちょっとあざといかなー」

って心配しつつTwitterにアップ。評判はそこそこでした。neko-CAT (@nekoCAT60CB)さんから

とお褒め頂いて、パノラマ撮影の印刷に便利なサイトを教えてもらいました。フレームをDIYするのも楽しそうだし、印刷してみようかなと思っています。それにしても”neko-CAT”というハンドルネーム面白いですよね。私は毎回ツボに入ってしまい、氏をTwitterで見るたびにニヤニヤしてしまいます。

話が逸れてしまいました。下は3年前に飯館村で撮影したアンタレス付近です。これも3x2モザイクで、こちらのほうが淡い部分がよく出ています。これはこれで良いのですが、今になってみてみるとちょっとストレッチがキツイかなーとも感じます。

Rho Ophiuchi cloud complex part 2(2021)

撮影日の覚え書き

ななぜりくんという、Twitterでフォロワーになってくれている若者を連れての遠征でした。彼は元々電車など撮影しており、本格的に暗い空での星の撮影は初めてだったようです。f=70mmくらいのレンズで、小さな銀河がたくさん映りこんでいるのをみて感激している様子でした。連れてきてよかったです。

他にかのーぷすさん、東北大天文部の皆さんもいらしてました。JD君に見せてもらったBORGの屈折を2本並べた双眼鏡は見え味がすばらしく感激。両眼で見ることで、片目では見えない淡い対象が見えてくるということは無いような気がしますが、視野の広いアイピースと合わせて使うことで視界全体に像が広がるのがたまりません。没入感が半端でなく、宇宙に落っこちそうな感覚に襲われました。

モザイク撮影の記録

モザイク撮影についても記録しておきます。まずコチラが構図

撮影はNINAの「高度なシーケンス」にお任せ。撮影順番は西から東へ。フレーム番号で3→6→2→5→1→4の順で30分ずつ撮影ししました。使用したCEM70赤道儀は、NINAの制御と関係なく一定の姿勢に達したら自動的に子午線反転する設定で、そのときだけシーケンスが混乱するので、srew&Centerの命令を頻繁に入れておく必要がありました。それにしてもとんどほったらかしで撮影できるのは本当にらくちんです。

 

モザイク合成の手順は以前コチラにまとめましたので、興味あればご覧ください

今回もほぼこの手順を踏襲しました。2600mmとmcのデータをそれぞれLRGB合成した後、各フレームを並べた様子がこちら。

一番右の2枚のフレームの撮影時に薄雲の影響があり、コントラストが低めだったので、モザイク合成前のストレッチを強めにして、すべてのフレームでヒストグラムの幅がだいたい同じになるようにしました。

ただ、実はここまでしてもつなぎ目が目立つ結果に成ってしまい、最終的には各フレームにGradient Correctionをかけてから合成して、ようやく上手く行きました。

こちらがモザイク合成直後の様子。Gradient Correctionが効きすぎているのか、全体的にのっぺりしすぎているように見えなくもありません。うーん、そらの透明度が低かったせいかなあ。

「やっぱり神割崎でなく、蔵王に行けばよかったかなあ」

「いえいえ、蔵王に言ったら『神割崎がよかったかも』ってボヤいているのだと思いますよ」

って、これは撮影当夜の、私とかのーぷすさんとの会話でした。

サムネ用



 

フラット補正を改善する奇妙な方法(ただし光学系依存)

事の起こり

先日の弓張平でのM106の撮影で、LEDトレース台を忘れて現場でフラットが撮れませんでした。しかた無く、帰宅後にRASA11''にカメラを再度取り付けてフラット画像を取得しました。

それをつかってキャリブレーションをしてみますと補正が上手く行きません。こんなザマです

・・・これはダメかも分らんね。かのーぷすさんにトレース台借りればよかったなあ。

慰めを求めて「フラットが合わないよー」という趣旨のつぶやきをツイッターに書き込んだら、RASA使いの先輩、HUQさんが助けてくれました

あ!そうでした。

確かにカメラを取り付けなおしたときに、クルッと上下逆にしていたかもしれません。ならばフラットを撮りなおせばよいだけの問題です。でもめんどくさいなあ。とウダウダしていたら、サボりのひらめきがありました。

「カメラじゃなくて、マスターフラットを180°回してキャリブレーションしなおせば、いいんじゃね?」

やってみました

「ダメじゃん。」

でも待てよ? 上の二つの画像って、足して2で割ったら相殺しそうな明暗のパターンに見えます。やってみました:

うーん、惜しかった。

翌日にフラットを再取得することにして、この夜はふて寝しました。

撮りなおしても、微妙に合わない

翌日に再度カメラをRASAに取り付けてフラットを取得し、キャリブレーションした結果はこうでした。大幅に良くはなりましたが、まだ微妙に合いません。

慎重に取り付けなおしましたが、それでもカメラの位置が撮影時とズレてしまっていたためでしょう*1*2

それで、賢明な読者のみなさま方は話の続きがもうお分かりと存じます。マスターフラットを180°回して、またキャリブレーションをしてみました。

ちょうど反転した明暗のパターンになってますね。

両者を足し合わせば相殺しそうです。今回は1:2の割合で足し算したらちょうどよい感じになりました。

なぜフラット補正が改善したのか

上のような奇妙な方法でフラット補正が改善した理由を考えてみました。現時点での結論では、上の方法はかなり限定的な状況でのみ成り立つものと考えています。なので以下に示す方法は、かなり強く光学系に依存する話なのでご注意ください。

まず下の絵のようにLightフレームの輝度分布が中心対称になっていることが前提です(条件1)。

楕円は等輝度曲線を表しています。

このライトフレームに対して、フラットフレームの輝度分布の中心がズレていて、かつ回転しているとします(条件2)。「マスターフラット」と「180°反転したマスターフラット」ものは下の絵のような輝度分布になっているはずです。

それぞれのマスターフラットでキャリブレーションした結果は、フラット補正のズレが互いに180°反転しているので、両者を平均すればズレが打ち消し合い、近似的にフラットが合ったのだろうと考えています。あくまで近似的にです。

ちなみに、こちらはRASAのフラットです。

中心の輝度分布が扁平になっている部分をのぞけばだいたい中心対称になっています。これなら上手く行きそうです

対してこちらはチリに置いているR200ssのフラットです。

こちらはピークが右側に大きくずれています。これだと180°の反転でズレが打ち消し合うということが起こりえないので、上手く行きません。実際に試したらダメでした。

実際に前処理に取り入れる方法

上の方法は(条件1)と(条件2)が成立している場合のみ有効と思われ、汎用性は低いです。でも少なくとも我々のRASA11’’に関しては有効そうなので、これを前処理に導入する方法についてもメモしておきます。

 

上記の方法は、WBPPにそのままとり入れることができません。また、すべてマニュアルで前処理する場合は、それぞれのライトフレームにたいして個別にpixel Mathを適用する羽目になってしまい、これは現実的ではありません。

ちょっとウマイ方法は、次のように「補正したマスターフラット」を用意することです。つまり、元々の「マスターフラット」を f、「180°反転したマスターフラット」を f_{ref}としたら、Pixel Mathで

\dfrac{f\cdot f_{ref}}{f+f_{ref}}

という式を入力して得られた画像を、「補正したマスターフラット」として、WEBBに入力すればあげれば良いです。

なぜならライトフレームをLとすれば上に書いた2枚のライトフレームの平均は

 \dfrac{1}{2}\left( \dfrac{L}{f} + \dfrac{L}{f_{ref}} \right)

という計算をしているわけですが、これは

 \dfrac{L}{2\dfrac{f\cdot f_{ref}}{f+f_{ref}} }

と変形できるからです(WEBBのフラット補正で勝手にノーマライズされるので、係数の2は省略できます)。

実際には、「マスターフラット」と「180°反転したマスターフラット」でキャリブレーションした画像を適当な比でブレンドすることになるので、その重みをk>0とすれば、重み付きの「補正したマスターフラット」は、

\dfrac{f\cdot f_{ref}}{f+kf_{ref}}

です。kの値は結果を見ながら調整して、合わせこむことになります。

こんな方法、役に立つの?

(条件1)を満たす光学系に対して、(条件2)のようなことが起こる状況は、今回の

  • マスターフラットの撮りなおしによるカメラのズレ

以外にも

  • ライトフレーム撮影時と、フラットフレーム撮影時の鏡筒の撓みの違い
  • 撮影中に光軸が動いた
  • フラット光源が不均一だった

などありそうで、もしこういう状況になれば、上記の方法で近似的にフラット補正の精度を上げることができるかもしれません。今後さらに検証していく予定です。

 

あと、PixinsightのABE/DBE、最近加えられたGradient Correction(GC)などがあまりに優秀なので、こんな面倒なことしなくても良いのじゃないかという向きもあります。でもこれらのツールは、原則的には光害によるカブリを取り除く機能であって、無暗に使えば本来あるべきライトフレームの情報(淡い分子雲など)を取り除いてしまうことになります。なのでフラット補正の精度を上げる努力は常に行うべきで、ABE/DBE/GCがあるから、こういう方法を考えるのが無駄ということは無いのじゃないかなと思っています。

サムネ用



*1:望遠鏡の場合は、カメラと筒の位置関係を撮影時とまったく同じ位置関係にするのはほぼ不可能です。この辺りが、マウントがしっかりしているカメラと違って難しいところです。

*2:さらに悪いことに、RASAの補正板にマウントを取り付けるパーツがラジアル方向にクリアランスを持っていて、上下左右に1mmちょっと動きます。なので回転だけでなく中心もズレます。

弓張平でM106を撮影しました

4月の新月期は、山梨県の弓張平に出かけてM106を撮影しました。その顛末の報告です。

撮影地

弓張平公園は、月山のふもとにある美しい公園です。

標高は600mほどで、街灯のない広い駐車場があって天体写真撮影にもとても良いところです。高速道路のICがとても近くアクセス良好なのも嬉しい。

じつは、前回ここに来たのはもう5年以上前です。その時は見事な曇天に撮影を阻まれ、かのーぷすさんと一緒に雲を数時間眺めて撤収したのでした。盆地のような地形と湖が関係しているのか、どうも「雲が湧きやすい場所」というイメージがあります。

春休み最後の週末のこと。我々は熟慮を重ねた末に月山周辺の天候がベストと結論します。それで今回もかのーぷすさんと現地で落ち合う予定を立てました。ところが大事なことを見落としていたのです

「雪が積もっていて駐車場に入れません」

先発していた氏からDMで連絡が。なんと!4月だというのにアスファルトの駐車場まで根雪で埋め尽くされているとは・・・。地元の方にとってみれば「月山なんだから当たり前だろ」という話なのでしょうけど、数年つづく暖冬傾向にすっかり油断してました。

結局、除雪されていた建物わきの駐車スペースをかのーぷすさんが見つけてくれていて、何とか撮影できたという顛末です。

コチラが撮影地。南側が開けていて暗く、雪山と星空の対比がなかなか美しい場所でした。空はすこし霞んでいて、0時過ぎには曇ってしまい、撤収となりました。それでも4時間は露光できたので、良しとしましょう。

結果

コチラです。

around M106

Date: 2024-04-05
Location: Yumihari-daira, Yamagata, Jpn.
Optics: Celestron RASA11'', ASI2600mc & ASI2600mm
Exposure: 180s x 45f gain100 (OSC), 180s x 33f (Mono), total 3.9h
Processing: Pixinsight & Photoshop

黒潰れに気をつけながら、背景を暗くして星と銀河の色彩を際立たせることができたと思います。RASAでやってしまいがちな擬似スパイダーの光条のずれも見えませんよね。うまくいったと思います。

以下、今回の撮影方法や処理についてまとめておきます。

撮影方法

以前のエントリで書いたように、RASA11''での撮影では、撮影の途中にモノクロカメラとカラーカメラを交換する方法で、LRGB撮影をしています。

これは、対物側にカメラを取り付けるRASAの構造上、フィルターホイールが使えないために考えた苦肉の策です。

撮影の手順は以下の通りです:

  1. カラーカメラ(ASI2600MC)を取り付けて、ピント合わせ → 撮影(1時間〜2時間くらいを目安)。後のモノクロ撮影でUV-IRカットフィルターを使う場合は、あらかじめフィルタードロワーにフィルターを入れておくことで、カメラ交換時のピント移動を抑えます。
  2. 子午線反転のタイミングを目安に、モノクロカメラ(ASI2600MM)に交換。ピントは一応確認するだけ(これまでの経験ではカメラを交換してもピントは動かない)。できれば3時間くらい撮影したい。
  3. モノクロカメラを装着したまま、パネルの照明でフラット撮影。(おわり)
フラットはモノクロのみ取得

フラットフレームは、モノクロカメラでのみ撮影し、それをカラー画像とモノクロ画像の両方に適用することにしました。カメラを交換する前にカラーカメラのフラットを取得するのは避けています。夜中にパネルを発光させるのは眩しくてイヤなのと、遠征中の作業はなるべく最小限にとどめたいためです。モノクロのフラットさえあっていれば、カラーのフラットがずれていてもLRGB合成後の影響はそれほど大きくないという判断もありました。

なお、PixinsightのWBPPで、カラー画像に対してモノクロのマスターフラットが指定できないようでした。なのでキャリブレーションのみ、ImageCalibrationプロセスを使用してマニュアルで行っています。

ピントは意外に動かない

これまでこの方法で2回撮影を行っています。F2.2のRASAを使っているにも関わらず、カメラ交換の前後にピントの移動はなかったです(バーティノフマスクで確認してます)。これは嬉しい誤算で、撮影がだいぶん楽です。ただし、ピントは2台のカメラのバックフォーカスがどれくらいの精度で合致しているかにもよる話で、たまたまアタリだったのかもしれません。それともZWOの機材の精度がすばらしいのかも。

画像処理

前処理

カラー画像の処理では、PixinsightのWBPP内Post-Calibrationタブにある"Channels configuration"を以下の設定にしています。これによって、Integration後に出力される画像がカラー画像ではなく各R,G,Bチャンネルのモノクロ画像になります。

ちなみにこの機能は、昨年末くらいにPixinsightのフォーラムで議論されていて最近WBPPに実装されました。Debayer補間による画質の劣化を避け、各チャンネルを別々にアライメントすることで大気差や色収差の影響も補正できるのが大きなメリットです。じつはこの方法、そーなのかー氏が3年前にすでにやっていた方法と同じなんです

さすが!そ氏!あと、同じ方法をあぷらなーとさんも独立に思いついていたようです。さすが!あ氏!

上記によって、L,R,G,Bの4枚のマスターライトが得られるので、Weigjht Optimizerスクリプトを使ってウエイトを計算した後に、スタックして1枚のL画像を作ります。ただ最近WOスクリプトがエラーでうまく動きません。Pixinsightのフォーラムでもそのことが指摘されていて、現在対応中だそうです。WOを使わなくてもPSF Weightでスタックしてもある程度良い結果が得られます。

後処理

最近、後処理で悩むことが増えてきました。特に今回のM106のようなメジャーな対象で、自分なりの個性を出そうと欲張るために、ふと手が止まって何をして良いのか分からなくなってしまうのです

硬調に仕上げたい

それで今回は「硬調」な銀河の画像を目指しました。海外の作例で、背景をかなり強く切り詰めた画像を目にします。つねに「硬調」が良いわけではもちろんないですが、星や星雲の色彩が引き立つ効果を狙いました。

星沼会のカタログで、メンバーが撮影した系外銀河の画像を見てみると、背景の値は256階調で25〜35くらいが多く、その辺りが自然な落とし所だとおもいます。今回の画像では、20以下を目指します。

単に背景を切り詰めるだけでは不自然になることが多いです。おそらく背景ノイズやフラット補正の誤差で、輝度が落ちているピクセルが先に黒潰れしてしまうからでしょう。そうならないように十分に背景を整える必要があるわけですが

DeepSNRのノイズ処理

今回は(というか最近の画像処理では)以前紹介したノイズ処理プログラム ”DeepSNR” が良い仕事をしてくれました。

このプログラム、適用する画像の種類によって全く効かないことがあるからか、いまいち流行っていないような気がします。これまで色々試した結果、おそらく「1倍のDrizzleでスタックしたカラー画像」のみに効果を発揮するようです。モノクロ画像やDrizzleしてないカラー画像、2倍以上のDrizzle画像に適用しようよすると、上手く行きません。

このように使いにくい部分はあるのですが、DeepSNRが良いのは、NoiseXTerminatorやTopazDenoiseと違って、ノイズ処理にシャープ化が伴わない点です。思い切り強く適用しても、シャープ化のために星がギザギザになるということがなく、純粋にノイズだけを取り除いているように見えます。こちら適用例です

かなり良いように思います(公平な比較のためのパラメータ調整が面倒なので、NXTとの比較は載せませんが、この画像に適用した範囲ではDeepSNRのほうが良い結果に感じました)

おわりに

こんな感じに思いついたことすべて、だらだら書いてしまいました。最近、チリでの撮影に比較して、国内での遠征撮影で「これは」という結果が得られていなかったのですが、今回のM106は満足いく結果に成りました。

 

サムネ用