PixInsight

2009年に購入したPixInsightです。これまでは必要なProcessやScriptを適当に使っていたのですが、モノクロCCDを使い始めた事もあり、LRGB合成辺りから使い込んで見る事にしました。
これまでとは違うタイプの画像処理ソフトで戸惑う事が多いですが、ドキュメントやビデオチュートリアルも充実してきたので基本操作を含めて学習可能と言えない事もないです。

2012.3.18

ColorCalibrationについて(2012.10.3)

一眼デジカメ画像の処理 (2012.5.16)

PixInsightで星景写真のカブリを補正してみよう (2012.4.14)

戻る

   PixInsightでLRGB合成に挑戦しよう!

PixInsightでLRGB,4枚の画像からカラー合成を行う手順です。これをマスターするとPixInsightという画像処理ソフトがどういう物なのか少し分かるようになります。
まずはScreenTransferFunction(STF)を理解して使ってみましょう。

PixInsightでLRGB合成を行う場合、STFは使用頻度が高いProcessです。16bit階調で画面上では暗くて何も見えない画像のレンジを切り詰めて見えるようにしてくれます。
左上のLinkRGB ChannelsをOFFにするとカラーバランスを調整してくれますし、ONにすると現在のRGB本来のバランスで見る事が出来ます。ただしSTFはあくまで画面上での操作で元画像は全く変化しません。右下のSTF Enalbedで効果をオンオフ出来ます。 

実際にレンジを切り詰めるProcessは他に用意されているので、STFは基本的には作業用に画像を確認するためだけのツールです。カラーバランスをNewInstanceとして他の画像やProcessに渡す事も出来ます。
StarAlignment->LRGB Combination、まずはRGB画像を作製しましょう。

RGB合成に先だって3枚の画像を(Lも一緒にやっておいても良いですが)位置合わせしなければなりません。
MaxInDL等で撮像を行っている場合は、コンポジットまではそれぞれMaxImDLで行っておいた方が良いと思います。

PixInsightのImageIntegrationでも良いのですが、Viewから合成出来ないので予めStarAlignmentで位置合わせしたファイルを作成しておく必要があります。StarAlignmentは位置合わせした画像をViewかファイルに出力する仕様なので(デフォールトではファイル名に-rが付きます)、その分使用メモリーやファイル数が多くなります。

RGB合成時の3枚の画像の位置合わせについては、3枚なのでStarAlignmentで位置合わせしたファイルを生成して使うのも良いでしょう。StarAlignmentのReferenceImageはR,G,Bどれでもかまいませんが(厳密には星像の小さな方が良いとかあるのかもしれません)、紛らわしいので、その画像も含めて位置合わせしたファイルを生成してしまった方が良いです。

DynamicAlignmentは2枚の画像で行うには手軽ですが、枚数が多いと私の頭ではこんがらがってしまいます。


次にLRGB CombinationでRGB合成を行います。StarAlignmentで位置合わせした場合は、"-r"の付いている位置合わせしたファイルを開いて使います。LRGB CombinationのLをOFFにしてRGBに使用するファイルを指定します。ここではウィンドウ内の他機能は使わずに単純に合成します。

合成時のカラーバランスはここのChannelWeightsで調整する事も可能ですが、今回は(ビデオでもそうしてますね)これ以降のProcessの効果を確認するためにもR:G:B=1:1:1のままで合成します。STFで画像を確認すると中画像のようになります。STFウィンドウ右上のLinkRGB ChannelsをOFFにすると下画像のようにカラーバランスが合っている画像を見る事も出来ますが、あくまでも画面上の事なので実際の画像処理には関係ありません。むしろLinkをOnにして実際のバランスを確認すべきでしょう。 
BackgroundNeutralizationで背景の色を調えましょう。


次に背景のカラーバランスを調整します。RGB合成が終わった状態では緑が強すぎます。

ビデオでは周辺減光の補正を先に行っていますが、今回の画像ではこちらを先に行った方が綺麗になるような気がします。

最初にPreviewエリアを設定します。上画面上部の丸で囲ったボタンをクリックすると画面上でエリアをPreviewとして設定出来ます。なるべく星が入らない方が良いようなので、広いエリアを確保出来ない場合はエリアを複数個選択し、ScriptのPreviewAggregatorでプレビューを寄せ集めた画像を作製する事もできます。ProcessのReferenceImageには、scriptで作成したAggregatedを選択します。これを参考に画像全体のカラーバランスを調えるという事です。もちろん1つのプレビューエリアを直接選択する事も出来ます。

Processを実行するには、BackgroundNeutralizationのWindow右下○で囲んだ三角形がNewInstance作成ボタンになっているので、これを作用させる画像にドラッグ&ドロップするだけです。もちろん■ボタンで実行しても同じ結果になりますが、アクティブウィンドウが異なっていると思わぬ誤操作になるので、沢山画像を開いているときはInstanceを直接ドロップする方が安心です。

実行するとSTFのリンクをOnにした状態でもかなりグレーに近い背景画像になります。この作業で画像のカラーバランスが実際に調整できたことになります。

Limitの設定
作業している画像の下に、カーソル位置のR:G:B値それぞれ表示されます。
PixInsightでは0から1の間の数になります。 BackgroundNeutralizationなどいくつかのProcessでは
LowerLimit, UpperLimitを設定できますが、この数値を参考に指定すると上手く処理できる場合があります。
この画像ではR=0.1855, G=0.1112なのでUpperLimitを少し上げてやると良さそうです。
 
DynamicBackgroundExtractionで、周辺減光やカブリを補正しましょう。

これは以前からお世話になっていたProcessですが、周辺減光やカブリをかなり正確に補正してくれます。もちろんフラット画像による補整には及びませんが今回のように撮影中のトラブルなどでフラットが合わなくなってしまうような時は役立ちます。おなじ背景補正でもAutomaticBackgroundExtractorは経験上、出来あがった画像に対して「もうちょっと」という場合に使うとスッキリ上手く行く事が多いProcessのような気がします。 

購入当初、最初に挑戦したProcessですが、未だによく分からない部分もあります。

まずProcessを開いたら、これから処理を行う画像上でクリックしないと全てが始まりません(当初、これに気が付くまで随分手間取りました)。
Sampleはマウスでクリックする事も出来ますし、Generateボタンで格子状に配列する事も出来ます。samlpeの間隔も自由に設定出来ます。
Tolerance(許容範囲)を大きくすると極端に暗い部分や明るい部分にもSampleを配置出来ますが、この場合平坦化に無理をするようで処理後の画像に何らかの影響が出るような気がします。

Sampleはかなり密集して置く事も可能ですが、どれほどの効果があるのかよく分かりません。

実行する時はどのような結果を得たいか予めTargetImageCrrectionでチェックする必要があります。画像から背景を減算するならSubtractionを、除算するにはDivisionを選択します。Divisionを使うケースの解説を読んでも具体的にどういう画像の時かピンと来ないのですがビデオではDivisionを選択しています。あまりカブリが顕著でなければ積極的にDivisionを試してみるべきなのでしょうか?

Normalizeは背景色を保護する作用があるようです。すでにニュートラルグレーの背景となっている場合は選択しても良いですし、後からBackgroundNeutralizationを行うならどちらでも良いような気がします。補正に使用する背景画像を残すにはDiscardBackgroundmodelにチェックを入れず、補正画像を新たに生成するにはReplaceTargetImageにチェックをいれません(紛らわしい書き方ですね)。背景画像を取り出す事が出来ると、色々な使い方が考えられます。ModelImageのDownSamlpeを1にすると同じ大きさの背景画像を生成出来ます。背景画像は必ずSTFで確認すべきで、出来上がった画像と、この背景画像を比較してサンプルの取り方を調整すると上手く追い込めます。

sampleの配置や変数の設定が煩雑なので、補正の準備が出来あがった状態で下画像の○で示すようにNewInstaneを画面上にドラッグ&ドロップして一時保存します。これでL画像を補正するときに同じSample配置で簡単に設定する事が出来るのです。この機能は非常に便利です。
ColorCalibraionで対象のホワイトバランスを調えましょう。

HistogramTransformationを行う前に出来るだけ画像のカラーバランスを整えた方がよいようなので、ColorCalibrationを行います。

BackgroundNeutralizationは背景の色調をグレーに整える処理でしたが、この処理では対象となる銀河などのオブジェクトのホワイトバランスを整えつつ背景をグレーに維持する処理を行うようです。そのためPreview領域は最低で2箇所、背景と対象オブジェクト周囲を設定します。Aggregatorで複数のPreview領域を設定することも可能です。 

StructureDetectionはホワイトバランスの参照領域に星がある場合にチェックすると良いとなっていますが、どの程度の場合かは具体的に解説していません。
 
HistogramTransformationで、画像のレンジを「ノンリニア」に切り詰めます。

ようやくRGB画像のレンジを実際に切り詰める作業を行います。ステライメージだとデジタル現像を使う場面です。
※PixInsightにもDDPはありますが、あまり気合が入ったProcessではなさそうで、解説を読んでも使う気になれません。

HistogramTransformationは解説によるとトーンカーブで言うと直線的な配列を midtones transfer function (MTF)で、圧縮することのようです。
あらかじめSTFをOFFにします。最初にウィンドウ右下の丸で囲む部分のボタンを押して作業画像を取り込むと、2個あるグラフウィンドウの内、下のグラフの左端にほとんど線にしか見えないようなヒストグラムが出現します。ここで左下のソロバン球のようなボタンを押すとプレビュー画面が表示されます。下のグラフX軸の中央付近にある三角を左にスライドさせると直線がカーブになっていくのが分かります。そしてプレビューの画像が明るくなります。

下画像の丸で囲む部分に拡大率の調整があるので、画像にもよりますが50倍から100倍程度で確認しながら、カーブとヒストグラムがこのような関係になるように調整します。プレビューの画像がちょうどよければ出来上がりです。プレビューを消して実行すれば画像のレンジ切り詰めが完了です。これでSTFを使わなくても画像を直接確認することが出来るようになるのです。

これはデジタル現像とほぼ同じ原理ですね。ただしトーンカーブが見えるので、この処理がハイライトを圧縮していることを意識できます。ステライメージのDDPのような色彩強調マスクもガンマも無いですが、それに変わる物はちゃんと用意されています。
HDR MultiscaleTransformでハイライト部分の構造を強調しましょう。

(参考画像はRGBではなくL画像の物です)

Number of Layersを6,5,4に変えた3枚を比べて下さい。元があまりよい画像ではないで申し訳ありませんが、6が最も良いように思えます。銀河の中心付近が極端に明るい場合は少ないlayer数が有効になるようです。画像によって効果の異なるので、必ずPreview画像を作って比較してから最適なレイヤー数で実行します。画像左上のタグをドラッグ&ドロップで真下に持っていくとPreviewが生成され、他の場所に持っていくとクローンが作られます。

チェックボタンでは、Lightness Maskが有効なこともあります。

このProcessでは、対象がよほど明るくなければ恒星周囲の黒トビを補正するDeringingはそれほど必要なさそうです。

HDRはハイダイナミックレンジのことですから、銀河の飽和に近い部分を処理してそこから解像できる構造が見えるようにする処理なのでしょう。また、HDR MultiscaleTransformはノンリニアなレンジ切り詰め後に行うように調整されているようです。リニアな広いレンジの状態で実行する場合MidtomesBalanceを調整し、Number of Layersを少なくしても良好な結果を得にくいです。他のDeconvolutionや画像復元処理もHistgramTransformationの後で行った方が調整が簡単かもしれません。

画像によってはSCNRのような各カラーチャンネル毎のノイズ除去が有効な場合もあります。G画像のノイズを軽減する場合が多いようです。

これでRGB画像の処理は終了です。
 
続いてL画像を同様に処理していきます。

RGB画像とStarAlignmentしてあるものとします。

まず左に示すDynamicBackgroundExtractionを行います。 このときBRG画像の時に設定したSample位置などを記録したInstanceを、ウィンドウのアンダーバーにドロップしてやることで再現できます。

続いてHistogramTransformation、HDR MultiscaleTransformの順で行います。
 
再びLRGB Combination、最初にRGB合成を行ったProcessを、今度はLRGB合成に使います。


今度はR,G,BのチェックボタンをOFF、LのみONにして合成するL画像を選択します。この状態で合成するRGB画像にInstanceをドロップすれば合成を行ってくれます。ウィンドウ内に完成したRGB画像を選択する部分はありません。

TransfarFunctionsが非常に有効です。Lightnessは輝度?、Saturationは彩度を調整してくれます。合成画像の発色を見ながら調整すると良いでしょう。他のソフトのように色調を見ながら前の手順に戻って処理をやり直すような必要がありません。

彩度が決まったら、ChrominanceNoiseReductionをチェックして最終的に実行します。このノイズ除去を選択すると時間がかかりますが、仕上がりは綺麗になります。

 

ちょっと表示が
バグってます。
ACDNRでノイズを軽減しましょう。

applyはluminanceとchrominance2つのタグがあるので、必要な方、もしくは両方を実行するためのチェックです。
std.DevはCCDなら1-1.5、フィルムなら2-3だそうですが、画像によって調整した方が良いです。

対象の構造や解像度を損なわないように、edgeprotectionとmaskを調整してみると良いでしょう。今回の画像ではデフォールトでもあまり問題になりません。

マスクの調整
ACDNRでは、Process内でマスクを指定することが出来ます。LightnessMask内の○で囲った部分を使うと、作成するマスクのプレビューを表示することが出来るので非常に便利です。実行時調整したマスクを有効にするには上部○のLightnessMaskをチェックします。
 
PixInsightの場合、今回紹介したLRGB合成はごく基本的な処理の流れだと思います。ImageCaliblationを使えばBias, Dark減算、Flat補正も出来ますし、ATrousWaveletTransformは他のソフトとは異なる表現を可能にしてくれます。

PixInsightは非常に速いスピードでProcess毎にバージョンアップしています。それに対してhttp://pixinsight.com/のチュートリアルなどは初期の物も多く残っているので、今の(他の)Processを使えば一発で出来てしまう事を既に存在しないProcessを使って解説している部分もあります。これが最初の頃とても分かりにくい原因だったように思います。またチュートリアルとは書いてありますが、Processの使い方と言うより原理を書いてある部分が多いので難解で何回読んでもちんぷんかんぷんのチュートリアルもあります。

まずはビデオチュートリアルで比較的最近のProcessを順に使って処理を進めて行く流れをつかむとPixInsightと仲良く成れる気がします。
   

追加
 
PixInsightのFitsファイル

PixInsightでFitsファイルを読み込むとレンジは0−1の範囲に変更されます。保存されるときもそのままなので、MaxIMDLやステライメージで開くとちょっと問題があります。MaxImDLでは上のようにStretchでMaxImDLで保存したレンジに戻す事も出来ますが、特にステライメージではカラー画像のFitsで、GBのレンジを広げるだけでは対応出来ない事があります。どうしてもステライメージで処理した画像をPixInsightで読み込んだりその逆を行う場合は、一旦MaxImDLを経由しています。


根本的にはどうしたらよい物やら有効な解決策が分からないのですが、Ver.1.7では
http://pixinsight.com/forum/index.php?topic=3118.0と言う事らしいです。
FormatHintsに書けば良いと言う事なのでしょうか?

もう1つFitsファイルの読み込み方向は下の○の部分で簡単に変更可能ですので、自分が使っているソフトに合わせた方が良いでしょう。

   PixInsightで星景写真のカブリを補正してみよう

星景写真のカブリは、地上風景画入っているのでなかなか消し辛い場合が多いです。また、かぶった方が良かったり、かえって不自然になったりする場合もあるので、一概に補正した方が良いとも言い切れません。
今回はPixInsightを使って地上の風景に大きな影響を与えずに、空をニュートラルグレーに調整する方法をご紹介します。
 
比較明合成や現像はPhotoshopでもRAP2でもステライメージでもかまいませんが、TiffかFits形式で保存した方が良いと思います。

PixInsightで比較明合成を行う場合は、RAW形式のままImageIntegrationを使います。CombinationはMaximum、NomalizationはNoNomalizationかDefaultのAdditiveでよいと思います。手間はかかりませんしノイズの除去もやってくれるので優秀ですが、ちょっと時間がかかります。 
DynamicBackgroundExtraction(DBE)を起動して、SampleGenerationをやってみます。Samples per Rowは20程度で良いと思います。
Defaultの設定だと画面左下と地上部分にはにサンプルが配置されません。今回は地上部分にはSampleを配置したくないので、補正を行いたい左下空の部分にマウスクリックでSampleを配置していきます。クリックで配置したSampleのいくつかは赤くなっていると思います。
Toleranceを大きくし、MinimumSampleWeightを小さくして全てのSampleを緑?白?にします。 
 
TargetImageCorrectionはSubtractionが良いと思います。チェックボックスは全てチェックしません。

実行すると背景画像とDBE画像が出力されるので、背景画像をSTFで強調して確認します。減算されたカブリ画像に不自然な点が無ければ成功です。問題があればDBEのSampleを配置しなおしたり設定を変更してみると良いでしょう。
 


試しにSampleを地上部分まで配置してみました。減算する背景の地上部分は黒くなりますから、この画像を使った方が地上部分の明るさを維持してDBEを行うことが出来るので、トーンカーブによる調整が不要です。ただし空の色かぶりを補正を補正するためNormalizeはチェックしていないで実行するので地上部分の色が失われるようです。この画像だと畦の緑色が消えてしまいます。また、地上付近の空も補正が甘くなるようです。撮影した画像によって使い分けしてみると良いでしょう。
 DBE後の画像です。地上との境界近くまで平坦なニュートラルグレーの空に補正されています。ただし若干明るいのでこのままでは不自然です。
ここから先はどんなソフトでもかまわないと思いますが、今回はCurvesTranseformationを使ってみました。使い勝手はPhotoshopとほとんど変わりませんが、必要があれば一番右の「S」:Saturationを調整することが出来る点は便利です。

地上風景で明るさを維持したい部分をクリックするとグラフのどの部分か表示されます。 
 地上部分を下げないように、空の部分のカーブを下げて若干暗くします。
好みによるでしょうが、こんな感じに仕上げることができます。
不自然すぎるほど平坦な空からDBEの優秀さが分かります。
 
完成した画像です。
桜星景に向けた試し撮りですが、ふと思いついてDBEの実験に使ってみました。

上が地上を避けてSampleを設定した場合、下が画面全体にSampleを配置した場合です。



今年の桜はこの方向で、沈むふたご座とぎょしゃ座を背景に満開の桜を撮影したいです。月明かりが良い時期は5月2,3日頃ですがその頃満開の桜を探さなくてはなりません。
   
   
一眼デジカメで撮影した画像を処理してみます。

26枚コンポジット、156分露出ですが、冷却一眼なら数十分でこのレベルになるでしょう。
一般的にはCanonなら*.CR2というファイルを処理していく事になりますが、今回はSIでノイズ除去を行いRGB分解・補間法を使ってR/G/Bモノクロファイル26*3枚を作成した上でコンポジットしてR・G・Bモノクロ画像を作成しました。RGB合成を行う所からPIを使ってみました。カメラメーカーから提供されるベイヤーRGB変換やフォトショップの変換は色彩が豊かでコントラストの高いカラー画像を生成する事が出来ますが、RGB分解したファイルからカラー画像を再合成する過程を自分でやると色彩を調えるのが面倒です。そこでPIの機能を生かす事が出来ないかと考えて試す事にしました。

左は26枚コンポジットしたG画像です。STFで見えるように強調してあります。まずは画像右側に向かってカブリがあります。RGB合成前にこのカブリを処理する必要があります。 
 
まずカブリ補正

これはRGB分解・補間に関係なく利用出来るテクニックです。
 
PIではフラット補正やカブリ補正として前述のDBEを多用しますがABEにも非常に有効な使い方があります。

今回の画像では全体に広がる淡い散光星雲や暗黒帯があるのでDBEのように細かなサンプル設定より、直線的なカブリ部分だけを減算した方が最終的には癖の無い良い画像が得られます。

ABEはサンプルを指定することは出来ませんが、FunctionDegreeを調整する事でさまざまな状況に対応できるようになっています。デフォールトの4では、光学系の周辺減光含めたカブリを補正する場合に最適な数値となっているようです。この値を、小さくする事でより直線的なカブリ補正を実現出来ます。1ではほぼ直線的なカブリを補正出来るようです。
 

上手く使うためには数値を変更しながら最適な補正となる値を決める必要があります。出力される背景画像と補正後の画像をSTFで強調して比較することで最も良い結果となる数値を見つけます。今回のG画像ではFunctionDegreeを2とする事で一番良い補正結果となりました。R,Bについてもそれぞれ設定する必要があります。残念ながら周辺まで完璧!とはなりません。ただDBEで多数のサンプルを配置したときのような色ムラは出ないので最後にPSなどで補正が可能です。

安直な方法としては最後の仕上げにもう1回ABEを使うという手もありますが・・・
 
試しにFunctionDegreeを10に設定して見ました。画像と背景を比較してみると、散光星雲部分の背景が明るくなっているので、今回はあまり適切でない補正用背景画像である事が分かります。 
 
カブリを補正したら次はいよいよRGB合成です。まずはChrominanceNoiseReductionをON、他はデフォールトでやってみました。

星の周りが凄い事になっていますね。このCNRはSIなどのLRGB合成時にRGB画像に行うガウスぼかしと同じような事をやっているのだと思いますが、HistogramTransformation前だとデフォールトの設定では上手くいかないようです。

Saturationはデジカメ画像の場合0.9とか1.0など大きな値にした方が星の周りに色ニジミは少なくなります。小さくすれば星に色はのりますが、RGB分解・補間法でRGB合成する場合は特に中心部に極端な色が着きます。
Saturaitonを小さくした画像では、縮小して見ると綺麗に色がのっていて大成功のように見えますが、これでは使えません。 
CNRをOFF、Saturation:1.0でRGB合成した画像です(LRGB合成ではないのでしっかり区別してください)。上の画像に比較するとかなり地味ですが、散光星雲の色を強調する場合星の色はこの程度で始めた方が良さそうです。もちろんPSなどで星マスクを使用して画像処理する場合は、この段階で星の輝度・彩度が決まっていても問題ないのですが、PIではそのようなレイヤー処理は出来ないので元画像のバランスが肝心です。

今回はカラー画像のみでL画像が無いので、これが全てとなるわけです。 

処理する画像は全体的に値が低いので、まずHistogramTransformaitonで少し強調して、バックグラウンドが0.2-0.3程度になるように調整しておいた方が以降の処理の正確さが増すようです。

SCNRで気になるGを処理してからBackgraundNeutralizationを行います。

次は彩度です。
PIで画像の色彩を強調する場合、CurvesTransformationのSaturationCurveを使います。ビデオではこんな使い方をしていましたので真似して使っていますが、DDPが輝度でやっているのと同じように、高彩度部分を圧縮するように強調しているという事になるのでしょうか? 
 
ACDNRを使って全体のノイズを軽減するとこのようになります。 

RGB分解・補間法の唯一の長所である淡い部分の構造が滑らかに表現されているようです。星の周囲にベイヤーRGB変換で特徴的な色の輪もありません。星の色自体は今一つですが、LRGB合成する場合はここからが勝負ですが、この場合は上手い打開策を思いつきません。最初のRGB合成時のSaturationで全て決まっているような気がします。
PIでの処理は、星マスクを使った星像縮小が出来ないので星が煩いですが周囲に色のリングが無いのでこの程度で済んでいます。

RGB分解・補間法の最大の欠点は淡い部分の色調がベイヤーRGB変換に及ばない事でしたが、PIのおかげで、星雲部分には綺麗に色が乗りました。注意深く見ると周辺減光の補正が不十分で周辺のカラーバランスが不自然ですが、PSで簡単の補正できるレベルです。
 
ダークやフラット画像を用いた、全てのキャリブレーションをPI上で行うための強力なスクリプトが追加されたのですが、使い方が今一つ分かりません。これがPI最大の欠点です。 
   



昔、記載した分です。今となっては変わってしまった部分や間違った認識もありますが残してきます。



2009.7.19

しつこい性格。
PixInsightを初めて使ったときに、この画像でWaveletを試しました。 かなり酷い処理ですね。少し分かってきたので、改めてATrousWaveletTransformを使ってM101の中心部の暗黒帯を強調してみました。勿論フォトショップとステライメージを併用しています。このWavelet処理はもっと大きな範囲で行うとガウスぼかしのような感じになり、scale1,2辺りはアンシャープマスクのようにエッジのコントラストが強調されます。waveletといえばRegistaxが思い浮かびますが、多分同じようなものなのではないかと思われる操作系です。相変わらず本当にこんな使い方でよいのか確証はありません。


2012.3.18

ATrousWaveletTransformは様々な場面で応用出来るProcessですが、やたら変数が多くて取っ付きにくいです。L画像を対象に行う事が殆どだと思いますが、かなりクオリティーが高くないと処理に耐えられません。
DeconvolutionとMorphology

購入当初に最も興味を持った2つのProcessです。どちらも星像を丸く補正することが出来るので、ガイドエラーが起き易い長焦点では有難いことです。似たようなインターフェイスですが、最大の相違はDeconvolutionは画像全体のボケを補正するにあたり、星像を使ってパラメーターを調整するので結果として星像が丸くなるのに対して、MorphologyはStructingElementの形態で補正するため星以外の画像をマスクして補正しなければなりません。サンプルの画像はWeb用に加工したJpeg画像ですが、どちらの処理もそれなりに星像補正できていることが分かります。



Deconvolutionを使った画像では、星が丸くなることに加え、(この作例では)嘘くさいものの銀河の構造がはっきりしています。画質の高いL画像を用いればその効果は絶大です。ぼやけた画像を復元していくのがDeconvolutionですから、このパラメータの設定を行うときにも、いい加減な数値を使わずに、DynamicPSFを使って星像分析をして、正確な数値を入力した方が良いと思います。Deringingはチェックした方が良いでしょう。


対してMorphologyは他の部分に影響を及ぼさないように星以外をマスクしているので星雲などには効果が及びません。星に関してはかなり綺麗に補正されます。星像補正の設定で星雲部分に作用させるのは百害合って一利なしです。


どちらの処理が有効かは言うまでもなく、積極的にDeconvolutionを使ったほうが良いです。ではMorphologyに意味が無いかというとPixInsightの場合は多機能なので、工夫次第で色々な使い道がありそうです。

ついでにStarMaskですが、PixInsightのStarMaskは適応、大きさ、ぼかし加減など微調整も可能で優秀です。コツさえつかめばフォトショップで作る星マスクに匹敵する高精度の星マスクが作れると思います。マスクを作用させる手順も、ドラッグ&ドロップですし、可視/不可視、適応/不適応、リバースなどボタン1つで設定可能です。
 

PIでの処理


PSでの処理


補正前


補正後
 

2009.7.18

相変わらず雨模様の日が続きますね。私はせっせとPixInsightの正しい使い方の勉強?に励んでいますが、時々悪魔が囁くんですよ。「こんな事、できるぞ・・・」ってね。
王道を歩む方は、補助光学系を工夫し光路長を適正に調整し、スケアリングを追い込んで綺麗な星像を撮影して下さい。これは失敗画像救済策以上の意味はありません。

PixInsightのDeconvolutionは星像の歪みから補正のための変数を調整する事が出来るようです。逆に言えば星像も補正されると言う事になります(Deconvolutionは画像復元とノイズリダクションが元々の機能のようですが、原理はちんぷんかんぷんです・・・)。星像の補正方向は画像上で決まった角度にしか設定することはできません。ですから、光学系の収差でこんな風になってしまった星像補正は行うことができません。また、このような画像はフォトショップのフィルターで補正すると画像全体が歪んでしまうので面白くありません。
そこでPixInsightのDeconvolutionを対角線方向でそれぞれ行って、2種類のL画像を作製します。それぞれの画像は角度が合っている部分の星像は上手く補正されますが、逆側は画像が荒れるだけで星像はあまり改善しません。そこで、この2枚のL画像を元に2種類のカラー画像を作製し、フォトショップ上で対角線のマスクを使って重ね合わせました。これで上手く星像補正ができている部分を重ね合わせた画像が出来上がります。

理論的には、もっと細かな角度に分割してこの作業を行うと精度は上がるのでしょうが、苦労に見合った成果は期待できないような気がします。

 

2/3にトリミング
2009.7.17

天文ファンは皆既日食の話題で持ちきりのようですが、私はなぜか日食に興味が湧かないですね・・・。

PixInsightのMorphologicalTransformationを使って以前撮影したM13を再処理しました。L画像だけに処理を行い、若干効果を控えめにしたので、以前使ったときよりも、不自然な感じが無くなったような気がします。2*2ビニングでガイドの失敗は殆ど目立たなくなり、ありがたい限りです。

星像補正が上手く行ったので、ついでにちょっと気合いを入れて、立体感を出すための工夫をしたので球状星団の迫力が増しと思うのですが、どうでしょう?

追加:
この画像はフラットを撮影していないので、PixInsightのDBEで背景処理もしてあります。 
  2009.7.13

PixInsightのライセンスについて

30日間お試し版を使うとXPの場合、Documents and Settingsに仮のライセンスファイルが作られます。製品版を購入して使用する際にはこのファイルを手動で捨てる必要があります。その後、activating Commercial Licenseを行うと、パソコンの同じ場所に製品版のライセンスファイルが作製されて、めでたく使用可能になり、その後はネットワークに接続していなくても自由にPixInsightを使うことができます。

勘違いしやすいのは、次の場合です。
自分が所有する他のパソコンでPixInsightを使用する場合、ファイルをダウンロードしてインストールが完了したら、最初に作られたライセンスファイルをそのパソコンのDocuments and Settingsにコピーしなければなりません。User identifierを使って再度avtivatingすることはできないので注意が必要です。購入時に送られてくるメールにちゃんと書いてあるのですが、activatingするものだという先入観があると間違ってしまいます。
私は焦って、メールで問い合わせてしまいましたが、迅速にしっかり応対してくれたので助かりました。地球の裏側から、ほんの数時間で返信が来るのですからよい時代です。
 
2009.7.13

PixInsightとの干渉ソフト発見!?

起動時に"PCL-LCMS Error" と表示されて、起動したPixInsightが画像を開けなかった原因ファイルが明らかになりました。
C:/windows/system32/spool/driver/color/プラグアンドプレイモニター.icmという日本語混じりのファイルです。このファイルが作られた日はキャリブライズという画面の補正ソフトを試しに起動かした日なので、このソフトが主犯かも知れないです。もちろんこのソフト自体に問題があるわけでなく、指定された日本語ファイルを開けないPixInsightの問題だと思います(日本語環境に完全には対応していないので仕方ありません)。
SuperStarWの起動時の引っかかりは、PixInsightが正常に動くようになってからは少なくなりました。それでも完全に無くなったわけではなく、ここ数日間で2,3回出現しました。Seeds Boxさんによるとウィルス対策ソフトとの干渉もあり得るとのことだったので、もう少し様子をみます。  
 
2009.5.20

PixInsightのお試し版を使い始めて、とにかくワケが分からないので、サイトのチュートリアルをタドタド読んでます。その中でもちょっと驚いたのはPixelMathです。C言語の基本文法で画像をピクセル同士で合成できるという、ちょっと驚きの機能です。独立した言語ソフトにしてもおかしくないほど豊富な関数機能や自由に使える変数も持っているのです。考えようによっては自分専用の画像処理を16bitカラーのフルサイズ画像で作れてしまうという恐ろしい可能性を秘めています。使いこなせるかどうかは別にして、これだけでも欲しいです。

使い始めて1週間ですが、「これだけでも欲しい!」機能が既に5つになりました。

1,背景ノイズリダクション(NoiseNinjaの調整機能を増やしたような感じです)

2,背景のフラット・カブリ補正(背景だけを分離できるという、おまけ付きなので、大きな散光星雲のフラット補正用に、ちょっと脇の空を撮影しておけば、その画像をフラットに使えるかも!)

3,4,星像の補正機能、2つ(DeconvolutionとMorphology)

5,PixelMath(コンポジットから条件付きの重ね合わせや減算等も簡単にできそうです)

勿論waveletsその物も多分凄いと思うので、「それだけでも欲しい機能」は、まだまだ増えるでしょう。

 

2009.5.15

ホームページでも紹介した、天文用画像処理ソフトPixInsightです。星居ブログさんで詳しく解説されていますが、一言でいえば、凄いかもしれないソフトです。

起動しても使い方が全然分からないので、それなりの覚悟は必要ですが、成果の大きさを考えると、いじってみないわけにはいきません。先日フクロウ星雲のガイドエラーをMorphologyで修正してみたのですが、背景や星雲部分に悪影響が出てしまいます。星居さんのブログでは流れた星像をDeconvolutionで補正されています。実行例では、ガイドで流れた星を補正されただけでなく、waveletを同時にやるためか、星雲部分の構造も復元されているような感じがします。是非とも、ここ数日で撮影したVC200Lの画像で試してみたいです。

どこかの太っ腹な方が、日本語の解説書を作ってくれるとありがたいのですが・・・。

 

戻る