Automatizzare un setup astrofotografico – inizia l’avventura al Deep Lab di Manciano! (parte I)

Da circa quattro anni a questa parte, il mio setup astrofotografico risiede stabilmente in un piccolo osservatorio autocostruito, situato nel mio giardino. La struttura, poco più grande di una cuccia per cani con il tetto apribile a libro, mi ha consentito di approfittare di ogni singola ora di cielo sereno per dedicarmi all’astrofotografia deep sky.

Di recente, tuttavia, un cambiamento di necessità ci ha portato a dover cambiare residenza: per qualche tempo quindi dovrò smantellare il mio piccolo osservatorio in attesa di poterlo ricostruire nel giardino della nuova casa. Così mi sono messo a cercare una casa temporanea per il mio fidato setup. Chiedendo un po’ in giro mi sono accorto di come l’hosting di setup privati, in Italia, sia un po’ a livello del paleolitico: là dove, all’estero, troviamo strutture fiorenti che ospitano decine e decine di strumenti controllati in remoto, da noi troviamo…. nulla.

Ma, in mezzo a tutto questo nulla, ho scovato una stella immersa nel buio cielo della Maremma: il Deep Lab di Manciano.

Dopo una breve occhiata ai vari profili social, e alla pagina di Astrobin del gruppo, mi sono deciso a inviare una mail di richiesta informazioni. Non passano dieci minuti che ricevo una cordiale risposta da Giorgio, l’amministratore, che mi lascia il suo numero e mi invita ad una chiacchierata telefonica conoscitiva. Cosa che è avvenuta ben otto minuti dopo. Ormai ero talmente rapito dall’idea di poter fare astrofotografia da un cielo con sqm medio di 21.5 (un Bortle 2-3 per capirsi) che in men che non si dica mi ritrovo con un opzione su una postazione in un osservatorio condiviso, che ospiterà quattro setup e che sarà operativo entro la prossima estate.

Parlando brevemente della struttura, c’è da dire che i ragazzi del Deep Lab sono veramente dei pionieri: il complesso infatti è nato con l’idea di ospitare i loro setup privati da controllare in remoto; poi si sono accorti che la cosa aveva le potenzialità per diventare un business ed hanno ideato gli osservatori condivisi, da affittare annualmente. Il tutto è stato inserito in un bell’agriturismo, con tanto di camere da letto, ristorante e animali al pascolo, per accontentare anche mogli e figli al seguito. Cosa che ha pesato non poco a favore del “SI “.

Avere un setup operante a due ore e mezzo di macchina da casa è però un’impresa non da poco: tutto dovrà infatti essere gestito elettronicamente via PC, non potendo, di fatto, operare fisicamente sull’hardware. Inoltre sarà necessario un “rodaggio” approfondito, in modo da poter identificare eventuali problemi che possono verificarsi, e trovare il sistema di evitarli/gestirli.

Quello che scriverò in queste pagine non è assolutamente da considerarsi un “tutorial”, non avendo di fatto esperienza riguardo all’astrofotografia remota, ma piuttosto una sorta di “blocco note” sul quale butterò giù le mie considerazioni, l’esperienza che maturerò e il problem solving, nella speranza che possa servire a qualcuno. Il tutto sarà aggiornato costantemente, via via che quest’avventura procederà.

Il setup: considerazioni generali e requisiti

Un setup da gestire in remoto deve integrare necessariamente tutte quelle componenti necessarie a compiere, via PC, tutte le azioni che siamo abituati a eseguire manualmente durante una sessione di ripresa: dall’apertura dei tappi delle ottiche, alla ricerca della posizione Home della montatura, fino all’acquisizione dei flats e dei darks di calibrazione.

In linea generale un setup remoto è costituito dalle seguenti componenti:

  • Elettronica dell’osservatorio: In questo caso fornita da Deep Lab, consiste in: Switch di accensione/spegnimento setup, azionabile via WIFI; sistema di apertura/chiusura del tetto; stazione meteo; all-sky camera; webcam per visionare in tempo reale il setup.
  • Computer di controllo setup: Si può usare un normale laptop (da utilizzare chiuso), un mini-pc oppure un PC specificatamente progettato per l’astrofotografia. Per il collegamento delle periferiche sarà necessario aggiungere un HUB USB 3.0 alimentato, possibilmente che consenta, via software, di resettare singolarmente le varie porte USB ( funzione molto utile in caso di problemi ad una periferica). Cosa fondamentale è l’opzione di poter avviare il computer quando si attiva la corrente dallo switch wifi.
  • Hub di alimentazione delle periferiche: consiste in una centralina di distribuzione del 12v, da installare nei pressi del PC, e a cui collegare le varie periferiche: montatura, focheggiatore, camera, flat box ecc. Anche in questo caso, il top è utilizzate un hub con prese gestibili via software in modo da poter alimentare/disalimentare singolarmente le varie utenze.
  • Ottica: riguardo all’ottica non vi sono particolari requisiti, si può usare quello che si vuole. Dovrà però avere un focheggiatore di qualità: si sconsigliano i Crayford, che devono essere serrati tramite una vite in modo che il peso del treno di ripresa non li faccia slittare; questa configurazione risente molto della dilatazione termica e pertanto non è adatta a operare in remoto.
  • Focheggiatore elettronico: indispensabile.
  • Rotatore di campo: facoltativo se si lavora con focali corte e/o con sensori di grandi dimensioni. Diventa invece indispensabile sulle lunghe focali con guida fuori asse, per ricercare una stella di guida.
  • Camera di acquisizione: Da preferire le camere monocromatiche. Infatti in remoto anche una camera a colori dovrà essere dotata di ruota per filtri, caricata con un filtro LPS per le riprese in banda larga, un filtro multi-banda passante per le riprese in banda stretta ed un filtro nero, costituito anche banalmente da un cartoncino opaco: ci servirà per riprendere dark frames e bias. Con questa premessa si capisce bene come sia più conveniente, oltre che più performante, utilizzare una camera mono.
  • Sistema di guida: può essere costituito da un ottica separata munita di camera di guida, oppure da una guida fuori asse, a seconda della focale impiegata. Nel primo caso, da evitare come la peste i piccoli telescopi: un ottica di guida deve essere progettata come tale, e essere munita di focheggiatore elicoidale con sistema di blocco. I focheggiatori tradizionali infatti possono slittare portando fuori fuoco la camera di guida. Altra cosa da evitare sono gli anelli decentrabili tipo cercatore. Oltre a essere la causa principale delle flessioni differenziali, con l’escursione termica le viti possono allentarsi con ovvi risvolti. Tutto sommato, quindi, se si ha dimestichezza con le guide fuori asse queste rappresentano la scelta ideale un po’ per tutte le focali.
  • Tappo automatico/flat box automatica: ha la doppia funzione di proteggere le ottiche quando chiuso, fungendo da tappo motorizzato, e permetterci di acquisire i flats. L’interno del tappo è infatti costituito da un pannello led dimmerabile e controllato via USB.
  • Gestione delle fasce anti condensa: ogni lente o specchio dovrà avere la sua fascia anti condensa. E dovranno essere gestite da un modulo ambientale in grado di rilevare temperatura, pressione e umidità dell’aria. Non saremo presenti sul posto, e pertanto ci mancherà la nostra percezione.
  • Montatura: ho lasciato componente per ultimo perchè sarà il cuore di tutto il setup, e perchè è quello più discusso sui vari forum specifici. Se si guardano video di osservatori remotizzati, cade l’occhio sul fatto che la maggior parte delle montature sono di tipo estremamente avanzato (e costoso): Paramount, Astrophysics, Planewave, l’italiana 10micron e chi più ne ha…più ne spenda. Oltre a guidare con precisioni inferiori a 0.10″, queste montature hanno una caratteristica comune: gli encoders assoluti sugli assi. In pratica sanno sempre esattamente dove sono rivolte. In questo modo la montatura non perde mai la posizione di Home, e sa sempre dove sono i limiti impostati (ad es per non far urtare la camera nel treppiedi, o per non far strappare i cablaggi). Caratteristica alquanto utile se, ammettiamo, salta la corrente all’osservatorio, o se il PC crasha e la montatura continua a guidare oltre il meridiano: a quel punto interviene l’elettronica interna, guidata dagli encoders, e blocca tutto. Alla sessione successiva la montatura riacquisirà la sua posizione di Home e sarà pronta per la sessione in pochi istanti. Un oggetto del genere ha però un costo elevato: si parla di circa diecimila euro per una montatura con carico utile paragonabile a quello di una EQ6. Negli ultimissimi anni, tuttavia, si sono affacciate sul mercato montature prodotte in serie che integrano, sugli assi, dei sensori in grado di rilevarne la posizione con precisione sufficiente a garantire l’operatività in sicurezza delle stesse. Questa funzione si chiama Auto Home e è presente sulle Ioptron dalla CEM 70 in su, sulla EQ8R e sulla CQ350 di Skywatcher, fra le altre. Pur non guidando con la precisione di una montatura con encoders, queste valide alternative “economiche” svolgono egregiamente il loro compito, e permettono di caricare svariate decine di kg di strumenti. Esistono infine rimedi “caserecci”, da applicare alle montature più comuni, per ovviare all’eventuale perdita della posizione Home dovuta a un blackout. Si spazia da micro switch, al controllo tramite webcam dell’allineamento della montatura, a riferimenti disegnati sulla stessa che permettano l’allineamento ecc. Se si opta per queste soluzioni tuttavia c’è sempre da vigilare sul setup mentre opera, perchè il danno può essere da grave a gravissimo in caso di collisioni col treppiedi.

Questi sono i componenti essenziali per riuscire nell’impresa. C’è da dire, a mio vantaggio, che a causa dei miei impegni e della mia quotidianità, con due bambini molto piccoli, ho iniziato già da diverso tempo il processo di automazione della mia attrezzatura: a oggi, infatti, nelle serate limpide le uniche operazioni “manuali” che compio sono l’apertura del tetto della specola, e l’allaccio alla corrente. Quando serve, pongo la flat box sull’ottica. Per il resto gestisco tutto da PC o tablet, mi preparo le sequenze in NINA e mi limito a premere il tasto di avvio: alla mattina, salvo problemi, mi ritrovo la montatura parcheggiata, la camera spenta e i subframes già sull’ hard disk del mio pc di casa. Quindi una buona parte del lavoro è già svolta. Ad ogni modo, una cosa è operare in remoto da trenta metri, che sai che se c’è un problema esci, anche in pigiama, e qualcosa ti inventi. Tutt’altra storia è farlo da 300 km, sapendo che un errore su una sequenza può portare a un mezzo disastro. Il setup che porterò al Deep Lab dovrà quindi essere preparato nel mio attuale osservatorio, e testato a fondo in tutte le sue funzioni e con tutti gli angoli di utilizzo.

In questa prima parte ho cercato di mettere nero su bianco quelli che saranno i requisiti del mio futuro setup. Nella prossima parte, che scriverò quando avrò le idee un po’ più chiare soprattutto sulla scelta della montatura, inizierò a fare una “check list” di quello che ho e di quello che occorrerà.

M33 e le sue Gemme dell’ Infinito

M33, la galassia del Triangolo, non solo è una delle galassie più vicine alla nostra Via Lattea, ma è anche una distesa sterminata di aree di intensa formazione stellare, alcune talmente evidenti da meritarsi un posto nel catalogo NGC proprio come gli oggetti presenti nella nostra galassia. E’ questo il caso di NGC 604, visibile a destra in alto del nucleo. Questa regione di idrogeno ionizzato Ha è 40 volte più estesa della nebulosa di Orione, e talmente luminosa che, se si trovasse al posto di quest’ultima, sarebbe più luminosa di Venere.

L’immagine sopra è stata acquisita con un metodo un po’ insolito per una galassia, ma che ben si presta alle peculiarità di M33 sopra descritte: ho infatti utilizzato filtri Ha e OIII a strettissima banda passante (3 nm). L’elaborazione dei dati è avvenuta secondo il classico schema HOO, che prevede il colore rosso per le regioni Ha ed il colore blu-ciano per le aree OIII. Al termine dell’elaborazione in banda stretta, ho reintrodotto una parte di luce in banda larga per lasciar intravedere la sagoma della galassia.

Qua sotto, l’elaborazione dei dati in banda larga LRGB, a cui ho aggiunto un po’ di Ha per evidenziare comunque le aree di formazione stellare e gas ionizzato.

Acquisizione: astrografo Newton Skywatcher Quattro 200/800 f/3.75, camera ZWO ASI 1600MM, filtri Antlia LRGB e Ha-OIII 3 nm ottimizzati per ottiche veloci.

Dettagli di acquisizione ad immagini in piena risoluzione:

https://astrob.in/vpztr9/0/ versione HOO 

https://astrob.in/liz80a/0/ versione LRGB

Leonardo Landi

L’ammasso Albero di Natale, la nebulosa Cono e la nebulosa Pelliccia di Volpe – NGC 2264

Il complesso dell’Albero di Natale nella costellazione dell’Unicorno è a mio avviso uno degli oggetti più belli del cielo invernale. Si tratta di una vasta area Ha che fa parte del complesso di Barnard 33, e rispetto a esso è collocato immediatamente a ovest, nei pressi della famosa Nebulosa Rosetta. Al pari della nebulosa Velo, è uno dei bersagli che ho sempre sognato di fotografare, anche se a differenza di quest’ultima, l’Albero di Natale mi transita in una zona del cielo che mi ha fatto prendere in seria considerazione l’ipotesi di attaccarmi alla motosega e tirare giù una magnolia di una decina di metri che ho in giardino.

Problematiche di acquisizione a parte, questa nebulosa è risultata particolarmente gratificante da fotografare, in quanto presenta tutta una serie di formazioni nebulari differenti quanto a conformazione e scala dei dettagli, come si vede bene dalla luminanza dell’immagine qui sotto.

Per l’elaborazione, come faccio spesso sulle nebulose, mi sono affidato alla tecnica delle tone maps, originariamente inventata dall’astrofotografo finlandese J.P. Metsavainio.

Si parte dalla creazione delle tre tone maps per i canali Ha, OIII e SII. Il primo passo è rimuovere le stelle, quindi si applica una fortissima riduzione del rumore dal momento che i dettagli saranno contenuti nella luminanza che inseriremo alla fine e quindi le tone maps ci servono solo per “colorare” l’immagine finale.

Le tone maps vanno quindi rese non lineari, e qui casca l’asino perchè il canale più debole sarà inevitabilmente rumoroso e quindi ecco il motivo della riduzione del rumore potente potente che abbiamo applicato prima.

Il risultato ottenuto per i singoli canali delle tone maps è questo

A questo punto siamo pronti per creare la nostra bella crominanza: PixInsight mette a disposizione diversi strumenti per questo, ma io mi affido a pixelmath che mi consente di gestire il “peso” dei vari canali tramite una serie di fattori moltiplicativi che posso modificare a piacimento.

In questo caso, i colori che avevo in mente erano un azzurro ghiaccio nelle zone OIII, il giallo nelle zone SII e il rosso natalizio in tutto il resto dell’immagine, inondata di Ha.

Ovviamente come sempre poi le intenzioni si scontrano con la realtà, e quindi un “blend” matematico dei canali così come babbo li aveva fatti, portava a un’immagine praticamente tutta rossa, a causa della potenza del segnale Ha.

Girando in internet mi sono però imbattuto in una interessante espressione di PixelMath, che rende di fatto “dinamico” il blending. In pratica, partendo dal presupposto che ogni canale dell’immagine RGB finale sarà composto da un po’ di Ha, SII e OIII, si parte dall’immagine più debole e si usa per riscalare le altre in proporzione. In questo caso, ad esempio per il canale G, sarebbe come dire “Dove l’OIII è forte, metti l’OIII e riscala l’Ha, dove l’Ha è forte metti l’Ha e un po’ di SII).

Probabilmente la faccenda è più facile da vedere a schermo che da immaginare, quindi vi lascio il link al sito di chi ha inventato questo sistema che a me piace tantissimo.

The Coldest Night – Dynamic Blending in PixInsight

L’ultimo passo prima di passare ai ritocchi “cosmetici” è stato quello di aggiungere la luminanza, a cui per la verità ho fatto molto poco se non esaltare un pochino i contrasti e applicare uno stretch non lineare.

Come accade sempre però con le immagini in banda stretta, il risultato ottenuto dal blending è ben lontano dal risultato finale che vogliamo ottenere: quindi, con una serie di ritocchi di saturazione, contrasto e HUE shift, ho cercato di arrivare alla colorazione che avevo in mente.

Ultimamente vanno di moda le immagini di nebulose senza stelle, ma questo è un albero di Natale e le palline ci vogliono: quindi ho raccolto un po’ di dati in RGB per ottenere il colore più naturale possibile delle stelle. La cosa richiede veramente poco tempo, e lo farò per ogni futura immagine a banda stretta. Di fatti, ho ripreso solo circa 5 min per canale RGB. Dopo la combinazione dei tre canali, ho immediatamente stretchato l’immagine e estratto le stelle con Starnet, senza curarmi di rimuovere i gradienti o ridurre il rumore.

Per reinserire le stelle, ho usato due maschere, una per quelle di dimensioni maggiori (che ho usato anche per saturarle e renderle belle colorate) e una per quelle piccole. In questo modo ho potuto controllare esattamente quante stelle reinserire, e di che dimensione. In pratica, per non avere stelle ovunque che rubano la scena alla nebulosa, invece che erodere le stelle più piccole direttamente dall’immagine mi sono limitato a escluderle dalla maschera, così da non reinserirle.

Come ultimo tocco, una cornice grigia che esalta i colori di questa meravigliosa nebulose e la stacca dalle tinte piatte del desktop. Spero vi piaccia, credo che sia la singola immagine con cui mi sono divertito di più in assoluto. I dati erano di ottima qualità e la nuova ASI 1600MM si è dimostrata una bomba anche in banda stretta.

Dettagli di acquisizione:

ASI 1600MM su Astroprofesisonal 80/448, filtri Optolong Ha (7nm), OIII (6.5 nm), SII (6.5 nm) da 31 mm

Pose:

61X360s Ha

101X360s OIII

33X480s SII

Acquisizione con NINA, Postprocessing con PixInsight.

Le Pleiadi – M45 – dal cielo di Forte dei Marmi

L’ammasso aperto delle Pleiadi è probabilmente l’unico oggetto del profondo cielo facilmente visibile ad occhio nudo. Da un cielo suburbano inquinato come quello di casa mia (Bortle 6), nelle nottate senza Luna è possibile riuscire a risolvere dalle 4 alle 6 stelle. Quello che però nessun cielo può farci vedere ad occhio nudo sono le magnifiche nebulose a riflessione che circondano le “sette sorelle”, e le ancor più magnifiche nebulose oscure che velano l’intera costellazione del Toro.

L’ammasso delle Pleiadi è composto da circa 1000 membri, per la maggior parte stelle giovani e molto calde da poco entrate nella sequenza principale e attorno alle quali si suppone che siano in formazione diversi sistemi planetari. Attualmente l’ammasso delle Pleiadi sta transitando all’interno di una zona densa di mezzo interstellare: quest’ultimo, illuminato dalla luce delle stelle che compongono l’ammasso, crea i meravigliosi veli che costituiscono la nebulosità a riflessione.

Riprendere un oggetto come questo da un cielo cittadino è un po’ un atto di masochismo. L’inquinamento luminoso e i gradienti da esso causati rendono quasi impossibile catturare le nebulose oscure, mentre per definire le nebulose a riflessione sono necessarie ore e ore di integrazione. Un risultato come quello in foto, da un cielo buio è ottenibile con una-due ore di esposizione, mentre a me sono servite due notti! Però si sa, se fosse facile non sarebbe divertente. E così approfittando della Luna nuova di Novembre ho dedicato poco più di 10 ore all’acquisizione di dati LRGB attraverso filtri Optolong da 31mm non montati. Come camera di ripresa ho usato la ASI 1600 MM che ho da poco acquistato. Per ottimizzare il tempo di buio ho usato un pattern di ripresa LL->LLRRGGBB–>. In pratica ho suddiviso l’esposizione in “loop” e per ognuno ho ripreso 4 immagini di luminanza da 100s e 2 immagini per ogni filtro RGB da 120s. Per venire a capo del rumore fisso della ASI, per ogni ciclo eseguivo due dither così da non aver mai più di due pose identiche. L’intera fase di ripresa è stata gestita dal favoloso programma N.I.N.A.

Per il postprocessing ho usato esclusivamente PixInsight. Dopo aver calibrato le immagini con rispettivi dark e flats, ho estratto i gradienti (ebbene si, anche un po’ di nebulose oscure, ma di quello me ne sono accorto tardi) e quindi ho composto la crominanza combinando i tre filtri R,G e B. Per la luminanza ho applicato una buona deconvoluzione (merito delle pose corte che hanno restituito stelle puntiformi senza problemi di guida). A quel punto sono passato allo stretch e alla combinazione LRGB. Come ultime correzioni, un po’ di riduzione del rumore (che per la verità era poco, a causa del raffreddamento della camera e dei molti frames combinati) e ho saturato a piacere. A questo punto sono emerse le nebulose oscure! Ho cercato di salvare il salvabile, ma un po’ di queste se ne erano andate assieme ai gradienti. Pazienza…rielaborerò i dati in un prossimo futuro.

Dettagli di acquisizione: Astroprofessional 80ED e ASI 1600MM-P. Filtri Optolong 31mm LRGB.

RGB: 56 X 120s per ogni filtro

LUM: 183 X 100s.

Cieli sereni

Leonardo

Giocando con nebulose, filtri e colori

L’estate è la stagione delle grandi nebulose ad emissione, e proprio queste ultime si prestano bene ad essere “immortalate” in banda stretta con vari filtri che “selezionano” le emissioni dei vari elementi presenti al loro interno. Le immagini così raccolte possono essere elaborate con colori alternativi, le cosiddette “palette”.

Lo spettro dei più comuni filtri narrowband, comparato allo spettro RGB

La più famosa fra le palette “narrowband” è senza dubbio la Hubble Palette, nota anche come SHO. Quest’ultima nomenclatura ci consente di capire un po’ di più come funziona: in pratica, le emissioni dello zolfo ionizzato (SII) vengono associate al canale rosso dell’immagine finale, le emissioni dell’idrogeno alfa (Ha) al canale verde e le emissioni dell’ossigeno due volte ionizzato (OIII) al canale blu. Ovviamente, per questo tipo di riprese è necessario munirsi di una camera monocromatica e dei relativi filtri, meglio se installati all’interno di una ruota portafiltri automatica che consente di cambiarli in pochi istanti.

upload.wikimedia.org/wikipedia/commons/thumb/6/...
La celeberrima immagine dei Pilastri della Creazione ripresi dal telescopio spaziale Hubble in SHO

Per chi invece possiede camere a colori, sia reflex (DSLR) sia CMOS raffreddate, sono disponibili alcuni filtri multi-banda passante, che consentono di riprendere in un sol colpo diverse linee di emissione delle nebulose a emissione. Il più celebre (e costoso) fra questi filtri è senza dubbio il Triad Ultra 4-bandpass, che costa quanto un buon quadrupletto da 80mm. A prezzi più abbordabili però c’è una valida alternativa: il filtro Optolong L-eNhance. Questo filtro, fra l’altro, ha la particolarità di lasciar passare assieme le emissioni dell’OIII e dell Hbeta. Ciò si traduce in un segnale blu molto forte anche se non proprio fedelissimo alla realtà, in quanto le due emissioni di “mescolano” facendo perdere un po’ di rigore scientifico alle nostre immagini.

La curva spettrale del filtro L-eNhance: si osserva come assieme all’OIII passi anche l’ Hb, rafforzando il segnale blu raccolto.

Come risulta evidente, il filtro non lascia passare l’SII: in effetti, nessuna camera a colori potrebbe separarlo dall’Ha, in quanto entrambe le linee ricadono sui pixel rossi della matrice di Bayer. Pertanto una elaborazione fedele in HSO non risulta possibile con questo filtro.

Dato il grande impatto visivo delle immagini elaborate con la Hubble Palette, qualcuno ha comunque deciso di provarci, e creare un procedimento per ottenere un risultato molto simile anche non disponendo del canale SII. Il risultato non è particolarmente rigoroso dal punto di vista scientifico, ma senz’altro è molto appagante.

Si parte da una immagine RGB ottenuta attraverso il filtro L-eNhance. L’integrazione dovrà essere sufficientemente lunga, perchè alcune “parti” dell’immagine andranno stretchate pesantemente come vedremo più avanti.

Il Muro del Cigno nella nebulosa Nord America ripreso attraverso il filtro L-eNhance: 3,2 ore di integrazione con camera ASI 183 MC-Pro e Astroprofessional 80ED.

Dovremo quindi suddividere l’immagine di partenza nei tre canali R, G e B. Per comodità, il canale R lo chiameremo SII, il canale G lo chiameremo Ha ed il canale blu lo chiameremo OIII.

I canali credo sia meglio elaborarli separatamente, seguendo il solito procedimento delle immagini a colori: la rimozione di eventuali gradienti, un bell’intervento di riduzione del rumore, magari un po’ di deconvoluzione per ovviare ai problemi del nostro treno ottico e del seeing, e così via. Alla fine siamo pronti per fondere le nostre immagini monocromatiche in un’immagine a colori. Fondamentale a questo punto è stretchare le immagini in modo da evidenziare le colorazioni che risulterebbero molto tenui, in particolare il blu. Pertanto il canale OIII, che assoceremo al blu, dovrà essere stretchato maggiormente rispetto al canale SII, che assoceremo al rosso. E’ importantissimo però non esagerare: la maggior parte delle nebulose infatti ha tenui emissioni di OIII molto circoscritte, e quindi questo canale sarà significativamente più rumoroso dell’SII (ecco perchè servono integrazioni abbastanza lunghe come dicevo all’inizio). Questa rumorosità verrà a galla se si stirano troppo le curve, e l’immagine finale ne risentirà.

La fase degli stretch: a suon di tentativi dobbiamo tiare fuori i colori che vogliamo.

Utilissimo, in questa fase, il tool aggiuntivo StarNet++, che permette di eliminare completamente le stelle dalle immagini non lineari così da non doverci preoccupare di aloni o zone sature.

L’immagine senza stelle permette di non preoccuparsi degli aloni durante la fase di stretch delle curve. Le stelle potranno essere reinserite nelle fasi finali.

Per “sommare” i tre canali possiamo usare il tool PixelMath. Le equazioni che inseriremo saranno: R=SII; G=0.8*Ha+0.2*SII, B=OIII.

Dovremo fare diverse prove prima di ottenere un risultato bilanciato, magari utilizzando varie maschere per modificare parti specifiche dei vari canali.

Varie combinazioni: alla fine “ne rimarrà soltanto uno” come diceva quello.

Alla fine otterremo la nostra immagine in falsi colori. Bene ma non benissimo, infatti dovremo ancora correggerli un po’ a seconda del nostro gusto personale. Per questo Pixinsight ha varie possibilità, ma a mio avviso è molto più semplice farlo con Photoshop utilizzando lo strumento di correzione colore selettiva, e magari ritoccare anche luminosità e contrasto.

Come ultimo passaggio potremo reinserire le nostre stelle (se le abbiamo rimosse) utilizzando ancora Pixelmath: semplicemente dovremo scrivere il nome della nostra immagine senza stelle, il segno +, e il nome dell’immagine contenente solo le stelle. Es: “Immgine_finale+stelle_RGB”.

Il risultato è di grande impatto, non c’è che dire. Soprattutto se paragonato all’immagine di partenza, che in confronto sembra assai slavata e piatta.

La Nebulosa dell’Aquila (M16) in SHO – comparazione con l’immagine di partenza (a destra)
Versione finale del Muro del Cigno nella Nebulosa Nord America (NGC7000)

Se volete vedere le immagini di un maestro in questa tecnica, vi consiglio di visitare il sito AstroAnarchy del finlandese J.P. Metsavainio. Le sue immagini lasciano letteralmente a bocca aperta.