Domanda:
Quale metodo viene utilizzato per calcolare la "qualità" di un'immagine solare / planetaria?
Jeremy
2014-02-18 04:45:48 UTC
view on stackexchange narkive permalink

Che tipo di algoritmo viene utilizzato per calcolare la qualità relativa di un'immagine, ad esempio eseguita da PIPP, Registax o Avistack?

Tali applicazioni acquisiscono immagini planetarie o solari e prima dell'impilamento e della nitidezza, possono facoltativamente selezionare le immagini migliori. Quando guardo le immagini per vedere quali sono state selezionate dagli algoritmi, a volte vedo immagini che non avrei selezionato. Questo ha stuzzicato la mia curiosità riguardo alla metodologia utilizzata per classificare o classificare le immagini. Con un po 'di introduzione per comprendere i concetti, vorrei riflettere su come migliorare tali algoritmi ...

Una risposta:
#1
+3
Jeremy
2014-02-19 07:05:26 UTC
view on stackexchange narkive permalink

Un po 'più di ricerca, e ho scoperto che il principio di base, da cui derivano diverse variazioni, è quello di prendere la somma dei quadrati della differenza tra pixel adiacenti, per ottenere un punteggio.

Il principio è che un'immagine di qualità superiore ha una maggiore probabilità che ci saranno differenze significative nei valori dei pixel adiacenti, cioè che ci può essere una variazione significativa da pixel a pixel, mentre un'immagine di qualità inferiore avrà Pixel adiacenti di valore simile, poiché sono "sfocati" insieme. Pertanto, quando si prende il quadrato della differenza di pixel adiacenti e li si somma insieme, le immagini di qualità superiore mostreranno un punteggio o una somma significativamente più alto.

Lo dimostrerò con un esempio semplificato di seguito, ma sto interpretando il significato di "pixel adiacenti" in un modo particolare, e spero che se non sbaglio qualcuno me lo dirà e io posso modificare questa risposta in modo appropriato.

Immagina di fare immagini un oggetto che riempie esattamente la cornice della nostra piccola fotocamera da 16 pixel. Al centro di questo oggetto c'è un quadrato molto scuro, che guarda caso riempie esattamente i 4 pixel centrali della nostra fotocamera. Se il seeing per questo oggetto è perfetto, la fotocamera sarà esposta con un valore di 255 per ciascuno dei pixel chiari e 0 per ciascuno dei pixel scuri. A perfect image of our target object

Ecco come le differenze tra pixel adiacenti verrebbero calcolate (presumo solo differenze orizzontali e verticali, non diagonali): Differences between adjacent pixels

Tuttavia, il movimento della fotocamera o la scarsa visibilità hanno portato la luce a diffondersi maggiormente pixel, i calcoli delle differenze tra pixel adiacenti sarebbero diversi: Differences between adjacent pixels when the image is blurred

Il punteggio, ovvero la somma dei quadrati delle differenze, per la prima immagine (perfetta) è 520200 .

Il punteggio per l'immagine sfocata è 304200 . Quindi la somma dei quadrati delle differenze tra pixel adiacenti suggerisce che la prima immagine è quella migliore.

Questa strategia non è perfetta, ovviamente. Si presume che immagini migliori mostreranno un punteggio migliore a causa di differenze maggiori tra pixel adiacenti, ma questa è un'ipotesi.

La quadratura della differenza ha lo scopo di fornire maggiore peso a differenze maggiori, ma mi sono imbattuto in un commento sul sito Web di supporto PIPP che dice che PIPP ha modificato l'algoritmo di base per dare ancora maggiore peso a un contrasto più nitido cambia rispetto a cambiamenti di contrasto più bassi, quindi forse a volte quadrare le differenze non è sufficiente.

Apparentemente questa strategia di misurazione della qualità non funziona quando l'oggetto è di piccole dimensioni sul sensore e può essere luminoso o addirittura sovraesposto. I metodi precedenti possono selezionare fotogrammi sfocati e macchiati su fotogrammi che sono effettivamente migliori. In questo caso, una strategia che esamina l'istogramma dei valori per il fotogramma e seleziona quello con il picco più alto, può produrre una migliore selezione di fotogrammi di "migliore qualità" appropriati. Si presume che l'istogramma avrà un numero maggiore di fotogrammi che condividono un valore di pixel su un intervallo più piccolo, piuttosto che diffondere la luce su un intervallo più ampio di valori di pixel.

Una strategia di misurazione della qualità alternativa semplicemente aggiunge i valori di tutti i pixel in un'immagine. Un punteggio più alto indicherà che più luce è passata al sensore, il che implica che meno nuvole (ad esempio) si sono intromesse.

Per curiosità, qual è la fonte delle immagini? Ottima risposta a proposito!
@called2voyage Ho creato le immagini da solo usando Excel come la cosa più semplice e veloce per creare celle colorate con testo al centro! Grazie, e per favore vota.


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Loading...