Skip to main content

Automated Stereo Algorithm Evaluation

Project description

PyStereoAlgEval

Python Stereo Algorithm Evaluator - Das Python basierte Stereo-Algorithus-Evaluations Toolkit ist eine einfache Lösung zur automatisierten Evaluation von Stereo Algorithmen. Dabei kommt ein intelligentes Verfahren des Templatings von Konsolenaufrufen zum Einsatz. Die erzeugten Disparitätsbilder werden automatisch mittels mehrerer konfigurierbarer Qualitätsmetriken ausgewertet und die Resultate in eine praktische CSV-Datei geschrieben. PyStereoAlgEval ermöglicht auch die Visualisierung aller erhobenen Daten in verschiedenen Ausprägungen.

Vorraussetzungen

Benötigte Software

Die Vorraussetzung für das Verwenden der Bibliothek ist eine Python 3 Installation, wobei empfohlen wird, ein Anaconda oder VirtualEnv Environment zu verwenden. Des Weiteren müssen neben der Python Installation folgende Pakete zusätzlich installiert sein.
Die Funktionsfähigkeit von PyStereoAlgEval ist mit den genannten Versionen verifiziert.

Installation

Das Paket kann sich durch folgenden Befehl über die Python eigene Paketverwaltung pip installieren, der in der Regel in der Python Installation enthalten ist.

pip install pystereoalgeval

Falls ein Anaconda oder VirtualEnv Environment aufgesetzt worden ist, sollte dieses vor Ausführen des Befehls aktiviert werden.

Datensatz

Ein Beispiel-Datensatz, der verwendet werden kann ist der Datensatz der Version von 2006 von Middlebury Stereo Vision.

Zum Durchführen des automatisierten Auswerteverfahrens wird ein geeigneter Datensatz benötigt, der bestimmte Vorraussetzungen erfüllen muss. Die Ordnerstruktur des Datensatzes muss folgendermaßen aufgebaut sein:

.		# Oberverzeichnis zu definieren in "dataset_dir"
├── ...
├── TestSet1                    # Ordner des Testdatensatzes
│   ├── imgl.png                # Linkes Stereo-Bild
│   ├── imgr.png                # Rechtes Stereo-Bild
│   └── ground_truth.png        # Disparitätsbild der Grundwahrheit
├── TestSet2                    # Nächster Testbildsatz
│   ├── imgl.png          
│   ├── imgr.png        
│   └── ground_truth.png  
├── ...

Zu beachten ist, dass die einzelnen Bilderpaare mit Grundwahrheit sich in einem eigenen Ordner befinden. Der konkrete Dateiname der Testbilder lässt sich in der später beschriebenen Konfigurationsdatei anpassen. Es ist, um eine Auswertung des erzeugten Disparitätsbildes zu ermöglichen, darauf zu achten, dass die Abmessungen der drei Bilder für jeden Ordner einheitlich sind.
Die Intensitätswerte des Bildes mit der Grundwahrheit, entsprechen im Zahlenwert den Disparitäten zwischen den Stereobildern. Sollte eine Reskalierung der Testbilder stattgefunden haben, können zur Auswertung die Intensitätswerte der Grundwahrheit mit einem Faktor versehen werden. Dieser Faktor kann in der Konfigurationsdatei angepasst werden.
Wichtig:
Invalide Disparitätswerte oder Bildpunkte, für die keine Grundwahrheit existiert, sind mit dem Wert 0 zu belegen.

Es können alle 8-Bit Bilder verwendet, werden deren Format von OpenCV gelesen werden kann (u. A. .png, .jpg, .tiff; siehe Doku). Wobei verlustbehaftete Bildformate, wie z.B. JPEG, möglichst nicht verwendet werden sollten. Des Weiteren sollte darauf geachtet werden, dass die verwendeten Testdaten kein größeres Disparitätsintervall als 255 Bildpunkte erfordern. Grund dafür ist, dass eine Unterstützung von berechneten Disparitätsbildern mit einer größeren Bittiefe als 8, derzeit nicht verfügbar ist.

Verwendbare Stereo Algorithmen

Es lassen sich alle Stereo Algorithmen verwenden, die von der Kommandozeile gestartet werden können. Grundvorraussetzung für den Kommandozeilenaufruf ist die Möglichkeit, dass die Berechnungsparameter durch den Konsolenbefehl an den Algorithmus übergeben werden können. Die Verwendung eines Bash-Skripts kann hierfür ggf. eine Hilfestellung sein.
In der aktuellen Version des Programms muss der Pfad des Ausgangsbildes statisch sein. Eine variable Bestimmung des Pfades pro Testbildpaar ist in zukünfigten Versionen geplant.

Erste Schritte

Wenn alle beschrieben Vorraussetzungen erfüllt wurden, kann die Auswertung beginnen.

Zuerst muss die Klasse AlgorithmEvaluator aus der Bibliothek PyStereoAlgEval in der Python Umgebung importiert werden. Das ist entweder in der Python Konsole oder einem Skript möglich. Nach dem Import sollte ein Objekt erstellt werden, mit dem ab sofort gearbeitet werden kann.

from pystereoalgeval import AlgorithmEvaluator
a = AlgorithmEvaluator()

Es besteht hier die Möglichkeit, bei der Initialisierung direkt einige Parameter zu definieren. z.B. kann direkt der Pfad zur selbst erstellten Konfigurationsdatei übergeben werden.

a = AlgorithmEvaluator(config_path='/path/to/config.ini')

Alternativ kann diese auch später erneut eingelesen werden, was die bestehende Konfiguration des Objektes überschreibt.

a.read_config('/path/to/config.ini')

Bei einer vollständig erzeugten Konfigurationsdatei, kann nun ein Testdurchlauf gestartet werden. Zuvor muss jedoch zwingend ein vollständiges und valides Template definiert werden. Für genauere Informationen siehe Template.
Für das Beispiel, dass bei einer konstanten maximalen Disparität, die Auswirkungen unterschiedlicher Fenstergrößen untersucht werden sollen, können die Einstellungen folgendermaßen definiert sein:

a.set_constant(name="disparity_range", value=64)
a.set_iterator(name="window_size", steps=[7,9,11])
a.set_execution_template("$imgL$ $imgR$ $out$ $window_size$ $method$$disparity_range$")
a.update_config()
a.run()

Mit dem Befehl set_constant(name=const_name, value=const_value) lässt sich eine Konstante definieren, deren Wert in den gleichnamigen Tag innerhalb des Templates eingesetzt wird. Eine Definition mittels dieser Funktion ist nicht zwingend notwendig, da sich die Konstante direkt in das Template schreiben lässt. Jedoch wird auf diese Weise in der resultierenden CSV-Datei eine Spalte für den Wert angelegt, was im Nachinein zur weiteren Verwendung sinnvoll ein kann.

Der Befehl set_iterator(name=iter_name, steps=inter_steps) definiert eine Laufvariable, für die der Algorithmus jeweils pro Testbildsatz ausgeführt wird. Wie auch bei den Konstanten wird für die sog. Iteratoren eine eigene Spalte in der CSV-Datei angelegt. Es besteht die Möglichkeit, mehrere Iteratoren zu definieren, in dem der gleiche Befehl mit unterschiedlichem name-Parameter erneut aufgerufen wird. Das Programm erstellt dann alle möglichen Permutationen der Iteratorenwerte und führt den Algorithmus somit für alle möglichen Kombinationen aus.

Mit dem Befehl update_config() wird die, durch getätigte Befehle womöglich geänderte Konfiguration, in die INI-Datei geschrieben.

Für den Anfang kann dieses Python Skript als Target-Algorithmus verwendet werden. Es beinhlatet eine simple NCC- und SAD-Implementierung, sowie einen Wrapper für die OpenCV-interne Semi-Global Block Matching Funktion.

Mit run() wird der Programmablauf gestartet und die Ergebnisse in die Datei "results.csv" in den in der Konfiguration definierten Pfad results_dir geschrieben. Sollte ein anderer Dateiname gewünscht sein, so lässt sich dieser durch den Aufruf von run("filename.csv") bestimmen.

Nach Beendigung des Programms lässt sich direkt in Python Plots auf Basis der Ergebnisse erstellen. Eine genaue Beschreibung der Plotting Funktion findet in Abschnitt Plotting statt.
Jedoch könnte so eine Auswertung für das obige Beispiel ablaufen:

a.plot(y_category="rms_total", x_category="window_size", title="RMS pro Fenstergröße", results_name="filname.csv")

Es wird ein Plot erstellt, auf deren y-Achse der Mittelwert des rooted mean square error der Resultate über den Datensatz gezeigt wird. Gruppiert sind die Werte pro Fenstergröße entlang der x-Achse. Es ist zu beachten, dass results_name standardmäßig, bei Weglassen des Parameters, auf die Datei "results.csv" im Pfad results_dir zugreift.
Der erzeugte Plot sieht somit wie folgt aus: Link

Konfiguration

Zur Verwendung der Bibliothek und zur Vereinfachung von Arbeitsabläufen wird eine Konfigurationsdatei benötigt. Diese muss vor dem Start eingelesen werden. Eine Beispielhafte config.ini Datei befindet sich im Repository.

Die Konfigurationsdatei besteht aus fünf Teilen. Im Nachfolgenden wird jeder Teil und jeder Schlüssel einzeln erläutert

[BASE]
dataset_dir = /Users/USER/Desktop/Dataset
results_dir = /Users/USER/Desktop
imgl_name = imgl.png
imgr_name = imgr.png
gt_name = ground_truth.png
output_disp_filepath = /Users/USER/Desktop/Dataset/output.png
template = $imgL$ $imgR$ $out$ $window_size$ $disparity_range$ $method$
  • dataset_dir bestimmt das Verzeichnis in dem sich alle Ordner mit den einzelnen Testbildpaaren befinden. Siehe dazu (Datensatz)
  • results_dir bestimmt das Verzeichnis, in dem die CSV-Datei angelegt wird, in die alle Resultate der Evaluation und Plots des berechneten Disparitätsbildes geschrieben werden.
  • imgl_name, imgr_name und gt_name bestimmen die Namen, die das jeweils rechte, linke Bild sowie das Bild der Grundwahrheit der Testdaten im Ordner haben.
  • output_disp_filepath bezeichnet den Dateipfad, unter dem das berechnete Disparitätsbild abgelegt wird. (Aktuell konstant, in zukünftigen Versionen variabel definierbar)
  • template definiert das erstellte Template.
[PREPROCESSING]
enable = True
filter = median
params = {'mode': 'reflect'}
  • enable aktiviert Vorverarbeitung durch Filter oder Feature-Detektor
  • filter der name einer beliebigen Filterfunction von skimage.filter oder skimage.feature. Es ist zu beachten, dass eventuell nicht alle aufgeführten Filterfunktionen zur Vorverarbeitung tauglich sind.
  • params Dictionary der zu übergebenen Parameter an die Filterfunktion. Der Parametername muss immer in Anführungszeichen geschrieben sein. Beispiel: "{"para1": 23.4", "para2": 'test'}"
[EXECUTION]
mode = python
target = /Users/USER/software/stereo.py
error_handling = interrupt
  • mode beschreibt, wie der in target definierte Algorithmus ausgeführt werden soll. mode = python wird benötigt, wenn es sich bei dem Target um ein Python-Skript handelt. Dazu wird als Executable das aktuelle Python Environment benutzt, da Python-Skripte selbst nicht ausführbar sind. Ist der Algorithmus selbst eine aufrufbare Programminstanz, sollte mode = generic gesetzt sein.
  • target ist der aufzurufende Algorithmus selbst. Kann ein ausführbares Programm sein oder ein Python-Skript. Beachte dazu auch mode.
  • error_handling Bei error_handling = interrupt wird der Ablauf gestoppt, sollte der Algorithmus einen Fehler zurückgeben. Bei error_handling = ignore wird jeglicher Fehler innerhalb des Algorithmus ignoriert und zur nächsten Kombination aus Bilddaten und Iteratoren gesprungen.
[ITERATORS]
window_size = 7,9,11,13

[CONSTANTS]
disparity_range = 112
method = NCC

Iteratoren und Konstanten können auch in der Konfigurationsdatei definiert werden. Dazu sind die Schritte der Iteratoren mit "," zu trennen. Mögliche Datentypen sind Ganze Zahlen, Kommazahlen (mit "." als Trennzeichen) und Text.

[EVALUATION]
gt_coefficient = 0.5
textureless_width = 5
textureless_threshold = 60.0
discont_width = 14
discont_threshold = 15.0
  • gt_coefficient beschreibt einen Faktor, mit dem die Werte des Bildes der Grundwahrheit zur Auswertung multipliziert wird. Ist bei einer Reskalierung der Testdaten erforderlich.
  • textureless_width beschreibt das Fenster über das, mit den Sobel-Operator erstelle Texturbild, der Mittelwert gebildet wird.
  • textureless_threshold ist der Schwellenwert, unter welchem ein Bereich als texturarm gewertet wird.
  • discont_width Anzahl an Dilatationen die auf die Punkte an Disparitätsübergänge angewendet werden.
  • discont_threshold Schwellenwert für die Differenz von benachbarten Disparitätswerten der Grundwahrheit, ab wann ein Bildbereich als Disparitätsdiskontinuität gewertet wird. Die Ausweitung des Bereiches erfolgt mittels discont_width.

Template

Die mit $ markierten Tags werden während des Programmablaufs durch gesetzte Konstanten und die Laufvariablen der Iteratoren ersetzt. Des Weiteren können unterschiedliche programm-intere Tags verwendet werden:

  • $imgL$, $imgR$ Der absolute Pfad des linken/rechten Bildes des aktuellen Testbildpaares.
  • $out$ Konstanter absoluter Pfad, der nach dem Ablauf des Algorithmus zur Evaluation mit der Grundwahrheit verwendet wird. In Konfigurationsdatei definierbar.
  • $base_dir$ Konstanter Pfad des Oberverzeichnisses des Datensatzes. In Konfigurationsdatei definierbar.
  • $curr_dataset_dir$ Aktueller absoluter Pfad des verwendeten Testbildpaares.

Es ist zu beachten, dass der Pfad des Algorithmus und im Fall eines Python-Skripts, auch die Python Executable, nicht im Template enthalten ist und automatisch davor gesetzt wird.

Beispiel: Wird oben genannte aufgeführte Beispielkonfiguration verwendet, ergibt sich folgender erster Aufruf des Algorithmus:

Template:
$imgL$ $imgR$ $out$ $window_size$ $disparity_range$
Ergebnis:
Executable -> python /Users/USER/software/stereo.py
$imgL$ -> /Users/USER/Desktop/Dataset/TestSet1/imgl.png
$imgR$ -> /Users/USER/Desktop/Dataset/TestSet1/imgr.png
$out$ -> /Users/USER/Desktop/Dataset/output.png $window_size$ -> 7
$disparity_range$ -> 112
Vollständiger Konsolenaufruf:

python /Users/USER/software/stereo.py /Users/USER/Desktop/Dataset TestSet1/imgl.png /Users/USER/Desktop/Dataset/TestSet1/imgr.png  
/Users/USER/Desktop/Dataset/output.png 7 112

Die Bildung des Aufrufs wird wiederholt für alle Testbildpaare in Verbindung mit allen Kombinationen aus den gesetzten Iteratoren.

Es ist zu beachten, dass wenn nach dem Parsen des Templates noch $-Symbole übrig sind, es zu einem Fehler kommt. Eine weitere Vorraussetzung ist, dass alle gesetzten Iteratoren im Template vorkommen. Es ist hingegen nicht erforderlich, dass die anderen oben genannten Tags beinhaltet sind (ausgenommen $out$).

Hinweis: Zur Nutzung der verwendeten Stereo-Algorithmus-Sammlung "stereo.py" muss diese datei aus dem Repository heruntergeladen werden. Diese ist in der Installation über pip nicht enthalten.

Evaluataion

Auf das berechnete Disparitätsbild wird eine Vielzahl von Qualitätsmetriken angewendet. Die Metriken müssen nicht vorher ausgewählt werden, sondern werden stete berechnet.
Verglichen werden bei der Bestimmung der Werte immer das berechnte Disparitätsbild mit der Grundwahrheit.
Zu beachten ist, dass nur valide Bildpunkte ausgewertet werden, die in beiden Bildern (berechnetes Disparitätsbild und Grundwahrheit) ungleich 0 sind. Pixel für die kein Disparitätswert existiert, sollten vom Algorithmus den Zahlenwert 0 zugewiesen bekommen.

Bei reskalierten Testdaten müssen die Intensitätswerte der Grundwahrheit mit einem Korrekturfaktor gleich dem Skalierungsfaktor versehen werden. Der Faktor kann wie in Konfiguration beschrieben, im Abschnitt [EVALUATION] im Schlüssel gt_coefficient definiert werden.

CSV-Resultate

In der resultierenden CSV-Datei finden sich folgende Spalten wieder:
(der Platzhalter *region* wird in Segmentierung erklärt)

  • index Index
  • dataset Names des Testbildpaares (Ordnername)
  • Konstanten (eigene Spalte pro Konstante)
  • Iteratoren (eigene Spalte pro Iterator)
  • height und width Höhe und Breite des Testbildes
  • psnr_*region* Peak signal to noise ratio (PSNR)
  • rms_*region* Rooted mean square error (Quadratwurzel aus MSE)
  • err_*region*_*threshold* Anteil an validen Bildpunkten, die um über den in *threshold* Angegeben prozentwert an der maximalen Intensität (255) von der Grundwahrheit abweichen.
  • dens_img Verhältnis von validen Bildpunkten zu Gesamtzahl der Bildpunkte des berechneten Disparitätsbildes
  • dens_gt Verhältnis von validen Bildpunkten zu Gesamtzahl der Bildpunkte der Grundwahrheit
  • dens_rel Verhältnis von dens_img zu dens_gt
  • dens_*region*

Segmentierung

Zum besseren Vergleich der Leistung der Algorithmen, in zur Evaluierung meist relevanten Bildregionen, lassen sich die Ergebnisse von einigen Metriken in bestimmten Bildregionen einzeln bestimmen. Dazu lässt sich das Bild nach zwei lokalen Bildmerkmalen segmentieren:

Textur

Es ist sinnvoll, die Resultate eines Algorithmus, anders in Bildbereichen mit geringer Textur, zu bewerten als in Bereichen mit viel Textur. Es lässt sich vom Program mithilfe des Sobel Operators der Texturgehalt einer Bildregion bestimmen.
In der Konfigurationsdatei lassen sich im Abschnitt EVALUATION Einstellungen zu dem gewünschten Schwellenwert zur Segmentierung des Bildes treffen. Der durch die Einstellungen definierte Bereich mit geringer Textur lässt sich mithilfe der Funktion show_region() anzeigen.

a.show_region("textureless")

Der nicht markierte Bereich ist somit der Bereich mit hoher Textur. Es ist zu beachten, dass bevor der Befehl aufgerufen wird, die Konfigurationsdatei geladen sein muss. Standardmäßig wird das erste Testbildpaar des Datensatzes zur Anzeige benutzt. Durch Verwendung des zusätzlichen Parameters image_of_dataset kann der Ordnername eines anderen Testbildpaares angegeben werden.

Nach Aufruf des Fensters kann es zu Problemen kommen, die verhindern, dass sich das Fenster wieder schließt. In diesem Fall schließt der Befehl daw() die Anzeige.

a.daw()
Disparitätsdiskontinuitäten

Ein weiteres wichtiges Kriterium der Bildsegmentierung ist der Bereich von Disparitätsdiskontinuitäten. Zur Auswertung kann es relevant sein, Bereiche in denen sich die Disparität eines Bildes sprunghaft ändert, anders zu beurteilen als Bereiche mit kontinuierlichen Disparitäten.
Daher wird analog zur Textur das Bild nach diesem Kriterum segmentiert. Die Parameter der Segmentierung lassen sich in der Konfiguration festlegen.
Der ausgewählte Bereich lässt sich durch folgenden Befehl anzeigen:

a.showregion("discontinued")
Platzhalter

Aus der Segmentierung ergeben sich demnach folgenden Möglichkeiten den Platzhalter in den Spalten der CSV zu ersetzen:

  • lowtexture Bereiche mit wenig Textur
  • hightexture Bereich mit hoher Textur (invertierte Auswahl von lowtexture)
  • disc Bereiche mit starken Disparitätssprüngen
  • nondisc Bereiche mit geringen oder keinen Disparitätssprüngen (invertierte Auswahl von disc)
  • total Keine Segmentierung

Plotting

Zur Visualisierung der Resultate steht ein intelligentes Werkzeug zur Verfügung. Es ermöglicht die Gruppierung von Daten anhand einer Kategorie und die Darstellung von mehreren Mittelwerten unterschiedlicher Evaluationsparamter. Zusätzlich lässt sich der Datensatz nach mehreren Kategorien filtern. Der Plot wird dabei im results_dir Verzeichnis als PNG-Datei gespeichert.

Zur Erstellung eines Plots müssen mindestens zwei Festlegungen getroffen werden.

  1. Welche Datenkategorien (Spalten der CSV-Datei) im Mittelwert sollen angezeigt werden?
  2. Nach welcher Datenkategorie soll gruppiert werden?
  3. (optional) Soll nach einer/mehreren weiteren Kategorie/-en gefiltert werden?

Der konkrete Aufruf der Plotting-Funktion ist folgender:

a.plot(y_category="rms_total", x_category="window_size")

Der Parameter y_category definiert die Mittelwerte der Daten pro Kategorie, die entlang der y-Achse angezeigt werden. Es ist möglich mehrere innerhalb einer Liste anzugeben (nur für Style "default").

Der Parameter x_category definiert die Datenkategorie, nach der die Werte gruppiert werden sollen.

Es können dabei alle Spalten der CSV-Datei verwendet werden.

Filter

Es können zur weiteren Eingrenzung der Daten Filter verwendet werden. Dazu muss an den Parameter filters ein Dictionary übergeben werden, mit folgendem Aufbau:

filter = {category1: value1, category2: value2}
Styles

Es stehen zwei verschiedene Style-Optionen zur Verfügung, nach denen der Plot erstellt werden kann. Definiert werden können die Styles mit dem Parameter style mit den Werten default oder whisker. Bei Weglassen des Parameters wird ein Plot im Default-Style erstellt.

Default

Die Erste ist "Default", die einen einfach Linienplot mit Fehlerbalken erstellt. In diesem Modus ist es möglich mehrere x-Kategorien anzugeben.
Beispiel: Link

Box-Whisker

Die zweite Möglichkeit ist die Anzeige eines Box-Whisker Plots, der weitere Informationen zur Verteilung der Werte um den Mittelwert enthält. Es ist zu beachten, dass in diesem Modus nur eine x-Kategorie ausgewählt werden kann.
Beispiel: Link

Weitere Parameter
  • results_name Neben den genannten Parametern kann die CSV-Datei als Datenquelle ausgewählt werden, sollte sie vom Namen results.csv abweichen. Die Datei muss sich jedoch immer in dem in der Konfiguration definierten results_dir Verzeichnis befinden.
  • unique Durch einen übergebenen True Wert an den Parameter, wird dem Dateinamen, der standardmäßig dem Dateinamen der CSV-Datei entspricht, ein Zeitstempel angehägt. Dieser Parameter ist standardmäßg False.
  • relative_base Diesem Parameter kann ein Wert aus der gewählten x_category übergeben werden. Danach ist auf dem Plot der Mittelwert der relativen Änderungen der y-Werte zu dem gewählten Wert gezeigt. Die relativen Werte werden für jeden Datensatz einzeln berechnet und danach gemittelt.
  • axis_label Damit lassen sich eigene Achsen-Bezeichnungen einstellen, die die automatisch erzeugten überschreiben. Siehe Alle Funktionen
  • disable_error Die geplotteten Fehlerbalken können mit diesem Parameter deaktiviert werden.

Alle Funktionen

  • set_logging_level(level) zum setzen des Logging-Levels. Level standardmäßig auf INFO
    • level (str): Python Logging Level (s. Doku). Möglichkeiten: DEBUG, INFO, WARNING, ERROR, CRITICAL
  • set_mode(mode) zum Setzen des Execution Modus
    • mode (str): Execution Modus. Möglichkeiten: 'python', 'generic'
  • set_target(target) (str) zum Setzen des Pfades zum Algorithmus
    • target (str): Pfad zum Algorithmus
  • set_error_handling(error_handling) zum Setzen des Verhaltens bei einem Fehler im Algorithmus
    • error_handling (str): Error Handling Modus. Möglichkeiten: 'ignore', 'interrupt'
  • get_iterators() gibt alle definierten Iteratoren zurück
    • return=dict: gibt Dictionary mit Iteratoren zurück.
  • get_constants() gibt alle definierten Konstanten zurück
    • return=dict: gibt Dictionary mit Konstanten zurück.
  • set_iterators(name, steps, remove) zum setzen eines Iterators.
    • name (str): Name des Iterators
    • steps (list of int/str/float): Schritte der Laufvariable
    • remove=False (bool): ob Iterator entfernt werden soll. Steps dürfen nicht angegeben werden.
  • set_constants(name, value) zum Setzen einer Konstanten.
    • name (str): bestimmt Namen des Iterators
    • steps (int/str/float): Wert
    • remove=False (bool): ob Konstante entfernt werden soll. Value darf nicht angegeben werden. Standardmäßig auf False
  • set_evaluation_parameter(paramter, value) Definiert Parameter zur Auswertung, wie Segmentierung oder Koeffizient für Grundwahrheit
    • parameter (str): Name des Parameters (siehe Konfiguration). Möglichkeiten: 'gt_coefficient', 'textureless_threshold', 'discont_threshold', 'textureless_width', 'discont_width'
    • value: Wert. Thresholds und der Koeffizient sind als float und die Width Parameter als int anzugeben
  • set_execution_template(template) zum Setzen des Templates
    • tempalte (str): Template
  • check_execution_template Methode zum Überprüfen des Templates, ob alle notwendigen Tags enthalten sind
    • return=bool: ob Template funktionsfähig ist
  • set_preprocessing(filter_name, parms) Methode zum Aktivieren und Definieren der optionalen Vorverarbeitung der Bilddaten.
    • filter_name (str) Name der Filterfunktion aus skimage.filter oder skimage.feature.
    • params (dict) Optionale Parameter für die Filterfunktion im dict format. Beispiel: dict(param1=1.5, para2="test")
  • remove_preprocessing() Methode zum Löschen aller Einstellungen zur Vorverarbeitung
  • daw() schließt alle Fenster
  • show_region(mode, images_of_dataset) Funktion zum Anzeigen von aktueller Einstellung zur Segmentierung
    • mode (str): angezeigte Segemtierung. Möglichkeiten: 'textureless', 'discontinued'
    • image_of_dataset=None (str): Ordnername des angezeigten Bildes. Standardmäßg wird erstes Bild des Datensatz-Verzeichnisses angezeigt.
  • get_dataset() Gibt geparstes Dictionary des Datensatz-Verzeichnisses wieder
    • return=dict: Datensatz als Dictionary aufgelöst
  • run(results_name) führt Evaluations-Ablauf aus
    • results_name="results.csv" (str): Dateiname der resultierenden CSV-Datei
  • plot(y_category, x_category, filters, title, style, unique, results_name) Funktion zur Erstellung von Plots
    • y_category (list of int/str/floar)/(int/str/float): in y-Richtung dargestelle Werte
    • x_category (int/str/float): Kategorie, nach der in x-Richtung gruppiert wird
    • filters (dict): Filter im Format {cat1: value1, cat2: value2}
    • title="Plot" (str): Titel
    • style="default" (str): Style des Plots. Möglichkeiten: 'default', 'whisker'
    • unique=False (bool): ob Dateinamen ein Zeitstempel angehängt werden soll
    • relative_base (int,str,float): Basiswert aus der x_category von dem aus die relavite Aggregation durchgeführt werden soll
    • axis_label (tuple len=2 of str): Eigene Achsen-Bezeichner. axis_label:= ("x-Achse", "y-Achse").
    • disable_error=False Deaktiviert bei Bedarf die Fehlerbalken.

Project details


Download files

Download the file for your platform. If you're not sure which to choose, learn more about installing packages.

Files for pystereoalgeval, version 0.2.3
Filename, size File type Python version Upload date Hashes
Filename, size pystereoalgeval-0.2.3-py3-none-any.whl (38.8 kB) File type Wheel Python version py3 Upload date Hashes View hashes
Filename, size pystereoalgeval-0.2.3.tar.gz (42.8 kB) File type Source Python version None Upload date Hashes View hashes

Supported by

Elastic Elastic Search Pingdom Pingdom Monitoring Google Google BigQuery Sentry Sentry Error logging AWS AWS Cloud computing DataDog DataDog Monitoring Fastly Fastly CDN DigiCert DigiCert EV certificate StatusPage StatusPage Status page