10.03.2022 –, Bühne 3
Der von Esri entwickelte LERC-Algorithmus (Limited Error Raster Compression) ist ein hoch effizienter, innovativer Ansatz um Rasterdaten zu komprimieren. Für die meisten Nutzer ist LERC wohl noch ein magisches Buch mit sieben Siegeln und es ist Zeit dies zu ändern! In diesem Vortrag wird die Funktionsweise des Algorithmus erklärt und seine Auswirkungen anhand von praktischen Beispielen demonstriert.
Der von Esri entwickelte LERC-Algorithmus (Limited Error Raster Compression) ist ein hoch effizienter, innovativer Ansatz um Rasterdaten zu komprimieren.
Im Unterschied zu etablierten Kompressionsalgorithmen wie LZW oder DEFLATE, welche die räumliche Nachbarschaft nur in einer einzigen Dimension berücksichtigen ("was für Werte sehe ich von links nach rechts"), betrachtet LERC räumlich benachbarte Datenwerte in kleinen zweidimensionalen Blöcken, um diese mit möglichst wenigen Bits und Bytes abzuspeichern, grob gesagt. Eine häufig anzutreffende starke Ähnlichkeit zwischen räumlich benachbarten Werten (Autokorrelation) wird also berücksichtigt und ausgenutzt. LERC kann sowohl verlustfrei als auch verlustbehaftet komprimieren, wobei im letzteren Fall eine maximale Fehlertoleranz festgelegt werden kann.
LERC ist patentiert, durch die Veröffentlichung unter der Apache Software Lizenz aber FOSS und ohne besondere Einschränkungen nutzbar. LERC ist ein OSGeo-Projekt.
In GDAL ist der Algorithmus seit Version 3.3 nutzbar (vorher musste man GDAL mit speziellen Regeln selbst kompilieren). Für die meisten Nutzer ist LERC wohl noch ein magisches Buch mit sieben Siegeln und es ist Zeit dies zu ändern!
In diesem Vortrag wird die Funktionsweise des Algorithmus erklärt und seine Auswirkungen anhand von praktischen Beispielen demonstriert.
Kartografiefreund, Bastler, ([Q]GIS/Python)-(Entwickler|Berater) bei der WhereGroup, aktiv in der Deutschen Gesellschaft für Kartographie e. V.