[Talk-de] Höhennetz/Höhendatenbank Vergleich ?mit SRTM

Dimitri Junker OSM at dimitri-junker.de
Do Mär 12 02:12:26 UTC 2009


Hallo,

>Die Herleitung der Variablen habe ich noch nicht verstanden, aber das
>ist wohl das Geheimnis von Euch Statistikern :-)

Also die SRTM-Daten kommen ja als TIF-Bild, Du brauchst also x und y um eine 
Höhe zu bestimmen. Für diese Umrechnung steht im Header des TIF u.a. die 
Koordinaten der NW-Ecke (das was ich LON1,LAT1 genannt habe) und die größen 
der Pixel in Grad (das sind die FAKTX und FAKTY). Wenn ich hunderttausende 
Werte habe kann ich eine vernünftige Aussage zu deren Qualität nur mit 
Statistik machen. Leder war ich da schon ziemlich raus und mußte mich 
erstmal wieder einlesen.

>Wieso so umständlich mit Pixeln zu arbeiten? Du kannst doch einfach die
>SRTM-Daten in XYZ (LAT LON ELEV) umwandeln und jedem GPX-Punkt die
>genaue Höhe zuteilen.


Keine Ahnung ob Du die SRTM-Daten in einem anderen Format vorliegen hast. 
Aber egal wie Du sie hast, es sind immer Mittelwerte über ein Gebiet, dieses 
nenne ich Pixel weil es ja auch im TIF-Bild Pixel sind.


>Was auch gehen würde: Du verschneidest die GPX-Punktwolke einfach mit
>den SRTM-Daten und hast dann an jedem Punkt die SRTM-Daten. Das wäre
>vermutlich einfacher nachzuvollziehen.


Wenn ich mit den SRTM-Daten die Qualität der GPX-Daten bewerten will sollte 
ich da nicht schon SRTM-Daten mitverarbeiten.

>Was summierst Du worauf? x,y auf was?


Ich berechne zu jedem berechneten Punkt die Abweichung zwischen dieser aus 
den GPX-Daten berechneten Höhe und der SRTM-Höhe. AUs diesen bilde ich dann 
die verschiedenen Mittelwerte.


>Das sehe ich komplett anders. Das arithmetische Mittel ist in meinen
>Augen kein Indiz für irgendwas hier.


Natürlich ist es das, es sagt aus ob die Daten einen sytematischen Fehler 
haben. Wenn ich z.B. GPS-Daten nehme die alle mit einem falsch eingestellten 
Höhenausgleich ermittelt wurden wird sich dies im arithmetischen Mittel 
zeigen.

>Die Spannweite der Fehler lagen zwischen -20 und +20, der Durschnitt
>ergibt Null ... nutzlos.


s.o. Nachdem man also weiß ob man sich einen konstanten Fehler eingefangen 
hat ist die nächste Frage wie weit die Werte um diesen Durchschnitt streuen, 
dafür benutzt man den quadratischen Mittelwert, bei Deinem Bsp käme da 

sqrt((10^2+20^2+10^2+20^2)/4) =15.8 raus, das ist das was Du sehen willst. 
Aber diesen Wert bekommt man dadurch kleiner, daß man mehr Daten mittelt, 
wobei diese auch aus der gleichen ggf falsch kalibrierten Quelle kommen 
dürfen den anderen nicht, da hilft nur Daten von anderen Usern zu bekommen 
die ihr Gerät hoffentlich in die andere Richtung falsch kalibriert haben. 
Wenn sich die Aussage die ich aus dem Vergleich mit den SRTM-Daten gemacht 
habe auch mit besseren Daten bestätigen würde hieße es, daß ich noch zu 
wenig Daten benutze, aber eine Chance besteht mit mehr Daten ein gutes 
Ergebnis zu erhalten. Außerdem gibt es noch viele Methoden das Ergebnis zu 
verbessern. Z.B. ist ja bekannt, daß die ersten Trackpunkte nach einem Fix 
meist schlecht sind, man könnte sie also weglassen. Man kann auch ein 
Programm schreiben das erkennt wo eine Punktwolke erscheint die ja auch 
meist Müll ist, man kann vdop benutzen um den Fehler besser abschätzen zu 
können,... Aber all das würde sich nicht löhnen wenn bei den bisherigen 
Tests rauskäme, daß die Werte absolut daneben liegen. Auch ist es wichtig zu 
den berechneten Werten eine Angabe zur Genauigkeit zu machen, dann kann der 
User z.B. entscheiden ob er diesen Wert nimmt oder den von SRTM,...




Mehr Informationen über die Mailingliste Talk-de