[Talk-de] Höhennetz/Höhendatenbank Vergleich ?mit SRTM
Dimitri Junker
OSM at dimitri-junker.de
Do Mär 12 02:12:26 UTC 2009
Hallo,
>Die Herleitung der Variablen habe ich noch nicht verstanden, aber das
>ist wohl das Geheimnis von Euch Statistikern :-)
Also die SRTM-Daten kommen ja als TIF-Bild, Du brauchst also x und y um eine
Höhe zu bestimmen. Für diese Umrechnung steht im Header des TIF u.a. die
Koordinaten der NW-Ecke (das was ich LON1,LAT1 genannt habe) und die größen
der Pixel in Grad (das sind die FAKTX und FAKTY). Wenn ich hunderttausende
Werte habe kann ich eine vernünftige Aussage zu deren Qualität nur mit
Statistik machen. Leder war ich da schon ziemlich raus und mußte mich
erstmal wieder einlesen.
>Wieso so umständlich mit Pixeln zu arbeiten? Du kannst doch einfach die
>SRTM-Daten in XYZ (LAT LON ELEV) umwandeln und jedem GPX-Punkt die
>genaue Höhe zuteilen.
Keine Ahnung ob Du die SRTM-Daten in einem anderen Format vorliegen hast.
Aber egal wie Du sie hast, es sind immer Mittelwerte über ein Gebiet, dieses
nenne ich Pixel weil es ja auch im TIF-Bild Pixel sind.
>Was auch gehen würde: Du verschneidest die GPX-Punktwolke einfach mit
>den SRTM-Daten und hast dann an jedem Punkt die SRTM-Daten. Das wäre
>vermutlich einfacher nachzuvollziehen.
Wenn ich mit den SRTM-Daten die Qualität der GPX-Daten bewerten will sollte
ich da nicht schon SRTM-Daten mitverarbeiten.
>Was summierst Du worauf? x,y auf was?
Ich berechne zu jedem berechneten Punkt die Abweichung zwischen dieser aus
den GPX-Daten berechneten Höhe und der SRTM-Höhe. AUs diesen bilde ich dann
die verschiedenen Mittelwerte.
>Das sehe ich komplett anders. Das arithmetische Mittel ist in meinen
>Augen kein Indiz für irgendwas hier.
Natürlich ist es das, es sagt aus ob die Daten einen sytematischen Fehler
haben. Wenn ich z.B. GPS-Daten nehme die alle mit einem falsch eingestellten
Höhenausgleich ermittelt wurden wird sich dies im arithmetischen Mittel
zeigen.
>Die Spannweite der Fehler lagen zwischen -20 und +20, der Durschnitt
>ergibt Null ... nutzlos.
s.o. Nachdem man also weiß ob man sich einen konstanten Fehler eingefangen
hat ist die nächste Frage wie weit die Werte um diesen Durchschnitt streuen,
dafür benutzt man den quadratischen Mittelwert, bei Deinem Bsp käme da
sqrt((10^2+20^2+10^2+20^2)/4) =15.8 raus, das ist das was Du sehen willst.
Aber diesen Wert bekommt man dadurch kleiner, daß man mehr Daten mittelt,
wobei diese auch aus der gleichen ggf falsch kalibrierten Quelle kommen
dürfen den anderen nicht, da hilft nur Daten von anderen Usern zu bekommen
die ihr Gerät hoffentlich in die andere Richtung falsch kalibriert haben.
Wenn sich die Aussage die ich aus dem Vergleich mit den SRTM-Daten gemacht
habe auch mit besseren Daten bestätigen würde hieße es, daß ich noch zu
wenig Daten benutze, aber eine Chance besteht mit mehr Daten ein gutes
Ergebnis zu erhalten. Außerdem gibt es noch viele Methoden das Ergebnis zu
verbessern. Z.B. ist ja bekannt, daß die ersten Trackpunkte nach einem Fix
meist schlecht sind, man könnte sie also weglassen. Man kann auch ein
Programm schreiben das erkennt wo eine Punktwolke erscheint die ja auch
meist Müll ist, man kann vdop benutzen um den Fehler besser abschätzen zu
können,... Aber all das würde sich nicht löhnen wenn bei den bisherigen
Tests rauskäme, daß die Werte absolut daneben liegen. Auch ist es wichtig zu
den berechneten Werten eine Angabe zur Genauigkeit zu machen, dann kann der
User z.B. entscheiden ob er diesen Wert nimmt oder den von SRTM,...
Mehr Informationen über die Mailingliste Talk-de