Zitat:
Zitat von Rolf740i
...
Seit Jahren suche ich hierfür vergebens nach einer Erklärung. Weisst Du eine?
Dank + Gruss, Rolf.
|
Navi´s berechnen die Geschwindigkeit anhand von "zeitstempeln", welche sie von den Satteliten bekommen. Das Signal ist nicht genau, da die Satelitenbetreiber ein Verfälschungssignal einspeisen. Fast nur das Millitär bekommt dieses Verfälschungssignal entfernt und nutzt das "richtige" signal.
Es gibt auch noch einige Wissenschaftler, die das "richtige" Signal auswerten können.
An/In einem Auto kannst du eigentlich nie korrekt messen, wie schnell du bist, das sich z.B. der Reifendurchmesser ständig ändert! Luft in den Reifen, Profilabnutzung, und und und.
Auch bei z.B. einer Radarmessung wird ja eine Fehlertoleranz abgezogen und dem Client "gutgeschrieben"

Sinn macht es sich eine Wegstrecke aus zu suchen und dann die Zeit stopen, die man für diesen Weg braucht. Bei konstanter Fahrt läßt sich dann V berechnen und mit den angezeigten Werten (Tacho, BC, Navi...) vergleichen.
Die km-Angaben an Autobahnen (Die weißen Schilder am Wegesrand) sind da ziemlich genau.
Also bei wenig Verkehr auf die Bahn, und z.B. mit konstanten 120km/h eine Strecke von 10km fahren und die Zeit stoppen.
Das könnte man noch mit 80km/h, 100km/h... machen und dann eine Messreihe erstellen. Je länger/weiter man fährt, desto genauer wird die Messung.
In einem Auto "genau" zu messen ist relativ schwierig. Auch "geeichte Tachos haben eine Messtoleranz. (Reifendruck, Profilabnutzung...)
Wie genau willst du denn deine Geschwindigkeit wissen? Reicht dir dein Tacho/BC nicht?
Grüßle Falk