An dieser Stelle möchte ich Euch einfach mal was zum Thema kalibrieren oder justieren (keine Ahnung welches genau nun der richtige Begriff ist) berichten. Irgendwo hatte ich gelesen dass zum einen mit zunehmendem Alter der Drift immer geringer wird und zum zweiten meistens nur ein Messbereich kalibriert werden muss und die anderen dann automatisch passen.
Das hängt stark vom Multimeter ab das zu kalibrieren ist.
Zuersteinmal etwas grundsätzliches über die Funktionsweise:
Der A/D-Wandler im Multimeter, mit dem die angelegte Spannung gemessen wird, kann nur einen einzigen Meßbereich. Hier wird typischerweise die angelegte Spannung mit einer sehr präzisen internen Referenzspannung verglichen.
Sind die zu messenden Spannungen größer als dieser "interne" Meßbereich, so müssen sie über einen Spannungsteiler soweit heruntergeteilt werden, bis sie darauf passen. Das sind dann die umzuschaltenden Meßbereiche.
Hier gibt es schonmal zwei Hauptfehlerquellen (neben weiteren wie Leckströmen etc):
1. wenn die interne Referenzspannung durch z.B. Alterung wegdriftet, verändern sich die gemessenen Spannungswerte in allen Meßbereichen um den gleichen Faktor.
2. wenn die jeweiligen Widerstände (auch durch Alterung) im Spannungsteiler ihren Wert ändern, so ändert sich im jeweils gewählten Meßbereich der gemessene Wert.
Die (Präzisions-)Widerstände für diese Spannungsteiler befinden sich oftmals auf einem einzelnen Chip/Array. Dort werden sie bereits bei der Herstellung z.B. mittels Laser genau abgeglichen. Auch ihr thermisches Verhalten (Temperaturkoeffizient) kann auf diese Weise genau eingestellt werden.
Gerade bei kostengünstigeren Meßgeräten ist dieses Array deutlich präziser als es für die Genauigkeit des Meßgerätes notwendig wäre. Hier wird dann auf einen Einzelabgleich verzichtet. Nur die jeweilige interne Referenzspannung muß abgeglichen, bzw. der Korrekturfaktor für diese eingestellt werden. Hier genügt wirklich eine Einstellung.
Bei etwas präziseren Meßgeräten hingegen kommt man auch nicht drumherum, die Abweichung für die einzelnen Meßbereiche zu justieren, da hier auch die Abweichungen der einzelnen Widerstandswerte im Array relevant sein können.
Was ich auch noch gelesen habe ist dass nach Kalibierung der Spannung meist auch die Stromanzeige wieder stimmt.
Meist ja.
Bei der Strommessung wird intern im Meßgerät über einen niederohmigen Meßwiderstand ("Shunt") durch den durchfließenden Strom ein Spannungsabfall erzeugt. Für die Messung dieser Spannung gilt das gleiche wie das oben gesagte.
Allerdings kommt hier als Faktor noch der Meßwiderstand dazu. Präzise Meßwiderstände für große Ströme können teilweise sehr stark altern, dabei verändern sie auch ihre Werte.
Beispielsweise der Strommeßwiderstand im HP 34401A (0,1 Ohm, ich glaube 5W) kann nach 2000h unter Vollast (die im Meßgerät aber nie auftreten können) seinen Wert um 0,5% ändern. Extreme Feuchtigkeit kann 0,2% Änderung bewirken...
Dieser Fehler kommt dann nochmal zu denen der Spannungsmessung dazu.
Allerdings sind die Meßwiderstände auch oftmals vielfach genauer als die Spezifikation der Geräte... womit dann die von Dir genannte Abhängigkeit von der einmaligen Einstellung der Spannungsmessung (Referenzspannung) wieder stimmt.
Aber was man wirklich sagen kann: speziell die internen Referenzspannungsquellen (Zenerdioden) in den Geräten werden mit den Jahren stabiler.