Ausgleichsrechnung

14. Mai 2018 Keller-H 0 Kommentare

Liegt eine Reihe von Messdaten vor, zu denen ein mathematischer Zusammenhang formuliert werden soll, führt dies im Allgemeinen auf ein überbestimmtes und somit unlösbares lineares Gleichungssystem. Gesucht ist deshalb eine Funktion, die die vorhandenen Daten möglichst gut annähert. Der Typ der Funktion ergibt sich meist aus dem vermuteten mathematischen Zusammenhang, so dass die Funktion bis auf zu bestimmende Parameter in der Regel fest steht.

Die Ausgleichsgerade

Im einfachsten Fall ist dies ein linearer Zusammenhang, d.h. die Messdaten sollten auf einer Geraden liegen. Der Messpunkt i wird dann durch die Gleichung

    \[y_i=\alpha+\beta t_i\]

beschrieben. Für mehr als zwei Messpunkte ist das resultierende Gleichungssystem in der Regel unlösbar. Deshalb wird eine zusätzliche Variable r_i eingeführt, die als Maß für die Abweichung jedes Punktes von einer Geraden fungiert:

    \[y_i = \alpha + \beta t_i - r_i \]

Ziel ist es nun \alpha und \beta so zu bestimmen dass die Residuen r_i möglichst klein werden. Als Maß für die Größe der Abweichung betrachtet man die Quadratsumme der Residuen. Damit ergibt sich das Minimierungsproblem

    \[f(\alpha,\beta):=\sum_{i=1}^n r_i^2=\sum_{i=1}^n(\alpha+\beta t_i - y_i)^2\rightarrow min \:.\]

Notwendige Bedingung für das Vorliegen eines Minimums sind nun die Nullstellen der beiden partiellen Ableitungen.

    \[\frac{\partial f(\alpha,\beta)}{\partial \alpha} = 2\sum_{i=1}^n (\alpha + \beta t_i - y_i) \:, \]

    \[\frac{\partial f(\alpha,\beta)}{\partial \beta} = 2\sum_{i=1}^n (\alpha + \beta t_i - y_i)t_i \:.\]

Dies führt zu den Gleichungen

    \[n\alpha + \beta\sum_{n=1}^n t_i = \sum_{i=1}^n y_i \:,\]

    \[\alpha\sum_{n=1}^n t_i + \beta\sum_{n=1}^n t_i^2 = \sum_{n=1}^n t_i y_i \:.\]

Der quadratische Fall

Soll als Funktionstyp ein Polynom vom Grad p zu Grunde gelegt werden, lässt sich der lineare Fall leicht verallgemeinern. Die Residuen sind dann definiert als

    \[r_i:=\sum_{k=0}^p \alpha_k t_i^k-y_i \:.\]

Dies führt auf ein System von n Gleichungen in p+1 Unbekannten. Für die Lösung werden die Gleichungen normalerweise in Matrixform umgeschrieben, für deren Lösung numerische Verfahren existieren. Im Sinne eines einfachen Algorithmus zur Lösung, der ohne Matrizenrechnung auskommt sei hier noch der häufig vorkommende quadratische Fall behandelt.

Das Minimierungsproblem hat dann die Form

    \[f(\alpha,\beta,\gamma):=\sum_{i=1}^n r_i^2=\sum_{i=1}^n(\alpha+\beta t_i +\gamma t_i^2- y_i)^2\rightarrow min \:.\]

Mit den partiellen Ableitungen

    \[\frac{\partial f(\alpha,\beta,\gamma)}{\partial \alpha} = 2\sum_{i=1}^n (\alpha + \beta t_i + \gamma t_i^2 - y_i) \:, \]

    \[\frac{\partial f(\alpha,\beta,\gamma)}{\partial \beta} = 2\sum_{i=1}^n (\alpha + \beta t_i + \gamma t_i^2 - y_i)t_i \:, \]

    \[\frac{\partial f(\alpha,\beta,\gamma)}{\partial \gamma} = 2\sum_{i=1}^n (\alpha + \beta t_i + \gamma t_i^2 - y_i)t_i^2\: \]

erhält man die Gleichungen

    \[n\alpha + \beta\sum_{i=1}^n t_i+ \gamma\sum_{i=1}^n t_i^2 = \sum_{i=1}^n y_i \:,\]

    \[\alpha\sum_{i=1}^n t_i + \beta\sum_{i=1}^n t_i^2 + \gamma\sum_{i=1}^n t_i^3 = \sum_{i=1}^n y_i t_i \:,\]

    \[\alpha\sum_{i=1}^n t_i^2 + \beta\sum_{i=1}^n t_i^3 + \gamma\sum_{i=1}^n t_i^4 = \sum_{i=1}^n y_i t_i^2 \:.\]