Grundlagen der Statistik enthält Materialien verschiedener Vorlesungen und Kurse von H. Lohninger zur Statistik, Datenanalyse und Chemometrie .....mehr dazu. |
![]() |
Home ![]() ![]() ![]() ![]() |
|
Siehe auch: Neuronale Netze und Extrapolation, ANN - Einführung, Extrapolation | |
Search the VIAS Library | Index | |
Generalisierung und OvertrainingAuthor: Hans Lohninger
Das Problem bei jeder Modellierungsmethode, die auf keinen Annahmen bezüglich des Zusammenhangs der Variablen beruht (sog. "modellfreie Methode"), ist, dass diese Modelle dazu tendieren, sich an beliebige Daten anzupassen (inkl. der enthaltenen Fehler), wenn sie nicht richtig eingesetzt werden. Im Fall von neuronalen Netzwerken wird dieser Effekt "Overtraining" oder auch "Overfitting" genannt. Overtraining tritt auf, wenn das neuronale Netzwerk für das gestellte Problem zu mächtig ist. Es "erkennt" dann den zugrunde liegenden Trend nicht, sondern lernt die Daten perfekt (das Rauschen in den Daten mit eingeschlossen). Daraus ergibt sich eine schlechte Verallgemeinerung und eine zu gute Anpassung an die Trainingsdaten. Klicken Sie auf dieses interaktive Beispiel, um einen Eindruck von den ungünstigen Effekten des Overtrainings zu bekommen Wie Sie aus diesem interaktiven Beispiel sehen können, ist eine gute
Verallgemeinerung wichtig für brauchbare Modelle. Es gibt einige Methoden,
um den Grad der Verallgemeinerung zu prüfen und/oder das Overfitting zu
detektieren:
|
|
Home ![]() ![]() ![]() ![]() |