Im Folgenden einige Grafiken zum Bonn Marathon 2016. Alle Auswertungen beziehen sich ausschließlich auf Männer die 41,195 km gelaufen sind. Eine Erklärung zu diesen Grafiken findet man unter dem Beitrag AgeGrading.
Im Folgenden einige Grafiken zum Bonn Marathon 2016. Alle Auswertungen beziehen sich ausschließlich auf Männer die 41,195 km gelaufen sind. Eine Erklärung zu diesen Grafiken findet man unter dem Beitrag AgeGrading.
Für die Herleitung der Laufleistung in Watt war der Absprungwinkel von Bedeutung. Neben Schrittfrequenz und Kadenz sind die Winkel beim Laufen ein in jüngster Zeit stark diskutiertes Thema, vgl. Julian Reus aber auch Chris Solinsky.
Die Angaben zum Vertikalhub im Video mal kurz nachgerechnet
strides: 6200 / 10.000 m; vertical oscillation: 15,24 cm (sehr groß) daraus folgt:
total climb = 945 HM (das deckt sich mit den Angaben im video)
stride length = 1,61 m (das ist schon sehr groß, zumindest für uns Freizeitläufer)
Bestzeit von Chris Solinsky ist 27 min / 10.000m. Wenn man diese Zeit dem Lauf im Video zugrundelegt folgt daraus:
Kadenz = 230 strides/min :Das ist wieder sehr groß, und unverträglich mit den Angaben in runnersworld für Eliteläufer. Selbst wenn man mit 30min/10.000m rechnet kommt man auf 206 Schritte/min. Erst bei 32 min /10.000m kommt man auf eine Schrittfrequenz von 190 Schritte/min die man nach runnersworld bei Topläufern erwarten kann.
Mit zunehmender Digitalisierung (Sensoren) können immer präzisere Aussagen zur Lauftechnik gemacht werden und darauf aufbauend Optimierungen erfolgen. Sensoren, Biomechanik, quantitative Modelle und genügend Rechenpower sind wahrscheinlich heute für einen großen Teil der Erfolge verantwortlich und haben Expertenurteile zumindest in Teilen schon ersetzt. Und letztlich kann man dann auch das Laufen Maschinen überlassen.
Nach Heise ist der Laufrobotor „cheetah“ mit 45km/h derzeit schon schneller als Usain Bolt. Sehr wahrscheinlich wird die erforderliche Rechenleistung für solche Laufroboter die Anforderungen der Apollo Mondlandung bei weitem übertreffen (vgl. Zeit). Klassische Mechanik kann selbst heute zu einer Herausforderung für Computer werden.
Es ist natürlich nicht unser Ziel, das Laufen Maschinen zu überlassen, denn wir wollen uns selbst bewegen. Für diese komplexen Modelle ist viel Forschung, Gerät und IT-Technik Voraussetzung die für uns Freizeitläufer derzeit unerschwinglich ist. Aber wir werden von der Forschung profitieren und es gibt ja schon im low budget Bereich highspeed Kameras und Analysewerkzeuge, mit denen man den Lauf detaillierter betrachten kann. Die Video’s zeigen, in welche Richtung die Entwicklung geht und wahrscheinlich werden die nächsten Jahre viel Neues für uns Läufer bringen.
Im Folgenden wird einfacher verfahren und auf den Daten einer Laufuhr – für Freizeitläufer – mit den Feldern Zeit, Kadenz, Geschwindigkeit und Vertikalhub aufgesetzt.
Die Flugbahn beim Wurf kann mit folgendem einfachen Modell (vgl. Wurfparabel) beschrieben werden.
x(t) : horizontale Koordinate in Abhängigkeit der Zeit t
y(t) : vertikale Koordinate in Abhängigkeit der Zeit t
α : Absprungwinkel
: Geschwindigkeit beim Absprung in Richtung α
d.h.
Ableitung des Absprungwinkels aus den Scheitelpunkt der Wurfparabel
Wenn man nach dieser Gleichung den Absprungwinkel berechnet und dann über eine weiter Gleichung
z.B.
bestimmt hat man sämtliche Parameter zur Parabel festgelegt. Wendet man dies nun auf mit einer Laufuhr gemessene Werte an, stellt man i.d.R. fest, dass die unberücksichtigt geblieben Gleichungen nicht erfüllt werden d.h. man hat Fehler in den Gleichungen zu
. Dies kann einerseits daran liegen, dass das Modell zu einfach und damit falsch ist, andererseits könnten Messfehler das Bild trüben. Aus den Beitrag zur Höhe wissen wir, dass die per gps-Uhr gemessene Geschwindigkeit fast nie mit dem Quotient aus Länge und Zeit übereinstimmt, weil
z.B. über einen Kalman Filter ermittelt wird. Deshalb wird im Folgenden versucht die Fehler auszugleichen.
Mit dem physikalische Modell können die gemessenen Werte der Laufuhr i.d.R nicht gleichzeitig exakt getroffen werden. Man kann aber versuchen eine Annäherung dazu mit folgender Parameterschätzung zu
im Rahmen eines nichlinearen Modells zu bestimmen.
wobei
: die per gps gemessene Geschwindigkeit [m/s]
: die Zeit pro Schritt aus
Kadenz abgeleitet [s]
: die Schrittweite [m] aus
abgeleitet
: der vertikale Hub [m] nach Garmin HRM Messung
In diesem Modell werden die relativen Fehler minimiert. Da jeder einzelne Fehler in einem anderen nichlinearen Zusammenhang mit den unbekannten Parametern steht, kann dies nicht mit standardmodellen zur nichtlinearen Regression erfolgen, sondern muss mit allgemeiner nichtlinearer Optimierung gelöst werden. Dazu wird ein CG-Verfahren implementiert. Als Startpunkt kann man hier die Lösungen zu zwei der 4 Gleichungen wählen.
Die Ergebnisse aus der Tabelle zeigen, dass selbst dieses kleine Problem je nach Algorithmus zu unterschiedlichen Lösungen führen kann. Relativ stabil wird aber der Absprungwinkel mit ca 21. Grad geschätzt. Unbefriedigend sind hingegen die Anpassungen an t und x und die damit assoziierte Kadenz und Schrittweite.
In diesem Abschnitt soll die Flugbahn des Läufers ohne physikalische Ableitungen bestimmt werden. Zur Approximation wählen wir eine einfache Parabel sowie 2 Parabeln, die sich in ihren Scheitelpunkten treffen.
Ableitung des Absprungwinkels aus einer Parabel durch die Punkte
Für die einfache Parabel kommen wir erwartungsgemäß zum selben Ergebnis des physikalischen Modells. Nun ist diese Funktionsform aber weniger flexible wie die der zusammengesetzten Parabeln.
Der Absprungwinkel ergibt sich hier aus der ersten Parabel mit und liefert für
natürlich den Wert der Wurfparabel. Für realistische Flugbahnen dürfen aber eher Werte
relevant sein die zu einem kleineren Absprungwinkel führen. Unterstellt man bei einem Lauf ein konstantes Verhältnis von
so sind die berechneten Steigungen des zusammengesetzten Modells und des Wurfparabelmodells proportional. Bis auf einen – hier leider unbekannten – positiven Skalierungsfakor ändert sich nichts, und wir können dennoch Richtungsaussagen machen.Unter Verwendung der Definitionsgleichung für die Schrittlänge
und dem Absprungwinkel der Wurfparabel erhält man
Die arctan(x) Funktion ist im relevanten Laufbereich nahezu linear, vgl. folgende Abbildung.
Mit der linearen Näherung zu arctan(x) kann man α mit
gut approximieren, wobei c eine positive Konstante ist. Die erbrachte Hubleistung des Läufers wird hier auf das Produkt von Geschwindigkeit und Absprungwinkel verteilt. Wird eine hohe Geschwindigkeit bei gegebener Leistung angestrebt ist ein kleiner Absprungwinkel förderlich. Diesen kann der Läufer beeinflussen:
Gegenüberstellung ungünstiger und günstiger Absprungwinkel für das Lauftempo
Daraus resultieren dann häufig – nach Erfahrung des Autors –
In this paper I analyze the intermediate and finishing times of male runners over several years in a marathon. Surprisingly the age group M40 performs best, leading to a U shaped curvature for age groups. The distribution of intermediate and finishing times seems to be bimodal with peaks at 3:30 and 4:00 hours, which might be an effect of guidance by popular “pacemaker”. The average split relation between second and first part of the marathon for runners, who do not increase the pace in the second part was found to be 1.10. The solutions for the 50% quantile regression, suggests a surcharge of 3% up to 5% which should be best for finishing times in the range of 3:00 to 4:30 hours.
In the last part, I try to remove the age effect from the finishing times by preserving the empirical distributions in each age group. I argue that the resulting age adjusted times are equal to the age graded times. This implies different age grading factors for the quantiles of finishing times, which are reasonable from a physiological point of view. The age grading factors are estimated by a parametric quantile regression and are compared with the WMA gradings. For the lower quantiles, the WMA gradings are in the range of the estimated 3% an 10% quantile. For the midrange quantiles of runners, the WMA gradings seems to overestimate the age effect because the age degression in this category was found to be much lower than in the estimated world best times from WMA.
Unsere sportlichen Leistungen sind sicherlich vor dem Hintergrund des Sportleralters (a) zu sehen und wir schauen uns nach Wettkämpfen zur eigenen Positionsbestimmung gerne die Einstufung nach den Altersklassen des DLV an. Nach den Darstellungen zur Laufleistung P [W], gibt es folgenden Zusammenhang zwischen der dominierenden Hubleistung P und der Zeit (t) für eine gegebene Strecke (s).
Nach Angaben des statistischen Bundesamt nimmt die mittlere Körpermasse bei Männern bis zu einem Alter von 60 zu. Dieser Trend – sicherlich nicht in allen Teilen einer Naturgesetzmäßigkeit sondern eher dem Wohlstand geschuldet – dürfte an der Masse der Freizeitläufer nicht vorbeigehen.
Des Weiteren dürfte die Leistungsfähigkeit mit dem Alter ab 25-30 Jahre aufgrund physiologischer Änderungen und abnehmender Muskelmasse (vgl. loges) ebenfalls zurück gehen. Der allgemeine Gewichtstrend besteht damit wahrscheinlich eher in einer Zunahme von Körperfett, was beim Laufen zu linearen Zuschlägen bei der Endzeit führt.
Es gibt also einige Gründe für das anwachsen des Bruchs m(a)/P(a) mit zunehmendem Alter a und daraus resultieren dann schlechtere Zeiten t für eine Strecke s.
Einen ersten Eindruck zur Variation bei Läufern liefern die publizierten Tabellen zu Marathon Finisher Zeiten nach Altersklassen. Dazu werden die Ergebnisse mehrerer Jahre von einem flachen Marathon (überwiegend asphaltiert) gepoolt und für Männer statistisch ausgewertet.
In die Auswertung sind ca. 4600 Finisher Zeiten eingegangen. 50% der Läufer erreichten das Ziel vor 3:51 Stunden. Der Mittelwert mit 3:53 liegt in Nähe des Medians und ist verglichen mit den in Durchschnitte genannten Zeit von 4:29.52 deutlich niedriger. An der Breite der Boxes im Boxplot sowie an den unten genannten Häufigkeiten erkennt man, dass die AK 40, 45 und 50 am stärksten besetzt sind und ca. 60% aller Teilnehmer stellen. Dies könnte dem demographischen Aufbau (Baby-Boomer) geschuldet sein.
Überraschend ist der Verlauf der Mittelwerte in Abhängigkeit der Altersklassen. Zwar werden erwartungsgemäß in der jüngsten Klasse MHK auch die besten Zeiten gelaufen (unterer Whisker MHK), für die Masse der Läufer sieht es aber anders aus. Demnach erreichen diese erst mit 40 Jahren im Mittel (genau genommen Median) ihr Minimum und erst danach geht es stetig bergauf mit den Marathonzeiten bis zur Altersklasse M60. Im Mittel sind also die Jüngeren nicht schneller als die midlife Läufer. Da sich die Kerben (notches) von MHK und M40 in der Grafik nicht überschneiden, kann man vermuten, dass der Unterschied signifikant ist d.h. die AK40 im Mittel schneller ist als die MHK.
Mit einem Tukey HSD Test wird untersucht, ob die Differenzen in den Altersklassen-Mittelwerten signifikant sind.
Demnach enthält das Konfidenzintervall von MHK – M45 die 0:00 und hat somit keinen signifikanten Einfluss (obere Balkengruppe mit 8 Elementen). Gleiches gilt für den Vergleich MHK – M50. Beim Vergleich mit M40 schneiden sogar die älteren Läufer signifikant besser ab.
Der Vergleich der Mittelwerte, führt hier zu weniger „intuitiven“ Ergebnissen, da die MHK die Topläufer stellt und diese Topleistungen mit M50 schon aus physiologischen Überlegungen nicht mehr erreichbar sind. Die MHK besteht aber eben nicht nur aus externen, angereisten Topläufern die dem Ruf des Preisgelds gefolgt sind, sondern auch aus MHK Freizeitläufer und diese sorgen hier für die Varianz in der Gruppe, so dass diese ihre Sonderstellung verliert. Eine Untersuchung mit ähnlicher Fragestellung findet man in Connick_Beckman_Tweedy.
Zu diesem Marathon liegen neben den Finisher-Zeiten auch Zwischenzeiten vor die im folgenden Scatterplot dargestellt sind.
Die Farben der Punkte sind hier nach der Endzeit vergeben. Alle Korrelationen sind sehr hoch und je näher die Streckenabschnitte zusammen liegen, desto höher sind sie. Den größten Einfluss auf das Ergebnis hat erwartungsgemäß die 2. Laufhälfte. Auffällig ist, dass mit zunehmender Endzeit, die Varianz in den Vorzeiten zunimmt. Man kann also eine größere Endzeit mit verschiedenen Aufteilungen in Zwischenzeiten erreichen („Viele Wege führen nach Rom“). Für die Spitzenzeiten gilt das natürlich nicht.
Die Verteilung der HM1-Zeiten sind im Folgenden noch mal detaillierter dargestellt.
Hier erkennt man zwei Häufungspunkte bei ca. 1:40 und 2:00 Stunden. Dies wird sehr wahrscheinlich mit der Zielsetzung der Läufer, den Marathon mit 3:30 oder 4:00 abzuschließen, verbunden sein. Weiterhin gibt es Zug- und Bremsläufer mit damit assoziierten Zielzeiten. Wenn man solche Zeiten als Ergebnis eines stochastischen Prozess betrachtet, dann kommt die Stochastik hier aus einer mindestens zweigipfliegen Verteilung. Die Zug- und Bremsläufer haben also erkennbare Spuren hinterlassen, was ja auch der Zielsetzung entspricht.
Diese 2 Gipfel in der HM1-Verteilung können sich – in leicht abgeschwächter Form – ins Ziel retten.
Weiterhin spricht auch dieser Umstand dafür, dass die meisten Läufer nicht an ihrer persönlichen Leistungsgrenze laufen, da sonst die Häufungspunkte wahrscheinlich nicht so deutlich entstehen würden. Man könnte entgegnen, dass diese Häufungspunkte durch die Zusammensetzung der Läuferschaft entstanden sind. Dies dürfte aber sehr unwahrscheinlich sein, da es aus physiologischer Sicht keinen Hinweis auf Mehrgipfligkeit gibt und das Alters-spektrum (vgl. Boxplot) recht kontinuierlich aufgebaut ist.
Im Zusammenhang mit der Zielzeit ist die Aufteilung der Zeit auf die beiden Laufhälften ein heftig diskutiertes Thema in der Läuferschaft. Man spricht von einem inversen Split, wenn die 2. Hälfte schneller als die Erste gelaufen wird.
Den meisten Läufern gelingt aber kein inverser Split. Diese laufen die zweite Hälfte ca. 10% langsamer als die erste. Auf beide Hälften bezogen bedeutet dies einen Zuschlag von 5% zur Halbmarathonzeit.
Wie hängen nun Split-Relation und Finishtime zusammen? Dazu wurden verschiedene Modelle angesetzt.
Dieser Grafik entnimmt man, das jeder Prozentpunkt mehr in der Splitrelation zu spürbaren Zuschlägen in der Endzeit führen. Das Total least squares führt hier zu den größten Zuschlägen. Für die Interpretation der TLS Geraden geht man wie folgt vor: Man nimmt einen Punkt – z.B. die eigene Laufleistung – und fällt von diesem das Lot auf die TLS Gerade und erhält so den Schätzwert und 2 Residuen. Dem TLS Ansatz liegt die Vorstellung zu Grunde, dass beide Werte – finish und split – durch zufällige Ereignisse geprägt sind, während bei der Standardregression der Fehler nur in der abhängigen (hier finish) auftritt. Dies kann hier aber durchaus bezweifelt werden.
Bei dem 50% Quantilt für die Finishtime als Funktion der splitrelation ist die Fragestellung andersherum: Gegeben ist hier die Zielzeit und diese Linie gibt dann die 50% Grenze für den split an. Beispiel: Möchte man 3:00 Stunden laufen, so sollte der Zuschlag 3% für die zweite Hälfte sein. Die Hälfte der Läufer mit 3 Std hat das hier so „durchgezogen“. Die Grafik zeigt aber auch, dass es Manchem mit einem schlechterem split z.B. 10% trotzdem gelingt die 3:00 zu erreichen. Nur sind das dann eben sehr wenige oder anders ausgedrückt „Ausnahmen“. Bei 4:00 Stunden Zielzeit kann man sich dann schon 5% Zuschlag leisten.
Die Quantillinie wurde mit einer parametrischen Quantilregression bestimmt (vgl. weiter unten) und fällt schon ganz gut mit der TLS Linie zusammen. Das ist kein Zufall, da die TLS Linie der Eigenvektor zum betragsgrößten Eigenwert der Verteilung (Time,Split) ist. Dann nämlich sollte links und rechts davon ungefähr die selbe Masse liegen. Im Unterschied zum Eigenvektor ist die Quantillinie aber nicht an Linearität gebunden.
Die Altersklassen des DLV ermöglichen eine Differenzierung der Laufleistung nach dem Alter. Sie sind zugleich Ansporn für viele Läufer, sich gut im jeweiligen Alterssegment zu positionieren. Beim sogenannten „Age Grading“ versucht man nun einen Vergleich über Altersklassen hinweg aber unter Ausschaltung des Alterseinfluss vor zunehmen. Wie kann man sich das vorstellen?
Dazu ist folgendes Gedankenexperiment instruktiv. Angenommen, wir hätten von einer großen Menge von Läufern die Finishzeiten auf einem Marathon gemessen. In darauf folgenden Monaten oder Jahren messen wir wieder die Finishzeiten auf der selben Strecke und bei genau den gleichen Läufern. Man wird dann trotz gleicher Bedingungen sehr wahrscheinlich abweichende Zeiten messen. Dafür kann es sehr viele Ursachen geben, z.B. Tagesform, Trainingsstand, Krankheit, Ausrüstung, Wetter etc. Letztlich konnte man viele Einflussfaktoren eben über die Zeit t und damit auch über das Alter a nicht konstant halten. Man kann dann vermuten, dass sich im Mittel diese zufälligen Faktoren ausgleichen (vgl. dazu auch zentralen Grenzwertsatz). Das einzige systematisch variierte Element ist somit die Zeit und das davon abhängige Alter a(t) der Läufer. Die Laufleistung eines Läufers i zum Zeitpunkt t wäre dann Finishzeiti,t = αa(i,t) + εi,t. ε sind hier die zufälligen Änderungen – wie die zuvor genannten – von denen wir annehmen, dass sie im Mittel keinen Einfluss haben. αa(i,t) ist dann der Einfluss des Alters auf die Finishzeit. Dieses Modell kann man noch verfeinern, in dem man individuelle Aspekte der Läufer i berücksichtigt also z.B. Finishzeiti,t = αa(i,t) + βi + εi,t wobei die additive Verkettung der Einflussfaktoren sicherlich nicht die einzig sinnvolle ist. Das gleiche gilt für den Fehlerterm ε der sicherlich differenzierter modelliert werden sollte.
Unabhängig davon, wie die genaue Modellierung der Einflussfaktoren und des Fehlers erfolgt, kann man nach Schätzung des Einflusses diesen aus den Messungen entfernen und wir erhalten die altersbereinigten Finishzeiten. In der hier angenommen Situation – es sind die gleichen Läufer unterwegs – sollten dann die bereinigten Werte der verschiedenen Altersklassen aus ein und der selben Verteilung stammen.
Der Effekt des Age Gradings besteht darin, die altersabhängigen Verteilungen der Finishzeiten ineinander zu überführen.
Das sollte auch näherungsweise für Situationen gelten, in denen die Läufer nicht konstant gehalten werden, sondern ebenfalls „zufällig“ antreten. Für die Spitzenläufer und Topzeiten ist diese Annahme sicherlich problematisch, da das Preisgeld eine Einfluss darauf hat, wer zum Marathon erscheint. Für die restlichen 99% der Freizeitläufer, die nie auf dem „Treppchen“ stehen ist dies aber irrelevant.
Ein anderer wichtiger Einflussfaktor der in realen Situationen variiert ist die Strecke. Sicherlich kann man die Ergebnisse eines flachen Marathons (Berlin) nicht mit denen einer profilierten Strecke in Zermatt vergleichen. Hier wäre sicherlich ein Flachstreckenäquivalent (vgl. mein Beitrag dazu Höhe Laufen) sinnvoll. Dies könnte man zu einer alterskorrigierten Dauerleistung in Watt (vgl. mein Beitrag Laufleistung) ausbauen und hätte so eine noch größere Datenbasis. Etwas ähnliches gilt für das Geschlecht. Dies ist relativ einfach – da nur 2 Ausprägungen – zu schätzen sind und alle mir bekannten Agegradingmethoden sind geschlechtsspezifisch. Man kann sicherlich die Liste der relevanten Faktoren noch weiter ergänzen. Einerseits reduziert sich damit die Residualstreuung εi,t, andererseits könnte der Alterseinfluss geschmälert oder erhöht werden, je nachdem wie die zusätzlichen Faktoren mit dem Alter korreliert sind.
Wenn man also den Einfluss des Alters – des Jahrgangs/der Kohorte – eliminiert hat und Strecke sowie Geschlecht konstant hält, gibt es keinen Grund mehr zwischen den Altersklassen zu differenzieren und wir können ein Ranking bezüglich der bereinigten Zeiten über alle Altersklassen hinweg vornehmen. Somit wird eine Leistung von Dennis Kimetto 2:02:57 in der MHK (Marathonbestzeit) vergleichbar mit 3:25:43 in der Klasse M80 von Ed Whitlock.
Aus dieser Herleitung resultiert die Anforderungen an die Age Grading Verfahren, die altersabhängigen Verteilungen ineinander zu überführen. Die Kenntnis der Verteilung ist dafür Voraussetzung und mit den Boxplots am Anfang dieses Beitrags haben wir genau das analysiert. Wenn man die Fiinishzeit mit einem Gewicht multipliziert – wie es beim WMA Ansatz gemacht wird – verändert das nicht nur den Erwartungswert sondern auch deren Varianz. Für ab der MHK steigende Gewichte wird so implizit angenommen, dass nach der MHK die Streuung zunimmt. Für den hier vorliegenden Marathon scheint dies nicht gegeben zu sein. Im Gegenteil: die MHK hat die größte Streuung und es spricht einiges dafür, dass dies auch bei anderen Marathons der Fall sein wird, da sich die MHK aus erfahrenen Profis als auch Neulingen zusammensetzt.
Die Altersbereinigung wird im Einzelfall nie exakt gelingen und wir müssen mit Abweichungen vorlieb nehmen. Sind alle Abweichungen gleich „schädlich“? Dies hängt von der Fragestellung ab:
Die Laufzeitverteilung hat beim Agegrading eine zentrale Bedeutung, und mit dem Eingangs dargestellten Boxplot haben wir schon eine Vorstellung zur Verteilung gewonnen. Man kann das noch detaillierter darstellen, da der grouping Faktor des Boxplots – die Altersklassen – kardinal skaliert ist und man annehmen kann, dass über die Altersklassen hinweg ein kontinuierlicher Prozess wirkt, nämlich das „Altern“.
Diese Dichte zu den Laufzeiten zeigt deutlich den Häufungspunkt bei M45 und 3:45. Daneben erkennt man unten die Kontourlinie für die Bestleistungen (1%) dieses Marathons. Mit zunehmendem Alter steigt diese erwartungsgemäß an. Für den Läufer ist nun die daraus abgeleitet kumulierte Verteilung interessant.
Farbe und Höhenlinien geben nun die Wahrscheinlichkeit an, dass ein Läufer der AK a das Ziel vor der Zeit t erreicht.
Beispiel: Mit einer Wahrscheinlichkeit von 95% erreicht ein Läufer der MHK das Ziel vor 5:00 Stunden.
Daneben erkennt man unten die 1% Linie, also nahe den Altersbestzeiten dieses Marathons. Diese Linie steigt über den gesamten Altersbereich von ca, 2:17 auf ca. 2:45 Zielzeit für die M65 an. Man sieht auch, dass im mittleren Leistungsbereich von z.B. 50% die Höhenlinien sich deutlich anders mit dem Alter entwickeln als die Bestleistungen. Jede dieser Linien kann man als Menge leistungsäquivalenter Zeiten auffassen, und man hat damit schon einen ersten Ansatz für ein „Age Grading“. Diese fällt für Topläufer offensichtlich anders aus, als für die Masse der Freizeitläufer, was auch den Eingangs dargestellten Überlegungen zur maximalen Altersleistung entspricht. Man sieht hier schon gut, dass die Übertragung der Topläufer Altersdegression auf die Masse der Freizeitläufer zu einer Fehleinschätzung führt. Würde man die Topläufer Degression auf eine Laufleistung von 90% übertragen würden die Alterszuschläge deutlich überschätzt.
Das Vorgehen und die Daten sind usatf entnommen und der Zusammenhang wird am Beispiel der Marathon Distanz dargestellt.
Die Berechnungen fußen auf einem geschlechtsspezifischem OpenClassStandard OC(gender) und Age Factors AF(gender,age)<1. Aus diesen wird der Age Standard mit AS(gender,age)=OC(gender) / AF(gender,age) berechnet. Die relative Performance P(i) einer Leistung T(i) ergibt sich dann aus P(i)= AS(gender,age)/T(i) die i.d.R ≤ 1 ist.
Rechenbeispiel
gender=male, age=40, => AS(male,40)= 126,426735 min
T(i)= 3:30 = 210 min
P(i)= 126.426735/210= 60.20 %
Die so berechneten P(i) sind über verschiedene Distanzen, Geschlechter und Alter vergleichbar. Für das Age grading ist nun der Zusammenhang zu anderen Alterswerten interessant. Wir nehmen an, ein Läufer habe gleichwertige Ergebnisse zum Zeitpunkt a und a+t erzielt, also
Dann müssen die beiden Zeiten T(a+t) und T(a) im selben Verhältnis stehen wie die Altersfaktoren, unabhängig vom OpenClassStandard OC. Wie kann das sein?
Dies erschließt sich einem durch die Ableitung der Altersfaktoren, vgl. AgeGrade. Dazu wird auf einer Datenbasis eine untere Grenze für den AgeStandard AS=AS(a) geschätzt. AS(a) ist ein über 7 Altersabschnitte definiertes Polynom, das an den Nahtstellen stetig und differenzierbar ist.
Die AS(a) sind also kleiner gleich den altersspezifischen Bestzeiten. Der Altersfaktor ist dann mit min(As(a))/As(a) <= 1 gegeben.
Quelle: Alan Jones
Die rote Linie in der vorausgegangenen Grafik stellt dann die altersäquivalenten Leistungen dar. Die Weltbestzeit liegt genau auf dieser Linie. Der Punkt (age ≈ 92, time ≈ 340) gehört zur unteren konvexen Hülle der hier dargestellten Menge (rote Punkte), liegt aber oberhalb dieser Linie und wäre damit schlechter zu bewerten. Warum? Dies liegt hier an der angenommenen Polynomform der Beziehung. Man kann dies sicherlich hinterfragen, da eine flexiblere Funktionsform (z.B. könnten mit splines ebenfalls monoton steigende Zusammenhänge jenseits der 30 nachgebildet werden) diesen Punkt tangieren würde. Im Fazit hat man auch hier mit einer gewissen Unschärfe zu rechnen.
In DeriveAgeGrades wird ein rekursives L2-Norm fitting Verfahren beschrieben (…You start by fitting a curve that runs through the middle of the data…) das sukzessive Punkte aus der Schätzung entfernt die über der Regressionsfunktion liegen. Der Abbruch des Verfahrens ist jedoch in der Quelle nicht beschrieben, da jede weitere L2 Regression wieder positive als auch negative Residuen produziert.
Aus Sicht des Autors könnte man dies eleganter mit einer 100% parametrischen Quantil Regression erreichen, was im folgenden Abschnitt auch dargestellt wird. Daneben gilt es den Effekt von Fehlern – nicht nur in der Messung sondern auch in der Datenverarbeitung – zu bedenken. Da die Ergebnisse des WMA -Ansatz nur an wenigen Punkten hängen, können hier Fehler nicht mehr durch die große Anzahl von tausenden von Beobachtungen ausgeglichen werden. Man muss hier also schon sehr sicher sein, dass keine großen Fehler in den Daten enthalten sind und diese vertrauenswürdig sind (vgl. Alan Jones).
Neben diesen methodischen Fragen, soll hier festgehalten werden, dass die Altersfaktoren letztlich normierte Extrema darstellen.
Der WMA-Ansatz orientiert sich an den Weltbestleistungen in jeder Altersklasse. Formal entspricht das einem 100% Quantil der altersabhängigen Geschwindigkeitsverteilung.
Haben 2 Leistungen mit unterschiedlichem Alter den gleichen relativen Abstand zu den zugeordneten Bestleistungen sind sie demnach äquivalent. Dies mag für Leistungen nahe der Bestleistungen auch zu realistischen Einschätzungen führen. Wir Freizeitläufer sind aber in der Regel meilenweit von solchen Bestleistungen entfernt. Wenn man von dem maximal Erreichbarem weit entfernt ist, kann man vermuten, das die altersbedingte Degression schwächer ausfällt, da die physiologischen Grenzen nicht ganz so restriktiv wirken. Der Freizeitläufer hat in diesem Bereich noch immer Steuerungsmöglichkeiten wie z.B. Training, Technik und Ernährung mit denen er altersunabhängig seine Laufleistung verbessern kann. Die Weltbestläufer haben demgegenüber kaum noch Steuerungsmöglichkeiten, da alle Instrumente weitgehend erschöpft sind.
Für uns Freizeitläufer ist der Bezug zum 100% Quantil der WMA nicht besonders instruktiv und kann auch zu Fehleinschätzungen führen, wie später gezeigt wird. Die meisten von uns werden nie diese Altersbestleistungen erreichen und somit auch nicht zum 1‰ Quantil der Altersklasse gehören (… dazu sind mindestens 1000 Läufer in der AK erforderlich). Deshalb werden hier relevante Quantile berechnen. Dazu setzen wir eine parametrische Quantile Regression an
und lösen diese Probleme für das Kreuzprodukt
.
ist hier das betrachte Quantil und mit
wird der betrachtete bzw. hoch gewichtete Altersbereich (
=Normalverteilung) festgelegt. Wenn man hier
setzt, ist die Finishtime stets kleinergleich der Schätzung d.h. man hat so das Infimum zu den Bestzeiten geschätzt. Das Infimum muss aber nicht notwendigerweise mit der unteren konvexen Hülle zusammen fallen, sondern wird hier einen eher „zackigen“ Verlauf haben. Man kann nun vermuten, dass mit zunehmenden Datenerhebungen diese „Zacken“ verschwinden und deshalb einer unzureichenden Stichprobe geschuldet sind. Diese Glättung kann man in der Quantil-Regression mit der Bandbreite σ der Gewichte w erreichen. Man muss hier aber bedenken, dass man damit einzelne Topleistungen evtl. leicht zu „2. klassig“ degradiert. Der hier skizzierte Quantil-Regressions Ansatz wäre sicherlich förderlich für das WMA-Modell zu den Bestleistungen.
Der parametrische Ansatz hat gegenüber dem WMA Ansatz den Vorteil, dass wir keine Funktionsform vorgeben müssen und somit davon unabhängige Ergebnisse erzielen, die im Folgenden dargestellt sind.
Die Schätzung zu den Quantilen zeigen einen deutlich unterschiedlichen Verlauf. Bei den Topläufern liegt eine starke Altersdegression vor während das Mittelfeld eher den bereits bekannten „Bauch“ bei M40 hat. Die WMA-Zahlen liegen erwartungsgemäß deutlich unter den Bestwerten dieses Marathon. Die Umrechnung der Quantile auf die MHK ist im Folgenden grafisch dargestellt.
Auc
Zunächst fällt auf, dass für die mittleren Leistungsgruppen bis M50 kein Alterszuschlag nötig ist.Wenn man stets mittleres Tempo läuft, hat man erst in späten Jahren mit Zuschlägen zu rechnen. Das WMA Modell würde hier zu einer Überschätzung des Alterseffekts führen. Anders ausgedrückt: Mit dem WMA Modell kann man sich „gesund“ rechnen bzw. werden Älteren MHK-Zeiten zugewiesen, die wahrscheinlich nie erreichbar waren. Das WMA Modell würde dies für alle Leistungsklassen gleichermaßen machen. Das hier vorgestellte Modell ist differenzierter. Läuft man im fortgeschrittenen Alter einen Marathon in den besseren Rängen, fallen auch die Abschläge auf MHK größer aus. Läuft man eher mittleres Tempo, kann das auch zu keinen Abschlägen und in machen AK 30-35 auch zu Zuschlägen führen.
Wie kann man nun diese Ergebnisse auf Stabilität prüfen oder anders gefragt: Wie groß sind die Vertrauensbereiche? Dies kann hier relativ einfach abgeschätzt werden, da eine vollständige Zeitreihe über mehr als 10 Jahre vorliegt. Wenn man dann einen Datensatz zu einem weiteren Marathon Jahr hinzunimmt (vgl. Cross-validation), sollten sich die Ergebnisse nicht stark verändern. Bei Aufbau dieser Studie wurden sukzessive Datensätze hinzugefügt und es zeigte sich nach einer gewissen Zeit ein stabiles Bild. Das Modell ist also sicherlich nicht overfitted.
Natürlich hat die Datenbasis einen entscheidenden Einfluss auf die Ergebnisse. Ansonsten wäre die Analyse und das Modell ja invariant gegenüber der gemessenen Realität und würde den Namen empirisch nicht verdienen. Es stellt sich deshalb die Frage wie repräsentativ die Daten sind. Mögliche Einflussgrößen sind
Berge hoch zu laufen ist eine besondere Anforderung an jeden Läufer. Wir haben hier in der rheinischen Tiefebene natürlich keine großen Höhenunterschiede aber im Bergischen Land gibt es schon einige Anstiege mit 20%, unter anderem an der Wupper zwischen Solingen und Leichlingen der asphaltierte Anstieg „Fähr-Rödel“.
Nach einem Lauf mit Laufuhr fragt man sich dann unweigerlich, wie viele Höhenmeter (HM) man geschafft hat. Das ist die Summe aller positiven Höhenänderungen
und somit mit der Höhenmessung Ht zum Zeitpunkt t verbunden.
An der Definitionsgleichung zu den Höhenmetern erkennt man, dass ein Versatz der Höhe um einen konstanten Betrag keinen Einfluss auf die Höhenmeter hat. Anders sieht es aus, wenn die Höhenmessung um unterschiedliche Beträge versetzt sind d.h. es liegen Messfehler vor . Hier wirkt sich das max(…) in der Definition zu den HM besonders negativ aus, da sich Über- und Unterschätzungen der wahren Höhendifferenz kaum noch kompensieren können. Deshalb kommt der genauen Höhenmessung eine zentrale Rolle zu. Zur Ermittlung der Höhenmeter gibt es derzeit im wesentlichen 3 Methoden:
Die Ergebnisse zu Methoden 1 und 3 zum Lauf „Fähr-Rödel“ sind in folgenden Grafik gegenübergestellt.
Die barometrische Höhenmessung weist hier den höchsten Punkt aus, aber in Summe nur 307.88 HM. Die SRTM Interpolationsmethode kommt hingegen auf 388.88 HM obwohl hier kein einziger Tunnel durchlaufen wurde und die gps-Aufzeichnung unter günstigen Bedingungen (freier Himmel, Winter d.h. Laubbäume blattfrei, vgl. GPS Genauigkeit) erfolgte. Damit liegt die SRTM Methode 25% über der barometrischen Methode. Schaut man sich die Stellen an, an denen diese Höhenmeter „geschöpft“ werden, so stechen km 5-10 heraus. Das ist an den Wuppersteilhängen gelegen, und somit besonders empfindlich für aus Geopositionen abgeleitete Höhen. Es ist zu vermuten, dass durch die SRTM Methode nicht nur hier sondern generell bei Schluchten und Tälern enorme Fehler entstehen.
Betrachtet man den Graph der barometrischen Höhenmessung und die Karte zum Lauf, fällt auf, das Anfangs- und Endpunkt – obwohl fast gleiche geographische Position – nicht in der Höhe übereinstimmen und somit in Summe ein Fehler von 9.2 m resultiert. Das kann z.B. auf Luftdruckänderungen während des Laufs beruhen (z.B. Aufzug eines Hochdruckgebiets). Die SRTM Methode hat dem gegenüber nur einen Fehler von 0.64 m, ist hier also besser. Ein ähnliches Abwägungsproblem gibt es in der Statistik und wird mit Bias variance tradeoff bezeichnet. Auch hier nimmt man gerne eine kleine Verzerrung zugunsten einer niedrigeren Varianz (in der Höhe) in kauf.
Die Höhenmeter werden also durch die SRTM-Methode nur sehr ungenau ermittelt und sind auch für Vergleiche unterschiedlicher Strecken kaum geeignet. Das machen Läufer aber sehr gerne, sei es in der Vorbereitung eines Wettkampfs oder in der Bestimmung der Leistungsfähigkeit. Hier kommt noch ein weiteres Problem dazu: Wie vergleiche ich Strecken mit unterschiedlichem Höhenprofil?
Die Längenmessung sollte eigentlich selbstverständlich sein, stößt aber in der Praxis bei GPS-Laufuhren auf Probleme.
Wenn man einen Berg mit Steigungswinkel α hinauf läuft sollte die Länge der Strecke „c“ (Hypothenuse) in der vorausgegangenen Abbildung als Weglänge angesetzt werden. Rechenbeispiel:
Man läuft 100 m einen Berg mit 10% Steigung hoch. Dann hat man 9.95 m an Höhe gewonnen.
Häufig wird aber für die Weglänge die Strecke b gewählt die sich ausschließlich über die Längen- und Breitengrade der GPS-Punkte berechnen lässt. Dies ist besonders dann ratsam, wenn die Höhendifferenz (Strecke „a“) nur sehr unsicher bestimmt werden kann, z.B. über das GPS Signal und nicht barometrisch. Wie die Hersteller (Garmin, Polar, TomTom, etc.) das derzeit machen ist dem Autor im Detail nicht bekannt und eventuell auch abhängig von der Art der Höhenmessung des Geräts.
Die Längenmessung könnte auch über Geschwindigkeit v und Zeit t mit für ein Segment i erfolgen. Da die Zeit gut – ohne Fehler – gemessen werden kann, hängt nun der Fehler von der Geschwindigkeitsungenauigkeit ab. Da die Geschwindigkeit i.d.R bei einer GPS Laufuhr mit einem Glättungsverfahren z.B. Kalman Filter berechnet wird – in dem die Systemvergangenheit enthalten ist – kommt man so regelmäßig zu anderen Längen gegenüber der topografischen Bestimmung. Hier stellt sich die Frage, wie ein Laufuhr die durchschnittliche Geschwindigkeit in Echtzeit berechnet. Dies ist für Läufer wichtig, da man sich gerne eine Pace für den Wettkampf vorgibt (virtual runner), und davon ausgeht, dass man sein Ziel erreicht hat, wenn man vor dem virtual runner die Ziellinie überschreitet.
Damit gibt es also in der Steigungsmessung = Höhe/Länge erhebliche Fehlerquellen und die Werte sind wahrscheinlich nur approximativ verwendbar. Man kann hier auch nicht einfach über mehrere Abschnitte den Mittelwert bilden (der weniger streut), da sich dann in den aggregierten Abschnitten die Höhenmeter evtl. gegenseitig neutralisieren, wenn auf Steigungen Gefälle folgt. Man kann deshalb vermuten, dass mit steigender Häufigkeit/Dichte der Höhenmessung die ausgewiesene Summe der zurückgelegten Höhenmeter steigt.
Das Flachstrecken-Äquivalent (FSÄ) ist sozusagen der Nullpunkt für den Vergleich von Läufen auf unterschiedlichem Höhenprofilen. Man rechnet die zu vergleichenden Läufe auf das FSÄ um und kann darüber die Läufe vergleichen (ordinal Eigenschaft). Das FSÄ gibt zu einem Lauf eine Lauflänge in der Ebene an, die von der Belastung her gleichwertig ist. Im Idealfall gilt dann, dass die Laufzeit für x km im profilierten Gelände gleich der Laufzeit von FSÄ(x) km in der Ebene ist (kardinal Eigenschaft).
Hierzu gibt es einige Standardformeln, vgl. z.B. Naismith’s rule, die aber nicht ohne Kritik geblieben sind.
Kernpunkt des FSÄ ist die Belastung:
Für das FSÄ wird i.d.R nur der letzte Punkt berücksichtigt, da die anderen derzeit quantitativ schlecht zugänglich sind bzw. nicht gemessen werden. Sie schlagen sich aber sehr wahrscheinlich in den messbaren Größen wie Herzfrequenz, Kadenz, Schrittweite, Standzeit und Vertikalhub nieder, wobei der quantitative Zusammenhang von Belastungsursache 1.-4. und Messergebnis hier nicht bekannt ist.
Der wichtige Zusammenhang zwischen Steigung und Laufarbeit ist in der folgenden Grafik dargestellt:
Quelle: McMahon (Muscles, Reflexes, and Locomotion. Princeton, NJ: Princeton University Press, 1984) zitiert nach „Dr. Lälles“
Die wesentlichen Linien sind hier die fürs Laufen und Gehen. Demnach steigt die erforderliche Arbeit mit der Steigung, sofern man nicht mehr als 10% Gefälle hat. Radfahrer sagen dazu gerne, dass man die gefahrene Höhe „fair“ zurück bekommt, sofern das Gefälle nicht zu groß ist. Dann nämlich verlässt man das Energieminimum und kann den Höhenverlust nicht optimal in Geschwindigkeit umsetzen.
Die Grafik zum Energieverbrauch mit den Linien für Laufen und Gehen kann man auch als Höhenlinien einer Funktion v=(Energy, gradient) auffassen. Wenn man den Berg schneller hinauf läuft, würde man eine weitere Linie oberhalb der „Running“ Linie erhalten. Wenn man langsamer hinauf läuft (läuft!), würde man eine Linie unterhalb der „Running“ Linie erhalten die evtl. die „Walking“ Linie schneidet, wenn das Tempo zu niedrig wird und ein Gangartwechsel effizienter ist (vgl. Beitrag zur Laufleistung in Watt). Das scheint bei längeren Läufen im profilierten Gelände z.B. Röntgenlauf oder Biel für die meisten von und Freizeitläufern ratsam zu sein.
Da wir hier die Arbeit oder Leistung nicht gemessen haben, nehmen wir als proxy Variable die Herzfrequenz (HF), vgl. Beitrag zur Laufleistung. Damit ist die Vermutung verbunden, dass x Herzschläge/min in der Ebene mit x Herzschlägen im profilierten Gelände Leistungsäquivalent sind. Wenn man die x Herzschläge in der Ebene für die Belastungszeit erbringen kann, dann sollte dies auch im profilierten Gelände möglich sein, wenn man Berge im Trainingsprogramm hat.
Die anderen durch Belastung und Steigung tangierten Messgrößen Kadenz, Standzeit und Vertikalhub werden zu einem Vektor y zusammengefasst und um den Einfluss von Herzfrequenz und Steigung bereinigt. Dies ist nötig, da sich sonst der Einfluss der Steigung auf das Tempo aufgrund Kolinearität nicht von den anderen Messungen trennen lässt. Für die Konstruktion der Funktion v=v(HF, Steigung | Kadenz, Standzeit, Vertikalhub) poolen wir Daten aus verschiedenen Läufen (einer Person, derzeit ca. 8300 Beobachtungen) und schätzen mit einem Regressionsansatz die Modelle
für unterschiedliche Steigungsklassen k. Die Steigungsklassen geben hier die nötige Flexibilität, den realen Verlauf gut zu approximieren und ermöglichen eine Asymmetrie in den Höhenlinien (≠ Ellipsoid mit 2 Hauptachsen), so dass die geschätzte Beziehung nur lokal quadratisch ist. Diese Lokalität wird im Regressionsansatz mit Gewichten für die Residuen nachgebildet.
Für die Geschwindigkeitsprognose zu einem Punkt (HF, Steigung) wird dann einfach eine gewichtete Linearkombination von der benachbarten Polynome ausgewertet.
Geschätzte Beziehung zwischen Geschwindigkeit, Steigung und Herzfrequenz beim Laufen
Bei einer Steigung von ca. 18% – 20% (das ist der Fähr-Rödel Anstieg an der Wupper in Leichlingen) wird bei einem Herzschlag von ca. 143 Schläge/min eine Geschwindigkeit von ca. 7.5 km/h erzielt. Das entspricht einem Vertikalaufstieg vom 1.350 m/Std und ist schon ziemlich sportlich, wenn man es mit Radfahrwerten vergleicht. Wenn man von diesem Punkt ausgehend bei gleicher Herzfrequenz Richtung 0% Steigung geht, nimmt die Geschwindigkeit zu. Bei 0% Steigung dürfte man dann ca. 13 km/h erreicht haben. In der Ebene würde man demnach 73,33% schneller laufen. Das Flachstreckenäquivalent zu einem Kilometer mit 18% Steigung ist somit 1,73 km.
Die blaue Linie markiert die Minimalpulswerte im Gefälle zu gegebener Geschwindigkeit. Darüber hinaus muss der Läufer seine Herzfrequenz steigern um das Tempo zu halten, obwohl das Gefälle zunimmt. Diese Grenze wird man deshalb nur ungern überschreiten.
Variantrechnungen zu Halbmarathon (HM) mit durchschnittlich 140 bpm Herzfrequenz
Die Flachstreckenzeit mit konstanten 140 bpm ist hier erwartungsgemäß am niedrigsten. Darauf folgt dann die 1. Variante mit langsamen Abstieg und schnellem Aufstieg. Konstante 140 bpm führen zu einer Verschlechterung von 0,69%. Und die Variante mit „Gas runter“ und bergauf langsamer schneidet am schlechtesten ab. Dort ist man dann auch beim „downhill“ jenseits der blauen Linie in der vorausgegangenen Grafik. Das FSÄ liegt ungefähr bei 1:40 und ist gegenüber der schlechtesten Variante um 3,4% besser.
Gegenüberstellung zur Naismith’s rule:
Hier wird davon ausgegangen das für zusätzliche 600 HM eine Stunde benötigt wird. Bei 13 km mit 18% Steigung kommt man auf 2.340 HM was zu einem Zuschlag von 13*0.18/0.6=3.9 Stunden führt. Für die 13 km werden jetzt 1+3.9 Stunden benötigt und die Geschwindigkeit beträgt somit 13/4.9=2.63 km/h. Wenn man jetzt abweichend den Naismith Zuschlag halbiert – laufen statt wandern – kommt man auf 4.41 km/h und damit noch weit unter den hier gemessenen Werten.
Anmerkung zu Daten, Verfahren und Anwendung:
Wie berechnet man nun das FSÄ für einen ganzen Lauf? Am besten nicht zu Fuß und per Hand!
Für den Eingangs dargestellten Lauf wird nun das Flachstreckentempo und das Flachstreckenäquivalent berechnet. Dazu wird zunächst ein Korrekturfaktor c mit
berechnet. ist dann die geschätzte Geschwindigkeit zu gegebener Herzfrequenz (i) und Steigung (i) die im Mittel mit den Daten der Laufuhr übereinstimmt. Für das Flachstreckenäquivalent müssen jetzt nur noch die Werte
berechnet werden. Diese sind in der folgenden Grafik dargestellt.
Das FSÄ ist hier 560 m länger als der zurückgelegte Weg, was erstaunlich wenig ist, angesichts der „Quälerei“ am Aufstieg „Fähr-Rödel“ mit ca. 20% Steigung. Immerhin wird diese mit über 14 km/h honoriert. Aber es gibt eben auch Abzüge für die Gefällestücke, die man hätte schneller laufen können. Im Flachen wäre man auf dieser Strecke deshalb nur 2.5% schneller gewesen. Beide geschätzte Zeitreihen zeigen eine deutlich niedrigere Streuung in der Geschwindigkeit als die Messungen der Laufuhr, was positiv zu bewerten ist, da die „spikes“ sehr wahrscheinlich Ausreißer sind.
Dieser Lauf wurde auch nach strava hochgeladen und wird dort mit einem mittlerem Tempo 5:01 und einem SAT-Tempo (das dürfte dem Flachstreckenäquivalent entsprechen) von 4:56 ausgewiesen. Die Höhe hat also bei strava zu einem Abzug von 5 Sekunden/km geführt, während dieses Modell zu einem Abzug von 7,46 Sekunden/km führt. Damit fällt die Honorierung der Höhenleistung noch schwächer aus und daran darf gezweifelt werden. Umgekehrt bedeutet dies, dass die Zuschläge für Höhenmeter wahrscheinlich zu gering sind und dies kann zu unangenehmen Fehleinschätzungen bei Bergläufen führen. Hier würde man aus Risikogründen schon lieber größere Werte ansetzen.
Am besten man probiert es einfach mal selber aus: Also Laufsachen anziehen und den nächsten Hügel in der Umgebung angehen. Dazu dann einen Lauf ähnlicher Länge und mit ähnlicher Herzfrequenz laufen und diese beiden Zeitreihen gegenüberstellen.
Die Leistung – gemessen in Watt – ist im Radsport eine zentrale Größe und kann selbst im Freizeitbereich mit Messgeräten zu erschwinglichen Preisen zuverlässig ±4% bestimmt werden. Diese messen die sogenannte äußere Leistung die auf Pedal, Kurbel oder Nabe wirkt und somit direkt geschwindigkeitswirksam ist. Der Athlet hat damit in „real time“ ein Leistungsfeedback.
Im Laufsport ist die Leistung aber bisher dem Freizeitläufer kaum zugänglich. Die Zweckmäßigkeit eines Laktattest zur Einstufung der Leistungsfähigkeit von Freizeitsportlern wird selbst vom DFB vor dem Kostenhintergrund bezweifelt. Daneben sind dies keine Echtzeit-Informationen und können so im konkreten Lauf kaum helfen.
Ein ähnliche Funktion wie die Echtzeit-Leistungsmessung im Radsport hat die Herzfrequenz im Laufsport, die mit Brustgurt oder mittlerweile auch mit optischen Sensoren am Handgelenk gemessen wird. Diese dürfte statistisch gesehen sehr hoch mit der Leistung korreliert sein.
Meine Erfahrungen aus dem Radsport gehen dahin, dass ein Watt-Messgerät ganz erheblich die Leistung steigern und objektivieren kann. Während die Herzfrequenz gefühlt eher das „sich quälen„ misst, ist die Leistung ein zuverlässiges Maß, an dem man sich orientieren kann. Unter widrigen Umständen – Steigung, Gegenwind, schlechter Untergrund, viele Kreuzungen – ist man ohne Wattmeter häufig unzufrieden mit der eigenen Leistung, obwohl kein Anlass dazu besteht. Unter günstigen Umständen ist es anders herum. Man gibt sich zufrieden, obwohl noch viel mehr möglich ist.
Daneben ist es aus Sicht des Autors schon fast pathologisch, die Laufleistung mit dem „sich quälen“ abzuschätzen. Das Ziel sollte doch eher darin bestehen, eine Laufleistung mit möglichst wenig Schmerz zu erbringen. Vermutlich führt dieses „sich quälen“ Paradigma gepaart mit Ehrgeiz bei unerfahrenen Läufern zu den Sportverletzungen an Fuß, Knie und Bein.
Das Problem ist aber, dass man die Leistung im Laufsport in der Regel nicht vorliegen hat. Deshalb soll im Folgenden die Leistung aus den Datenfeldern einer Laufuhr abgeleitet werden. Der hier verfolgte Ansatz orientiert sich an den Gleichungen von Dr. Lälles erklärt’s . Dieser Ansatz baut im wesentlichen auf der Veränderung der potentiellen Energie d.h. der Lageenergie bei einem Laufschritt auf.
Die Nettoleistung steht damit in Abhängigkeit von
wobei fürs Freizeitlaufen aus dem ersten Term mehr als 80% der Leistung kommen dürfte. Demnach würde ein um 1% gesteigerter Hub und eine um 1% gesenkte Kadenz ungefähr zur gleichen Leistung führen. Das mag physikalisch erklärbar sein, für den Läufer dürfte dies aber nicht ratsam sein. Man sollte im Gegenteil bei konstanter Leistung eher die Kadenz erhöhen und den vertikal Hub senken. Dies wird deutlich, wenn man zusätzlich die Schrittweite S betrachtet. Bei konstanter Schrittweite würde die erste Variante mit gesenkter Kadenz nämlich auch zu einer 1% niedrigeren Geschwindigkeit führen. Der Bezug des Vertikalhubs zur Geschwindigkeit ist eindrucksvoll in folgender Grafik dargestellt.
Quelle: Weidt, M. und T. Wilhelm (2015) Gehen und Laufen im Physikunterricht, S. 8
Man sieht in der Abbildung deutlich, dass hier beim Joggen der Kopf – und mit ihm der Schwerpunkt – deutlich stärker vertikal ausgelenkt wird als beim Sprint.
Nimmt man die Gleichung für die Hubleistung und nutzt den Zusammenhang zwischen Geschwindigkeit, Kadenz und Schrittweite nach so ergibt sich, da
. Bei konstanter Hubleistung, Hub und Schrittweite führt eine um 1% gesteigerte Masse zu einer Geschwindigkeitssenkung von ebenfalls 1%. Leichte Läufer sind hier also im Vorteil, und so etwas ähnliches besingen auch „Silbermond“ mit
Du nimmst all den Ballast
und schmeisst ihn weg,
Denn es reist sich besser,
mit leichtem Gepäck.
Der Läufer sollte also möglichst lange Beine für den Schritt und möglichst wenig Masse haben. Da aber die Körperlänge sowohl mit Beinlänge als auch Masse positiv korreliert seien dürfte – zumindest bei Leichtathleten, behäbige Wohlstandsbürger ausgeklammert – liegt das Optimum irgendwo in der Mitte und Arne Gabius (derzeit 1.86m, 66kg) dürfte schon Aufgrund der Größe eher am rechten Rand der Verteilung bei Topläufern liegen.
Für eine möglichst schnelle und energetisch günstige Bewegung kann man das folgende Problem betrachten:
Die optimale Lösung hätte demnach maximale Geschwindigkeit (an der oberen Grenze des Möglichen) bei minimalen Winkel ϕ an der unteren Grenze.
Aber was hat man sich hier unter der Winkel ϕ vorzustellen? Formal ergibt er sich aus dem Verhältnis Hub zu Schrittweite. Eine damit positiv korrelierte Größe dürfte der Absprungwinkel sein. Das ist der Winkel, mit dem der Fuß den Boden verlässt. Und diesen kann der Läufer durch den „Laufstil“ beeinflussen. Mit
haben wir also eine instruktive Schreibweise für die Hubleistung gefunden. Dieser Fragestellung soll in einer weiteren Analyse nachgegangen werden. Insbesondere hängt hier die Leistung linear von der Geschwindigkeit ab. Diese Funktionsform findet man auch in der Literatur
Quelle: Waller, D. (2008), S.17
Diese Gleichungen zur Leistung werden nun auf eine Trainingslaufaufzeichnung von Sportplatzrunden angewendet.
Die GPS Aufzeichnung deckt sich ganz gut mit dem Sportplatz und Ausreißer in Längen- und Breitengrad sind nicht erkennbar. Im Wald, Bergen oder Stadt mit schlechterem GPS Empfang können hier deutlichere Abweichungen auftreten. Ausreißer, die in Bewegungsrichtung liegen, können mit dieser topografischen Kontrolle natürlich nicht gefunden werden, obwohl sie auch zu einer Fehleinschätzung der Geschwindigkeit beitragen können.
Abbildung 1: Geschwindigkeit und Leistung zu Lauf auf Sportplatz
Die Ordinate ist hier nicht äquidistant skaliert, damit das Bild nicht zu sehr von den offensichtlichen Ausreißern am oberen Ende dominiert wird. Für die Luftwiderstandsgleichung () sind diese Werte besonders unangenehm. Deutlich erkennbar sind einige schnellere Runden am Anfang sowie gemütliches Laufen in der zweiten Hälfte. Die dicken blauen Linien sind das 5%, 50%, 95% Quantil der gemessenen Geschwindigkeiten. Mit roten Punkten sind die abgeleiteten Nettoleistungen dargestellt und es lässt sich schon hier ein enger Zusammenhang vermuten.
Die Arbeit für die Beinbeschleunigung W(Bein) kann nach Rodewald mit
für jeden Schritt geschätzt werden. Das ist die aus der Schulphysik bekannte Gleichung für kinetische Energie, bezogen auf die Beine. Hat der Läufer eine konstante Geschwindigkeit erreicht – „steady state“ d.h. keine weitere Beschleunigung – so ist nach Rodewald
Dies stimmt natürlich nur im Groben. Denn bei jedem Lauf sind abwechselnd die Beine vor und hinter dem Schwerpunkt und müssen deshalb regelmäßig schneller und langsamer sein als der Läufer.
Nach Rodewald kann man die Beinmasse m(B) mit m(B) =1/8 m(Körper) abschätzen. Die Leistung ist dann die Arbeit bezogen auf die Schrittzeit t und damit
Rechenbeispiele:
Diese Berechnungen zeigen für hohe Geschwindigkeiten das richtige Niveau. Für niedrige Geschwindigkeiten wie z.B. 6:00 er pace, scheint die Nähe zum Grundumsatz untertrieben.
Abbildung 1a: Gegenüberstellung verschiedener Leistungsberechnungen
Die Gegenüberstellung der zwei Leistungsberechnungsarten zeigt deutliche Unterschiede
Berücksichtigt man, dass die Laufgeschwindigkeit mit gps Fehlern behaftet ist, dürften gerade diese durch den Term verstärkt werden. Deshalb wird dieser Ansatz zunächst nicht weiter verfolgt.
Die von der Laufuhr aufgezeichneten Felder sind in der folgenden Grafik gegenüber gestellt.
Abbildung 2: Scatterplot zum Lauf auf Sportplatz
Insgesamt erkennt man auch hier die beiden Laufhälften (kleiner oder größer 12km/h) in allen Beziehungen (oberes Dreieck) gut und es finden sich viele signifikante Korrelationen (unteres Dreieck). Die abgeleitete Leistung ist mit fast allen Größen bis auf den vertikal Hub pro Schritt (vertical oscillation) hoch korreliert. Das war so nicht zu erwarten, da der Löwenanteil der Leistung auf den Aufstieg pro Schritt zurück geht.
Der Scatterplot lässt vermuten, dass man den langsameren und schnelleren Teil des Laufs aufgrund der anderen Variablen gut trennen kann. Dazu wird eine lineares Diskriminanzmodell angesetzt.
Abbildung 2a: Trennung langsamer und schneller Läufe mit lineare Diskriminanzfunktion
Die Trennebene ist mit dem Vektor
gegeben. Demnach kann man an hoher Herzfrequenz & Kadenz sowie niedriger Bodenkontaktzeit und geringem Vertikalhub langsame von schnellen Läufen relativ gut trennen. Wir haben damit einen empirischen Beleg für weit verbreitete Thesen in der Laufliteratur, die jeder Besitzer einer „neueren“ Laufuhr tagtäglich prüfen kann. Da auch hier die Berechnung für gegebenen LD1 Vektor linear und relativ einfach ist, könnte die Ausgabe auch in Echtzeit erfolgen.
Der Zusammenhang zwischen Leistung und Herzfrequenz soll mit Quantil-Regressionsmodellen weiter untersucht werden. Die Herzfrequenz wird hier als Steuerungsgröße für die Leistung aufgefasst. In der Fachliteratur findet man gelegentlich den Hinweis, dass die Herzfrequenz der Leistung hinterher eilt. Um dies zu prüfen, werden die „gelagten“ Korrelationen power(t), heart_rate(t-L) berechnet.
Insgesamt zeigt sich hier schon ein hoher Zusammenhang. Die höchste Korrelation wird beim Lag=0 angenommen: dies spricht für keinen zeitlichen Versatz. Es zeigt sich aber auch, dass ein Lag von 1 kaum zu Einbußen führt. Im Weiteren wird ohne Lag gearbeitet.
Abbildung 3: Leistung und Herzfrequenz
(a) Quantil Regression mit quadratischer Form (b) parametrische Quantil Regression
Abschließend soll der Einfluss dieser Variablen auf das Tempo identifiziert werden. Dazu wird ein IRLS Ansatz für ein Regressionsmodell gemacht.
Abbildung 4: Regressionsmodell zur Identifizierung der geschwindigkeitsbestimmenden Variablen
Sämtliche Koeffizienten haben das fachlich erwartete Vorzeichen, auch wenn „stance_time_percent“ nicht signifikant ist. Dies wird auch an der im Scatterplot deutlich erkennbaren negativen Korrelation liegen. Der größte Einfluss geht von der Leistung aus, gefolgt von der Herzfrequenz. „vertical_oscillation“ also der Vertikalhub pro Schritt hat ein negatives Vorzeichen, was auch den Theorien entspricht. Die Kadenz konnte nicht mit einbezogen werden, da sie hoch mit power korreliert ist (vgl. power Ableitung) und damit nicht sicher zwischen beiden Einflüssen unterschieden werden kann.
Das vorgestellte Leistungsmodell basiert im wesentlich auf Vertikalhub, Kadenz und Geschwindigkeit des Läufers, die in Echtzeit messbar sind. Für einen weiteren Ausbau des Modells
Müller, R. (2006) Die Physik des Gehens als Unterrichtsfach, TU Braunschweig
https://www.tu-braunschweig.de/Medien-DB/ifdn-physik/gehen-und-laufen.pdf
Rodewald, B. u. H.J. Schlichting (1988) Springen, Gehen, Laufen, Praxis der Naturwissenschaften-Physik 37/5 (1988) S. 12-14
https://www.uni-muenster.de/imperia/md/content/fachbereich_physik/didaktik_physik/publikationen/springen_gehen_laufen.pdf
Rottler, A. (2014) Dr. Lälles erklärt’s
http://www.laufen-in-siegen.de/index.php/dr-laelles-erklaert-s/laelles-uebersicht
Waller, D. (2008) Physics meets Sports: Biomechanische Modelle Gehen und Laufen
http://tennisfragen.de/wordpress/wp-content/uploads/2011/11/Gehen-und-Laufen-Waller-UNI-Regensburg.pdf
Weidt, M. und T. Wilhelm (2015) Gehen und Laufen im Physikunterricht
http://www.thomas-wilhelm.net/veroeffentlichung/Gehen.pdf
Ein Lauf mit der Garmin Fenix 3 Laufuhr produziert schon für kleine Laufeinheiten eine relativ große Datenmenge die im Garmin *.fit Format auf der Uhr abgespeichert wird. In der Regel hat der User seine Laufuhr mit dem Handy gekoppelt oder überträgt per WLAN diese Daten an sein zuvor eingerichtetes Garmin-Connect Konto. Sind die Daten übertragen kann, man sich dazu Auswertungen in seinem Konto anschauen. Der Pace-Graph sieht in Garmin Connect dann z.B. so aus:
Hier sticht im ersten Moment der sehr „volatile“ Verlauf der Zeitreihe ins Auge. Da der Autor selber diese Strecke gelaufen ist, kann er die „spikes“ mit z.B. 3:07 min/km sicher ausschließen d.h. dies sind ausschließlich GPS-Messfehler. Diese spikes haben unangenehme Eigenschaften:
Daneben gibt es noch eine weitere Sicht in Garmin Connect auf den Lauf.
Zusammenfassend kann man für die Grafiken festhalten:
Das ganze Prozedere von Lauf bis abschließender Analyse wirft die Frage auf, wer Eigentümer und Besitzer der Daten ist. Für viele Läufer dürfte der Besitz d.h. die Verfügung über das Eigentum sehr eingeschränkt sein. Man hat eigentlich nur eine voreingestellte Sicht auf die Daten, kann aber nicht mit ihnen arbeiten. Der Autor hat bis jetzt noch kein frei zugängliches Tool wie z.B. gps-babel gefunden, dass sämtliche Felder des Fenix3 fit-file ausließt. Deshalb wurde hier der „harte“ Weg beschritten, der aber Programmierkenntnisse voraussetzt. Dazu beschafft man sich ein Garmin SDK, spielt dieses in eine Entwicklungsumgebung ein und erstellt sich per Programm die nötigen Dateien aus dem fit Format. Diese kann man dann z.B. mit GNU R auswerten.
Die Zeitreihe Tempo zu diesem Lauf weißt folgende Autokorrelationen auf:
Es zeigt sich also ein signifikanter positiver Zusammenhang für die ersten ca. 10 Lags, der auch zu erwarten war. Danach ist kein signifikanter Einfluss mehr erkennbar. Als Einstieg in die multivariate Datenanalyse bietet sich häufig ein Scatterplot an.
Auf der Hauptdiagonalen befinden sich die Histogramme zu den Variablen, im oberen Dreieck die Scatterplots und im unteren Dreieck die Korrelationen. Uns interessiert hier zunächst der Zusammenhang zwischen Speed und den anderen Variablen. Im Scatterplot sind das die erste Zeile und erste Spalte. Demnach ist der Zusammenhang zwischen Speed und (stride length, heart rate, stance time %) am stärksten und mit dem fachlich erwarteten Vorzeichen ausgeprägt.
Für diese Daten wird nun folgendes linear homogene Modell (d.h. ohne Konstante) in R angesetzt:
lm(formula = speed ~ 0 + time + time2 + heart_rate + heart_rate_lag1 + heart_rate2 + vertical_climb_plus + vertical_climb_minus + Cadence + stance_time_percent + vertical_oscillation, data = rundata, weights = w)
Um den spikes entgegen zu wirken wird ein IRLS (vgl. https://en.wikipedia.org/wiki/Iteratively_reweighted_least_squares) Ansatz mit reziproken Gewichten zur Nachbildung der L1-Norm gewählt.
Independent Variable | Estimate | Std. Error | t value | Pr(>|t|) | signif |
time | -1,38E-003 | 1,85E-004 | -7,438 | 4,12E-013 | *** |
time2 | 3,43E-007 | 5,40E-008 | 6,346 | 4,74E-010 | *** |
heart_rate | 1,80E-001 | 1,93E-002 | 9,332 | < 2e-16 | *** |
heart_rate_lag1 | -1,03E-002 | 2,57E-003 | -3,985 | 7,69E-005 | *** |
heart_rate2 | -3,14E-004 | 7,81E-005 | -4,018 | 6,70E-005 | *** |
vertical_climb_plus | -1,20E-003 | 1,36E-004 | -8,777 | < 2e-16 | *** |
vertical_climb_minus | -2,38E-004 | 1,13E-004 | -2,111 | 0,0352 | * |
cadence | 4,66E-002 | 6,62E-003 | 7,048 | 5,66E-012 | *** |
stance_time_percent | -3,13E-001 | 2,87E-002 | -10,924 | < 2e-16 | *** |
vertical_oscillation | -2,20E-003 | 7,89E-003 | -0,278 | 0,7808 |
und eine hochsignifikante Regression:
Residual standard error: 0.855 on 532 degrees of freedom
Multiple R-squared: 0.9984, Adjusted R-squared: 0.9984
F-statistic: 3.345e+04 on 10 and 532 DF, p-value: < 2.2e-16
Die Zeit geht mit 2 Termen (time, time2=time*time) ein. Hier wird eine nach oben offene Parabel im Wertebereich [-1.4; -0.2] km/h geschätzt mit Minimum auf dem letzten Drittel des Laufs. Die Herzfrequenz geht mit 3 Termen ein (heart_rate, heart_rate2, heart_rate_lag1). Bezüglich des quadratischen Teils (heart_rate, heart_rate2) zeigt sich ein erwartungsgemäß degressiver Verlauf d.h. abnehmender Grenznutzen des sich „quälen“. Die Variable heart_rate_lag1 hat ein negatives Vorzeichen d.h. je niedriger die Herzfrequenz in der Vorperiode desto höher die aktuelle Geschwindigkeit. Die Variablen zum Anstieg gemessen in Höhenmeter/Zeit haben das erwartete Vorzeichen. Hier fällt auf, dass der Tempoverlust beim Anstieg größer ausfällt als der Tempogewinn bei „downhill“ bzw. dieser nur mäßig signifikant ist . Eine Erklärung hierfür könnte sein, dass man sich beim Bergablauf ausruht. Die Schrittfrequenz hat erwartungsgemäß einen positiven Einfluss aufs Tempo. Die Verweildauer auf dem Boden hat erwartungsgemäß einen negativen Einfluss aufs Tempo. Die Hebung des Oberkörpers (vertical_oscillation) hat hier einen negativen, aber nicht signifikanten Einfluss. Das Vorzeichen entspricht hier der fachlichen Theorie, aber wahrscheinlich ist dieser Zusammenhang eher über eine Querschnittsstudie – Vergleich mehrer Läufer – und über längere Distanzen nachweisbar. Die Gegenüberstellung von Rohdaten und Modellprognose führt zu folgender Grafik:
Die Modellprognose verläuft hier schon deutlich ruhiger und realistischer. Die spikes sind erfolgreich eliminiert worden.
Das Jahr neigt sich dem Ende zu und man fragt sich unweigerlich, was man geschafft hat. Deshalb hier ein kleiner Überblick in Zahlen über die in strava erfassten Leistungen unseres LT. Abgerufen wurden diesen Daten am Donnerstag 31.12.2015 um 21:20.
Die Erfassungsmethoden
führen jedoch zu mehr oder weniger kleinen Fehlern die sich auch nicht unbedingt ausgleichen und somit zu einer Verzerrung beitragen.
Was ist denn nun die Konsequenz aus diesen zahlreichen Fehlermöglichkeiten und Einwendungen? Jede hier diskutierte Messmethode hat ihre Fehler, und sehr wahrscheinlich fallen diese bei GPS gestützter Auswertung noch am geringsten aus. Für eine exakte Messung sind derzeit abgemessene Strecke und Chip / Zielfoto unschlagbar. Das machen wir auch gerne bei Wettkämpfen, aber ungern bei unseren wöchentlichen Läufen. Wir haben so die Freiheit, den Weg auch mal zu variieren und Pausen zu machen und kennen dennoch unser Leistungsvermögen in guter Näherung.
Hier unsere Läufe 2015: Die Namen habe ich mal zur Sicherheit weggelassen und einfach Buchstaben für die Sportler/innen vergeben.
Laufstatistik für 2015 | a | b | c | d | e | f | g | Summe | pro Kopf |
Distanz [km] | 3.219,70 | 1.837,00 | 1.375,10 | 1.076,70 | 813,90 | 400,00 | 426,20 | 9.148,60 | 1.306,94 |
Zeit [hh:mm:ss] | 279:41:00 | 163:50:00 | 130:53:00 | 104:37:00 | 73:01:00 | 36:00:00 | 38:06:00 | 826:08:00 | 118:01:09 |
Höhenmeter [Hm] | 11.866 | 7.654 | 805 | 212 | 1.919 | 100 | 880 | 23.436 | 3.348 |
Läufe [Anzahl] | 254 | 151 | 113 | 93 | 88 | 40 | 52 | 791 | 113 |
Pace [min/km] | 00:05:13 | 00:05:21 | 00:05:43 | 00:05:50 | 00:05:23 | 00:05:24 | 00:05:22 | 00:05:25 | |
Vertikal climb [min/HM] | 00:01:25 | 00:01:17 | 00:09:45 | 00:29:37 | 00:02:17 | 00:21:36 | 00:02:36 | 00:02:07 | |
Lauflänge [km] | 12,68 | 12,17 | 12,17 | 11,58 | 9,25 | 10,00 | 8,20 | 11,57 |
Unser mittleres Tempo ist also 5:25 min/km. Eine genauere Betrachtung zeigt, dass wir hier eine ausgesprochene Saisonfigur haben. Der vermutlich einfachste Ansatz zur Temposteigerung besteht darin, der „Winterdepression“ mit Elan entgegenzutreten. Daneben könnte man die Lauflänge reduzieren und die Frequenz erhöhen, was aber organisatorisch/terminlich schwierig ist. Und natürlich wirken Höhenmeter nicht positiv auf das mittlere Tempo. Die technischen Entwicklungen der Laufuhren gibt weitere Ansatzpunkte zur Temposteigerung, in dem man gezielt an den Messgrößen Cadence, stance_time, und vertical_oscillation arbeitet um eine effizienteren Lauf [kJ/km] zu realisieren.
Unsere Radfahrten 2015:
Radstatistik für 2015 | h | i | j | k | Summe | pro Kopf |
Distanz [km] | 12.722,40 | 10.252,90 | 1.735,30 | 1.189,10 | 25.899,70 | 6.474,93 |
Zeit [hh:mm:ss] | 525:50:00 | 435:55:00 | 99:48:00 | 72:49:00 | 1134:22:00 | 283:35:30 |
Höhenmeter [m] | 108.467 | 59.616 | 21.082 | 189.165 | 63.055 | |
Radfahrten | 242 | 212 | 159 | 42 | 655 | 163,75 |
Längste Radfahrt | 317,20 | 169,50 | 12,70 | 120,00 | 317,20 | |
Größter Anstieg | 2.602 | 324 | 112 | 2.602 | ||
Tour-Länge [km] | 52,57 | 48,36 | 10,91 | 28,31 | 39,54 | |
v [km/h] | 24,19 | 23,52 | 17,39 | 16,33 | 22,83 | |
Steigung % | 0,85% | 0,58% | 1,21% | 0,97% | ||
vertical Climb [m/h] | 206,28 | 136,76 | 211,24 | 166,76 |
Beim Radfahren haben wir offensichtlich ein sehr weit gespreiztes Feld, sowohl hinsichtlich km Leistung als auch Tempo. Dies hängt einerseits mit den persönlichen Interessen/Schwerpunkten als auch mit der technischen Ausstattung zusammen. Letzteres könnte im lowspeed Bereich massiv das Tempo erhöhen in der oberen Hälfte dürfte der Fortschritt eher marginal und sehr teuer werden.
Zum Schluss noch das Schwimmen:
Schwimmstatistik für 2015 | l | m | Summe | pro Kopf |
Distanz [m] | 109.113 | 23.430 | 132.543,00 | 66.271,50 |
Zeit [hh:mm:ss] | 43:19:00 | 25:17:00 | 68:36:00 | 34:18:00 |
Schwimmeinheiten | 69 | 33 | 102 | 51 |
Pace [min/km] | 00:23:49 | 01:04:45 | 12:25:18 | |
Einheitenlänge [km] | 1,58 | 0,71 | 1,30 |
Das Schwimmen ist eher ein „Stiefkind“ des LT’s, obwohl es ein guter Ausgleich zu den anderen Sportarten ist, die zum überwiegenden Teil die Beine beanspruchen. Hier könnte uns insbesondere eine personelle Verstärkung helfen indem es z.B. durch einen weiteren Personenkreis im LT getragen wird.
Im Folgenden ein Versuch diese 3 Sportarten ins „Laufen“ umzurechnen. Ausgangspunkt ist hier die Relation der sportartspezifischen Marathondistanz zum klassischen Laufmarathon:
Sportart | Distanz LT-Pappelalle [km] | Lauf-Multiplikator | Laufdistanz-Äquivalent [km] | Anzahl Personen | pro Kopf [km] |
Schwimmen (Marathon = 10 km) | 132,54 | 4,22 | 559,27 | 2 | 279,63 |
Radfahren (Marathon = 205 km) | 25.899,70 | 0,21 | 5.330,92 | 4 | 1.332,73 |
Laufen (Marathon = 42,195 km) | 9.148,60 | 1,00 | 9.148,60 | 7 | 1.306,94 |
Summe | 15.038,78 | 2.919,30 |
Hätte jeder von uns die durchschnittliche km-Leistung in den Sportarten erbracht, ergäbe sich eine Laufleistung von ca.
2.900 km/Jahr oder 56 km/Woche.
Das ist schon eine überraschend große Zahl! Geht man von den 2 wöchentlichen Terminen a 12 km aus, steuern die anderen Sportarten demnach erheblich zum Gesamtumfang bei.
Oben rechts unter „Wann und Wo“ finden Interessierte eine Karte zu unserer Standardrunde mit Zeiten.
5:00-6:00 min/km ist unser übliches Tempo und wir freuen uns auf weitere Läufer/innen.
In einem Jahr schaffen wir ungefähr 1000k-3000k pro Läufer/in. Unsere Läufe dokumentieren wir derzeit in einem strava Lauf Club, siehe unten. Dazu benötigt man ein Smartphone (mit gps) oder – noch besser – eine Laufuhr. Begehrt sind hier die Auszeichnungen für strava Segmente insbesondere KOM/QOM. Wir stellen uns auch gerne den strava challenges.
Im Jahresablauf nehmen wir an Laufwettkämpfen – derzeit im Bereich von 5k-50k – teil. Bei uns hat es bisher bei keinem zu „Ruhm und Ehre“ bei Laufwettkämpfen gereicht. Wir sind ausgesprochene Altersklassen und Quantils-Läufer d.h. wenn schon nicht erster Platz oder Top-Ten Platzierung, dann ist für uns ein Platzierung in den oberen 10%-50% der Altersklasse schon ein gutes Ergebnis, was den Aufwand/Schweiß rechtfertigt. Zur Wettkampfsaison im Frühjahr/Herbst intensivieren wir unser Lauftraining. Das findet dann entweder im Rahmen der Standardrunde statt, oder – sofern sich Mitstreiter finden – in verlängerten Läufen z.B. in die nahe gelegene Ohligser Heide.
Neben dem Laufen haben einige von uns ein Faible fürs Radfahren, insbesondere Rennrad. Unsere Touren gehen ins Bergische Land, Sauerland, an den Rhein und in die Eifel. Im Urlaub darf es dann gerne mal höher hinaus gehen: Alpen, Kanarische Inseln etc.
„Last but not Least“ gehen einige von uns auch gerne schwimmen. Im Sommer ist der Hitdorfer-Badesee beliebt. Wer im Winter auch das Freie beim Schwimmen liebt, ist in der Römer Therme in Dormagen warm (29C!) aufgehoben. Wie kommt man dahin? Laufen und oder per Rad, fertig ist der Triathlon.