Keloskerin

Mein Großvater war großer Perry-Rhodan-Fan. Das merke ich rückblickend auch daran, dass viele der Geschichten, die er mir „ad hoc“ auf von mir als Kind ihm zugekrähte Szenarien kreativ erzählte – immer wieder transferierte er dafür Themen, Figuren und Geschichten-Strukturen, die ich inzwischen aus Perry Rhodan kenne, in das von mir vorgegebene Detektiv- oder Fantasy-Szenario. Bei Weltraum-Szenarien, die auch häufig vorkommen, musste er weniger transferieren. Ich weiß inzwischen auch aus Erzählungen, nicht zuletzt von ihm selbst, als ich etwas älter war, dass er Perry Rhodan gelesen hat. Der kreative Umgang mit dem Geschichtenschatz, den er aus den Heften der längstlaufenden Science-Fiction-Heftreihe der Welt und seinem Improvisationstalent aufbaute, hat mich tief beeinflusst.

Inzwischen erkenne ich immer wieder Elemente, die in Geschichten meines Opas vorkamen, die andere Szenarien bedienten und mich oder mein Alter Ego zum Zentrum hatten, wenn mir mein „lebendiges, geliebtes Hörbuch“ Perry Rhodan vorliest. Mein „Ehewolf“ Holger hat irgendwann angefangen, mir vorzulesen, wenn ich in der Badewanne lag, inzwischen liest er mir immer vor, wenn ich koche – und zur Zeit sind das die Silberbände von Perry Rhodan. Wir stehen da mittlerweile am Ende des Aphilie-Zyklus‘, und ich weiß, das ist noch unglaublich weit von den gegenwärtigen Heften entfernt.

Aus Perry Rhodan kenne ich nun eben die außerirdische „Rasse“ bzw. das Volk der Kelosker. Diese waren Mitglieder des Konzils der Sieben, eines imperialistischen Bündnisses, das ganze Galaxien unterjochte. Allerdings waren sie die Nerds, die Rechner, die abstrakten Strategie-Berechner, denen teils gar nicht klar war, was sie da genau mit ihrem enormen, in Zahlen gefassten Verständnis vom Universum, dem Leben und dem ganzen Rest unterstützten. Ganz ähnlich war’s ja mit den Greikos, die vom imperialistischen Aspekt ferngehalten waren und mit ihrer Ausstrahlung den emotionalen Zusammenhalt des Konzils gewährleisteten, wenn die Eroberungen schon gemacht waren. Aber ich war bei den Keloskern, und das hat einen Grund. Die Kelosker sind plumpe Geschöpfe, die aber sehr viel wahrnehmen, auch multidimensional wahrnehmen, in Zahlen fassen und – freilich in den Büchern nicht so genannt – dann mathematisch modellieren, im Prinzip live nicht nur lineare Trends anfitten, wie das das menschliche Gehirn tut, sondern eben weiter gehen, vieldimensionale, vielparametrige, nicht-lineare Modelle auf die als Zahlen wahrgenommene Realität anwenden, sie anpassen und als Prognose- und Handlungsempfehlungswerkzeug verwenden. Für den expansionistischen Rest des Konzils natürlich eine Eigenschaft, die sich hervorragend nutzen lässt, um langfristig überlegen zu planen.

Und so fühle ich mich manchmal, wenn ich die Welt in Zahlen, in als mathematische Funktionen gefassten Modellen erfasse, Modelle anpasse und das in Diagrammen darstelle, quasi wie eine Keloskerin unter den anderen Völkern. Klar, auch ich poste in den sozialen Medien und hier auf dem Blog sowas wie mein „Angeberbild“ vom Badenmarathon oder unterfüttere Erlebnisse mit (wenigen) Bildern von mir, der Landschaft oder anderen. Aber wenn ich mir zum Beispiel in die Mediathek der verwendeten Bilder der Highway Tales schaue, sind da weit mehr Diagramme als Fotos. Als Linien und Punkte gefasste Zahlen, eingeordnet zwischen Koordinatenachsen, unterschieden durch Farben und Markierungen, erläutert durch „Legenden“, also eine Beschriftung, welche Farbe für welchen Datensatz oder welches Modell steht. In welcher Hinsicht ich nun gegebenenfalls keloskerhaft plump bin, weiß ich nicht – in Sachen gymnastische Bewegung wahrscheinlich schon, aber langsam und träge zu Fuß wie eine Keloskerin bin ich nun nicht. Dennoch bin ich ein Nerd, arbeite mit Zahlen und Modellen und Diagrammen. Emotionsfrei bin ich nicht, alles andere als das. Schlechtes, Demotivierendes kann mich furchtbar runterziehen, Tolles unglaublich euphorisieren. Es ist auch nicht so, dass ich meinen Sport nur nach Zahlen betreibe – das Gefühl spielt eine große Rolle. Aber vieles erfasse ich in Zahlen, versuche, es in Modellen zu parametrisieren, Trends aufzuzeigen, Kenngrößen zu definieren und zu verfolgen.

Und ich werde – gefühlt – besser darin. Nachdem ich mir das PRAPP auf Höhenmeter zu rechnen begonnen habe, habe ich diesen Wert nun auch auf meine Läufe angewandt. Da ich ja immer noch ein bisschen mit Bildern im Hintergrund arbeite, habe ich… nun, einen Graphen etwas aufgehübscht:

Im unteren, neuen Bild sieht man, dass tatsächlich auf Regensburg hin meine Formkurve anstieg, also das sbPRAPP im Mittel absank. Die grüne Linie mit blauen Markern stellt den Median des sbPRAPP im jeweiligen Monat dar, die schwarzen Linien 25- bzw. 75-Perzentile und die einzelnen Punkte sind die einzelnen Läufe. Offenbar hat meine Form nach Regensburg nochmal ordentlich zugelegt, nun beim abrufen von Leistung steigt der Wert an. Aber das ist bei harten Wettkämpfen nicht unnormal. Mal sehen, wie es sich weiter entwickelt.

Der Berg im Hintergrund des Graphen zur „Flachheit“ des sbPRAPP gegenüber den Höhenmetern ist übrigens der Nanga Parbat.

Weil ich so begeistert davon war, dass ich ohne numerischen Fit auskam, und so meine sbPRAPP-Funktion über eine analytische Lösung für eine Ausgleichsgerade automatisch angepasst wird, wenn neue Daten dazu kommen, habe ich für meine Wettkämpfe etwas Ähnliches gebaut.

In diesem Plot sieht man alle meine Wettkämpfe – die Distanz wird (logarithmisch) nach rechts aufgetragen, die „Pace“, also das Tempo in Minuten pro Kilometer nach oben. Blaue Punkte sind Wettkampfleistungen, die ich irgendwann gebracht habe, rot umrandete Rauten persönliche Bestleistungen auf der jeweiligen Distanz, grün hinterlegte Punkte oder Rauten sind „aktuell“, was im Moment bedeutet, dass die Leistungen nach dem 01.11.2022 erbracht wurden. Die rote Kurve ist ein numerischer Parabel-Fit an die Personal Bests, die gelbe Kurve ein Potenzgesetz nach Steffny und Riegel, basierend auf einer von Riegel 1977 aufgebrachten Formel. Demnach verhalten sich die Wettkampf-Zielzeiten zueinander wie die Wettkampfdistanzen hoch 1,07. Daraus folgt auch, dass sich das Renntempo wie die Wettkampfdistanz hoch 0,07 verhält… aber vielleicht ist ja der Exponent bei mir nicht 0,07, sondern 0,06, weil ich besonders gut auf langen Distanzen bin, oder 0,08, weil die ganz langen Distanzen mir bisher Probleme machen – Ihr ahnt es schon, es ist eher 0,08. Da steht dann also eine Funktion:

Wettkampftempo (x km) = Wettkampftempo (1 km) mal x hoch Exponent

Wenn ich das logarithmiere, ist es eine Gerade – und da kann man dann eine Ausgleichsgerade durchlegen, wofür es eine analytische Lösung gibt. Der Vorzug ist, dass sich bei neuen Personal Bests das Ganze automatisch aktualisiert. Wenn ich mich also irgendwann von der Parabel trennen kann, wird auch hier der Solver von Excel überflüssig, und somit aktualisiert sich meine ganz eigene Personal-Best-Funktion auf der Basis des Steffny-Riegel-Modells automatisch, wenn ich neue Personal Bests eingebe.

Dafür muss ich dann entweder endlich mein Potential im Marathon wirklich ausschöpfen – oder einsehen, dass ich bei der Parabel zwar eine schön kleine Summe der quadratischen Abweichungen erhalte, aber in erster Linie eben deswegen, weil ich „überfitte“, also nicht in der Natur der Sache, sondern in Schwankungen oder mangelnden Versuchen im Marathon liegende Strukturen mit in die Funktion nehme, was ich eigentlich nicht will.

Und dann brauche ich den Solver nicht mehr. Rede ich nun wie ein in die siebte Dimension sehendes Alien, das die Welt in Zahlen wahrnimmt?

Weniger vorläufig

Gestern habe ich mich erstmals mit dem Thema aus der Deckung gewagt, wie mein Formschätzer für’s Laufen, das PRAPP, sich unter Berücksichtigung von Anstieg auf der Laufstrecke verhält. Ich habe das Ganze als hochgradig vorläufig bezeichnet – und das war es auch: Ein erster Aufschlag. Entsprechend robust war die Analyse dann auch, als ich sie genauer unter die Lupe nahm und am gesamten Datenpool testete.

Die Regressionsgerade mit ca. 0,73 zusätzlichen Schlägen pro 100 Meter pro Steigungspromille auf den Gesamtpool meiner Trainingsläufe angewandt ergab das hier:

Wenn meine Analyse funktioniert hätte, wie ich mir das vorgestellt hatte, hätte die Punktwolke des steigungsbereinigten Puls-Reserve-Ausnutzungs-Pace-Produkts (sbPRAPP, Ordinate, also vertikale Achse) gegen die Steigung in Promille (auf der Abszisse) aufgetragen um eine horizontale Linie streuen müssen. Indes, man hätte die Trendlinie sicher nicht gebraucht, um zu sehen, dass die Punktwolke das nicht tut.

Klar, der Datensatz ist dünner bei hohen Brutto-Anstiegs-Zahlen, aber selbst bei dieser eher kleinen Stichprobe ist es sehr unwahrscheinlich, dass die fünf Läufe, auf denen mein Herz am fittesten war, unter den zehn Läufen, die die meiste Steigung aufwiesen, gewesen sein sollten. Ich ging einen Schritt zurück und probierte mal von Hand herum, welche Werte besser funktionierten. Aber ich mache keinen „Augenmaß-Rumprobiere-Fit“. Ich dachte also nochmal drüber nach, wo der Fehler liegen könnte.

Es war, wie so oft, nicht der Fit an sich, auch nicht das Modell (wenn man 20 Parameter an 17 Datenpunkte fittet, sieht das immer toll aus, aber überfitten bringt ja auch nix). Nein, es war die Datenaufbereitung. Ich wechselte also von „Minimum im jeweiligen Bin“ bei Wettkämpfen und Training auf „Mittelwert des jeweiligen Bins“ bei beiden Kategorien, realisierte zudem, dass einer meiner steilsten Läufe nicht im Fit war, weil ich den Endpunkt meiner Mittelung schlecht gewählt hatte, und fittete nochmal:

Die Gerade ist viel flacher, insgesamt passt es – natürlich! – besser zusammen, wenn man nicht die jeweiligen Extrema der Verteilung nimmt, sondern den Mittelwert. Nun kam ich auf eine Steigung von 0,26 für meinen Geradenfit. Beim manuellen Herumprobieren sah die sbPRAPP-Verteilung (oben im schwarzen Bild mit den falschen 0,73 gezeigt) mit einer Steigung von ca. 0,2 am horizontalsten aus – aber ich hätte es verdächtig gefunden, genau dort zu landen.

Mit der neuen Aufbereitung des Datensatzes und dem neuen Fit, also einer Geradensteigung von 0,26 Herzschlägen pro 100 Meter pro Brutto-Steigungspromille, stellt sich meine gesamte Trainingsverteilung nun so dar wie hier gezeigt. Das sieht doch schon deutlich besser aus.

Beim Schreiben dieses Artikels stand hier am Ende: Mal sehen, was passiert, wenn ich die über zwei Arbeitsmappen verteilten Trümmer meines Analyse-Aufbaus aufräume und dann das Ganze versuche, auf das Radfahren zu übertragen.

Nun allerdings bin ich einen Schritt weiter. Zunächst einmal nervte mich ungemein, dass ich mit der Nutzung von Wettkampf- und Trainingsdaten nunmehr immer erstmal speichern musste, bevor nach unten oder rechts ausgefüllte Zellen neu berechnet wurden. Dazu fiel mir auf: Mit einem linearen Modell ist es völlig unnötig, die Summe der quadratischen Abweichungen numerisch, also mit dem Solver von Excel zu minimieren… also räumte ich tatsächlich die Trümmer weg: Drei Tabellenblätter in meiner Wettkampf-Daten-Excel-Mappe flogen raus. Es blieb nur noch das eine neue Tabellenblatt „Steigung“ in meiner Trainings- und Krankheitsdatenbank. Dort wurde der numerische Fit durch eine lineare Regression ersetzt und am Ende des Tages…

…landen wir bei einer nahezu um die Horizontale Parallele zur Steigungsachse streuenden Verteilung von steigungsbereinigten PRAPPs (sbPRAPP). Die Regressionsgerade aktualisiert sich automatisch, wenn ich neue Läufe eingebe. So weit diese Anpassung an die Gesamtheit meines Trainings und meiner Wettkämpfe (denn die kommen ja auch in der Trainingsdatei vor) angeht, muss mein Herz zweimal zusätzlich schlagen, damit ich einen Höhenmeter überwinde.

Ob das sbPRAPP die Vorhersageleistung des PRAPP von ebenen Läufen auch auf bergige Läufe erweitert, werde ich sehen – hoffentlich nicht so bald, denn am besten ließe sich das an einem Infekt testen. Da habe ich aber gar keine Lust drauf.