7. Feature Engineering#

Unser Ziel ist ein Datensatz, der pro Zeile eine Beobachtung über ein Objekt enthält, das es zu analysieren gilt. Jede Beobachtung ist durch eine Menge von Features beschrieben. Eine sinnvolle Auswahl der Features ist entscheidend für eine gute Analyse.

Mit Hilfe von Feature Engineering erzeugen wir gute Features. Das Thema ist sehr groß und wir können hier nur auf einige Beispiele eingehen. Diese sind teilen wir in drei Kategorien ein:

  • Encoding: ein bestehendes Feature wird in eine für das Analyse-Verfahren/den Machine Learning Algorithmus geeignetere Form gebracht, z.B.

    • Binning: einteilen von Skalarwerten in Intervalle, z.B. Einteilung der Startjahre von Liniennetzen in Epochen (z.B. vor 1900, 1900 - 1914, …)

    • One-Hot-Encoding: für kategorische Features wird ein einzelnes Feature je Kategorie gebildet, z.B. statt einer Spalte Alter mit Werten “alt”, “normal”, “neu” werden drei Spalten mit entsprechenden Titeln gebildert - immer nur eine dieser Spalte enthält eine 1, der Rest ist 0

    • Skalierung: umrechnen numerischer Werte auf eine andere Skala, z.B. Normalisierung aller numerischen Spalten auf den Bereich 0 bis 1 oder logarithmische Skalierung eines sehr großen Wertebereichs

  • Extraktion: es sind Rohdaten zu einer Beobachtung vorhanden, die nicht direkt in der Analyse verwendet werden können. Per Algorithmus können nützliche Features aus den Daten generiert werden, z.B.

    • Kalenderdatum: Jeder Tag existiert nur ein mal und daher sind keine Muster ableitbar. Aus dem Datum sind jedoch Features ableitbar, die eine gute Aussagekraft besitzen können, z.B. Wochentag, Feiertag (ja/nein), Tage bis Ostern, …

    • Bilder sind im ersten Schritt nur große Arrays von Farbwerten. Abgeleitete Features können beinhalten: Metadaten (Größe, Ort der Aufnahme) oder Bildinhalte, z.B. per Neuronalen Netz ausgewertet wie viele Bahnsteige es auf einem Foto eines Bahnhofs gibt

    • Aus Texten können Strukturinformationen, das Vorkommen oder die Häufigkeit von einzelnen Wörtern und weitere Informationen abgeleitet werden

  • Anreicherung: es sind weitere Datensätze vorhanden aus denen Information zum betrachteten Objekt abgeleitet werden. In unserem Beispeil betrachten wir die Liniennetze von Städten und haben im ersten Schritt nur wenige Informationen (Stadtname, Land, Koordinaten, Gesamtlänge). Über weitere Datensätze können wir z.B. anreichern:

    • Anteil der verschiedenen Transport-Modi (z.B. Bus, S-Bahn, Strassenbahn) an der Gesamtlänge

    • Anzahl der Haltestellen und deren durchschnittliche Abstände

    • Anzahl der Linien

In diesem Kapitel werden wir einige dieser Beispiel umsetzen. Auf Kalenderdaten gehen wir explizit im nächsten Kapitel ein. Für eine tiefere Behandlung von Feature Engineering siehe z.B. das Buch “Feature Engineering for Machine Leanring” von Zheng und Casari [ZC18].

INFO

Die Übungen und Beispiele basieren auf Daten über weltweite Systeme des öffentlichen Nahverkehrs von https://www.citylines.co

Wir laden zuerst wieder die Standard-Bibliotheken und unser cities-DataFrame:

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns

cities = pd.read_csv('data/cities_non_zero.csv', index_col='id')
cities.head()
name country lat long start_year age length_km
id
11 Athens Greece 37.966667 23.716667 1867 157 86.834
139 Boston United States 42.350000 -71.083333 1806 218 615.505
206 New York United States 40.783333 -73.966667 1817 207 1089.854
54 Helsinki Finland 60.166667 25.000000 2017 7 0.639
231 San Francisco United States 37.783333 -122.433333 1863 161 351.531

7.1. Encoding#

Je nach verwendeten Analyse-Verfahren eignen sich bestimmte Formen besser oder schlechter, wir betrachten einige Beispiele.

Binning#

Binning kennen wir schon von den Histogramm-Charts. Dabei werden numerische Werte in Intervallen zusammengefasst. Der entstehende Informationsverlust kann von Vorteil sein, um die Daten einfacher verständlich zu machen (z.B. für Charts/explorative Datenanalyse), Modelle zu vereinfachen (z.B. weniger Split-Möglichkeiten in baumbasierten Modellen) oder Rauschen/Messfehler/Scheingenauigkeiten aus den Daten herauszufiltern.

Die Methode pd.cut wandelt eine numerische pd.Series (Spalte) in eine kategorische mit den Intervallen als Kategorien. Neben der Series gibt es einen weiteren Parameter bins, der die Intervalle bestimmt, es gibt u.a. zwei Möglichkeiten:

  • Ein einzelner Integer, der die Anzahl der Bins vorgibt, die alle gleich groß aus dem Wertebereich der Spalte gebildet werden

  • Eine Liste von Zahlen, die die Grenzen der einzelnen Bins vorgibt. Aus einer Liste [1, 2, 3, 4] werden die Bins (1, 2], (2, 3], (3, 4] gebildet, wobei ( exklusiv und ] inklusiv bedeutet (Zahl ist nicht/ist Teil des Intervalls). Soll das erste Intervall links inklusiv sein ([1, 2] im Beispiel), dann muss der Parameter include_lowest=True gesetzt werden.

Optional kann noch mit dem Parameter labels eine Liste von Labels für die Intervalle angegeben werden. Weitere Parameter sind in der API Referenz cut. Siehe auch die API Referenz qcut, wenn die Bins basierend auf Quantilen gebildet werden sollen.

Im Folgenden wenden wir verschiedene Binnings auf die Streckenlänge an:

# Gleichmäßiges Binning in 10 Intervalle
cities['length_10_bins'] = pd.cut(cities['length_km'], 10)
cities.head()
name country lat long start_year age length_km length_10_bins
id
11 Athens Greece 37.966667 23.716667 1867 157 86.834 (-4.131, 477.661]
139 Boston United States 42.350000 -71.083333 1806 218 615.505 (477.661, 954.684]
206 New York United States 40.783333 -73.966667 1817 207 1089.854 (954.684, 1431.706]
54 Helsinki Finland 60.166667 25.000000 2017 7 0.639 (-4.131, 477.661]
231 San Francisco United States 37.783333 -122.433333 1863 161 351.531 (-4.131, 477.661]
# Binning in exponentielle wachsende Intervalle
# Erst mal Intervalle festlegen
bins = [0] + ([2**i for i in range(14)])
bins
[0, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024, 2048, 4096, 8192]
# Labels festlegen
labels = [f'{lower} - {upper}' for lower, upper in zip(bins[:-1],bins[1:])]
labels
['0 - 1',
 '1 - 2',
 '2 - 4',
 '4 - 8',
 '8 - 16',
 '16 - 32',
 '32 - 64',
 '64 - 128',
 '128 - 256',
 '256 - 512',
 '512 - 1024',
 '1024 - 2048',
 '2048 - 4096',
 '4096 - 8192']
# Anwenden des Binnings
cities['length_exp_bins'] = pd.cut(cities['length_km'], bins, labels=labels)
cities.head()
name country lat long start_year age length_km length_10_bins length_exp_bins
id
11 Athens Greece 37.966667 23.716667 1867 157 86.834 (-4.131, 477.661] 64 - 128
139 Boston United States 42.350000 -71.083333 1806 218 615.505 (477.661, 954.684] 512 - 1024
206 New York United States 40.783333 -73.966667 1817 207 1089.854 (954.684, 1431.706] 1024 - 2048
54 Helsinki Finland 60.166667 25.000000 2017 7 0.639 (-4.131, 477.661] 0 - 1
231 San Francisco United States 37.783333 -122.433333 1863 161 351.531 (-4.131, 477.661] 256 - 512
# Binning nach Quartilen
cities['length_quartiles'] = pd.qcut(cities['length_km'], 4, labels=['Q1', 'Q2', 'Q3', 'Q4'])
cities.head()
name country lat long start_year age length_km length_10_bins length_exp_bins length_quartiles
id
11 Athens Greece 37.966667 23.716667 1867 157 86.834 (-4.131, 477.661] 64 - 128 Q3
139 Boston United States 42.350000 -71.083333 1806 218 615.505 (477.661, 954.684] 512 - 1024 Q4
206 New York United States 40.783333 -73.966667 1817 207 1089.854 (954.684, 1431.706] 1024 - 2048 Q4
54 Helsinki Finland 60.166667 25.000000 2017 7 0.639 (-4.131, 477.661] 0 - 1 Q1
231 San Francisco United States 37.783333 -122.433333 1863 161 351.531 (-4.131, 477.661] 256 - 512 Q4

One-Hot-Encoding#

Im vorherigen Abschnitt haben wir per Binning aus skalaren Werten Kategorien erstellt. Ebenso gibt es von vornherein kategorische Daten, wie z.B. der Transport Mode. Bei den “Linien” ist zwar eine numerische transport_mode_id gegeben, jedoch handelt es sich hierbei um Kategorien, da die Zahl an sich keine Bedeutung hat. Die Reihenfolge der Transport Modes hat ebenso wenig Bedeutung wie der numerische Abstand zwischen Transport Mode IDs. Zwei Transport-Modi sind sich nicht ähnlicher als zwei andere nur weil die numerische Differenz zwischen ihren IDs kleiner ist. Ähnlich verhält es sich in vielen Anwendungen mit Wochentagen, die nicht als kontinuierlicher Verlauf sondern als Kategorien zu interpretieren sind (Dienstag verhält sich anders als Mittwoch aber aus der Differenz Mittwoch zu Dienstag lässt sich nichts über die Differenz Samstag zu Freitag ableiten).

Viele Algorithmen interpretieren kategorische Spalten gar nicht oder falsch. Nehmen wir als Beispiel Wochentage bei einer linearen Regression:

  • Wochentage als Strings kodiert “Montag”, …, “Sonntag”: kann nicht vom Modell verarbeitet werden, da es nur mit numerischen Inputs funktioniert

  • Wochentage als Integer 0 bis 6 kodiert: impliziert einen linearen Verlauf der Zielvariable von Wochenanfang bis Ende. D.h. zum Beispiel bei einer Umsatzprognose, wenn rausgefunden wird, dass im Schnitt samstags der Umsatz um 25% höher liegt als montags, dann wird geschlossen, dass es mittwochs 5% mehr Umsatz als dienstags gibt)

Eine Lösung hierfür ist es für jede Kategorie die Zugehörigkeit als eigenes Feature zu interpretieren. Also z.B. ein Feature “Montag”, dass 1 ist für Montage und sonst 0, und ähnliche Features für die weiteren Wochentage. Zu beachten ist, dass pro Beobachtung immer nur eines der Features 1 ist und der Rest 0.

Dies Verfahren nennt sich One-Hot-Encoding und wird typischerweise im Rahmen einer scikit-learn Pipeline eingesetzt - dies werden Sie später noch kennenlernen. Einfach lässt sich es aber auch mit pandas umsetzen mit der Funktion pd.get_dummies. Anbei ein Beispiel, das die Intervall-Kategorien aus den Binning-Beispiel umwandelt:

pd.get_dummies(cities['length_quartiles']).head()
Q1 Q2 Q3 Q4
id
11 0 0 1 0
139 0 0 0 1
206 0 0 0 1
54 1 0 0 0
231 0 0 0 1
pd.get_dummies(cities['length_exp_bins']).head()
0 - 1 1 - 2 2 - 4 4 - 8 8 - 16 16 - 32 32 - 64 64 - 128 128 - 256 256 - 512 512 - 1024 1024 - 2048 2048 - 4096 4096 - 8192
id
11 0 0 0 0 0 0 0 1 0 0 0 0 0 0
139 0 0 0 0 0 0 0 0 0 0 1 0 0 0
206 0 0 0 0 0 0 0 0 0 0 0 1 0 0
54 1 0 0 0 0 0 0 0 0 0 0 0 0 0
231 0 0 0 0 0 0 0 0 0 1 0 0 0 0

Skalierung: Linearisierung#

Verschiedene Modelle treffen verschiedene Annahmen über die Daten, die sie verarbeiten. Eine Annahme könnte sein, dass bestimmte Werte einer Normalverteilung entsprechen. Häufig setzen wir lineare Modelle, die eben lineare Korrelationen voraussetzen. Betrachten wir anhand einem Beispiel, was bei nicht linearen Daten passiert.

Wir generieren und plotten zunächst einen Datensatz, wo y eine exponentielle Funktion von x ist und addieren noch ein zufälliges Rauschen dazu:

# x: 50 zufälle Werte aus dem Bereich 10 bis 100
x = np.random.randint(10, 100, 50)
# y: ist eine expontielle Funktion von x und zu jedem y wird noch eine Zufallszahl addiert
y = 1.05**x + (20 * np.random.rand(50))
plt.scatter(x,y)
plt.show()
../_images/8d61a63e6d662845233a13cdaea3764bbb4b8551c0bd96671b833e9de8ccb93e.png

Wenn wir nun eine einfache lineare Regression anpassen, dann kann sie zwar den generellen Aufwärtstrend in den Daten erkennen aber vereinfacht den Datensatz zu stark:

# Lineare Regression
coeffs = np.polyfit(x,y,1)
# Berechne Regression für alle x aus Bereich 10 bis 100
x_lin = np.arange(10, 100)
y_pred_lin = x_lin * coeffs[0] + coeffs[1]
# Plotten der Regression und der Datenpunkte
plt.plot(x_lin, y_pred_lin)
plt.scatter(x,y)
plt.show()
../_images/5199383496db4a45adbe83d157dfafe9d287ec34ac31864bd540f819cd4b87c0.png

Wir müssen entweder auf einen komplexeren Algorithmus gehen oder wir transformieren die Daten so, dass der Zusammenhang zwischen x und y linear wird. Dies ist für uns einfach, da wir bereits wissen, dass es sich um einen exponentiellen Zusammenhang handelt und wir somit mit der inversen Funktion Logarithmus auf eine Linearität kommen.

# Linearisieren von y
y_log = np.log(y)
# Berechnen der Linearen Regression auf x und linearisierten y
coeffs_log = np.polyfit(x, y_log, 1)
# Vorhersage der linearisierten Werte:
y_log_pred = x_lin * coeffs_log[0] + coeffs_log[1]

plt.plot(x_lin, y_log_pred)
plt.scatter(x,y_log)
plt.show()
../_images/f7dc545e7f509050787f1b43a9db3d910325e44e1225e5405ac21cdb7ec4d177.png

Wir können mit np.exp als Invertierung unserer Invertierung (np.log) wieder den ursprünglichen Wertebereich herstellen.

# zurückrechnen mit np.exp auf ursprünglichen Wertebereich (invertieren von np.log)
y_log_pred_exp = np.exp(y_log_pred)

plt.plot(x_lin, y_log_pred_exp)
plt.scatter(x,y)
plt.show()
../_images/a25aad8c57b9cde46888f70272acedce759c915fd65770b4a43347e682438f3d.png

Skalierung: Normalisierung#

Einige Algorithmen erwarten, dass alle numerischen Features die gleiche Skala nutzen. Beispielsweise berechnet der k-Means Clustering Algorithmus die Ähnlichkeit zwischen Beobachtungen anhand der Differenz der einzelnen Feature-Ausprägungen. Der Algorithmus hat keine Möglichkeit zu erkennen, dass eine Differenz von 100 unterschiedliche Gewichtungen haben kann:

  • Eine Differenz von 100 Jahren im Alter eines Liniennetzes ist ein beträchtlicher Unterschied

  • Eine Differenz von 100 Metern in der Länge des Lininennetzes ist wohl eher zu vernachlässigen

Das einfachste Verfahren für geschlossene Wertebereiche ist 0-1-Scaling. Dabei wird jeder Wert auf eine lineare Skala zwischen 0 und 1 umgelegt, die den Wert ins Verhältnis zum minimalen und maximalen Wert der Spalte setzt. Dieses und weitere Verfahren sind sehr einfach in scikit-learn Pipelines einzubinden aber das 0-1-Scaling gelingt sehr einfach mit pandas:

cities['length_scaled'] = (cities['length_km']       - cities['length_km'].min()) /\
                          (cities['length_km'].max() - cities['length_km'].min())
cities.head()
name country lat long start_year age length_km length_10_bins length_exp_bins length_quartiles length_scaled
id
11 Athens Greece 37.966667 23.716667 1867 157 86.834 (-4.131, 477.661] 64 - 128 Q3 0.018069
139 Boston United States 42.350000 -71.083333 1806 218 615.505 (477.661, 954.684] 512 - 1024 Q4 0.128897
206 New York United States 40.783333 -73.966667 1817 207 1089.854 (954.684, 1431.706] 1024 - 2048 Q4 0.228336
54 Helsinki Finland 60.166667 25.000000 2017 7 0.639 (-4.131, 477.661] 0 - 1 Q1 0.000000
231 San Francisco United States 37.783333 -122.433333 1863 161 351.531 (-4.131, 477.661] 256 - 512 Q4 0.073559

Die 0-1-Skalierung behält die Gleichgewichtung von Differenzen über den gesamten Wertebereich einer Spalte bei, also z.B. werden die 100km Differenz zwischen 1km und 101km Streckenlänge genauso gewichtet wie die 100km Differenz zwischen 1000km und 1100km. Wenn dies nicht gewünscht ist bietet sich z.B. ein Quantil-Binning an:

cities['length_pctile'] = pd.qcut(cities['length_km'], 100, labels=np.arange(100)).astype('float') / 100.0 
cities.describe()
lat long start_year age length_km length_scaled length_pctile
count 137.000000 137.000000 137.000000 137.000000 137.000000 137.000000 137.000000
mean 30.363248 -4.732200 1951.233577 72.766423 252.385190 0.052774 0.494818
std 26.016580 74.304119 63.454623 63.454623 521.966382 0.109422 0.291913
min -38.957350 -123.100000 1806.000000 4.000000 0.639000 0.000000 0.000000
25% 27.950000 -73.583333 1890.000000 19.000000 31.236000 0.006414 0.240000
50% 40.450000 0.104970 1981.000000 43.000000 83.040000 0.017274 0.490000
75% 47.330404 16.333333 2005.000000 134.000000 248.289000 0.051916 0.740000
max 60.392500 151.200000 2020.000000 218.000000 4770.864000 1.000000 0.990000

Beachten Sie die unterschiedlichen Durchschnitts- und Medianwerte in der vorigen Tabelle und die Werteverteilungen in den folgenden Charts:

fig, (ax1, ax2) = plt.subplots(ncols=2, sharey=True, figsize=(16,6))
ax1.set_ylim(0,1.1)
sns.ecdfplot(cities,x='length_scaled', ax=ax1)
sns.ecdfplot(cities,x='length_pctile', ax=ax2)
plt.show()
../_images/e7ee49f93121c71dc761627fff6cc96b81b484fc39ac3e0b46d814aad3de9288.png

7.2. Extraktion#

Für die Extraktion werden häufig komplexe Modelle eingesetzt, sozusagen als Vorberarbeitungsschritt bevor die eigene Analyse durchgeführt oder das eigene Modell trainiert werden. Dies ist insbesondere bei Bild-, Audio- und Textdaten der Fall. Einige dieser Verfahren werden wir beim Thema Modellierung/Machine Learning kennenlernen aber jeder der drei genannten Bereiche bietet genug Komplexität für eigene Kurse.

Auf das Thema Kalenderdaten gehen wir im nächsten Kapitel ein.

7.3. Anreicherung#

In unserem Beispiel haben wir weitere Datensätze unter anderem zu Linien und Streckenabschnitten, die wir analysieren und auf Stadtebene agreggieren können bevor wir sie dann an unser cities-DataFrame per merge anbinden. Darüberhinaus könnten auch weitere Datenquellen angebunden werden, z.B. ein Daten aus Wikipedia (per Wikidata) zu Städten oder z.B. zu Kalenderdaten die historischen oder vorausgesagten Temperaturen aus einem Wetterservice.

Starten wir mit dem Datensatz über Transport-Modi aus dem letzten Abschnitt:

city_transport_modes = pd.read_csv('data/city_system_lengths.csv')
city_transport_modes.head()
id brt bus commuter_rail default ferry heavy_rail high_speed_rail inter_city_rail light_rail people_mover tram total name
0 8 0.0 0.0 0.000 0.0 0.0 42.100 0.0 0.0 0.000 0.0 0.571 42.671 Amsterdam
1 275 0.0 0.0 0.000 0.0 0.0 0.000 0.0 0.0 24.251 0.0 0.000 24.251 Angers
2 11 0.0 0.0 0.000 0.0 0.0 86.834 0.0 0.0 0.000 0.0 0.000 86.834 Athens
3 131 0.0 0.0 0.000 0.0 0.0 79.456 0.0 0.0 0.000 0.0 4.212 83.668 Atlanta
4 132 0.0 0.0 51.691 0.0 0.0 0.000 0.0 0.0 0.000 0.0 0.000 51.691 Austin

Wir wollen Features generieren, die die prozentualen Anteile von Bus und Bahnverbindungen zusammenfasst - ein Feature für den Restanteil lassen wir außen vor:

city_transport_modes['share_bus'] = city_transport_modes['bus'] / city_transport_modes['total']
# Bestimme alle Spalten mit 'rail' im Namen
rail_columns = city_transport_modes.columns.str.contains('rail')
# Summiere pro Zeile (also entlang der Spalten, axis=1) alle Spalten mit Rail im Namen
city_transport_modes['share_rail'] = city_transport_modes.loc[:, rail_columns].sum(axis=1) / city_transport_modes['total']
city_transport_modes = city_transport_modes[['name', 'share_bus', 'share_rail']]
city_transport_modes.head()
name share_bus share_rail
0 Amsterdam 0.0 0.986619
1 Angers 0.0 1.000000
2 Athens 0.0 1.000000
3 Atlanta 0.0 0.949658
4 Austin 0.0 1.000000

Nun mergen wir die Daten basierend auf dem Städtenamen an unser DataFrame (und werfen für die Übersichtlichkeit ein paar der Längenbins raus):

cities = cities.drop(columns=['length_10_bins', 'length_quartiles']).reset_index().merge(city_transport_modes, on='name')
cities.head()
id name country lat long start_year age length_km length_exp_bins length_scaled length_pctile share_bus share_rail
0 11 Athens Greece 37.966667 23.716667 1867 157 86.834 64 - 128 0.018069 0.52 0.0 1.000000
1 139 Boston United States 42.350000 -71.083333 1806 218 615.505 512 - 1024 0.128897 0.91 0.0 0.992650
2 206 New York United States 40.783333 -73.966667 1817 207 1089.854 1024 - 2048 0.228336 0.95 0.0 0.992324
3 54 Helsinki Finland 60.166667 25.000000 2017 7 0.639 0 - 1 0.000000 0.00 0.0 1.000000
4 231 San Francisco United States 37.783333 -122.433333 1863 161 351.531 256 - 512 0.073559 0.78 0.0 0.928160

Fläche der Städte#

# Cached version of https://data.heroku.com/dataclips/akipfiszptbqbwwwgtsqxufmjeur.csv
# Datum 19.07.2021
stations = pd.read_csv('data/stations.csv')
stations.head()
id name geometry buildstart opening closure city_id
0 1703 Wanshoulu POINT(116.288966863116 39.9062894419391) 1965.0 1971.0 999999.0 15
1 7694 Keisei Tsudanuma POINT(140.024812197129 35.6837744784723) 1921.0 1921.0 999999.0 114
2 6003 Kossuth Lajos tér POINT(19.0462376564033 47.5054880717671) 0.0 0.0 999999.0 29
3 7732 Saint-Charles POINT(5.3801556 43.3024646) 1973.0 1977.0 999999.0 74
4 7695 Keisei Makuhari-Hongo POINT(140.042146725175 35.6726021159981) 1991.0 1991.0 999999.0 114
# Unsere bekannte Extraktion der Koordinaten
coords = stations['geometry'].str.extract(r'(?P<long>[-+0-9.]+) (?P<lat>[-+0-9.]+)')
# Umwandeln in Float-Zahlen
coords = coords.astype('float')
# Zusammenfügen und in cities speichern
stations = pd.concat([stations, coords], axis=1)
# Gruppierung, um min/max für Long und Lat zu bekommen
city_area = stations.groupby('city_id').agg({'long': ['min', 'max'], 'lat': ['min', 'max']})
city_area.head()
long lat
min max min max
city_id
1 -60.568570 -57.902687 -35.578998 -33.889360
4 -71.211068 -70.524529 -34.170293 -33.085068
8 4.802912 4.989269 52.295586 52.402128
11 23.639791 23.944750 37.892695 38.073389
13 100.408210 100.751225 13.567731 13.989726

Nun haben wir die Koordinaten von einem zum Äquator parallelen “Rechteck” (die Erde ist eine Kugel), das gespannt werden müsste, um alle Haltestellen einer Stadt zu umfassen. Beachten Sie den Multi-Level-Index, der die Spaltennamen beschreibt. Um auf eine Spalte zuzugreifen müssen wir nun ein Tupel mit Spaltennamen für jedes Level angeben, z.B. city_area[('long', 'min')] um auf die erste Spalte zuzugreifen.

Um die Fläche zu berechnen müssen wir die Differenzen der Koordinaten in km umrechen - das ist nicht ganz trivial, da die Erde eine Kugel ist. Wir halten uns an die verbesserte Methode aus https://www.kompf.de/gps/distcalc.html

city_area['latd'] = (city_area[('lat', 'max')] + city_area[('lat', 'min')]) / 2 * 0.01745
city_area['width'] = 111.3 * np.cos(city_area['latd']) * (city_area[('long', 'max')] - city_area[('long', 'min')])
city_area['height'] = 111.3 * (city_area[('lat', 'max')] - city_area[('lat', 'min')])
city_area['area'] = city_area['width'] * city_area['height']
city_area.head()
long lat latd width height area
min max min max
city_id
1 -60.568570 -57.902687 -35.578998 -33.889360 -0.606111 243.859141 188.056706 45859.346942
4 -71.211068 -70.524529 -34.170293 -33.085068 -0.586803 63.629191 120.785517 7685.484683
8 4.802912 4.989269 52.295586 52.402128 0.913488 12.672873 11.858126 150.276524
11 23.639791 23.944750 37.892695 38.073389 0.662804 26.755428 20.111251 538.085126
13 100.408210 100.751225 13.567731 13.989726 0.240439 37.079394 46.968091 1741.548371
# Hinzufügen zu cities-DataFrame:
cities = cities.merge(city_area['area'], left_on='id', right_index=True)
cities.head()
id name country lat long start_year age length_km length_exp_bins length_scaled length_pctile share_bus share_rail area
0 11 Athens Greece 37.966667 23.716667 1867 157 86.834 64 - 128 0.018069 0.52 0.0 1.000000 538.085126
1 139 Boston United States 42.350000 -71.083333 1806 218 615.505 512 - 1024 0.128897 0.91 0.0 0.992650 13608.576647
2 206 New York United States 40.783333 -73.966667 1817 207 1089.854 1024 - 2048 0.228336 0.95 0.0 0.992324 18648.863681
3 54 Helsinki Finland 60.166667 25.000000 2017 7 0.639 0 - 1 0.000000 0.00 0.0 1.000000 11163.760947
4 231 San Francisco United States 37.783333 -122.433333 1863 161 351.531 256 - 512 0.073559 0.78 0.0 0.928160 4376.967223

7.4. Feature-Selektion#

Nach der Generierung einer großer Anzahl von Features stellt sich die Frage, ob diese alle für ein Modell/eine Analyse verwendet werden sollen oder ob eine Vorauswahl getroffen werden soll. Dies hängt unter anderem ab von:

  • Größe des Datensatzes: erst bei einer großen Anzahl von Beobachtungen können wir viele Features verwenden - ansonsten wird der Raum der möglichen Ausprägungen nicht ausreichend ausgefüllt

  • Algorithmus: manche Algorithmen können gut mit vielen Features umgehen und kümmern sich teilweise selbst um die Feature-Auswahl. Andere Algorithmen erzeugen wenig robuste Modelle, stolpern über korrelierte Features oder entwickeln enormen Rechenbedarf

  • Rechenpower: bei großen Datensätzen mit vielen Features kann die Modellerstellung je nach Modell zu komplex für die verfügbare Rechenkapazität werden

Ein Ansatz ist die Korrelation, der verschiedenen Features untereinander und vor allem mit der Zielvariablen zu bestimmen, um Features auszuwählen, die gut mit der Zielvariablen korrelieren aber untereinander möglichst wenig korreliert sind. In unserem Beispiel haben wir keine ausgewiesene Zielvariable, können jedoch trotzdem die Korrelationsanalyse skizzieren:

cities.loc[:,'start_year':'area'].corr(numeric_only=True)
---------------------------------------------------------------------------
TypeError                                 Traceback (most recent call last)
/tmp/ipykernel_517/1113810736.py in <module>
----> 1 cities.loc[:,'start_year':'area'].corr(numeric_only=True)

TypeError: corr() got an unexpected keyword argument 'numeric_only'

Einige Beobachtungen:

  • Absolute Länge des Liniennetzes korreliert mit der Fläche

  • Absolute und 0-1-skalierte Länge des Liniennetzes korreliert (per Definition) perfekt

  • Längenperzentile korrelieren stärker mit dem Alter als die absolute Länge

  • Korrelationen mit start_year sind genau gleich groß aber mit umgedrehten Vorzeichen wie bei Alter

Mit seaborn können wir die Korrelationen auch graphisch anzeigen:

sns.heatmap(cities.loc[:,'start_year':'area'].corr(numeric_only=True), annot = True, fmt='.2g',cmap= 'coolwarm')
plt.show()
../_images/fa9ab917df7ad1557b718847659821e97e5fa0c5882983a1421045eab37e40f3.png