top of page

Bias auf der Überholspur: KI in der Mobilität ist nicht neutral

Wer über Künstliche Intelligenz in der Mobilität spricht, kommt an glänzenden Visionen und ambitionierten Anwendungsfällen nicht vorbei: Autonome Fahrzeuge, intelligente Ampelschaltungen, Chatbots im Kundenservice. Doch während die Technologie rasante Fortschritte macht, stellt sich eine Frage immer dringlicher: Wer kommt eigentlich in diesen Systemen vor – und wer nicht? Wenn Mobilitätsdaten nicht alle Nutzer*innen abbilden, wenn KI mit einseitigen Lebensrealitäten trainiert wird, dann entstehen Systeme, die bestehende Ungleichheiten nicht nur spiegeln, sondern verschärfen.

KI generiertes Bild von einem Roboter in einem grünen Auto auf einer Straße
Wenn KI die Realität verzerrt: Risiken für eine gerechte Mobilität

Am 5. Mai fand in der Kölner Kunstbar die Veranstaltung „Unboxing: KI“ des VDV eTicket Service statt. Im Fokus standen Einblicke in den aktuellen Stand von KI-Technologien und ihre Potenziale für den öffentlichen Verkehr.

Prof. Dr. Melanie Diermann, Professorin für Marketing, Fachbereich Kommunikation und Wirtschaft an der IST-Hochschule für Management in Düsseldorf bot einen fundierten Überblick über Chancen und Herausforderungen von Künstlicher Intelligenz, gab praxisnahe Tipps zum Umgang mit generativer KI und warnte zugleich vor deren derzeitiger Fehleranfälligkeit.

„KI findet heute schon in unserem Alltag reichlich Anwendung, Beispiele dafür sind etwa Navigationssysteme, Fitnesstracker, persönliche Assistentinnen wie Alexa oder die Gen AI, die mir meine Mail vorformuliert“, sagte sie.


Wie viele KI-Tools es derzeit gibt, wisse niemand so genau. Es kursieren Zahlen zwischen 10.000 und 15.000, vermutlich sind es aber schon viel mehr.

Prof. Dr. Melanie Diermann in schwarzer Kleidung bei ihrem Vortrag vor einem Monitor in einem bunt dekoriertem Raum
Prof. Dr. Melanie Diermann bei ihrem Vortrag bei Unboxing: KI in Köln

Auch in der Mobilität ist KI längst überall im Einsatz:

Neben Navigationsdiensten erkennen Fahrerassistenzsysteme Anzeichen von Müdigkeit bei Fahrenden und empfehlen Pausen. Im Kundenservice des ÖPNV beantworten Chat- und Voicebots Anfragen zu Tarifen, Fahrplänen oder Fundsachen. Fahrgastinformationssysteme liefern in Echtzeit Daten zu Fahrzeugauslastungen, Verspätungen und Alternativrouten.

Im städtischen Verkehr analysieren KI-Systeme Verkehrsströme und steuern Ampelschaltungen dynamisch, um Staus zu vermeiden.

Bei Carsharing- und Ride-Hailing-Angeboten prognostiziert KI Nachfrageentwicklungen und sorgt für eine effiziente Verteilung der Fahrzeugflotten. In der Logistik optimieren intelligente Systeme Routen, überwachen Lieferketten und verbessern die Auslastung von Transportmitteln.

Auf der Straße analysieren KI-Systeme in Echtzeit Verkehrsdaten, um Ampelschaltungen dynamisch anzupassen und so den Verkehrsfluss zu optimieren. KI wird auch eingesetzt, um Lieferketten zu überwachen, Routen zu optimieren und die Auslastung von Transportmitteln zu verbessern.

Dank Predictive Maintenance können Fahrzeuge - egal, ob im Güter- oder Personenverkehr in die Werkstatt beordert werden, bevor sie kaputt gehen. Auch die Bestellung von Ersatzteilen für die Reparaturen funktioniert mit der Unterstützung von KI. Predictive Maintenance hilft, Wartungen frühzeitig zu erkennen – noch bevor Schäden auftreten. Auch das Bestellen passender Ersatzteile erfolgt zunehmend automatisiert. Zudem überwachen KI-gestützte Lösungen den Zustand von Infrastruktur wie Brücken, Straßen oder Gleisen. Selbst bei der Bearbeitung von Fahrgastrechteformularen kommt KI heute schon zum Einsatz.


Spannende Perspektiven bietet auch der Bereich der sogenannten KI-Agents – Programme, die Aufgaben entweder autonom oder in Interaktion mit Menschen erledigen. Diese können etwa im Kundenservice, bei der Datenanalyse oder zur Entscheidungsfindung eingesetzt werden. Ihr Einsatz wird insbesondere beim autonomen Fahren relevant, wenn auf Basis von Kamerabildern erkannt wird, dass ein medizinischer Notfall vorliegt – woraufhin der KI-Agent automatisch einen Rettungsdienst informiert.


„Garbage in, Garbage out“: Wenn KI alte Muster zementiert


Der Einsatz von Künstlicher Intelligenz birgt aber auch Risiken, wie Melanie in ihrem Vortrag in Köln deutlich machte. Sie zitiert Studien der Allbright Stiftung, wonach Christian, Thomas und Michael die Namen sind, die in den Vorständen deutscher Unternehmen häufiger vertreten sind, als Frauen insgesamt. Die Stiftung, die sich vor allem für mehr Frauen in Spitzenpositionen einsetzt, hat bei der Ermittlung des deutschen Durchschnitts-Vorstands verschiedene Eigenschaften ausgewertet: Vorstandsposten in Deutschland sind zu 93 Prozent mit Männern besetzt, 74 Prozent sind deutscher Herkunft, der Altersdurchschnitt liegt bei 55 Jahren – und 34 Prozent haben im Ausland studiert.

Wenn KI mit diesen Daten trainiert wird, lernt sie: Erfolgreich ist, wer männlich, deutsch, Mitte fünfzig und studiert ist. Bewerbungen von Frauen oder Menschen mit anderen Namen, Biografien oder Hintergründen fallen aus dem Raster.


Ein bekanntes Beispiel dafür, dass das passiert, ist das KI-System von Amazon zur Bewerberauswahl, das aufgrund von Trainingsdaten, die überwiegend männliche Bewerber enthielten, weibliche Bewerbungen benachteiligte. „Garbage in, Garbage out“, fasst Melanie das mit einem gängigen Zitat aus der Informatik zusammen. Das Konzept besagt, dass ein Rechner mit hoher Wahrscheinlichkeit eine ungültige oder nicht aussagekräftige Ausgabe produziert, wenn die Eingabe ungültig oder nicht aussagekräftig ist. Sind die Daten fehlerhaft oder enthalten blinde Flecken, werden die Ergebnisse der KI diese Flecken enthalten beziehungsweise die in den Daten enthaltenen Fehler oder Stereotype reproduzieren.


Das ist auch im Mobilitätskontext durchaus schon vorgekommen:

Eine US-Studie zeigt, dass KI-Algorithmen in Ride-Hailing-Diensten höhere Preise für Fahrten in Vierteln mit höherem Anteil an nicht-weißen Bevölkerungsgruppen berechneten, was auf eine Verzerrung in den Trainingsdaten zurückzuführen ist.

KI-Systeme zur Bilderkennung im Straßenverkehr können durch minimale Änderungen, wie Aufkleber auf Verkehrsschildern, in die Irre geführt werden, was zu gefährlichen Fehlentscheidungen führen kann. Die autonom fahrenden Taxis von Waymo (Google/Alphabet) und Cruise (General Motors) wurden in San Francisco mit Verkehrsleitkegeln lahmgelegt – eine Protestaktion, bei der Aktivist*innen die Schwachstellen der Fahrzeuge demonstrierten. Weil die KI mit dem auf der Motorhaube platzierten Pylon nichts anfangen konnte, blieb das Fahrzeug stehen.

In Essenbach, Niederbayern, führte eine KI-gesteuerte Ampel zu Verkehrsbehinderungen, da sie aufgrund unzureichender oder fehlerhafter Daten falsche Entscheidungen traf. Zum Beispiel schaltete sie Seitenstraßen unangemessen lang auf Rot schaltete – selbst bei leerer Hauptstraße. Viele Ortskundige wichen auf Schleichwege aus, gern über den Parkplatz des nahen Edeka-Markts. In Hamm (Nordrhein-Westfalen) sorgte eine ähnliche Ampel 2024 für Dauerrot ohne Anlass. Die Polizei musste mehrfach anrücken und Staus auflösen.


Diese Beispiele verdeutlichen, dass die Qualität und Diversität der Trainingsdaten entscheidend für die Zuverlässigkeit von KI-Systemen sind. Ein Mangel an repräsentativen Daten kann zu systematischen Benachteiligungen und Fehlentscheidungen führen, die insbesondere im Mobilitätsbereich gravierende Auswirkungen haben können.

Wenn wir KI als Werkzeug für eine nachhaltige und gerechte Mobilitätswende nutzen wollen, dann müssen wir auch über Datenvielfalt, Transparenz und gesellschaftliche Verantwortung sprechen. Es reicht nicht, Systeme nur effizienter zu machen – sie müssen inklusiver werden. Sonst riskieren wir, dass die Mobilität der Zukunft wieder nur für Christian, Thomas und Michael gedacht ist.

MOBILITY NEWS

bottom of page