Um Ihnen ein besseres Nutzererlebnis zu bieten, verwenden wir Cookies.
Durch Nutzung unserer Dienste stimmen Sie unserer Verwendung von Cookies zu.
Weitere Informationen
Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.
Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für
. Danach können Sie gratis weiterlesen.
Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf
Jetzt für nur 0,99€ im ersten Monat testen
Unbegrenzter Zugang zu allen Berichten und Exklusiv-Artikeln
Lesen Sie nahezu werbefrei mit aktiviertem Ad-Blocker
Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.
Kameras statt Lidar
Teslas Autopilot hält aufgemalte Straße für real – und fällt auf Roadrunner-Trick herein
Teslas enorme ökonomische Erwartungen liegen auf dem Cybercab. Ein einfacher Versuch zeigt eindrücklich, warum dieses Prestige-Vorhaben grandios versagen könnte.
Austin – Es klingt wie ein Gag aus einer Comic-Serie: Jemand malt eine Straße auf eine Wand und jemand anders kracht dagegen, weil er den Scherz nicht erkennt. Doch anders als beim Roadrunner und dem Kojoten bleibt das im realen Leben nicht Folgenlos. Vielmehr könnte sich der simple Trick als tödliche Falle für Teslas Autopilot entpuppen.
Bereits seit vielen Jahren gibt es massive Kritik an Teslas Modus für autonomes Fahren. Das liegt vor allem daran, dass Firmenchef Elon Musk nicht müde wird, immer wieder zu betonen, dass der sogenannte Autopilot längst sicher genug für den uneingeschränkten Straßeneinsatz sei. Dass dem nicht so ist, zeigen zahlreiche – oft tödliche – Unfälle der letzten Jahre.
Spätestens seit 2016 ist das fatale Problem mit Teslas Autopilot bekannt
Im Mai 2016 ereignete sich in den USA ein furchtbarer Unfall, bei dem ein Tesla Model S ungebremst gegen den Aufleger eines LKWs krachte. Der Fahrer starb, als sich das Auto unter den Aufleger schob und dabei völlig zerstört wurde. Die Polizei ermittelte später, dass das Model S zum Zeitpunkt des Unfalls autonom gefahren war und die Bremse niemals auslöste.
Auf der Suche nach der Ursache für den Crash stellten die Ermittler fest, dass die Technik des Autos eine entscheidende Schwäche hat: Tesla nutzt für seinen Autopiloten Bildmaterial von zahlreichen verschiedenen Kameras. Diese erfassen die gesamte Umgebung des Autos und anhand des Bildmaterials berechnet die Software dann den Fahrweg, Verkehrszeichen, potenzielle Hindernisse und so weiter.
Aber wieso bremste das Auto dann nicht, als plötzlich quer vor dem Elektrofahrzeug ein riesiger LKW auftauchte? Die Antwort ist ebenso simpel wie beunruhigend: Zum Zeitpunkt des Unfalls stand die Sonne gerade sehr hoch und strahlte hell auf die Straße in Florida herab. Dadurch wurden die Kameras des Tesla regelrecht geblendet und konnten den strahlend weißen Aufleger des Sattelzuges nicht mehr erkennen. Oder simpler ausgedrückt: Die Kameras haben das riesige Fahrzeug einfach übersehen.
Tesla vertraut auf Kameras – Musk stellt Vergleich mit Menschen auf
Seitdem sind rund neun Jahre vergangen und Tesla hat die Software seines Autopilot kontinuierlich weiterentwickelt. Das dahinterliegende Problem ist aber unverändert geblieben: Teslas erfassen ihre Umgebung rein optisch. 2021 twitterte Elon Musk, dass dies völlig ausreichend sei, da Menschen schließlich auch nur mit einer Kombination aus Augen und einem neuronalen Netz (gemeint ist das Gehirn) ihre Umgebung erfassen. Die Tesla-Kombination aus Kameras und Software sei das gleichwertige Pendant dazu.
Dabei ignoriert der Tesla-Boss allerdings den zentralen Zweck, ja die Daseinsberechtigung, von Assistenzsystemen in Autos: Diese sind dazu da, die Unzulänglichkeiten der menschlichen Fahrer zu kompensieren und das Fahren dadurch sicherer zu machen. Das gilt für kleinere Systeme wie Spurhalte-Assistent oder Notbrems-Assistent ebenso wie für die Königsklasse, das autonome Fahren.
Tatsächlich setzen fast alle anderen Autohersteller bei Fahr-Assistenzsystemen auf eine Kombination aus Kameras und Lidar, einer Art speziellem Boden-Radar, der insbesondere in Fahrzeugen zum Einsatz kommt. Dadurch wird die Umgebung nicht nur optisch erfasst, sondern auch „abgetastet“.
Vereinfacht ausgedrückt nimmt eine Kamera einfach nur ein 2D-Bild der Umgebung auf und analysiert dieses dann auf seine Bestandteile wie Straßen, Gebäude, Personen usw. Ein Lidar hingegen misst die Lichtreflexion von Hindernissen. Unterbricht etwas den Laserstrahl, so ist es ein Hindernis – völlig egal, wie es aussieht. Damit kann ein Lidar – im Gegensatz zu Kameras oder Menschen – beispielsweise nicht optischen Täuschungen unterliegen.
Kameras können getäuscht werden - mit potentiell tödlichen Folgen
Wie gefährlich Teslas Fokussierung auf Kamerabilder sein kann, hat jetzt der Youtuber Mark Rober eindrucksvoll demonstriert. Er testete die Hindernis-Erkennung eines Tesla und eines Autos mit Lidar-Technologie. Dazu stellte er zunächst eine Puppe eines Kindes auf einer Teststrecke auf. Beide Autos fuhren auf das „Kind“ zu, bremsten rechtzeitig ab und kamen vor dem Hindernis zum Stehen. Selbes Bild bei einem „Kind“, das plötzlich auf die Straße läuft. Doch bei simuliertem Nebel und simuliertem starken Regen erkannte der Tesla das Hindernis nicht mehr und fuhr das „Kind“ um. Der Lidar wiederum leistete sich in keinem der verschiedenen Testszenarien einen Fehler.
Am deutlichsten wurden die Schwächen der Tesla-Kameras allerdings beim letzten Versuchsaufbau offengelegt. Dafür baute Rober eine Styropor-Mauer quer über die Straße. Auf diese Mauer wurde die vorhandene Straße aufgedruckt, so dass es auf den ersten Blick aussah, als ginge die Straße einfach weiter, statt in einer künstlichen Wand zu enden.
Das Auto mit Lidar nahm das Hindernis problemlos wahr, bremste ab und kam in sicherem Abstand vor der Wand zum Stehen. Da die vom Lidar ausgesendeten Laserstrahlen die Mauer nicht durchdringen konnten, wurde sie als Hindernis identifiziert – völlig unabhängig davon, wie sie aussah.
Der Tesla hingegen erkannte die Wand überhaupt nicht und fuhr ungebremst weiter. Das Auto durchbrach die Styroporblöcke, ohne zuvor auf das Hindernis zu reagieren. Der Grund dafür ist, dass die integrierten Kameras die aufgemalte, freie Straße für eine echte Fortsetzung der realen Straße hielten und daher schlicht keinen Grund zur Reduzierung der Geschwindigkeit sahen. Erst im Moment des Kontakts mit der Mauer erkannten die integrierten Sensoren das Hindernis und lösten (viel zu spät) den Bremsvorgang aus.
Selbstfahrendes Tesla Cybercab soll Taxi-Branche revolutionieren
Natürlich ist ein solcher beinahe schon comichafter Versuchsaufbau nicht direkt mit der Realität vergleichbar. Er verdeutlicht aber sehr eindrucksvoll, welche Gefahr von autonom agierenden Fahrzeugen ausgehen kann, die ihre Umgebung ausschließlich mit Kameras erfassen. Im Fall von Tesla ist das vor allem deshalb signifikant, da die Technologie nicht nur in klassischen Autos zum Einsatz kommen soll, in denen auch noch ein menschlicher Fahrer sitzt und im Gefahrenfall möglicherweise eingreifen kann, sondern auch in vollkommen selbstfahrenden Taxis.
.Die größte wirtschaftliche Hoffnung des angeschlagenen Autobauers ruht auf dem im Oktober 2024 erstmals öffentlich vorgestellte “Cybercab”. Das autonome Taxi bietet Platz für zwei Passagiere und kommt komplett ohne Fahrer aus. Ab 2027 soll es in amerikanischen Städten zum Einsatz kommen und laut Elon Musk das Personen-Transportwesen revolutionieren.
Für Tesla ist ein Erfolg des Cybercab fast schon zwingend nötig. Das Auto-Portfolio ist überschaubar und die bestehenden Modelle erhalten zu selten Upgrades. Während es lange Zeit im Segment der E-Autos kaum relevante Alternativen zu den Fahrzeugen aus den USA gab, haben inzwischen insbesondere europäische und asiatische Hersteller längst zu Tesla aufgeschlossen. Das börslich derzeit völlig überbewertete Unternehmen braucht daher dringend Innovationen, um sich dauerhaft an der Spitze der Branche festzusetzen.
Experten glauben nicht an baldigen Launch des Cybercab
Doch Branchenkenner zweifeln inzwischen massiv daran, ob das Cybercab diese Innovation sein kann oder überhaupt jemals erscheint. John Colantuoni vom amerikanischen Branchen-Analysten Jefferies beispielsweise bezeichnete das Robotaxi als „zahnlos“ und prognostizierte, dass Uber, Lyft und Co. vor dem Produkt keine Angst haben werden.
Elon Musk: Erst US-Schattenpräsident – und jetzt Trump-Gegenspieler?
Insbesondere der Sicherheitsaspekt beim autonomen Fahren bereitet den Experten Sorgen. Paul Miller vom Analysten Forrester prophezeit, dass der vollständige Verzicht auf Lenkrad und Pedale die Straßenzulassung in vielen Märkten extrem schwer bis unmöglich machen könnte. Und der Sicherheits-Experte Dan O’Dowd prophezeit: „Elon Musk hat jedes Jahr seit 2014 versprochen, dass Tesla FSD [full self-driving] ‚dieses Jahr’ realisiert. Jetzt hat der gesagt, dass FSD bis Ende 2025 verschoben wurde. Dieses Datum wird wieder verschoben werden, wie die letzten zehn Jahre auch schon.“
YouTuber Mark Rober hat mit seinem Experiment überzeugend demonstriert, warum ausgewiesene Branchenkenner solche Zweifel am Cybertaxi haben.