Tesla Model S 22-Jun-2012 die CHANCE
Trotzdem muss das System einspringen!
Auch unser Sehapparat kann leicht getäuscht werden: siehe Foto
http://www.spiegel.de/einestages/dazzle-schiffstarnung-a-947385.html
Keine Ahnung, ob Teslas, Daimlers und Googles Algorithmen sich davon täuschen lassen würden. Auch wir würden, den richtigen Hintergrund vorausgesetzt, mehrfach hinsehen.
Das war ja einer der Gründe, weswegen mir autonomes Fahren Umbehagen bereitet. die letzte Kontrolle sollte immer der Mensch selber haben. Und es gab ja sogar Überlegungen (Tesla? Google? Bin nicht sicher) das Lenkrad bzw. jegliche Steuermöglichkeit komplett wegzulassen. Spätestens jetzt wäre diese Entscheidung nach hinten losgegangen - was absehbar war
Wenn ich das richtig verstanden habe, hat Tesla zumindest formell richtig gehandelt, und die Behörden selber informiert. Im Vergleich zu einigen anderen Auto Konzernen in der Vergangenheit wurde nicht zu vertuschen versucht - eine gute Entscheidung nicht der Versuchung zu erliegen. Alles andere wäre fatal gewesen.
Nun muss von den Behörden ermittelt werden.
Alle berichten darüber, bei der Süddeutschen gerade die meistgelesene Story. Man kann zumindest nicht behaupten, dass Tesla unbekannt wäre.
http://www.sueddeutsche.de/auto/...opilot-war-eingeschaltet-1.3058278
"Autopilot ausgeschaltet
Die Autopilot-Funktion ist standardmäßig ausgeschaltet. Tesla-Chef Elon Musk hatte in Vergangenheit öfter erklärt, dass es sich um eine Betaversion handelt. Die Fahrer werden dazu aufgefordert, das Lenkrad nicht loszulassen. "Der Autopilot wird zunehmend besser, aber er ist nicht perfekt und bedarf eines Fahrers, der aufmerksam ist", heißt es im Blogbeitrag."
Und das steht bei Tesla im Blog:
https://www.teslamotors.com/blog/tragic-loss
.........
Was ist daran positiv?
Erstens ist es Pflicht...
Zweitens nur eine Frage der Zeit bis es publik wird....
Wie hier wieder schön geschrieben wird....
Aus gutem Grund sind die deutschen Autobauer noch nicht aktiv.....
Das kann teuer werden..................
"It is important to note that Tesla disables Autopilot by default and requires explicit acknowledgement that the system is new technology and still in a public beta phase before it can be enabled. When drivers activate Autopilot, the acknowledgment box explains, among other things, that Autopilot is an assist feature that requires you to keep your hands on the steering wheel at all times," and that "you need to maintain control and responsibility for your vehicle while using it. Additionally, every time that Autopilot is engaged, the car reminds the driver to Always keep your hands on the wheel. Be prepared to take over at any time. ---> The system also makes frequent checks to ensure that the driver's hands remain on the wheel and provides visual and audible alerts if hands-on is not detected. It then gradually slows down the car until hands-on is detected again.<---"
Letztendlich kennt jeder von uns Situationen, in denen er durch ungünstige Sichtverhältnisse unversehends und für Sekunden im Blindflug unterwegs war. Sei es, dass man durch die Sonne geblendet ist, oder dass Regen, Nebel oder Schnee einem die Sicht nehmen.
Stichwort 'Handy am Steuer' - wer hat das nie gemacht, 'kurz' mal auf die SMS schauen - und in dieser Zeit legt man mitunter 50m im Blindflug zurück.
Wenn das System keine eklatanten Bugs hat, wovon ich ausgehe, denn sonst hätte es deutlich früher schon schlimme Unfälle gegeben, dann dürfte das zwar viel Medienaufmerksamkeit geben, aber die Untersuchung dürfte folgenlos bleiben. Restrisiko.
Wie gesagt: wichtig und richtig war, dass Tesla selber das gemeldet hat, keinerlei Vertuschungsversuche.
Vermute ich.
Ja, klar ist das Pflicht, aber erinnere Dich an die Rückrufaktionen wegen gerissener Sicherheitsgurte bei den großen Wettbewerbern (nach x Todesfällen) - und an Teslas Vorgehen (proaktiv).
Zurzeit ist Toyota mit Millionen Autos wieder dran. Zum zweiten Mal.
Und, weil Du das gleich zweimal in den Ring geworfen hast: ganz offensichtlich bemerkt die Software, ob die Hände am Steuer waren, und regelt die Geschwindigkeit ansonsten herunter.
" The system also makes frequent checks to ensure that the driver's hands remain on the wheel and provides visual and audible alerts if hands-on is not detected. It then gradually slows down the car until hands-on is detected again. "
Aus dem Tesla Blog.
Nix wird 'schöngeschrieben'. Es ist andererseits erschreckend, wie Du Tesla bereits vorverurteilst obwohl die Umstände unklar sind.
Btw: wurde hier nicht immer betont, dass andere das schon längst testen würden, teils mit LKWs? ;-)
"Aus gutem Grund sind die deutschen Autobauer noch nicht aktiv....."
Sie sind aktiv, und WernerGg wird Dir gerne erklären, dass es diese Assistenzsysteme schon seit Generationen gibt.
Also: Ball flach halten, der Unfall ist schlimm genug, um durch voreilige Schlüsse Profit ziehen zu wollen. Sinnloses Bashing bringt niemandem etwas.
Gut, dass der Fahrer selbst das Opfer von Musk wurde und nicht ein Kind oder eine unschuldige Oma.
... wird das sicher die Diskussion über selbstfahrende Autos, und deren moralische Dimension befeuern.
Die Fragen, die sich eben in diesem Zusammenhang stellen:
- wer hat die Verantwortung / Haftung über das Fahrzeug? Immer der Fahrer - trotz Software Bugs ?
- wie weit geht die Verantwortung der Hersteller? Bugs bekannt/Pflicht diese auszurollen/wie schnell? Was, wenn das nicht passiert?
- wer entscheidet in moralisch fragwürdigen Situationen (Hindernis ausweichen - links Kind, rechts alter Mensch, oder rauf auf Hindernis?) ? Der Algorithmus? Nach welchen Regeln, Priorität Fahrer/Insassen schützen, oder unbeteiligte Dritte (Fußgänger)?
Vielleicht geht der aktuelle Ansatz (Fahrer hat immer Verantwortung) zu weit?
Es war abzusehen, dass mit dem ersten Todesfall so eine Diskussion einsetzen wird, nun wird es spannend.
Und schuld ist vor allem dieses realitätsfremde Geschwätz vom autonomen Fahren.
Der Tesla kann da nicht mehr, als die anderen auch. Es sind die ersten Ansätze, aber nicht mehr.
Das schlimme an der Sache ist, dass nun der tödliche Unfall auch noch dem Konto der Elektromobilität zugeschrieben wird, was natürlich kompletter Unsinn ist.
Jetzt heißt es schon wieder, es wäre der erste Tote auf 200 Mill km beim autonomen Fahren.
Noch mal, bis heute ist noch kein Tesla nur einen einzigen km autonom im öffentlichen Straßenverkehr gefahren, es sei denn sein Fahrer hat eine strafbare Handlung begangen.
Was wäre, wenn das System nicht den LKW übersehen hätte, sondern zwei Kinder am Straßenrand ?
Ich glaube nicht, dass man sich dann bei einem amerikanischen Richter auf die Betaversion zurückziehen kann, mit der Begründung, das steht ja in der Bedienanleitung.
Das System würde seine Zulassung verlieren und den Rest kann man dann bei VW nachlesen.
Danke für den hilfreichen Beitrag, aber woher weißt Du, dass der Tesla Fahrer nichtt die Hände am Lenkrad und die Kontrolle über das Fahrzeug hatte?
Wenn ich das richtig verstehe, siehe oben, prüft die Software regelmäßig, ob dir Hände am Lenkrad sind, und regelt ansonsten die Geschwindigkeit runter. Daraus erwachsen verschiedene mögliche Szenarien, wobei es wenig Sinn macht diese zu durchdenken. Die Daten liegen ja den Behörden vor.
Die m.E. wichtigste Frage wird die von michimunich sein, hätte die Radar Funktion das Fahrzeug nicht erkennen müssen? Im Zweifel hätte das System bremsen müssen. Oder hat der querstehende Anhänger das System irritiert, weil möglicherweise direkt davor der Weg frei war - aber eben nur bis zu einer gewissen Höhe? Vielleicht wurde das ja als 'Brücke' in größerer Entfernung eingeordnet - eine typische (optische) Täuschung.
Möglich ist Vieles. Das wird nun sehr genau geprüft.
Eines scheint aber recht wahrscheinlich zu sein: wenn nicht gerade noch die Sonne den Fahrer geblendet hat, hätte spätestens dieser das Hindernis bemerken, und bremsen müssen.
Den genauen Hergang werden wir sicher erfahren. Nicht nur, um die Schuldfrage klären zu können, was schon wichtig genug wäre, sondern auch um zu sehen, ob für die Auto Industrie grundsätzliche Konsequenzen erwachsen.
In einigen Wochen wissen wir mehr.
Nicht umsonst gibt es ellenlange Warnhinweise für die User.
Ich behaupte das Tesla zu früh mit dem autonomen Fahren an den Markt gegangen ist.
Selbstüberschätzung / Ignoranz ? Vielleicht.
Da hilft kein Schöngerede.....
Wie gesagt das ist kein Tesla typisches Problem, aber Musk hat es mit
Vorsprung durch Technik
übertrieben......
Stück für Stück zum vollem autonomen Fahren.
Meine Meinung: Wenn es statistisch sicherer ist als selbst zu fahren sollte man es benutzen. Wenn ich mal einen Tesla fahre werde ich das mit absoluter Sicherheit nutzen. Unfälle wird es immer geben, nur mit Autopilot halt weniger.
Schau dir mal eine Fledermaus an, da können wir noch eine menge lernen!!
Ja, diese moralischen Fragen müssen praktikabel geklärt werden.
Ich empfinde die aktuelle Richtung (Fahrer hat Verantwortung) hinsichtlich der Unüberschaubarkeit der Möglichkeiten (Software, Bugs, Unfallszenarien, Konsequenzen) für zu kurz gedacht - man will das Thema 'abhaken'.
Das ist aber nicht so leicht abzuhaken, und so ein Unfall wie der aktuelle könnte das gut zeigen. Eine grundlegende, klärende Diskussion ist nötig, bevor die ersten 'autonomen' Fahrzeuge auf die Straße dürfen.
Fatalerweise träumt die Industrie bereits von autonomen LKWs - die Aus meiner Sicht erst als letzte dafür in Frage kämen, nämlich erst nachdem die Sicherheit des Systems (tja, welches System welches Herstellers eigentlich?) nachgewiesen wurde.
Solange Fälle publik werden, in denen mit wenig Aufwand remote in die Funktion von Fahrzeugen eingegriffen werden kann, bin ich bezüglich autonomer LKWs skeptisch. Das Thema Sicherheit / IT scheint im Automobilbau, mit wenigen Ausnahmen, bisher eine eher untergeordnete Rolle zu spielen.
Im Prinzip richtig, aber an der Umsetzung kann es zu Fehlern kommen.
Beispielsweise, wenn das System nur die Ergebnisse bis zu einem halben Meter Höhe voraus auswertet - und da könnte bei einem Anhänger durchaus auf einigen Metern Breite die Sicht frei gewesen sein. Aus der tiefen Perspektive könnte das mit einer weiter entfernten Brücke durchaus verwechselt worden sein, je nachdem, wie die Prioritäten der einzelnen Sensoren als Gesamtheit gewertet werden.
Der Wagen scheint ja, so verstand ich den Unfallhergang, versucht zu haben ungebremst unter dem Anhänger durchzufahren.
Anhänger quer - bedeutet direkt davor evtl. freie Sicht.
Weiche Farbe des Anhängers - Interpretation als Wolke / Himmel?
Sichtbare Elemente - mögliche Brücke?
Eine ungünstige Priorisierung der SSteme - welches entscheidet in letzter Instanz über die Notbremsung - eines, Mehrzahl, alle?
Die Entwickler könnten den Bereich vor dem Auto für die Auswertung zu klein gewählt haben - oder aber es gab kein eindeutiges Signal (Weg frei oder nicht frei?) und dieser Fall im System war nicht vorgesehen, oder, oder, oder.
Und, falls die Reaktion des Fahrers ebenfalls einbezogen wird, ein Fahrer, der nicht reagiert?
Wie gesagt: Vieles ist denkbar.
Von 'Tesla hat es vergeigt' (System unsicher) über 'unglückliche Verkettung von Umständen' bis hin zu 'der Fahrer hatte die Verantwortung' kann alles herauskommen.
Aus meiner Sicht ist die Hohe Verschuldung von Tesla und die noch anstehenden Investitionen (alles über Fremdkapital oder doch nochmal eine Kapitalerhöhung?) ein Problem für Tesla.
Die kleine Produktpalette könnte da schon für eine Art k.O Schlag sorgen. Wenn nur ein größerer/ gravierender Fehler am Model 3 ist, dann verschieben sich die Lieferzeiten noch weiter, aber Tesla braucht dringend frisches Geld.
Ach ich vergaß, am Model 3 wird ja auch nichts verdient...
Durch eine Art Größenwahn kann Musk sehr schnell wieder alles verspielen.
Wer zu schnell Alles will, steht am Ende mit leeren Händen da.
Meine Meinung.
M.E. richtig wäre, wenn das immer (!) der Fahrer entscheiden muss, und bei jeder Fahrt gezwungen wird diese Entscheidung auf's Neue zu treffen - indem er sie bewusst einschaltet (Opt-in).
Ich würde sie wahrscheinlich nur im Stau und zähflüssigen Verkehr nutzen wollen. Weil das die Zeiten sind, in denen mich Autofahren (wenn man das so bezeichnen will) nervt. Bei freiem Verkehr fahre ich lieber selber.
Ich denke aber, dass ein Teil der Bevölkerung durchaus mutiger ist. Was ja ok ist, wenn die Haftungsfragen geklärt sind, und wenn ich eben dieses nicht machen muss.
- wer entscheidet in moralisch fragwürdigen Situationen (Hindernis ausweichen - links Kind, rechts alter Mensch, oder rauf auf Hindernis?) ? Der Algorithmus? Nach welchen Regeln, Priorität Fahrer/Insassen schützen, oder unbeteiligte Dritte (Fußgänger)?
Das ist die Nebelkerze schlechthin, da ja der Mensch im Zweifelsfall immer sich selbst zuerst rettet und dafür auch tote Kinder in Kauf nimmt. (Aktuell ertrinken massenhaft Kinder im Mittelmeer, anstatt gerettet zu werden, den meisten ist das total egal, da die dann uns nichts wegnehmen können)
Warum also sollte irgendein Algorithmus überhaupt auf Moral oder Empathie achten, er soll den Fahrer retten, das ist alles. Moral ist für die Kirche, da betet man weil das nichts kostet und ein gutes Gefühl schafft. Danach gehts dann auf die Piste mit 200+ lol
... Falschmeldungen:
"Der 62 Jahre alte Fahrer und Besitzer des Lastwagens sagte, der Mann hinter dem Lenkrad des Unglückswagens habe zum Unfallzeitpunkt einen Harry-Potter-Film auf dem Fernsehbildschirm geschaut und sei sehr schnell unterwegs gewesen. Tesla erklärte jedoch, dass es nicht möglich sei, Videos auf dem Touchscreen des Modells S abzuspielen.
Der Tote war ein früherer langjähriger Navy Seal und Gründer einer IT-Firma. Im April noch hatte er das Autopilotsystem gelobt, nachdem es nach seinen Angaben einen Unfall mit einem Lastwagen auf einer Schnellstraße verhindert hatte. Er stellte damals ein Video von dem Vorfall online, berichtet die Nachrichtenagentur AP. Der Tesla S sei "das beste Auto, das ich jemals besessen habe", schrieb er."
Keine Ahnung, wieso der LKW Fahrer wissen können soll, was der Fahrer vor dem Unfall getan hat - aber es wird dennoch im Artikel verwendet. Faszinierend.
M.E. richtig wäre, wenn das immer (!) der Fahrer entscheiden muss, und bei jeder Fahrt gezwungen wird diese Entscheidung auf's Neue zu treffen - indem er sie bewusst einschaltet (Opt-in).
Ok, dazu muss dann aber auch die bewusste Entscheidung des Fahrers gehören, dass er per Opt-In im Zweifelsfall für Unbeteiligte sein Leben opfert. So viel Moral muss sein.
Wenn er allein fährt, kann er machen was er will, im Zweifelsfall entscheiden dann die Gerichte, wenn er jemanden totfährt.
börsianer1 : Tja, das dürfte dem Kurs gar nicht guttun
Unglaublich, dass Autofahren mit einem Tesla ohne menschliche Kontrolle überhaupt möglich ist
Wie kommst Du auf das schmale Brett das ein Fahrer im Tesla keine Kontrolle über sein Fahrzeug hat? Der Autopilot deaktiviert weder Lenkung noch Pedale. Alles kann jederzeit von Fahrer bedient werden.