Tesla Model S 22-Jun-2012 die CHANCE


Seite 549 von 3485
Neuester Beitrag: 18.11.24 14:02
Eröffnet am:24.05.12 10:29von: UliTsAnzahl Beiträge:88.109
Neuester Beitrag:18.11.24 14:02von: UliTsLeser gesamt:15.830.454
Forum:Börse Leser heute:8.074
Bewertet mit:
89


 
Seite: < 1 | ... | 547 | 548 |
| 550 | 551 | ... 3485  >  

14454 Postings, 7681 Tage inmotionDas war wohl eine Beta Vers.

 
  
    #13701
1
01.07.16 08:27
der Software und der Fahrer hätte unbedingt die Hände am Steuer lassen sollen.

Trotzdem muss das System einspringen!  

27774 Postings, 4646 Tage Otternase@michimunich

 
  
    #13702
2
01.07.16 08:27
Es wird eben auch für die besten Systeme immer Grenzfälle geben, in denen sie kaum richtig 'sehen' können. Ob das nun ungewollte Tarnkappeneigenschaften sind, oder gewollte Täuschungsszenarien, ein Restrisiko bleibt immer.

Auch unser Sehapparat kann leicht getäuscht werden: siehe Foto
http://www.spiegel.de/einestages/dazzle-schiffstarnung-a-947385.html

Keine Ahnung, ob Teslas, Daimlers und Googles Algorithmen sich davon täuschen lassen würden. Auch wir würden, den richtigen Hintergrund vorausgesetzt, mehrfach hinsehen.

Das war ja einer der Gründe, weswegen mir autonomes Fahren Umbehagen bereitet. die letzte Kontrolle sollte immer der Mensch selber haben. Und es gab ja sogar Überlegungen (Tesla? Google? Bin nicht sicher) das Lenkrad bzw. jegliche Steuermöglichkeit komplett wegzulassen. Spätestens jetzt wäre diese Entscheidung nach hinten losgegangen - was absehbar war

Wenn ich das richtig verstanden habe, hat Tesla zumindest formell richtig gehandelt, und die Behörden selber informiert. Im Vergleich zu einigen anderen Auto Konzernen in der Vergangenheit wurde nicht zu vertuschen versucht - eine gute Entscheidung nicht der Versuchung zu erliegen. Alles andere wäre fatal gewesen.

Nun muss von den Behörden ermittelt werden.  
Angehängte Grafik:
image.jpeg (verkleinert auf 60%) vergrößern
image.jpeg

27774 Postings, 4646 Tage OtternaseZieht jedenfalls riesige Kreise

 
  
    #13703
1
01.07.16 08:31

Alle berichten darüber, bei der Süddeutschen gerade die meistgelesene Story. Man kann zumindest nicht behaupten, dass Tesla unbekannt wäre.

http://www.sueddeutsche.de/auto/...opilot-war-eingeschaltet-1.3058278

"Autopilot ausgeschaltet
Die Autopilot-Funktion ist standardmäßig ausgeschaltet. Tesla-Chef Elon Musk hatte in Vergangenheit öfter erklärt, dass es sich um eine Betaversion handelt. Die Fahrer werden dazu aufgefordert, das Lenkrad nicht loszulassen. "Der Autopilot wird zunehmend besser, aber er ist nicht perfekt und bedarf eines Fahrers, der aufmerksam ist", heißt es im Blogbeitrag."

Und das steht bei Tesla im Blog:

https://www.teslamotors.com/blog/tragic-loss

 

14454 Postings, 7681 Tage inmotionOtternase

 
  
    #13704
1
01.07.16 08:32
Wenn ich das richtig verstanden habe, hat Tesla zumindest formell richtig gehandelt, und die Behörden selber informiert. Im Vergleich zu einigen anderen Auto Konzernen in der Vergangenheit wurde nicht zu vertuschen versucht - eine gute Entscheidung nicht der Versuchung zu erliegen. Alles andere wäre fatal gewesen.

.........

Was ist daran positiv?
Erstens ist es Pflicht...
Zweitens nur eine Frage der Zeit bis es publik wird....

Wie hier wieder schön geschrieben wird....

Aus gutem Grund sind die deutschen Autobauer noch nicht aktiv.....
 

14454 Postings, 7681 Tage inmotionTesla

 
  
    #13705
2
01.07.16 08:34
es geht primär nicht um Tesla sondern um einen Hersteller der ein offenbar nicht ausgereiftes System in den Markt bringt.  

Das kann teuer werden..................  

27774 Postings, 4646 Tage Otternase@inmotion wird doch erkannt

 
  
    #13706
01.07.16 08:40

"It is important to note that Tesla disables Autopilot by default and requires explicit acknowledgement that the system is new technology and still in a public beta phase before it can be enabled. When drivers activate Autopilot, the acknowledgment box explains, among other things, that Autopilot “is an assist feature that requires you to keep your hands on the steering wheel at all times," and that "you need to maintain control and responsibility for your vehicle” while using it. Additionally, every time that Autopilot is engaged, the car reminds the driver to “Always keep your hands on the wheel. Be prepared to take over at any time.” ---> The system also makes frequent checks to ensure that the driver's hands remain on the wheel and provides visual and audible alerts if hands-on is not detected. It then gradually slows down the car until hands-on is detected again.<---"

Letztendlich kennt jeder von uns Situationen, in denen er durch ungünstige Sichtverhältnisse unversehends und für Sekunden im Blindflug unterwegs war. Sei es, dass man durch die Sonne geblendet ist, oder dass Regen, Nebel oder Schnee einem die Sicht nehmen.

Stichwort 'Handy am Steuer' - wer hat das nie gemacht, 'kurz' mal auf die SMS schauen - und in dieser Zeit legt man mitunter 50m im Blindflug zurück.

Wenn das System keine eklatanten Bugs hat, wovon ich ausgehe, denn sonst hätte es deutlich früher schon schlimme Unfälle gegeben, dann dürfte das zwar viel Medienaufmerksamkeit geben, aber die Untersuchung dürfte folgenlos bleiben. Restrisiko.

Wie gesagt: wichtig und richtig war, dass Tesla selber das gemeldet hat, keinerlei Vertuschungsversuche.

Vermute ich.  

27774 Postings, 4646 Tage Otternase@inmotion

 
  
    #13707
01.07.16 08:48

Ja, klar ist das Pflicht, aber erinnere Dich an die Rückrufaktionen wegen gerissener Sicherheitsgurte bei den großen Wettbewerbern (nach x Todesfällen) - und an Teslas Vorgehen (proaktiv).

Zurzeit ist Toyota mit Millionen Autos wieder dran. Zum zweiten Mal.

Und, weil Du das gleich zweimal in den Ring geworfen hast: ganz offensichtlich bemerkt die Software, ob die Hände am Steuer waren, und regelt die Geschwindigkeit ansonsten herunter.

" The system also makes frequent checks to ensure that the driver's hands remain on the wheel and provides visual and audible alerts if hands-on is not detected. It then gradually slows down the car until hands-on is detected again. "

Aus dem Tesla Blog.

Nix wird 'schöngeschrieben'. Es ist andererseits erschreckend, wie Du Tesla bereits vorverurteilst obwohl die Umstände unklar sind.

Btw: wurde hier nicht immer betont, dass andere das schon längst testen würden, teils mit LKWs? ;-)

"Aus gutem Grund sind die deutschen Autobauer noch nicht aktiv....."

Sie sind aktiv, und WernerGg wird Dir gerne erklären, dass es diese Assistenzsysteme schon seit Generationen gibt.

Also: Ball flach halten, der Unfall ist schlimm genug, um durch voreilige Schlüsse Profit ziehen zu wollen. Sinnloses Bashing bringt niemandem etwas.  

17478 Postings, 4335 Tage börsianer1Tja, das dürfte dem Kurs gar nicht guttun

 
  
    #13708
1
01.07.16 08:55
Unglaublich, dass Autofahren mit einem Tesla ohne menschliche Kontrolle überhaupt möglich ist.

Gut, dass der Fahrer selbst das Opfer von Musk wurde und nicht ein Kind oder eine unschuldige Oma.  

10260 Postings, 3528 Tage MissCashWer sich auf diesen Autopiloten blind

 
  
    #13709
1
01.07.16 08:56
verlässt, ist eigentlich selbst schuld. Nur ticken die Amis eben anders ... die Top-Anwälte reiben sich jetzt sicher schon die Hände ...
 

Optionen

1408 Postings, 3653 Tage DocIngwerBeta...

 
  
    #13710
2
01.07.16 08:58
Ich bin ja ebenfalls ein Teslafan und klar auch weiterhin. MIt Fahrassistenten fahre ich seit mehreren Jahren fast 140.00 km gerne und täglich (bis der reserv. Tesla-3er da ist: Passat CC) - ein enormer Gewinn an Nervenschonung nach Schlaganfall vor vier Jahren und an Sicherheit.  DER Fehler von Tesla ist es, eine Assistentenfunktion gleich als Autopilot zu deklarieren (hatten wir ja hier schon mal... ) Es soll auch Leute geben, die eine BDA nicht lesen können (Hände ans Lenkrad!...) oder noch schlimmer, nicht lesen wollen. Der gute E. M. muss auch mit solchen Zeitgenossen rechnen. Ich finde, (solche unbedarften..) Fahrer im gefährlichen Straßenverkehr zu Beta-Testern machen:  Das ist ein No Go. Da, wo Gefahren vorliegen, geht das nicht. Das ist zu kurz gedacht.
 

27774 Postings, 4646 Tage OtternaseUnabhängig davon ...

 
  
    #13711
01.07.16 08:59

... wird das sicher die Diskussion über selbstfahrende Autos, und deren moralische Dimension befeuern.

Die Fragen, die sich eben in diesem Zusammenhang stellen:

- wer hat die Verantwortung / Haftung über das Fahrzeug? Immer der Fahrer - trotz Software Bugs ?
- wie weit geht die Verantwortung der Hersteller? Bugs bekannt/Pflicht diese auszurollen/wie schnell? Was, wenn das nicht passiert?
- wer entscheidet in moralisch fragwürdigen Situationen (Hindernis ausweichen - links Kind, rechts alter Mensch, oder rauf auf Hindernis?) ? Der Algorithmus? Nach welchen Regeln, Priorität Fahrer/Insassen schützen, oder unbeteiligte Dritte (Fußgänger)?

Vielleicht geht der aktuelle Ansatz (Fahrer hat immer Verantwortung) zu weit?

Es war abzusehen, dass mit dem ersten Todesfall so eine Diskussion einsetzen wird, nun wird es spannend.  

3656 Postings, 3331 Tage fränki1War nur eine Frage der Zeit

 
  
    #13712
1
01.07.16 09:00
mit dem ersten Toten.
Und schuld ist vor allem dieses realitätsfremde Geschwätz vom autonomen Fahren.
Der Tesla kann da nicht mehr, als die anderen auch. Es sind die ersten Ansätze, aber nicht mehr.
Das schlimme an der Sache ist, dass nun der tödliche Unfall auch noch dem Konto der Elektromobilität zugeschrieben wird, was natürlich kompletter Unsinn ist.
Jetzt heißt es schon wieder, es wäre der erste Tote auf 200 Mill km beim autonomen Fahren.
Noch mal, bis heute ist noch kein Tesla nur einen einzigen km autonom im öffentlichen Straßenverkehr gefahren, es sei denn sein Fahrer hat eine strafbare Handlung begangen.
Was wäre, wenn das System nicht den LKW übersehen hätte, sondern zwei Kinder am Straßenrand ?
Ich glaube nicht, dass man sich dann bei einem amerikanischen Richter auf die Betaversion zurückziehen kann, mit der Begründung, das steht ja in der Bedienanleitung.
Das System würde seine Zulassung verlieren und den Rest kann man dann bei VW nachlesen.


 

Optionen

27774 Postings, 4646 Tage Otternase@börsianer1

 
  
    #13713
01.07.16 09:12

Danke für den hilfreichen Beitrag, aber woher weißt Du, dass der Tesla Fahrer nichtt die Hände am Lenkrad und die Kontrolle über das Fahrzeug hatte?

Wenn ich das richtig verstehe, siehe oben, prüft die Software regelmäßig, ob dir Hände am Lenkrad sind, und regelt ansonsten die Geschwindigkeit runter. Daraus erwachsen verschiedene mögliche Szenarien, wobei es wenig Sinn macht diese zu durchdenken. Die Daten liegen ja den Behörden vor.

Die m.E. wichtigste Frage wird die von michimunich sein, hätte die Radar Funktion das Fahrzeug nicht erkennen müssen? Im Zweifel hätte das System bremsen müssen. Oder hat der querstehende Anhänger das System irritiert, weil möglicherweise direkt davor der Weg frei war - aber eben nur bis zu einer gewissen Höhe? Vielleicht wurde das ja als 'Brücke' in größerer Entfernung eingeordnet - eine typische (optische) Täuschung.

Möglich ist Vieles. Das wird nun sehr genau geprüft.

Eines scheint aber recht wahrscheinlich zu sein: wenn nicht gerade noch die Sonne den Fahrer geblendet hat, hätte spätestens dieser das Hindernis bemerken, und bremsen müssen.

Den genauen Hergang werden wir sicher erfahren. Nicht nur, um die Schuldfrage klären zu können, was schon wichtig genug wäre, sondern auch um zu sehen, ob für die Auto Industrie grundsätzliche Konsequenzen erwachsen.

In einigen Wochen wissen wir mehr.  

14454 Postings, 7681 Tage inmotionEin Hersteller

 
  
    #13714
2
01.07.16 09:16
muss, insbesondere in den USA, für die Funktion und Sicherheit seines Produkts in jeder Situation garantieren.

Nicht umsonst gibt es ellenlange Warnhinweise für die User.

Ich behaupte das Tesla zu früh mit dem autonomen Fahren an den Markt gegangen ist.
Selbstüberschätzung / Ignoranz ? Vielleicht.

Da hilft kein Schöngerede.....

Wie gesagt das ist kein Tesla typisches Problem, aber Musk hat es mit
Vorsprung durch Technik
übertrieben......



 

336 Postings, 4708 Tage PseudonymAutopilot 8.0

 
  
    #13715
2
01.07.16 09:18
Teslas Autopilot Software 8.0 kommt demnächst.
Stück für Stück zum vollem autonomen Fahren.
Meine Meinung: Wenn es statistisch sicherer ist als selbst zu fahren sollte man es benutzen. Wenn ich mal einen Tesla fahre werde ich das mit absoluter Sicherheit nutzen. Unfälle wird es immer geben, nur mit Autopilot halt weniger.
 

3656 Postings, 3331 Tage fränki1@Otti

 
  
    #13716
1
01.07.16 09:19
Beim Radar kann es solche optischen Täuschungen gar nicht geben, denn die Entfernung wird über die Laufzeit des Signals (Echo) gemessen.
Schau dir mal eine Fledermaus an, da können wir noch eine menge lernen!!  

Optionen

27774 Postings, 4646 Tage Otternase@fränki1

 
  
    #13717
01.07.16 09:20

Ja, diese moralischen Fragen müssen praktikabel geklärt werden.

Ich empfinde die aktuelle Richtung (Fahrer hat Verantwortung) hinsichtlich der Unüberschaubarkeit der Möglichkeiten (Software, Bugs, Unfallszenarien, Konsequenzen) für zu kurz gedacht - man will das Thema 'abhaken'.

Das ist aber nicht so leicht abzuhaken, und so ein Unfall wie der aktuelle könnte das gut zeigen. Eine grundlegende, klärende Diskussion ist nötig, bevor die ersten 'autonomen' Fahrzeuge auf die Straße dürfen.

Fatalerweise träumt die Industrie bereits von autonomen LKWs - die Aus meiner Sicht erst als letzte dafür in Frage kämen, nämlich erst nachdem die Sicherheit des Systems (tja, welches System welches Herstellers eigentlich?) nachgewiesen wurde.

Solange Fälle publik werden, in denen mit wenig Aufwand remote in die Funktion von Fahrzeugen eingegriffen werden kann, bin ich bezüglich autonomer LKWs skeptisch. Das Thema Sicherheit / IT scheint im Automobilbau, mit wenigen Ausnahmen, bisher eine eher untergeordnete Rolle zu spielen.

 

27774 Postings, 4646 Tage Otternase@fränki1

 
  
    #13718
01.07.16 09:34

Im Prinzip richtig, aber an der Umsetzung kann es zu Fehlern kommen.

Beispielsweise, wenn das System nur die Ergebnisse bis zu einem halben Meter Höhe voraus auswertet - und da könnte bei einem Anhänger durchaus auf einigen Metern Breite die Sicht frei gewesen sein. Aus der tiefen Perspektive könnte das mit einer weiter entfernten Brücke durchaus verwechselt worden sein, je nachdem, wie die Prioritäten der einzelnen Sensoren als Gesamtheit gewertet werden.

Der Wagen scheint ja, so verstand ich den Unfallhergang, versucht zu haben ungebremst unter dem Anhänger durchzufahren.

Anhänger quer - bedeutet direkt davor evtl. freie Sicht.
Weiche Farbe des Anhängers - Interpretation als Wolke / Himmel?
Sichtbare Elemente - mögliche Brücke?
Eine ungünstige Priorisierung der SSteme - welches entscheidet in letzter Instanz über die Notbremsung - eines, Mehrzahl, alle?

Die Entwickler könnten den Bereich vor dem Auto für die Auswertung zu klein gewählt haben - oder aber es gab kein eindeutiges Signal (Weg frei oder nicht frei?) und dieser Fall im System war nicht vorgesehen, oder, oder, oder.

Und, falls die Reaktion des Fahrers ebenfalls einbezogen wird, ein Fahrer, der nicht reagiert?

Wie gesagt: Vieles ist denkbar.

Von 'Tesla hat es vergeigt' (System unsicher) über 'unglückliche Verkettung von Umständen' bis hin zu 'der Fahrer hatte die Verantwortung' kann alles herauskommen.  

436 Postings, 4149 Tage Tron2505Tesla

 
  
    #13719
1
01.07.16 09:35
dass eine Kamera lichtempfindlich reagieren kann ist uns doch allen schon länger klar..hat die Kamera denn auch bei einer Tunnelausfahrt Probleme? Also für mich kann das nicht die Erklärung sein....Es gibt ja auch mit Sicherheit ein Abstandsradar oder einen Front Assistenten mit automatischen Bremssystem? mein Seat Leon Cupra 5F hat dies und ja, auch er kann mit Spurhalteassistent auf einer Autobahn fahren, ohne das ich lenken, bremsen oder beschleunigen muss...einfach Magic...



Aus meiner Sicht ist die Hohe Verschuldung von Tesla und die noch anstehenden Investitionen (alles über Fremdkapital oder doch nochmal eine Kapitalerhöhung?) ein  Problem für Tesla.
Die kleine Produktpalette könnte da schon für eine Art k.O Schlag sorgen. Wenn nur ein größerer/ gravierender Fehler am Model 3 ist, dann verschieben sich die Lieferzeiten noch weiter, aber Tesla braucht dringend frisches Geld.
Ach ich vergaß, am Model 3 wird ja auch nichts verdient...
Durch eine Art Größenwahn kann Musk sehr schnell wieder alles verspielen.
Wer zu schnell Alles will, steht am Ende mit leeren Händen da.

Meine Meinung.  

27774 Postings, 4646 Tage Otternase@Pseudonym

 
  
    #13720
01.07.16 09:39

M.E. richtig wäre, wenn das immer (!) der Fahrer entscheiden muss, und bei jeder Fahrt gezwungen wird diese Entscheidung auf's Neue zu treffen - indem er sie bewusst einschaltet (Opt-in).

Ich würde sie wahrscheinlich nur im Stau und zähflüssigen Verkehr nutzen wollen. Weil das die Zeiten sind, in denen mich Autofahren (wenn man das so bezeichnen will) nervt. Bei freiem Verkehr fahre ich lieber selber.

Ich denke aber, dass ein Teil der Bevölkerung durchaus mutiger ist. Was ja ok ist, wenn die Haftungsfragen geklärt sind, und wenn ich eben dieses nicht machen muss.  

17478 Postings, 4335 Tage börsianer1Moral Empathie

 
  
    #13721
01.07.16 09:39

- wer entscheidet in moralisch fragwürdigen Situationen (Hindernis ausweichen - links Kind, rechts alter Mensch, oder rauf auf Hindernis?) ? Der Algorithmus? Nach welchen Regeln, Priorität Fahrer/Insassen schützen, oder unbeteiligte Dritte (Fußgänger)?

Das ist die Nebelkerze schlechthin, da ja der Mensch im Zweifelsfall immer sich selbst zuerst rettet und dafür auch tote Kinder in Kauf nimmt. (Aktuell ertrinken massenhaft Kinder im Mittelmeer, anstatt gerettet zu werden, den meisten ist das total egal, da die dann uns nichts wegnehmen können)

Warum also sollte irgendein Algorithmus überhaupt auf Moral oder Empathie achten, er soll den Fahrer retten, das ist alles. Moral ist für die Kirche, da betet man weil das nichts kostet und ein gutes Gefühl schafft. Danach gehts dann auf die Piste mit 200+ lol 



 

27774 Postings, 4646 Tage OtternaseJetzt beginnt dir Zeit der ...

 
  
    #13722
01.07.16 09:43

... Falschmeldungen:

"Der 62 Jahre alte Fahrer und Besitzer des Lastwagens sagte, der Mann hinter dem Lenkrad des Unglückswagens habe zum Unfallzeitpunkt einen Harry-Potter-Film auf dem Fernsehbildschirm geschaut und sei sehr schnell unterwegs gewesen. Tesla erklärte jedoch, dass es nicht möglich sei, Videos auf dem Touchscreen des Modells S abzuspielen.

Der Tote war ein früherer langjähriger Navy Seal und Gründer einer IT-Firma. Im April noch hatte er das Autopilotsystem gelobt, nachdem es nach seinen Angaben einen Unfall mit einem Lastwagen auf einer Schnellstraße verhindert hatte. Er stellte damals ein Video von dem Vorfall online, berichtet die Nachrichtenagentur AP. Der Tesla S sei "das beste Auto, das ich jemals besessen habe", schrieb er."

Keine Ahnung, wieso der LKW Fahrer wissen können soll, was der Fahrer vor dem Unfall getan hat - aber es wird dennoch im Artikel verwendet. Faszinierend.
 

27774 Postings, 4646 Tage OtternaseOh ... stand in der Welt

 
  
    #13723
01.07.16 09:43

17478 Postings, 4335 Tage börsianer1Nur teilweise richtig

 
  
    #13724
01.07.16 09:50

M.E. richtig wäre, wenn das immer (!) der Fahrer entscheiden muss, und bei jeder Fahrt gezwungen wird diese Entscheidung auf's Neue zu treffen - indem er sie bewusst einschaltet (Opt-in).

Ok, dazu muss dann aber auch die bewusste Entscheidung des Fahrers gehören, dass er per Opt-In im Zweifelsfall für Unbeteiligte sein Leben opfert. So viel Moral muss sein.

Wenn er allein fährt, kann er machen was er will, im Zweifelsfall entscheiden dann die Gerichte, wenn er jemanden totfährt.


 

169 Postings, 3927 Tage Shea@ börsianer1 #13708

 
  
    #13725
2
01.07.16 10:25

börsianer1 : Tja, das dürfte dem Kurs gar nicht guttun

Unglaublich, dass Autofahren mit einem Tesla ohne menschliche Kontrolle überhaupt möglich ist…

Wie kommst Du auf das schmale Brett das ein Fahrer im Tesla keine Kontrolle über sein Fahrzeug hat? Der “Autopilot“ deaktiviert weder Lenkung noch Pedale. Alles kann jederzeit von Fahrer bedient werden.

 

Optionen

Seite: < 1 | ... | 547 | 548 |
| 550 | 551 | ... 3485  >  
   Antwort einfügen - nach oben