Tesla Model S 22-Jun-2012 die CHANCE
http://www.handelsblatt.com/panorama/...ut-einen-unfall/13034208.html
"Nicht das erste sondern das 18. Mal ;-) "
Nein, das erste Mal wo das Auto schuld war. Nach sechs Jahren und Abermillionen Kilometern. Im übrigen ist gar nichts passiert und die Situation war so verwirrend, dass auch der Testfahrer sie nicht verstanden hat, obwohl das Auto mit Fußgängergeschwindigkeit unterwegs war.
Hat jemand erwartet, dass autonome Fahrzeuge NIE einen Unfall bauen werden - noch dazu im derzeit immer noch frühen Entwicklungsstadium? Das wäre ziemlich albern. Es ist nur eine Frage der Zeit bis es mal richtig knallt. Auch mit Toten. Kann jede Minute passieren. Und?
"..ja ich denke hier ist noch einiges an Forschung und Enwticklung zu investieren..:"
Ja, natürlich. Deshalb glauben ja alle vernünftigen Leute, dass es noch zehn Jahre oder so dauern wird bis Autos wirklich autonom fahren können. Alle außer Musk natürlich, der behauptet, das in zwei Jahren zu können (Summon): Einen Tesla völlig autonom und fahrerlos von New York nach Los Angeles rufen zu können (Hihi).
... sondern einfach mal so stehen lassen? ;-)
Dieses ist der erste Fall, in dem Google klar eine Mitschuld einräumt. Wir wissen nicht, wie oft ähnliche Situationen durch den Fahrer ausgeräumt wurden.
Das verblüffende ist m.E., dass der Unfall TROTZ (!) niedriger Geschwindigkeit passiert ist - man sollte eigentlich davon ausgehen, dass das Google Auto dadurch ausreichend Zeit hatte, um zu reagieren. Worst case also selber ERKENNT, dass es keine Lösung gibt, und eben anhält. Es scheint also ganz klar um eine Art von logischem Programmierfehler zu handeln, d.h. der Lösungsraum war zu eng gewählt, so dass der Computer falsch (oder gar nicht?) entschieden hat, oder gar entscheiden musste.
Bisher fahren die Autos ja nicht durch New York/LA etc, wo es etwas wuseliger zugeht.
Ein ähnlicher Fehler in gefährlicherer Situation, und das Vertrauen wäre dahin.
Du würdest wahrscheinlich ganz anders darüber reden, wenn ein Mensch zu Schaden gekommen wäre UND wrnn das Tesla passiert wäre. Von wegen Totmann Schaltung und so - aber da es nicht um Tesla, sondern um Google geht, geht Deine Kritik gegen Null?
Bisher war ja die Aussage, dass es ein Plus an Sicherheit geben soll - aber zumindest in diesem Fall waren beide überfordert: Googles Software und der Fahrer. Und ohne Plus an Sicherheit ist der komplexe Ansatz von Google gescheitert.
Nur mal so für Dich: Google fährt den Ansatz, dass im Endzustand KEIN Fahrer eingreifen können soll, d.h. kein Lenkrag, keine Bremse. Was wäre denn dann in einer unübersichtlichen Situation passiert, die >50 km/h geschehen wäre? Ganz klar: ich würde wohl nur sehr ungern erneut in so ein Gefährt einsteigen. Mein Vertrauen wäre dahin.
Wie gesagt: kann passieren, aber wäre das Tesla passiert, würdest Du ganze Einbände über die schlechte Sicherheit zum Besten geben. Bei Google erlegst Du Dir selber Scheuklappen auf? Faszinierend. ;-)
By the way: die meisten Kilometer hat Google mit seinem Gefährt bisher in Situationen zurückgelegt, in denen es auch bei menschlichen Fahrern extrem wenige Unfälle gibt. Sprich: die 'millionen' Kilometer sagen wenig aus, weil sie auf Autobahnen und Landstraßen zurückgelegt wurden. Da sind mnschliche Fahrer statistisch aber ebenfalls Millionen Kilometer unterwegs, bevor ein Unfall passiert.
Ich han das für Dich mal aus dem aktuellen Spiegel herausgesucht: "... "Der Roboter muss mindestens so gut sein wie der menschliche Fahrer." Und das ist noch immer eine enorme Aufgabe, denn statistisch deschieht auf deutschen Autobahnen nur alle 12,3 Millionen Kilometer ein schwerer Unfall mit Personenschaden." Wohl gemerkt: Autobahn ist noch die einfachste Übung.
Also: einfach mal die Scheuklappen gegenüber Google ablegen, und kritisch sein, wo es gerechtfertigt ist - oder eben bei anderen Konzernen weniger zetern.
Und, ich bin nicht ganz sicher, aber Musk will eben nicht den Fahrer zu 100% ersetzen, denn sein Konzept lautet wohl eher nicht, dass der Fahrer keine Eingriffsmöglichkeit haben darf. Google will dem
Auto 100% Kontrolle geben, ohne dass der Fahrer eingreifen kann. Kein Lenkrad, nix.
Das könnten die 3-5% Restrisiko sein, die so ein Projekt am Ende ad absurdum führen. Denn sollte es tatsächlich dann einen Unfall geben, dürfte kein Mensch 'entspannt' in so einem Auto sitzen - wer 100% Sicherheit verspricht, der muss auch 100% Sicherheit bieten.
Und Tesla scheint eben den Fahrer weiterhin einbinden zu wollen.
Man wird sehen, wessen Konzept am Ende besser aussehen wird. Meine Entscheidung steht bereits jetzt fest - ich habe in mich ein größeres Vertrauen, als in ein von Programmierern gelenktes Fahrzeug - aber vielleicht ändere ich meine Meinung, wenn ich auf die 80 zugehe. :-)
Oder anders gesagt: sollte es dann tatsächlich mal eine Bug geben, der bei allen Google Fahrzeugen vorkäme, stünden die Fahrzeuge komplett und alle still - hingegen ein Tesla eben manuell gesteuert würde.
Du kannst Dir ja ausmalen, was das für eine Großstadt bedeuten würde, denn das ist die Zielrichtung von Google.
Natürlich kann Google irgendwann einlenken und doch ein Lenkrad (eine manuelle Steuernöglichkeit) ins Konzept einpflegen, aber erstens wären dann ale bisherigen Ergebnisse wenig vergleichbar, und zweitens wäre das bereits eine Art von Scheitern des Projektes. Das wäre der Beweis, dass die Risiken überwiegen würden.
Am Ende könnten die Hürden zu hoch sein, und 'Innovation' hin oder her - die Zielsetzung zu ambitioniert gewesen sein.
Alles möglich. Mich wundert eher Deine Kritik gegenüber Musk - bei gleichzeitig hohem Vertrauen Google gegenüber. Und das, obwohl Musk bisher geliefert hat, und Google gleich in Reihe Projekte angekündigt hat, aber damit gescheitert ist.
The plant seemed more evolved since we were there in mid-2014 . . . more organized and automated,” Credit Suisse analyst Dan Galves wrote in a research note Sunday.
und weiter:
...the company sees potential for substantial production cost declines” and “the CFO clearly sees operating leverage and cash burn reduction as top priorities in 2016.”
Tesla entwickelt sich weiter und verbessert interne Abläufe.
http://www.investors.com/news/technology/...src=AURLLED&ven=yahoo
Aller Anfang ist eben nicht leicht, gerade für einen Autohersteller, deshalb ist und bleibt mein Standpunkt mittel- bis langfristig unverändert positiv.
Das Tesla mit dieser "Funktion" steht oder fällt ist Schwachsinn, zumindest macht es den Anschein bei manchen Diskussionen, das allein davon die Zukunft des Autopioniers abhängt.
Dieses u.a. Ziele sind Visionen die Menschen wie u.a. Elon Musk antreiben, gut so für die Branche.
Wer hätte in den 60ger Jahren gedacht das heute Flugzeuge nahezu vollautomatisch fliegen "können"...?
Am autonomen Fahren wird nicht der Erfolg eines/dieses Unternehmens gemessen.
Wichtig ist doch aktuell das E-Fahrzeug weiter zu entwickeln und massentauglich auf den Märkten zu etablieren und daran werden alle Hersteller, allenvoran Tesla, gemessen
werden.
Das sollte die Basis unserer Diskussion sein, das ist real und gegenwärtlich.
Kein Mensch, zumindest ich, will sich vollständig autonom Fahren lassen...das ist weite Zukunftsmusik auf dessen Weg noch viele hohe Hürden erklommen werden müssen.
Also lasst die Techniker, Ingenieure und Entwickler ihre Arbeit machen und wir werden sehen wo sich das wirklich "autonome Fahren" hin entwickelt.
Wer weiß wie in 20 Jahren der Straßenverkehr aussieht?
Meine Meinung.
Das wird in den nächsten jahren der bringer von der finanziellen seite werden,
mit den speichern für solaranlagen werden in immer mehr ländern verträge abgeschlossen.
Ich habe die aktie selber nicht sondern handel nur mit zertis bei tesla und dort mit knock-outs seit dem 10.02.
Ist natürlich nur meine persönliche meinung und soll nicht zum handeln auffordern.
"Dieses ist der erste Fall, in dem Google klar eine Mitschuld einräumt."
Ja.
"Wir wissen nicht, wie oft ähnliche Situationen durch den Fahrer ausgeräumt wurden."
Doch. Diese Zahlen wurden erst neulich von Google veröffentlicht. Ziemlich viele.
"Das verblüffende ist m.E., dass der Unfall TROTZ (!) niedriger Geschwindigkeit passiert ist - man sollte eigentlich davon ausgehen, dass das Google Auto dadurch ausreichend Zeit hatte, um zu reagieren. Worst case also selber ERKENNT, dass es keine Lösung gibt, und eben anhält. Es scheint also ganz klar um eine Art von logischem Programmierfehler zu handeln, d.h. der Lösungsraum war zu eng gewählt, so dass der Computer falsch (oder gar nicht?) entschieden hat, oder gar entscheiden musste."
Ja. Allerdings hat der Testfahrer dann auch einen ähnlichen Programmierfehler.
"Ein ähnlicher Fehler in gefährlicherer Situation, und das Vertrauen wäre dahin."
Also meines nicht. Weil ich bisher sowieso nur sehr begrenztes Vertrauen in (teil)autonome Fahrzeuge habe. Was kein Vorwurf ist, sondern einfach Stand der Technik. Und nichts daran ändert, dass das kommen wird, und die Computer Menschen hoch überlegen sein werden.
"Du würdest wahrscheinlich ganz anders darüber reden, wenn ein Mensch zu Schaden gekommen wäre ..."
Nein. Wieso? Das wird sowieso passieren. Das Wunder ist eher, dass es bisher nicht passiert ist.
"... UND wrnn das Tesla passiert wäre. Von wegen Totmann Schaltung und so - aber da es nicht um Tesla, sondern um Google geht, geht Deine Kritik gegen Null?"
Wenn es einem Tesla passiert wäre, während der Fahrer auf dem Rücksitz einen Film guckte: "Ja". Ansonsten: "Nein". Ich habe nichts gegen Teslas teilautonomes System bis auf das grob fahrlässige Weglassen des Totmannknopfs. Ausschließlich aus Marketing/Hype-Gründen. Was inzwischen ja ein wenig zurückgenommen wurde.
"Bisher war ja die Aussage, dass es ein Plus an Sicherheit geben soll - aber zumindest in diesem Fall waren beide überfordert: Googles Software und der Fahrer. Und ohne Plus an Sicherheit ist der komplexe Ansatz von Google gescheitert."
Das ist doch kompletter Unsinn. Ein Plus an Sicherheit heißt doch nicht, dass ein autonomes Fahrzeug NIE einen Unfall bauen darf, sondern nur, dass es statistisch weniger Unfälle als Menschen bauen soll. Daran ändert ein oder selbst ein paar Hundert Unfälle - auch mit Toten - doch rein gar nichts.
"Nur mal so für Dich: Google fährt den Ansatz, dass im Endzustand KEIN Fahrer eingreifen können soll, d.h. kein Lenkrag, keine Bremse. ..."
Ja. Das ist auch nur konsequent. Weil die permanente Überwachung des Fz durch einen Menschen natürlich nur eine Zwischenlösung, aber nicht der Endzustand sein kann. Das ist ja vollkommen nutzlos, sondern kontraproduktiv, gähnend langweilig und eher gefährlich. Lediglich der derzeitigen technischen und juristischen Unzulänglichkeit der Systeme geschuldet.
"... Was wäre denn dann in einer unübersichtlichen Situation passiert, die >50 km/h geschehen wäre? Ganz klar: ich würde wohl nur sehr ungern erneut in so ein Gefährt einsteigen. Mein Vertrauen wäre dahin."
Es hätte Tote gegeben. Und? Wieso wäre dann das Vertrauen dahin? Wir steigen doch alle immerzu als Beifahrer in irgendwelche Fahrzeuge (Autos, Züge, Flugzeuge, Schiffe) ohne die geringste Ahnung über die Fähigkeiten und den momentanen Zustands des Fahrers zu haben. Und manchmal, allerdings selten bringt der uns dann halt um. Was ist daran anders, wenn der Fahrer ein Computer ist, der aber im Mittel besser als ein Mensch ist?
"Wie gesagt: kann passieren, aber wäre das Tesla passiert, würdest Du ganze Einbände über die schlechte Sicherheit zum Besten geben. Bei Google erlegst Du Dir selber Scheuklappen auf? Faszinierend. ;-)"
Nochmal Nein. Siehe oben.
"Also: einfach mal die Scheuklappen gegenüber Google ablegen, und kritisch sein, wo es gerechtfertigt ist - oder eben bei anderen Konzernen weniger zetern."
Keine Ahnung, warum du das sagst. Weder habe ich Scheuklappen gegenüber Google, noch zetere ich über andere Konzerne.
Übrigens gibt es kein Auto von Google zu kaufen, auch keines mit (teil)autonomen Funktionen. Es gibt nur Testfahrten. Im Gegensatz zu Tesla et.al., deren teilautonome Serienfahrzeuge in großen Stückzahlen an Normalverbraucher verkauft werden, auf allen Straßen rumfahren und mehr (Tesla) oder weniger (alle anderen) so tun als ob sie das könnten
Oder dass die Strecke von NY nach LA 95% triviale Highways sind. Das Problem sind aber die anderen 5%. Auch wenn sie nur 1% wären, müsste das Auto in zwei Jahren unter allen Bedingungen vollkommen autonom fahren können (Schneestürme, Regen, Tag, Nacht, Sperrungen, Umgehungsstraßen, Ortsdurchfahrten, tausend Sachen). Beiläufig muss das Auto erst mal alleine aus seiner Garage mitten in NY raus und zu meiner Wohnung mitten in LA kommen. Nix Highway also. Daher redet Musk in dieser Sache (Summon von NY nach LA in zwei Jahren) kompletten Mist. Was er natürlich weiß. Vor allem aber weiß er, dass das in dieser Zeit niemals genehmigt wird, er also nie den Beweis antreten muss, also beliebigen Nonsense in die Welt setzen kann.
"Wichtig ist doch aktuell das E-Fahrzeug weiter zu entwickeln und massentauglich auf den Märkten zu etablieren "
Absolut richtig. "Autonomes Fahren", "Smartphone auf Rädern" und so Zeugs sind dagegen Zukunftsmusik oder Marketing-Gags.
"für das Model X in Deutschland sind raus:
Für das Signaturmodell von 159.000 bis 172.000"
Schick! Hast du auch Preise für die normalen Xe?
"für das Model X in Deutschland sind raus:
Für das Signaturmodell von 159.000 bis 172.000"
Ist nicht so tragisch. Sie werden ja noch 5.000 vom Staat geschenkt bekommen. Oder sollte man die Prämie für Tesla X (und S und BMW i8 und Porsche MissionE und den ganzen Unsinn) nicht einfach auf 50.000 oder so erhöhen?
"Ist nicht so tragisch. Sie werden ja noch 5.000 vom Staat geschenkt bekommen. Oder sollte man die Prämie für Tesla X (und S und BMW i8 und Porsche MissionE und den ganzen Unsinn) nicht einfach auf 50.000 oder so erhöhen?"
Schließlich wollen wir bis 2020 ja eine Million von den Dingern auf den Straße haben. Da muss man schon ein bisschen mehr als lächerliche 5.000 tun. Ob Tesla die Million wohl liefern kann? Warum nicht, wenn sie das Model-3 halbwegs vernünftig hinkriegen? Bisher will Musk in 2020 leider statt 50.000 in 2015 nur weltweit 500.000 Autos liefern, also viel zu wenig für DE. Aber er könnte doch einfach eine weitere Null dranhängen. So was macht er gerne.
Im Ernst:
Die Chancen stehen allerdings schlecht. Die Idee nach dem Roadster war ja, ein massentaugliches BEV zu bauen. Dann kam allerdings der S, Dual Drive, der X, ludicrous Mode, Falcon Wings und lauter so Marketing-Hype.
Noch viel ernster:
Warum genau kann VW eigentlich keinen Volks-E-Wagen bauen? Sind die irgendwie blöd bei VW? Wahrscheinlich schon, da sie bis heute nach 130 Jahren Entwicklung nicht mal einen brauchbaren Dieselmotor bauen können.
Und wieder im Spaß:
Glücklicherweise kann VW aber wenigstens ein 1500-PS-Monster (Bugatti Chiron) bauen. Das ist doch auch was wert. Unverständlicherweise bekommen die armen (EK 2,4 Mio netto) Käufer bisher keinerlei Subventionen vom Staat. Das ist ein Skandal. Wo das Auto doch das maximale Können deutscher Ingenieure eindrucksvoll demonstriert.
http://www.spiegel.de/auto/aktuell/...4-millionen-euro-a-1079887.html
"Der Bugatti hat noch einen weiteren Vorteil. Bei Vollgas kommt er auch nicht weiter als der Tesla. Da wird es wohl bald nicht nur Akkuanhänger, sondern auch Tankanhänger geben."
Genau! Oder einen Tanklaster als Compagnion zu verabredeten Zeiten auf der Autobahn. So wie Kampfjets in der Luft betankt werden.
Bugattis mit oder ohne Hänger werden wir leider extrem selten sehen. Teslas mit Hänger aber vielleicht schon. Das wird lustig. Vor allem, was diese Hänger dann wohl in 3,2s von 0 auf 100 machen werden. Ich freu mich schon auf die YouTube-Videos. Da können die Mädels dann mal zu Recht kreischen.
"Wichtig ist doch aktuell das E-Fahrzeug weiter zu entwickeln und massentauglich auf den Märkten zu etablieren "
Wir waren uns zwar eher selten einig, aber dein Beitrag war der wohl sinnvollste des ganzen Tages. Wenn nicht der einzig sinnvolle.
(BTW: Irgendwas müsste dem Google-Lexus doch auch passiert sein, wovon aber nie die Rede war. Oder haben seine Laser den Bus-Kotflügel zerstört? Das wäre dann beachtlich.)
Keine Ahnung, warum er das privat macht. Ich finde nicht, dass dieser Unfall irgendeine Bedeutung hat. Otternase findet ihn aber kriegsentscheidend.
Er schreibt: "Denk mal mit: mechanische Bremsen und die Software könnten entgegengesetzt reagiert haben - mit bekanntem Ergebnis."
Ich antworte: "Tut mir leid, du hast leider keinerlei Ahnung von der Größenordnung des Problems. Klar könnte deine Vermutung richtig sein. Oder eine Wespe hätte den Fahrer just in diesem Moment gestochen haben. Oder er hätte seine Freundin dabei gehabt, und die hätte ihm gerade einen geblasen als der Bus kam. Natürlich kann man sich allen Scheiß der Welt ausdenken."
Würde das eine oder andere irgendwas zum Thema "Autonomes Fahren" beitragen?
Hör mal, Du Genie: wenn Du Deine Scheuklappen pflegen möchtest, ist das Dein Ding. Aber wenn Du so einen Unfall, der das grundsätzliche Problem autonomen Fahrens aufzeigt, als Bagatelle abtust, und einerseits Google völlig unkritisch betrachtest - aber ständig über Musk ständig herziehst, weil er konkret sagt, was er für die Zukunft erwartet - dann ist das eben Deines Genies unwürdig.
Das zeigt, dass Du mit zweierlei Maß misst. Meine Aussage ist lediglich, dass Google am Ende eben durchaus zu ehrgeizig sein könnte, indem sie komplett auf Eingriffsmöglichkeiten durch den Fahrer/Passagier verzichten. Die Akzeptanz selbstfahrender Autos hängt eben von deren Sicherheit ab.
Ob Du das nun verstehen willst, oder kannst, das ist Dein persönliches Pech, und ist eher ein Zeichen Deiner geistigen Flexibilität - und natürlich Deiner Antipathien. ;-)