Mit Lisa Su und 7nm zum Next Horizon
;-)
Volumen ist nicht schlecht, aber es warten immer noch sehr Viele auf Zahlen, bevor sie entscheiden.
Klug ist also letztlich der, der weis was er tun will und es dann tut.
Es ist okay die Zahlen abzuwarten und dann zu entscheiden. Nicht jeder ist schon so lange dabei wie wir.
Ich verstehe auch jeden hier, der seine Hoffnungen im Zaun hält. Mäßigung ist nicht schlecht. Lieber positiv überrascht als völlig enttäuscht.
Für mich muss ich aber sagen, ich lehne eher zum Optimismus. Enttäuschen kann mich AMD nicht wirklich mehr. Denke schon lange nicht mehr kurzzeitig über AMD.
Wer sich noch erinnern kann, wir waren eine lange Zeit im "Gschissgröll". Da sind wir aber schon lange draussen, es scheint beim AMD Kurs schon sehr lange die Sonne. Zumindest für diejenigen die zu Fuß im Tal gestartet sind. Die Anderen müssen halt zahlen um mit der Seilbahn auf den Zwischengipfel zu kommen.;)
Nvidia hat mit Turing und der RTX Reihe mMn einen riesigen taktischen Fehler gemacht. Sie hätte die Radeon RDNA1 so richtig schlecht aussehen lassen können wenn sie die RT- und Tensorcores weggelassen und die Fläche anders befüllt hätten. Die bringen im Status Quo kaum etwas, kosten aber Fläche auf dem Chip. Stattdessen wollten sie ein Gimmik verkaufen um sich innovativ darzustellen, das abgesehen auf einer 2080ti wegen der Performanceeinbrüchen kaum verwendbar ist und ließen AMD auf dem Papier zu ihnen aufschließen.
Navi10 ist mMn eine 250 Karte, die Amd in Nvidia-Manier um 450 verkauft. Der einzige Grund, warum eine 5700XT leistungstechnisch zu einer 2070 aufgeschlossen hat ist Nvidias schwachsinnige Idee, ihre Fläche auf dem Chip für Raytracing zu verplempern anstatt eine klassische Weiterentwicklung auf Basis von Pascal zu betreiben. Navi10 RDNA1 auf 250mm2 würde gegen einen 450mm2 Pascal ohne RT-Cores und somit mehr Platz auf dem Chip kein Licht sehen.
Ampere auf 7nm wird auf einer Die Size von 500mm2 mit AMD den Boden aufwischen. Auf der Node hat Nvidia nämlich genug Platz auf dem Chip, sowohl die Leistung im klassischen Gaming als auch die RT-Cores ohne Performanceeinbrüche unterzubringen und dazu noch effizient zu sein. Wenn wir RDNA1 hernehmen, welche bei einer 5700XT auf 250mm2 rund 225Watt schluckt und bei einer Verdoppelung 500mm2 rund 450Watt verbrät, ist es kein Wunder das BigNavi (bezieht sich ja auf die Chipgröße) nicht mit RDNA1 kommen kann. Bei BigNavi rechne ich optimistischerweise mit 30% Effizienzgewinn und 15% IPC auf 500mm2, was rund 300Watt und die Leistung leicht unter einer 2080ti wäre.
Aber bis dahin ist Nvidia mit Ampere und einer 3080ti längst wieder weitergezogen und schlägt AMD wohl um 50% inkl. brauchbares Raytracing auf den 3070er und 3060er. AMD wird auf dem GPU Markt die nächsten 2 Jahre hinterherhecheln. mMn sind das keine guten Aussichten für GPUs bei AMD, aber bei CPUs und Server sieht es sehr sehr gut aus.
"welche bei einer 5700XT auf 250mm2 rund 225Watt schluckt und bei einer Verdoppelung 500mm2 rund 450Watt verbrät"... ohje.. und wenn ich ein auto habe was mit 100 PS 200 KM/H fährt fährt eins mit 200 PS 400 KM/H nech?...
"Sprich würden die RTX Chips kein Raytracing betreiben und Nvidia den Chip nur mit "normalen Computing Units" befüllen, wäre die RTX Generation auf 12nm dank der doppelten Die Size noch" um einiges Stromhungriger als AMDs Vega... Skalierung anywhere? ... btw hätte hätte Motorradkette...
NAVI verkauft sich gut...
NAVI XT gibt es ab 390€
"Navi10 RDNA1 auf 250mm2 würde gegen einen 450mm2 Pascal ohne RT-Cores und somit mehr Platz auf dem Chip kein Licht sehen"... blubb blubb
1080Ti ist 471 mm² groß... NAVI XT ist auf 1080Ti Niveau... "kein Land sehen"
"Der einzige Grund, warum eine 5700XT leistungstechnisch zu einer 2070 aufgeschlossen hat" ist weil die 2070 so grottig performt und AMD eine low- Midrangekarte mit ein wenig mehr Takt und Juice zu einer high Midrange/HIghendKarte bringen konnte. Wäre ja blöd wenn SIe es nicht machen würden für den doppelten Preis den sie dafür verlangen können...
High MIdrange
1. Skalierbarkeit: Amd hätte einen BigNavi RDNA2 längst veröffentlicht wenn sie mit einer 2080ti bei ähnlichem TDP gleichziehen könnten. Wäre gut für ihren Ruf und sie könnten bereits an einem Ampere Konkurrenten arbeiten anstatt sich stetig mit dem Anschluss an Nvidia beschäftigen zu müssen. Der einzige Grund, warum sie keinen BigNavi auf RDNA1 Basis rausbringen ist dass der Chip auf dieser Architekturbasis zu viel schlucken würde und sie ihren Ruf in der Fachpresse runieren würden. Der Sweetspot der RDNA1 Karten wurde mit der 5700XT so ziemlich ausgereizt. Jede Übertaktung geht mit einer überproportionalen TDP Erhöhung einher - siehe Übertaktungsversuche beim 5700XT. Die Vergrößerung des Dies um das Doppelte würde im Fall von RDNA1 ziemlich genau zu einer Verdoppelung der Leistung und des Verbrauchs führen, selbst wenn du das nicht wahrhaben willst. Wäre eine Skalierbarkeit bei RDNA1 gegeben, hätten sie nicht nur eine Karte (5700XT & non XT), sondern ein komplettes Line-Up im Highend-Bereich auf den Markt geworfen (z.b. 5800XT).
2. Die-Size: 1080Ti auf 14nm und mit ca 480mm2 ist ca 10% schneller als eine 5700XTauf 7nm auf 250mm2. Turing basiert auf 12nm, bringt RT und Tensor-Cores auf dieser Chip-Größe unter unter und schlägt mit einer 2070 Super eine 5700XT um durchschnittlich 5%, bei 15% weniger Leistungsaufnahme (185 Watt zu 225 Watt). Es ist daher nicht weit hergeholt zu sagen, dass wenn Nvidia keine RT und Tensor Cores hätte und auf der Fläche einfach zusätzliche Computing Units verwendet, Turing RDNA1 wohl mit 15%-20% schlagen würde - und das auf einer alten Node.
3. Preispunkt: Schön, dass du die Preispolitik von AMD verteidigst. Navi ist für seine Leistung trotzdem eine überteuerte Karte. Rein anhand der Die-Size von 250mm (ist die gleiche Chip-Größe wie Polaris) dürfte sie nicht mehr 250 kosten. Es gab vor Launch Überlegungen, sie die RX680 Reihe zu taufen. Dann hätte man aber marketingtechnisch schwer argumentieren können, warum ein Polaris-Nachfolger auf einmal das Doppelte kosten muss. Nur weil Nvidia den Markt schröpft, muss man dem nicht gleich tun. Beim CPU-Markt ist AMD preislich sehr aggressiv unterwegs und sind leistungstechnisch besser. Dein Argument, dass "AMD blöd wäre, würden sie das im GPU-Markt nicht tun", ist rein deine subjektive Auffassung, spiegelt aber sicherlich nicht AMDs Preispolitik im CPU-Markt wieder. Denn dass sie das anders können, haben sie gezeigt - und somit deine Theorie widerlegt.
Du brauchst mich übrigens nicht zitieren. Im Gegensatz zu dir weiß ich tatsächlich wovon ich rede und muss mich nicht auf dem Niveau eines Längenvergleichs mit AutoPS herablassen, um eine Materie leicht verständlich und zugänglich aufzubereiten.
https://www.anandtech.com/show/15032/...-update-10nm-hvm-7nm-on-track
GlobalFoundries kooperiert mit der Singapore University für das ReRAM-Projekt
https://www.anandtech.com/show/15034/...-university-for-reram-project
Auch wenn das absolute Halo-Produkt fehlt, lebt es sich für AMD im Midrange-Bereich ggfs ganz gut was Aufwand und Ertrag angehen. Und da zählt dann evtl. ein kleiner Die mehr, als absolutes Highend.
Fängt das nun wieder an mit dem "wenn Sie könnten hätten Sie längst!" Es ist sicherlich nicht so dass AMD unendlich Ressourcen hat, TSMC sicherlich auch nicht. Von den Kosten für ein 500mm² DIE auf 7nm brauchen wir hier sicher nicht zu streiten. Das hat nichts mit "wenn Sie wollten hätten Sie schon", das sind strategische Entscheidungen. Könnten Sie? Aber sicher doch. Wollten Sie? Nein.
"Der Sweetspot der RDNA1 Karten wurde mit der 5700XT so ziemlich ausgereizt" 5700XT ist über Ihrem Sweetspot.
"Die Vergrößerung des Dies um das Doppelte würde im Fall von RDNA1 ziemlich genau zu einer Verdoppelung der Leistung und des Verbrauchs führen" Nein würde es sicherlich nicht, "selbst wenn du es nicht wahrhaben willst". Skalierbarkeit bei RDNA1 ist gegeben, und ein 500mm² würde nicht 450 Watt verbrauchen... weil man den ganz einfach auf 300 Watt Deckeln würde, mit entsprechenden Spannungen und Taktraten, weswegen auch keine 100% Mehrleistung dabei rumkommen würden.
Man könnte sicherlich mit 30-40% Mehrleistung rechnen, was ungefähr auch dann 2080Ti Niveau ergeben würde. Umso geringer der Takt, desto höher die Effizienz.
"Im Gegensatz zu dir weiß ich tatsächlich wovon ich rede" mit dem was du gerade geschrieben hast widerlegst du das, weswegen ich den "Längenvergleich" genutzt habe um es einfach und verständlich auszudrücken.
"1080Ti auf 14nm und mit ca 480mm2 ist ca 10% schneller als eine 5700XT auf 7nm auf 250mm2" Hm ja, also bestätigst du nun meine Aussage, dass eine NAVI gegen einen Pascal auf 450mm² eben nicht "kein Land sehen würde"? Pascal ist nun mit 480mm² etwa 10% schneller, abhängig von den Spielen. Tendenz bei neueren Spielen geht klar zu Navi. Also wäre ein Pascal bei 450 ja noch langsamer, würden sich also noch mehr annähern.
Wenn NAVI überteuert ist für seine Leistung, ist die 2070 Super dann noch überteuerter. Die 2070 war genauso ein Preiskrüppel und trotzdem kauften die Leute Sie wie blöd. Wieso sollte AMD hier nicht ebenfalls einen adäquaten Preis verlangen für eine NAVI? Es geht nicht um die mm² sondern um die relative Performance zu dem jeweiligen Konkurrenzprodukt was gerade auf dem Markt ist.
Ich verteidige nicht die Preispolitik, sondern gebe nur wieder was für AMD sinnvoll wäre und ist, und letztendlich auch für mich, bin ja schließlich AMD Aktionär. Wenn du ein Wohlfahrtsverein für Grafikkarten willst bist du bei AMD an der falschen Adresse, vor allem als Aktieninhaber, falls du welche hast.
Und nein, es sollte die RX 690 werden:
https://www.computerbase.de/2019-06/...-radeon-rx-5700-xt-amd-rx-690/
Die Situation bei den CPUs ist eine andere, hier hat man ein Produkt was klar besser ist als alles was der Konkurrent hat, in jedem Preissegment, während man bei den Grakas nun mal nur einen Chip gelaunched hat. Prioritäten und so. AMD will Geld machen, mit den CPUs gabs die bessere Chance dafür.
Und meine Theorie ist das sicherlich nicht, widerlegt ist auch nichts^^
https://wccftech.com/new-amd-gpu-spotted-rra-big-navi/
Zumindest wirds im Notebook Segment so gemacht, da stellen die Einkäufer fest, dass sich manches schlecht verkauft und auf Lager liegt und daraufhin werden die Preise nach unten gezogen, diese werden teilweise von den Herstellern gesponsort.
Denke das ist bei AMD und Co. nicht anders, da wird dann der Lagerbestand vom Großhändler + den dahinter hängenden großen Online Händlern abgewertet, um die Ware günstiger anbieten zu können.
...aber ich hatte Recht (Screenshot 1 Monat alt).
Die Aktie scheint sich langfristig im grünen Trend fortzubewegen. Ein Ausbruch nach oben könnte drin sein, aber vieles hängt von den morgigen Zahlen ab. Da Intel nun weniger CPUs verkauft, AMD entsprechend mehr, könnte der Trend nach oben hin ausbrechen.
Da im nächsten Quartal m.W.n. keine besonderen Investitionen geplant sind, könnte eine entspannte Weihnachtszeit vor uns liegen.
Laut PRNewswire ist AMD in der Automobilbranche tätig und hat sich mit Tesla zusammengetan. Sie können zwei verschiedene Versionen dieses Artikels finden, die von OJO bezahlt wurden. Oilprice.com, Advanced Media Solutions Ltd.
es düfte mittlerweile jedem klar sein, dass nvidia für teslas das ai/ki-training backend die teuren rtx und v100-gpu-server liefert.
und es ist nicht nur tesla als kunde. sondern offiziell auch toyota. und ich meine, dass um den earnings-beat für nvidia bald perfekt zu machen, insgeheim bereits vw, daimler, bmw und co ebenfalls bei nvidia zu großkunden wurden.
wir reden hier dann von einem globalen netzwerk an rechenzentren, die mehrheitlich mit nvidia-hardware laufen werden bei allen autoherstellern.
amd würde von dem kuchen auch etwas abkriegen, weil radeon7/instinct60 sehr gut in compute sind und man ja bereits cuda-software auf opencl portieren kann - nur stellt sich die frage, in welchem ausmaß. weil nvidia bei remote-gaming amd überlegen ist (nvidia grid), und damit die autohersteller indirekt profitieren würden, indem nvidia sie für die gaming-rechenzeit bezahlt - zur quersubventionierung der hardware als auch für mehr profit der autohersteller in zeiten von nachfrage-flaute.
mfg
Tesla entwickelt eigene SoC´s bzw. hat eine eigene FSD-Platine die nach Angaben Teslas Nvidias im Momenent noch Überlegen sein soll.
2 Neural-Network-CPUs mit 36,8TOPS @2GHz x2 ... also 4 Prozessoren mit 144TOPS
+ 12 Cortex-A72 Kerne mit 2,2GHz und einer GPU mit 16 Kernen 1GHz und 600GLOPS.
Im Dezember bekommen diejenigen, die Full self Driving mitgebucht haben ein kostenloses Upgrade.
Laut dem Bericht sollen die Chips 2020 in die Autos kommen. Vielleicht erfahren wir dann mehr. Denke aber dass das mit AMD und Tesla nichts dran ist
nvidia hat im prinzip dieses soc für teslas fsd-platine mitentwickelt. als deal, dass tesla nvidia-only rechenzentren nutzt für das verarbeiten und training der bildermassen.
was meinst du, auf welcher hardware die inputs dieser tesla-socs in den autos im backend verarbeitet werden? ja, auf nvidias datacenter-gpus - worauf sonst? nvidia ist das einzige unternehmen mit hardware & softwarestack komplett für ai. und dass toyota offiziell mitmach - als auch volvo - dürfte indiz genug sein, dass ich recht habe.
nvidia ist in einer ganz anderen gewichtsklasse als amd. amd kann froh sein, dass dieses jahr zen2 richtig gut läuft. und vllt die kryptolemminge die ganzen radeons noch aufsaugen werden :D
aber wenns um bankable/kreditwürdige investments in datacenter geht, führt an nvidia kein weg vorbei.
mfg
Das benötigte Know-how wenn überhaupt hat Jim Keller vermutlich eher von AMD genommen.
Oder glaubst du im Ernst dass Tesla den zuvor von Nvidia entwickelten Chip einfach mal so übernommen und weiterentwickelt
hat und dabei alle Patente verletzt?
Fakt war Tesla war enttäuscht von dem entwickelten Nvidia Ship + den Bedingungen und wollte unabhängig von Nvidia werden.
Was haben die Verantwortlichen von AMD mal erzählt über rDNA Architektur!
Diese Architektur soll sehr gut skalierbar sein vom kleinsten bis zum größten Ship.
Wie lange war da die Entwicklung? So wie es aussieht hat diese Entwicklung in derselben Zeit stattgefunden wie Teslas Meisterwerk unter Jim Keller Regie. Ob da doch eine Verbindung besteht ? Und warum hat Samsung rDNA für seine Smartphones lizenziert?
Alles natürlich reine Spekulation. was definitiv feststeht ist das Tesla keine Abhängigkeit von Nvidia haben wollte!
Tesla war Schlau mit NV zusammen zu Arbeiten und Ihnen dann den Rücken zu kehren.
Nun Arbeiten alle Deutschen und Schweden und Japaner mit Nvidia zusammen.
Und Tesla lacht, und denkt sich "was für Idioten", "Die werden sich noch Wundern".
Frag mich wann Nvidia Jim Keller angagiert um einen Übermächtigen RISC-V zu Entwickeln.
NV ist das einzige BigBrand bei dem Keller noch nicht gearbeitet hat.
Und einfach mal so hätte Tesla diesen entwickelten Chip von Nvidia sowieso nicht übernehmen können.
Nvidia arbeitet in der kundenspezifische Entwicklung allein und hält seine Daten und der Verschluss. Das heißt nach Ende der Zusammenarbeit hat Nvidia alles mitgenommen. Zurück blieb nur noch Luft.
Ich könnte mir sehr gut vorstellen dass da AMD IPs bei der Entwicklung des Tesla Chips verwendet wurden bzw weiterentwickelt.
Glaube nicht dass Jim Keller jemals für Nvidia arbeiten würde bei AMD hingegen waren er schon öfters.
Für ein kundenspezifisches Design ist AMD mittlerweile die erste Adresse. Das Know How für Prozessoren und Grafik gibt es nur von (noch) AMD aus einer Hand