Was mich bei der Vorstellung am meisten gestört hat ist, dass AMD über das eigentliche, nämlich die Performance nicht geredet hat. Im Interview hat Frank Azor eine halbwegs plausible Erklärung geliefert.
Aber AMD hat eigentlich nur Nebelkerzen gezündet was die Performance angeht. Das heißt nichts gutes.
Was wirklich enttäuschend ist, ist die Raytracing performance. Hier ging es nicht wirklich voran. Relativ betrachtet eher zurück.
Der absolute Gag ist aber, dass auch AMD auf PCIe 4.0 bleibt. Nun müssen wir nur noch auf die PCIe-5.0 SSD warten, um bestätigt zu bekommen dass man PCIe 5.0 auf dem PC nicht braucht.
Die PC-Plattform ist dadurch groß geworden, dass die Hersteller Technik sinnvoll eingesetzt haben. Pseudo Features, die nur kosten aber nichts bringen killen die PC-Plattform.
Chesterfield schrieb:
Das hat insgeheim auch niemand erwartet dass die RTX4090 angepeilt wird.
Das haben insgeheim alle erhofft und viele auch erwartet.
Es gab Warnsignale, aber alle haben gehofft dass es eng wird.
Locutus2002 schrieb:
Finde ich nicht schlimm, dass AMD die 4090 nicht erreichen kann.
Es zementiert eben die Marktdominanz von Nvidia. Nvidia verkauft mehr Karten weil die 4090 die Topkarte ist. Nvidia kann auch deswegen einen Premiumaufschlag gegenüber AMD machen.
Exar_Kun schrieb:
Wirtschaftlich macht es bestimmt Sinn, sich nicht mit der Brechstange auf ein Nischenprodukt wie die 4090 auszurichten.
Monolithisch ist es für AMD nicht möglich. Aber über Chiplets ist es denkbar. Und für AMD dringend erforderlich, wenn sie die Marktdominanz von Nvidia brechen wollen.
Exar_Kun schrieb:
Dennoch bleibt der Leuchtturmcharakter eines solchen Flaggschiffes für die gesamte Reihe nicht zu unterschätzen.
Richtig.
Hate01 schrieb:
Sie könnten theoretisch analog zu CDNA2 zwei GCDs verwenden. Aber dann wird es vermutlich eng mit der Bandbreite. HBM oder 3D Cache als Lösung würde das nochmals teuerer machen.
Bei CDNA2 sind es zwei GPUs die im selben Package sitzen. Das ist für die Hauptanwendung Superrechner kein großes Problem. Aber bei Gaming GPUs bringt das nichts.
Ich bin nicht sicher warum AMD auf 384 Bit gegangen ist, haben sie die Bandbreite gebraucht oder wollten sie 24 GByte Speicher?
McLovin14 schrieb:
Da hast du Recht. Da muss ich mich auch dazu zählen. Der Umbau der CUs und die in der Gerüchteküche kursierten 12288 Shader haben mich und viele andere tatsächlich in die Irre geführt.
Spätestens mit der Chipgröße und der erhöhten Dichte an Shadern kamen mir Bedenken. Aber die Hoffnung ...
Die Erklärungen von Angstronomics (weniger FP64-Leistung) waren nicht stichhaltig. Im Grund ist nun auch dieses Leak, das mit einer riesigen Selbstgefälligkeit geschrieben war im Kern getroffen. Alle Zahlen scheinen zwar zu stimmen. Aber es sind eben keine 12288 Shader im Sinne von RDNA 2. Und wir werden sehen wo die 3. Variante bleibt.
Was mich a
McLovin14 schrieb:
Verbunden mit dem geringen Takt bleibt AMD einfach hinter vielen Erwartungen zurück (auch wenn AMD selbst diese Erwartungen nicht geschürt hat).
Aber bei Zen 4 hat AMD den Hypetrain am 23 Mai zum Entgleisen gebracht, bei RDNA 3 nicht.
Bei den ganzen Geschichten zum Takt hatte ich die ganze Zeit Bedenken. Man hat doch gesehen, wie die Effizienz der 6700XT durch die Taktraten verpufft ist.
Die "almost 4 GHz" kamen zu dem von einer unseriösen Person.
McLovin14 schrieb:
Die Kosten für die Chips sind nicht so hoch und auch das Packaging ist überschaubar.
Im Vergleich zum AD102 gibt es einen klaren Kostenvorteil. Zum AD103 sehe ich den nicht so deutlich.
McLovin14 schrieb:
Ich denke, man kann einfach nicht so leicht zwei GCDs zusammenschließen.
Das geht sogar recht "einfach" per Interposer oder per TSMC SoIC. Einfach im Sinne alle notwendigen Techniken sind entwickelt.
Aber es kostet.
McLovin14 schrieb:
Dafür sind sie wahrscheinlich nicht gemacht. Es müsste ja eine Kommunikation stattfinden.
Auf dem Dieshot gibt es keine ungenützten Randbereiche, deshalb würde es mich wundern. Der Dieshot war jetzt nicht so hoch auflösend dass man sicher sagen kann, da ist nichts. Aber es ist sehr unwahrscheinlich.
Und außerdem brauchen wir Benchmarks um einschätzen zu können wie gut die Speicherbandbreite ausgelastet wird. Nur wenn da gehörig Luft ist, ergibt eine GPU aus mehreren GDC einen Sinn.
Hate01 schrieb:
Doch das gibt's schon, nur noch nicht bei Gaming Karten:
https://www.amd.com/de/technologies/cdna2
Wie gesagt das sind 2 GPUs im selben Package.
Die Kopplung zwischen den Dies bei CDNA2 ist viel zu schmal.
Die Transferraten über die Kopplung muss der Speicherbandbreite entsprechen. Nur so kann ein GCD auf den Speicher des anderen GCD ohne Performanceeinbußen zugreifen.
Hate01 schrieb:
CDNA2 verwendet dafür HBM2e.
HBM wird für die berechneten Probleme benötigt, die sehr viel Bandbreite benötigen.
Novasun schrieb:
Was mich wundert - angeblich planen Boardpartner ja Karten mit 3x8Pin ...
Das müssen sie auch weil AMD hier schon ziemlich an die Grenze gegangen ist.
Novasun schrieb:
Also wenn da OC mässig nix geht - wäre das ja Verschwendung schlecht hin....
AMD könnte den AIBs ein bisschen was gelassen haben, weil sie nur zwei Stecker verbauen wollten.
Das heißt ein paar %.
Novasun schrieb:
Von daher wenn die Karte doch bis zu 3 GHz geht bei entsprechendem Verbrauch - kommt man Raster technisch vielleicht doch an die 4090 ran...
Das denke ich nicht. Die Zeiten in dem Overclocking ohne ordentlichen Mehrverbrauch geht, sind eine Weile vorbei.
Frank Azor wurde gefragt und seine Antwort ist bezeichnend.
incurable schrieb:
Irgenwann müssen sie raus aus dem Teufelskreis von fehlender Leistung, fehlender Konkurrenzfähigkeit, fehlenden Produkten für ein ganzes Marktsegment.
Ich gebe Dir recht, nur über den Preis kommt AMD nicht voran.
incurable schrieb:
Ich möchte einfach nur, dass AMD mindestens den Anspruch an sich selbst stellt, in allen Marktsegmenten präsent und konkurrenzfähig zu sein.
Einfach einen großen Chip rauszuhauen und dann auf den Kosten sitzenzubleiben ist auch keine Lösung. Deshalb sehe ich nur über erster bei den Chiplets zu sein eine Chance für AMD.
Ansonsten kann man bestenfalls ein paar Prozentpunkte von Generation zu Generation gut machen.
incurable schrieb:
Damit tut sich die Grafikabteilung traditionell extrem schwer, weshalb sie seit vielen Generationen in diesem Teufelskreis steckt.
Ich finde AMD hat den Fehler gemacht den Hypetrain nicht zu stoppen. AMD hat zwar nichts dazu beigetragen, aber auch nicht getan, um für realsistische Einschätzungen zu sorgen.
Wenn man die nicht vergleichbaren Shaderzahlen ignoriert und RDNA 2 und RDNA 3 über die Anzahl der CUs vergleicht, kommt bei der Rasterleistung ein ordentlicher Anstieg heraus. Das lässt gutes für die Navi 33 und Phoenix Point erhoffen.
Was ich rundum enttäuschend empfinde ist der zu geringe Zuwachs am Raytracing-Performance.
Was ich aber sehr gut finde ist, dass AMD im Referenzdesign die Power halbwegs im Rahmen hält.
anappleaday schrieb:
Eine 7950 XTX kommt ja definitiv auch noch, die wird dann der Gegner der 4090, davon gehe ich sehr stark aus!
Schau Dir doch bitte das verlinkte Interview mit Frank Azor an. Es ist eindeutig.
Sie kommt wahrscheinlich ebenso wie 6950XT, als Refresh in einem oder eineinhalb Jahren mit ein bisschen mehr Performance und höherem Verbrauch. Am Abstand zur 4090 ändert sich nicht wesentlich.
Und bei Nvidia wird die 4090 TI kommen. Da der Prozess bei TSMC besser als der bei Samsung ist, fallen einige Dies an, die im Vollausbau einsetzbar sind.
anappleaday schrieb:
Nicht in Bezug auf die 4090. In Bezug auf die 4080 ja. Wer hat bei der Ratser-Performance die Nase vorne die 7900XT oder die 4800?
anappleaday schrieb:
Man darf ja leider fünf (5!) lange Wochen warten auf die Tests 😕🙁🤨
Die werden aber gefüllt mit vorläufigen Benchmarks. Demnächst gehen die testfähigen Treiber an die AIBs und damit kommen immer mehr Leaks.
Das ist ja auch der Grund warum die Vorstellung mit so großem Abstand erfolgt. Wenn sie länger warten gibt es nichts was sie noch zu verkünden hätten.
incurable schrieb:
Grundsätzlich würde ich Dir zustimmen, im konkreten Fall hab ich allerdings null Interesse an diesen Balken-auf-Benchmarkseiten-Verdopplern und dem im Zusammenhang damit fortschreitenden Selbstbeschiss bei Herstellern und Käufern.
Wo ich Dir recht gebe, das alles hat bei Performanceangaben nichts zu suchen. Beides zu vermixen vernebelt nur alles.
Zur eigentliche Upskaler-Technik: Es kommt nur auf die Bildqualität an. Da beim Rendern eh alles künstlich ist ist, kann ich die Diskussion nicht verstehen. Alles was bei guter Bildqualität die erforderliche Rechenleistung verringert ist positiv. Wenn gute Upskaler verfügbar sind, kann doch jeder selbst entscheiden wie man zu guten Framerates kommt. Also ob man die Settings herunter nimmt oder den Upskaler verwendet.
Rockstar85 schrieb:
Langfristig eher nicht. AMDs Chiplet ist da hier der Vorteil, selbst wenn Nvidias Yield hoch ist, der Preis ist es eben auch.. Es ist halt immer billiger 300mm² zu fertigen, als 600mm²
Du musst das aber mit 378 mm² vergleichen.
Rockstar85 schrieb:
Bei einer Diesize von ~600mm² sähe es so aus: ...
Eine Fehlerdichte von 0,02 1/cm² ist sehr ambitioniert. Ian Cutress hat mit 0,07 1/cm² gerechnet, was mir von den Zahlen die ich im Web gesehen habe, realistisch erscheint
Taxxor schrieb:
Wenn man beide Karten von Anfang an gegen die 4080 stellen wollte, passen die Namen mMn nicht und die 7900XT hätte eine 7800XT sein sollen, die 7900XTX dann einfach wieder die 7900XT.
Das ist eine verbreitete Fehlinterpretation von dem was Frank Azor gesagt. Er hat auf das die Frage warum kein Vergleich mit der 4090 gemacht wurde gesagt, dass der Konkurrent der beiden Karten die 4080 ist.
AMD wird lange gerechnet haben, was für sie ökonomisch Sinn ergibt. Wenn es beim Gaming gegen die 4090 gereicht hätte, wären alle glücklich gewesen. So wie damals bei der 3090.
Aber spätestens bei den Creators hätte die Karten gegen die 4090 den kürzeren gezogen.
Wenn AMD hier mehr hätte erreichen wollen, hätte AMD mehr in die Raytracing-Leistung investieren müssen.
Taxxor schrieb:
Denn wenn die XT ~20% langsamer als die XTX ist (300W, wo die XTX schon 10% verliert und dazu noch weniger Shader und Takt), dürfte sie ~20% über der 3090Ti rauskommen und damit recht genau da wo die 4080 aktuell eingeordnet wird.
Die hätte man auch 7800XT nennen können.
bad_sign schrieb:
Aber was ist dann der Plan? Auf Effizienz heucheln und den AIBs 500W geben mit 3.2 GHz und 5% vor der 4090 in Raster stehen?
Nein. Auch mit 500 W kommen die AIBs IMO nicht an die 4090 heran, geschweige denn vorbei.
Und die AIBs werden Schiffbruch erleiden, wenn es versuchen. Denn dann entstehen große teure Karten die viel verbrauchen und dennoch an der 4090 scheitern.
Was AMD hier macht ist der richtige Weg. Ich wünschte AMD hätte bei Zen 4 dasselbe gemacht.