News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Shoryuken94 schrieb:
Besonders ist, dass Big Navi mit der doppelten Anzahl an Recheneinheiten im Serienzustand die Taktraten erreichen soll.

Eine 5700XT bewegt sich mit 2GHz+ nämlich schon jenseits der 250 Watt.

Wenn ein doppelt so großer Chip das schafft und nicht 400+ Watt verballert, wäre das eine Riesen Steigerung der Effizienz.
Andererseits bekommt man eine 5700XT bei 1900MHz/1v runter auf 150W für den Chip.

Diese letzten 100-150MHz über die 2GHz Marke kosten bei der Karte so richtig viel Verbrauch. Begrenzt man auf zB 200W, liegen die 2GHz auch noch öfters an, aber bei Maximallast fällts dann knapp drunter.

Wenn BN da also nochmal ein paar Prozessverbesserungen mitnimmt und die 2GHz als Target anlegt aber die TDP trotzdem deckelt, kann das schon hinkommen.
 
Klein Navi soll ja bis 2.5 GHz boosten. Da stehen die Chancen gut dass man Big Navi von Takt auch auf das oder höher ziehen kann.
 
Botcruscher schrieb:
Quizfrage ist doch nur noch das Speicherinterface. Mit nur 256Bit wird es auf jeden Fall nichts.
Aha wer sagt das? Keiner weiß was der extra cache bringt bisher. Einfach mal abwarten und nicht mit unwissenheit glänzen.
 
  • Gefällt mir
Reaktionen: CableGuy82 und bad_sign
Krautmaster schrieb:
Bin gespannt ob AMD wirklich auf 256 Bit mit viel L2 setzt oder ggf mit HBM überrascht.
Ich würde da eher eine Analogie zu Zen2 sehen, nämlich ein L3 Cache den Zen für IF Bus braucht. Da RDNA3 angeblich ein Chiplet Design wird, würde es mich nicht wundern, wenn das eine Vorstufe ist und RDNA3 fast selber Chip in 5nm ist. Klein genug um es mit einen weiteren Chip ubd IO zu koppeln.

Interessant ist ja auch, dass die CDNA je nach Generation als Verbund eine virtuell GPU darstellen soll. Ähnlich wie es bei Zen1, Zen2 der Fall ist.
 
  • Gefällt mir
Reaktionen: Hatch und bad_sign
Ich bin gespannt wie lange schon nicht mehr! Bei den Prozessoren hat AMD ja alles richtig gemacht. Ich drücke AMD die Daumen.
 
  • Gefällt mir
Reaktionen: CableGuy82
Wenn das so auf den Markt kommt und die "Gerüchte" stimmen würde ich sagen Mister Lederjacke schaut dann leicht schief ;=)
 
  • Gefällt mir
Reaktionen: CableGuy82
vander schrieb:
Wer ein VR HMD hat oder gerade darauf wartet, der schaut auch sehr genau auf DLSS. Insbesondere seitdem es hieß das ganze wäre VR tauglich..

Ich spiele seit ~4 Jahren quasi fast ausschließlich VR, aber ich werde bestimmt nicht irgendwelche theoretisch irgendwann mal indem ein oder anderen Spiel eventuell verfügbaren Features Einfluss auf meine GraKa Kaufentscheidung haben lassen.. :)

Falls in den nächsten 4 Jahren ganz überraschend ( :D ) ein Spiel mit VR DLSS Unterstützung rauskommt, werde ich schon damit klar kommen, mit einer etwas geringeren Auflösung zu spielen. :D
 
think->write! schrieb:
Selbst schuld, wenn du dich durch vendor lock in fesseln lässt.
Kann man sich nicht immer aussuchen, es ist halt nunmal so, das sehr viel Professionelle Software nur mit CUDA und nicht mit OpenCL läuft
 
  • Gefällt mir
Reaktionen: adAstra, Foxel, Stefan51278 und 2 andere
@Apfelsch0rle
Imo ist DLSS vollkommen irrelevant. Ich brauch mehr Leistung auch für ältere Games und DLSS wird, ähnlich wie Physix, mit Sicherheit nicht in allen Games verfügbar sein.
Solange da keine Lösung mit Standard (MS DXML) dabei ist (Adaptive Sync vs GSync) wird das früher als später wieder eingehen.
 
  • Gefällt mir
Reaktionen: cookie_dent und Digibyte
Meine Prognose:

Die Leistung liegt knapp über der 2080Ti

ich habe eigentlich auch garkein Problem damit, dass AMD nicht im absoluten Highend Markt angreift.
Eine Oberklassengrafikkarte mit gutem P/L nehme ich ausgesprochen gerne
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Majestro1337 und Digibyte
Botcruscher schrieb:
Quizfrage ist doch nur noch das Speicherinterface. Mit nur 256Bit wird es auf jeden Fall nichts.
Zen 2 schreibt auch nur mit halber Rate in den RAM. Kosten tut es augenscheinlich nichts.
Man kann nur auf Tests warten.

@wal
Gesunde Einstellungen. Lieber tief stapeln, als vom Turm zu fallen^^
 
  • Gefällt mir
Reaktionen: Majestro1337
|SoulReaver| schrieb:
Wenn das so auf den Markt kommt und die "Gerüchte" stimmen würde ich sagen Mister Lederjacke schaut dann leicht schief ;=)

Glaube bei dem Kontostand von Mr Lederjacke, juckt den das in Wirklichkeit nicht die Bohne^^
 
Apocalypse schrieb:
Abwarten ob das nur die HBM2 Version ist und die GDDR6 dann die 300W voll macht. 16GB fressen ne Menge vom Power Budget.
Es soll ja mindestens zwei Varianten von NAVI 21 geben (21a /21b)
21a eine TDP von 200W TBP wohl bei ca. 260W
21b eine TDP von 238W TBP wohl bei ca. 300W
21a soll ja ebenfalls 80CUs beinhalten die lediglich etwas niedriger getaktet sind 2.05 anstat 2.2 GHz.(21 TFLOPS + IPC)
Es müsste schon mit dem Teufel zugehen wenn nicht bereits die schwächere der beiden Varianten auf 3080 FE Niveau liegen sollte.

dann würde die Performance/Watt in etwa so aussehen:
320/260 = P/W +23%
Falls die Karte gar 5% schneller ausfallen sollte, kann man das noch mit einem höheren power budget versehen custom varianten noch etwas weiter ausführen.
420/260= P/W = +62%
Ich sehe schon ein gewaltiges Gewitter am Horizont aufziehen da werden noch harte Zeiten
für NVIDIA bevorstehen.

Und das beste die NAVI 22 kommt ja erste noch:
40CUs bei 2.5GHz ( 12.8TFLOPS + IPC)
Der müsste wohl eine Fläche, wenn an den bisherigen Gerüchten etwas dran ist von 220-260mm2 (TSMC 7nm) haben und ca. 10% hinter einer 2080ti FE liegen.
Der würde sich also mit einer 392mm2 (Samsung in 8nm) 3070 duellieren wobei er eventuell auch leicht zurück liegen könnte.
Aber man beachte die Flächendifferenz:
Das wird eine Mission impossible da über denn Preis konkurrieren zu wollen für NVIDIA.

Die NAVI 22 wird einschlagen wie eine Bombe und der Preis-Leistungs-Kracher werden den wir uns alle gewünscht haben.

Die Karte wird ihnen so schnell aus den Händen gerissen werden, das sie darauf bedacht sein sollten das ihnen
dabei vor lauter Gier nicht noch ein Finger abhanden kommt.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech, GhostDMonkey und Digibyte
Zertruemmerdog schrieb:
Aha wer sagt das? Keiner weiß was der extra cache bringt bisher. Einfach mal abwarten und nicht mit unwissenheit glänzen.

AMD/ATI hat bisher immer die Holzhammer Methode bei Bandbreite benutzt.
Es wäre auch nicht das erste mal ein 512bit SI. Das hat in den letzten 20Jahren des öfteren eine bessere Watt/Perf. gebracht.
 
Mracpad schrieb:
Ich spiele seit ~4 Jahren quasi fast ausschließlich VR, ...
Falls in den nächsten 4 Jahren ganz überraschend ( :D ) ein Spiel mit VR DLSS Unterstützung rauskommt, werde ich schon damit klar kommen, mit einer etwas geringeren Auflösung zu spielen. :D
Ich habe noch eine 1070er, mit der CV1 passt das gerade so noch, beim Update auf die G2 dürfte es nativ kaum reichen. Wenn ich vermeiden kann innerhalb der nächsten 1-2 Jahre wieder die Entscheidung zwischen nativer Auflösung und niedrigeren Quali Einstellungen im Spiel treffen zu müssen, ...
Außerdem finde ich die Idee von DLSS generell gut, beinhaltet auch weniger Speicherbedarf auf der Grafikkarte. Wobei eine 3080 Ti mit 16GB stimmiger wäre.
P.S. Nur weil ein Spiel DLSS nicht unterstützt, wird die RTX davon erstmal nicht langsamer. Das Navi mithält ist z.Z. noch Fantasie, belegbare Beweise fehlen noch, genau wie meine Kaufentscheidung ;-).
 
Syrato schrieb:
@daniel 1301 das ist kein Sprint, sondern ein Marathon über ca. zwei Jahre! Warum sind so viele Menschen so ungeduldig?

An alle hier! Abwarten und gechillt Tee trinken!

Naja der Markt für Karaten >600€ ist auch nicht unendlich groß und man sieht es ja auch hier im Forum, viele der Pascal Besitzer warten sehnsüchtig drauf ihren Rechnern ein Update zu verschaffen. Und viele die jetzt die 3080 kaufen/gekauft haben sind für die nächsten zwei Jahre erst einmal versorgt bzw. steigen sicherlich nicht auf eine Karte die kaum schneller ist um.

modena.ch schrieb:
Das ist ja der Witz, verfügbar ist da gar nix. NV launcht überhastet Karten in überschaubarer Stückzahl, die komplett am Limit und darüber hinaus laufen, die zum Teil schlecht bestückt sind, weil die BP nicht richtig informiert waren, mit für ihre Verhältnisse moderaten Preisen. Das sieht schwer nach Paperlaunch aus.

Mit verfügbar meinte ich an der Stelle dass die Karten frei auf dem Weltmarkt erhältlich sind. Ich kenne die Branche nicht, es würde mich aber schwer wundern wenn sich nicht diverse Ampere Karten gerade in diversen AMD Laboren befinden. Von daher braucht AMD nicht mutmaßen wo sich nVidia aktuell befindet, sondern kann selbst die Karte in allen erdenklichen Szenarien mit den eigenen Produkten vergleichen. Von daher hat AMD eigentlich nichts zu verlieren, zumindest nicht wenn sie "ehrliche" Vergleiche sprich nicht irgendwelche positiven Sonderfälle heranziehen.. von daher kann ich die aktuelle Zurückhaltung nicht ganz nachvollziehen. Was anderes wäre es, wenn es die nVidia Karten noch nicht gäbe und man irgendwelche Vergleiche mit der alten Generation ziehen würde und sich dann dafür (rein hypothetisch) abfeiert das man 2080ti Performance für 800€ liefern wird. Wie gesagt, nVidias Karten liegen auf dem Tisch...von daher kann AMD eigentlich nichts verlieren ...sofern sie denn was entsprechendes in petto haben.
 
  • Gefällt mir
Reaktionen: wal
Na, falls das stimmt und die Leistung auch auf dem Niveau der 3080 liegen sollte, dann kann Lederjacke seinen Shice behalten. :D
 
  • Gefällt mir
Reaktionen: Max0071980
Zurück
Oben