News Radeon-Gerüchte: AMD werde RX 7700 und RX 7800 zur Gamescom vorstellen

Die Frage ist nun, ob AMD in der Zwischenzeit von Navi 31 zu 32 die P-States und das Thema um die ROPs, was du beides großartig beschrieben hast, in der Architektur so lösen kann oder es große Umbauten braucht, was auf jeden Fall erst eine Änderung in der nächsten Generation ermöglicht.
 
Nvidia hat ja in den sauren Apfel gebissen und den Verbrauch der 4060 wieder normalisiert. Deshalb ist der Leistungssprung auch marginal. Mal sehen wie AMD das angeht.

Zudem müssen sie noch das Dual Monitor Problem lösen. Das ist für mich mit drei Bildschirmen essentiell. besonders im Sommer wenn ich tagsüber am PC arbeite soll die nicht zur heizung werden
 
  • Gefällt mir
Reaktionen: Mcr-King
DevPandi schrieb:
Die Probleme sind in zwei Ebenen darüber zu suchen.

Kläre mich doch bitte auf.

Und wenn du mit Bienchen und Blümchen kommst, werden wir wohl beide lächeln. :D

mfg

p.s.

Dark Soul schrieb:
Woher hast du die Info über die Pipelinelänge von RDNA3?

"Dass RDNA 3 bis weit über den letztlich in Spielen bei einer Radeon RX 7900 XTX anliegenden Takt skaliert, konnte die Redaktion bereits mit den eigenen OC-Versuchen aufzeigen. Die Tests von u/jedi95 untermauern erneut die Theorie, dass die Architektur ursprünglich einmal für Taktraten jenseits der 3 GHz konzipiert wurde. Denn eine Skalierung mit einem Takt von rund 1.000 MHz über dem letztlichen Boost-Takt der im Handel erhältlichen Produkte ist nur mit einer entsprechend langen Grafik-Pipeline möglich – und eine lange Pipeline kostet Latenzen und damit schlussendlich Rechenleistung pro Takt. Wenn die Radeon RX 7900 XTX in Spielen also wirklich nur mit rund 2,4 GHz arbeiten sollte, hätte AMD die Pipeline verkürzen und damit die Rechenleistung pro Takt steigern können."

https://www.computerbase.de/2023-05...n-rx-7900-xtx-jagt-mit-700-watt-die-rtx-4090/

Das ist die Quelle, für deine Informationen. Die Quelle für meine Informationen geht dich nichts an, der Inhalt deckt sich aber mit dem, was hier in der Öffentlichkeit gesagt wurde und nachdem das passiert ist, ist es für mich auch kein Problem zu sagen, dass ich der Meinung bin, dass diese Informationen stimmen.
 
  • Gefällt mir
Reaktionen: chaopanda
wtfNow schrieb:
Lange Zeit waren 8 GB die eiserne Grenze wo selten Spiele mal rangenkommen sind. Warum sollte das nicht so ähnlich bei 12 GB sein?
Natürlich lässt sich das als Nicht-Brancheninsider schwer beurteilen. Es gibt da ja auch noch Direct Storage, was den VRAM-Bedarf in Spielen möglicherweise senken könnte. Auf jeden Fall gibt es bereits aktuelle Spiele, die in UHD + Raytracing ihre 12GB brauchen. Da lässt sich mit Optimierung vermutlich auch nicht mehr viel herausholen. Darüber hinaus benötigt auch DLSS 3 zusätzlichen VRAM, was in dem einen oder anderen Fall dann kontraproduktiv für die Frametimes werden könnte.

wtfNow schrieb:
Nichtsdestotrotz möchte ich das Risiko nicht eingehen und rüste ohnehin jede 1-2 Generation in der oberen Mittelklasse auf. Aber ich glaube nicht dass die echte Speicherlimitierung direkt vir der Tür steht.
Das ist auch keine schlechte Taktik.
 
.Snoopy. schrieb:
Sind sie nicht. Sonst wären die Lagerbestände schon viel schneller weg, und nicht das man nicht darauf wartet neue Karten ins Rennen zu schicken. Es soll nun der Nachfolger zur RX6800 kommen, und das wie viel Jahre später? In der Zeit hat Nvidia mal eben ihre 4000er-Serie auf dem Markt gebracht. Die alten Karten sind nur noch zum Teil kompetitiv. Die 6000er Gen ist in die Jahre gekommen und das sieht man langsam auch. Nvidia ist durch die Bank sparsamer, bei gleicher Leistung. Also nenn mir einen Grund, wieso man sinnvollerweise die Preise seit Ende 2022 bis jetzt auf einem ähnlichen Niveau lässt, obwohl die Konkurrenz etwas Neues draußen hat, und immer noch darauf wartet, dass die Lagerbestände abverkauft werden?
Wenn AMD das so weiter macht, setzt Nvidia eine neue Serie auf, da ist die 7000er-Serie von AMD noch nicht einmal vollständig gelauncht worden.
Der Nachfolger zu ADA Lovelace erscheint nicht vor 2025, in 2024 sehen wir max. einen ADA Refresh oder weitere TI Modelle.

Die Lager sind voll weil vorab viele mehr Chips und Karten produziert worden und es allgemein hohe Lagerbestände gab am Ende des Mining Booms. Im Consumerbereich werden die Karten gut verkauft. Man siehe sich hierfür nur mal als grobes Beispiel die monatlichen Zahlen von Tech Epiphine auf Twitter zu den Verkaufszahlen von MF an. Die widerlegen deine Argumentation bereits.

Die 6800 non XT Serie wurde im im November 2020 vorgestellt. Also 2 Jahre 7 Monate.
Die RTX 3070 29. Okt. 2020 und die RTX 4070 am 13. April 2023. Also 2 Jahre und 7 Monate.

Kann deine Argumentation hier also nicht nachvollziehen.

Der logische Grund die Karten sind compeditiv!

Die 4070 kostet soviel wie eine 6900XT/6950XT, die AMD Karten sind zum gleichen Preis in Rasterleistung deutlich schneller mit mehr Vram. Die 6800XT leicht günstiger und minimal schneller, mit mehr Vram.

Die 4060 TI wird von der 6800 non XT geschlagen. Bei der 6800 bekommt man aber für 50 Euro mehr also mehr Leistung und doppelten Vram und kann hier auch Ausflüge in WQHD machen ohne Sorgen.
Die 6700XT ist 80-100 Euro günstiger als die 4060 Ti und wie die 3060 Ti gerade mal 9% langsamer laut PCGH.

Naja und die 4060 kann sich nicht von der günstigeren 7600 absetzen und wird von einer 6700 non XT 10G und der 6700XT torpediert im gleichen Preisbereich.

Wenn du nur die Effizienz als Argument siehst stimmt deine Aussage, Ada ist effizient.
Aber in P/L haben die Nvidia Karten starke Defizite.
Alle Nvidia Karten unterhalb der 4090 haben ihren Gegenpart und alle RX4000 unterhalb von RTX 4080 (die 80er hat natürlich auch ihren Preis als Kritkpunkt) haben ebenfalls Kritikpunkte im Vergleich zur Konkurrenz.

Hoher Preis, wenig Vram, stark beschnittenes Speicherinterface, die 4060er Modelle zudem noch ihre x8 Lane Anbindung.

Wie gesagt deiner Argumentation kann ich nach Fakten somit nur bedingt folgen.
 
  • Gefällt mir
Reaktionen: anarchie99, danyundsahne und Michael vdMaas
DevPandi schrieb:
Sobald diese Belastet werden

Durchaus denkbar.

Immerhin sind ihre "Shader" ja völlig neu konzipiert. Hoffentlich wird es kein Reinfall wie "5D Shader".

Abwarten, mehr Takt würde aber in jedem Fall echt helfen. Was schuld ist, werden andere wissen, nicht nur spekulieren.

Ich persönlich, würde aber mit dem Finger auf TSMC zeigen und sagen, die sind unfähig. :evillol:

mfg
 
DevPandi schrieb:
Da hätte man halt damals einfach etwas weiter blicken müssen und nicht nur die eine Funktion, sondern wo diese im Code auch verwendet wird und was da steht. Dass die Funktion dann mit einer Oder-Verknüpfung versehen wurde, wäre selbst Schülern in der Oberstufe mit Informatik-Kurs aufgefallen.
Ich wollte es so nicht sagen aber Recht hast du hier absolut. :D Weswegen ich Aussagen von Kepler oft etwas kritischer betrachte.
 
TigerherzLXXXVI schrieb:
Darüber hinaus benötigt auch DLSS 3 zusätzlichen VRAM, was in dem einen oder anderen Fall dann kontraproduktiv für die Frametimes werden könnte.
Man benötigt mit FG mehr VRam als mit DLSS alleine, aber immer nocht weit weniger als nativ.
 
Es ist schon sehr interessant, wie exakt gegensätzlich die Architekturerweiterungen der beiden GPU Hersteller so schwingen.

Ich meine, wenn man RDNA 2 neben RDNA 1 so sieht, dann hat sich das instruction set quasi nicht verändert - die RDNA2 Architektur kann fast genau das selbe wie RDNA 1, aber was man gemacht hat ist signifikant den Cache ausgebaut und deutlich mehr Ausführungseinheiten dran geschraubt. Viel mehr auch nicht, aber das hat zu einer erheblich höheren Rohleistung geführt, obwohl man beim Speicher deutlich sich zurückgehalten hat - von einer 5700XT zu einer 6700XT gab es vielleicht mehr davon, aber nicht mehr Bandbreite - im Gegenteil, denn ohne den Cache ging es sogar von 480 GB/s auf 384 GB/s zurück.

Nun kommt RDNA 3 und verändert eine ganze Menge innerlich, wie zum Beispiel die dual issue instructions (die aber wegen ihres Formates nicht viel mehr bringen) oder auch neue Matrix-Operationen als auch neue RT Einheiten. Auch wurde ja etwas am Scheduling geändert, so dass die Software nun mehr Kontrolle darüber hat. Was es auch deutlich mehr nun gibt ist Speicherbandbreite, denn zumindest bei den verfügbaren Modellen gab es von der 6900XT mit 512 GB/s zu 800 (7900 XT) bzw 9060 GB/s (7900 XTX) einen deutlichen Sprung. Wo man aber fast gar nichts gemacht hat ist in der Anzahl der Compute Units - von 80 auf 84 beim direkten Nachfolger ist nicht viel und naja, die XTX mit 96 ist verglichen mit den Schritten bei RDNA 1 zu 2 auch eher klein.

Nun sehen wir uns Nvidia an. Ada hat intern ja shader model sm89 - also selbe Familie wie Ampere (sm80 die Server und sm86 die customer - Karten). Heißt auch: wenn ich einen Ampere-Code einer Ada GPU gebe, dann kommt die damit klar - man muss quasi nichts neu machen. Direkt für sm89 zu kompilieren hat ein paar Vorteile, aber die sind eher klein. Dafür hat man hier nun an der Alu-Schraube (3070 hatte 46 SM, 4070 hat 64) gedreht sowie den Cache deutlich aufgebohrt ... dafür aber den Speicherausbau vernachlässigt bzw. eher sogar zurück gedreht.

Für mich als Entwickler für GPU Codes fühlt sich das Ampere zu Ada Update quasi an wie eine 1:1 Kopie dessen wie AMD Big Navi aus Navi weiter entwickelt hat. Ich kann aus meiner Sicht verstehen, wieso RDNA3 so aussieht, wie es das tut, denn es schubst einige wichtige Dinge wie mehr Speicherbandbreite und auch architektonische Veränderungen an, die aber noch nicht so recht zünden wollen. Wie z.b. das dual issue, also zwei Instruktionen zugleich ausführen - Nvidia Karten können seit einiger Zeit das machen, wenn die Befehle auf verschiedenen Einheiten ausgeführt werden, während bei AMD alles in Sequenz läuft - außer Vektor und Scalar-Operationen sowie Speicherzugriffe, die auch Parallel arbeiten können. Daher ein wichtiger Schritt, den AMD da macht, nur ist das neue Konzept zu unflexibel (deutlich beschränkt in Instruktionen, die parallel arbeiten können) sowie bedarf es darauf speziell optimierter Software. In dem Bereich hat AMD noch gut Arbeit vor sich, wenn sie wirklich aus jeder compute unit das Maximum heraus holen wollen.
 
  • Gefällt mir
Reaktionen: Niko-P, Michael vdMaas, [wege]mini und eine weitere Person
DaHell63 schrieb:
Man benötigt mit FG mehr VRam als mit DLSS alleine, aber immer nocht weit weniger als nativ.
Ich hatte mir gestern den CB-Podcast zur Folge RTX 4060 angehört. Darin haben sie aber genau dieses Problem beschrieben.
 
Ich verstehe nicht ganz wie diese Karten am Markt positioniert werden sollen. Gefühlt gibt es immernoch tonnenweise Karten der 6000er Reihe mit deutlich attraktiverem Preis/Leistungs-Niveau von Nvidias 3000er Karten ganz zu schweigen. Ja klar, es sind die neuen Karten aber man kann ja auch nicht so hart an der Realität vorbeiarbeiten oder?
 
  • Gefällt mir
Reaktionen: alkaAdeluxx und simosh
themk schrieb:
Dass AMD Effizienz nicht so wichtig ist sieht man auch daran, dass sie ihre GPUs noch weiter außerhalb des Sweetspots betreiben, als das bereits bei NVIDIA der Fall ist. Hat mich richtig verärgert, als ich das festgestellt hab. Last but not least hat man es teils mit absurdem Stromverbrauch in diversen IDLE Zuständen zu tun. (z.B. Multi-Monitoring und 4k Monitore mit höher als 60Hz) Ich glaube, dass da bei AMD in der GPU Entwicklung in den letzten Jahren einiges schiefgelaufen ist. Die niedrigen Verkaufszahlen sprechen leider nicht dafür, dass AMD das Geld hineinstecken wird können, um NVIDIA etwas entgegen zu halten...
Das hat mit Sweetspot wenig zutun. RDNA 3 bzw. Navi 33 nutzt halt auch Teillastbetrieb immer ihr max. mögliches Powerbudget um entsprechende Performance zu erreichen, im Teillast Bereich braucht Ada weniger Strom, das macht die Karten effizient. Aber auch hier hatte AMD bereits nochmal nachgebessert mit dem 22.12.2

AMD muss halt mit dem arbeiten was die neuste Architektur hergibt und versuchen damit konkurrenzfähig zu sein.

https://www.computerbase.de/2022-12...ition-22-12-2-soll-den-stromverbrauch-senken/

Das Thema mit dem hohen Idle Verbrauch wurde doch schon mehrfach besprochen. Es ist kein AMD only Problem. Gibt es auch bei Intels Arc und auch bei Nvidia (4060 mit 52W Powerdraw im Idle lt. Igorlab) Das Ganze ist stark abhängig von der individuellen Monitorkonfiguration. Der 23.7.1 hat hier bekanntermaßen nachgearbeitet für Viele und auch gibt es einen inoffiziellen Workaround mit CRU Tool oder via Treiber mit Custom Resolution via Adrenalin Software.
PCGH schreibt hier auch nicht umsonst: "Nun handelt es sich keineswegs um ein repräsentatives Ergebnis - Display-Geschichten wie diese hängen erfahrungsgemäß sehr mit der Konfiguration zusammen."

Ähnlich wie bei Nvidia, ist auch bei AMD das Hauptaugenmerk schon länger nicht mehr der Consumer Desktop Markt auf den Sie sich konzentrieren und mit dem Sie ihre großen Gewinne erzielen.
 
Zuletzt bearbeitet von einem Moderator:
Lolliedieb schrieb:
Dafür hat man hier nun an der Alu-Schraube (3070 hatte 46 SM, 4070 hat 64) gedreht

Hier hatte Nvidia den deutlich besseren Ansatz, im Nachhinein betrachtet. Da sind die TFlop Zahlen zwar in der Praxis auch nur Schall und Rauch, da man dort auch nicht einfach alles verdoppeln kann, in Computerspielen machen sie aber sehr viel daraus.

Bei AMD scheint es aktuell so zu sein, dass sie and der "Aluschraube" zu hart gedreht haben und nach fest, kommt ab. :heilig:

mfg
 
  • Gefällt mir
Reaktionen: Thor2607
Das Update verstehe ich nicht so ganz. Zwischen 4060Ti und 6800 (non xt) liegen doch "nur" 10%. Wenn die 7700 15% schneller sein soll als die 4060Ti, dann kann sie doch nicht hinter der 6800 liegen, sondern müsste vor ihr liegen?
 
Zurück
Oben