News Radeon-Gerüchte: AMD werde RX 7700 und RX 7800 zur Gamescom vorstellen

Können se auch gleich stecken lassen, zum Neu- und Vollpreis will die eh niemand solange noch 6700-6900er verramscht werden.
 
Ben_computer_Ba schrieb:
Rtx 4080 konkurriert mit der 7900xtx, die 4080 ist minimal teurer, ist dafür aber effizienter, hat einen bessere RT Performance, dlss3 und häufig bessere Treiber bei releases.
Der Preisunterschied liegt bei ca. 200€, das wären ca. 20% Aufpreis für eine RTX 4080. Das macht die RX 7900 XTX zu einem sehr starken Gegner. Wenn da mal nicht das typische Kaufverhalten von den allermeisten PC-Gamern wäre...

Ben_computer_Ba schrieb:
Rtx 4070ti konkurriert mit der 7900xt, bis auf den größeren vram spricht nichts für AMD, darunter hat AMD keine Konkurrenz, bis auf die 7600 bei der rtx 4060, letztere ist minimal teurer, gleich schnell und bietet auch die Nvidia Features.
Hier das Gleiche: Früher war die RX 7900 XT noch etwas teurer als die RTX 4070 Ti. Da sie sich mittlerweile preislich angenähert haben, ist die Radeon der etwas bessere Deal. Nicht allein wegen 20GB VRAM, auch die Rasterleistung ist etwas besser. Und Raytracing braucht auch längst nicht jeder Gamer, zumal die Geforce mit 12GB je nach Szenario bereits heute Probleme in dem einen oder anderen Spiel bekommt.
 
  • Gefällt mir
Reaktionen: cosmo45, danyundsahne, cruscz und 2 andere
[wege]mini schrieb:
Die lange Pipeline ist auf hohe Taktraten optimiert, die werden aber nur bei unglaublich hohem Verbrauch realisiert. Da ist man einfach nicht konkurrenzfähig.
Ja und Nein. Die lange Pipeline ist für RDNA 3 - zumindest Navi 31 nicht das primäre Problem und das Problem ist auch nicht in den CU (VecALU, SALU, TMU, RT-Kern) zu verorten, die machen in der Regel genau das, was sie sollen und skalieren sogar sehr gut. Es zeigt sich hier aber, dass selbst in Spielen die CU mit 2,9 GHz takten kann bei 390 W, während es in anderen Bereichen nur für 2,7 GHz bei 390 W reicht.

Die Probleme sind in zwei Ebenen darüber zu suchen.
Averomoe schrieb:
Das lese ich vielerorts seit Monaten und ich frage mich, wie das AMD passieren konnte.
Es gibt Andeutungen, dass die es einen Hardwarebug in der "Renderpipeline" gibt und dass dieser entsprechenden Taktraten verhindert des ganzen Chips.

Sieht man sich das Taktverhalten von Navi31 in Cyberpunk ohne RT, mit RT und mit PT an, ebenso den hohen Verbrauch bei zwei Monitoren mit hohen Auflösungen und Co, kristallisiert sich da eine Stelle raus.
fox40phil schrieb:
RDNA 4 kann nicht früh genug kommen.
Wenn AMD bei RDNA 4 das Problem in dem Bereich, den ich vermute, genau identifizieren kann und sie die RT-Kerne weiter verbessern, ggf. sogar BVH aus den TMU in die RT-Kerne umziehen oder diese weiter verbessern, dazu wirklich auf 144 CU aufrüsten, dann und nur dann, könnte RDNA 4 eine Konkurrenz werden.

Nur soviel kann ich sagen: RDNA 3 ist eigentlich eine gute Architektur, sie hat nur mit einem Hardware-Problem und einem P-State-Problem zu kämpfen.
bensen schrieb:
Preislich ist AMD besser aufgestellt. Technisch ist das Massaker eher andersrum. Wenn man einen riesen Klopper N31 mit einem schlanken AD104 vergleicht, muss ja schon was gewaltig schief gelaufen sein. Für AMD ein Desaster. Navi 32 sieht hoffentlich besser aus.
Nur das der direkte Navi31 Konkurrent nicht AD104 ist, sondern AD103. Zudem sollte man sich ab dieser Generation vom Flächenvergleich lösen, da AMD N5 + N6 verbindet.

AD103 hat 46 mrd. Transistoren, Navi31 58 mrd. Transistoren. Navi31 hat 26 % mehr Transistoren. Daraus zieht Navi31 ca. 5 % bei Rasterizer mehr an Leistung als AD103.

Für AD104 ist der direkte Gegenspieler Navi32 und da wird man nun abwarten müssen.
Ayo34 schrieb:
Alleine die +100% Effizienz in einer Generation ist ein Wahnsinns-Sprung von 3000er zur 4000er Generation. Entsprechend hat die 4080 und insbesondere die 4090 einen enormen Sprung gemacht bei der Leistung und trotzdem laufen sie mit 200-300 Watt noch enorm schnell.
Was man aus AD102 bei 300 W holen kann, ist beachtlich. Auf die 5 - 7 % an fps kann man in vielen Spielen locker verzichten, was der unlimitierte Verbrauch dann bringt.
 
  • Gefällt mir
Reaktionen: danyundsahne, Averomoe und konkretor
TigerherzLXXXVI schrieb:
Hier das Gleiche: Früher war die RX 7900 XT noch etwas teurer als die RTX 4070 Ti. Da sie sich mittlerweile preislich angenähert haben, ist die Radeon der etwas bessere Deal. Nicht allein wegen 20GB VRAM, auch die Rasterleistung ist etwas besser. Und Raytracing braucht auch längst nicht jeder Gamer, zumal die Geforce mit 12GB je nach Szenario bereits heute Probleme in dem einen oder anderen Spiel bekommt.
Also in meinen aktuellen Top 5 Spielen fahre ich mit der 4070 Ti deutlich besser. (MSFS 2020, BF2042, D4, CP2077, TLOU)
Meist ist DLSS und/oder FG der Grund. In UHD mit Ziel auf dreistellige fps für mich absolut kaufentscheidend. Da spielen die beiden Hersteller was Qualität und Verbreitung angeht in einer unterschiedlichen Liga.
Denke die fallenden Radeon Preise haben schon ihre Gründe.
 
@wtfNow Klar, es kommt immer auch auf die persönliche Spieleauswahl an. Und DLSS 3 ist ein echtes Argument, solange man um die 60 FPS nativ bekommt. Früher oder später wird der 4070 Ti aber ihr zu knapper Speicher zum Verhängnis. Sie ist wie die 3070 (Ti) bei Ampere: zwei Jahre nach Release wirst du Spiele in UHD inklusive Raytracing komplett vergessen können, bei der 3070 (Ti) kann man heute analog dazu nur noch in 1080p vernünftig spielen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DF86
@TigerherzLXXXVI
Das Thema Speicher sehe ich etwas umfangreicher.
Sie kann wie die 3070 nur zwei Jahre ausreichen, oder aber wie die GTX 1070 mit den selben 8 GB deutlich länger. Lange Zeit waren 8 GB die eiserne Grenze wo selten Spiele mal rangenkommen sind. Warum sollte das nicht so ähnlich bei 12 GB sein? Woher wollen die Spieler da draußen wissen dass der Speicherverbrauch weiterhin linear mit der Zeit steigt? Das wäre untypisch, sie steigt meist stufenweise und verharrt dann X Jahre.
Die 2023 handvoll extrem speicherhungrigen/verbuggten Spiele wurden nach wenigen Patches optimiert...

Nichtsdestotrotz möchte ich das Risiko nicht eingehen und rüste ohnehin jede 1-2 Generation in der oberen Mittelklasse auf. Aber ich glaube nicht dass die echte Speicherlimitierung direkt vir der Tür steht.
 
  • Gefällt mir
Reaktionen: simosh
.Snoopy. schrieb:
Manchmal glaube ich, die wollen gar keine wirkliche Konkurrenz zu Nvidia sein.
Das ist doch ganz offensichtlich so. Die haben bei TSMC nur so viele Kapazitäten gebucht, wie sie eben gebucht haben. Warum soll man da die Preise drücken und eine Nachfrage erzeugen, die man eh nicht bedienen kann?
 
.Snoopy. schrieb:
Sollte das wirklich so sein, ist AMD dämlicher als ich dachte. Die hätten schon sehr früh die 6000er heruntersetzen müssen, um Nvidia unter Druck zu setzen und hätten dann schon längst die neuen Karten auf dem Markt gehabt. Ich verstehe nicht, was bei AMD echt daneben läuft. Manchmal glaube ich, die wollen gar keine wirkliche Konkurrenz zu Nvidia sein.
Wozu hätte man RX6000 noch weiter heruntersetzen sollen wenn sie weiterhin compeditiv zu den Konkurrenz Produkten ist. Kein Unternehmen verkauft sich unter Wert. Das mag vielleicht aus Sicht des Kunden nicht stimmig sein, für ein Börsen-Unternehmen der Branche aber schon.

Zudem, kann man eigentlich keine sachlichen Worte nutzen als "dämlich" etc?!
 
  • Gefällt mir
Reaktionen: cruscz, DF86 und Millennial_24K
Sapphire Fan schrieb:
Was ich nicht verstehe, wenn die 7800er Karte nur mit der RTX4070 konkurriert, wozu dann überhaupt die Karte rausbringen? Die RX6800XT die vermutlich dann weitaus günstiger ist, wäre doch da viel viel besser als Gegenpart, zumindest für den Kunden.
Die 7800er wird zwischen der 4070 und der 4070 Ti liegen. Also etwas über dem Niveau der 4070. Der Grund liegt zudem auf der Hand. Die 6800/XT wird nicht mehr produziert und ist somit zeitnah schlecht bis garnicht mehr verfügbar nach Abverkauf. Für die übrig gebliebenen Modelle steigt der Preis und sie werden uninteressant. Deshalb die 7800er.
Ergänzung ()

fox40phil schrieb:
RDNA 4 kann nicht früh genug kommen.


Ich kann voll verstehen, wenn man aktuell oder immer noch auf Cuda etc. angewiesen ist, dass man NV bevorzugt.
RDNA 3.5 wird uns 2024 zusammen mit Zen 5 erwarten. RDNA 4 ist noch weit entfernt.

Ab Herbst wenn AMD ihre ROCm API mit Version 5.6 für RDNA3 Customer GPUs und Radeon Pro frei gibt wird es erst interessant mit einer weiteren CUDA Alternative.
Ergänzung ()

mahama schrieb:
Können se auch gleich stecken lassen, zum Neu- und Vollpreis will die eh niemand solange noch 6700-6900er verramscht werden.
Diese Karte werden nicht mehr produziert und sind nahezu abverkauft. Bei schlechter Verfügbarkeit steigen die Preise. RDNA2 ist nun mal EOL.
 
  • Gefällt mir
Reaktionen: danyundsahne und fox40phil
Hätte diese Generation gerne wieder eine AMD gekauft. Aber die Effizienz ist leider vollkommen uninteressant. Mit einer untertakteten und untervolteten 4070er / TI kann AMD nicht ansatzweise mithalten. Gerade jetzt im Sommer merke ich, dass ich selbst mit diesem Setup (+7800X3D) schon an meine Hitzegrenzen im Gaming-Zimmer stoße und an manchen Tagen den PC nicht belasten kann, ohne aktiv Kühlung im Zimmer hinzuzufügen.

Dass AMD Effizienz nicht so wichtig ist sieht man auch daran, dass sie ihre GPUs noch weiter außerhalb des Sweetspots betreiben, als das bereits bei NVIDIA der Fall ist. Hat mich richtig verärgert, als ich das festgestellt hab. Last but not least hat man es teils mit absurdem Stromverbrauch in diversen IDLE Zuständen zu tun. (z.B. Multi-Monitoring und 4k Monitore mit höher als 60Hz) Ich glaube, dass da bei AMD in der GPU Entwicklung in den letzten Jahren einiges schiefgelaufen ist. Die niedrigen Verkaufszahlen sprechen leider nicht dafür, dass AMD das Geld hineinstecken wird können, um NVIDIA etwas entgegen zu halten...
 
C0rteX schrieb:
Wer noch eine halbwegs brauchbare Karte hat, kann direkt auf die nächste Generation warten. Laut Gerüchten von MLID soll RDNA 4 früher kommen als gedacht.
2024 kommt laut AMD Roadmap "nur" RDNA 3.5 zusammen mit Zen 5. RDNA 4 ist noch etwas weiter entfernt.
Ergänzung ()

Tharan schrieb:
Aber wie du sagst ist dann das mit FSR3 weiterhin fraglich, wo das bleibt.
Mein Tipp. Rx7700/7800 und FSR 3.0 + Hypr RX alles im September zum Starfield Release und das Game als erster offizieller FSR 3.0 Titel.
Ergänzung ()

Ayo34 schrieb:
Nvidia ist bei Treiber, Software, Funktionen einfach deutlich innovativer.
Das würde ich jetzt bei den ganzen Bugs der Nvidia Treiber Releases alleine in diesem Jahr nicht so in den Raum werfen. Und ihre letzten Software Features abseits von DLSS 3.0 sind auch bisher nur halb fertig. Thema KI Augenverfolgung in Broadcast oder KI Skallierung von YT Videos.
Ergänzung ()

Wun Wun schrieb:
Naja, diese Karten kommen mit Ende 2023 ja schon erst ein Jahr später, und das "Zwischenjahr" 2023 wäre normal der Zeitpunkt für ein Refresh. Dürfte sich damit erledigt haben, ich denke AMD ist auch froh wenn sie 2024/25 das Thema RDNA 3 abhaken und den Nachfolger dann (hoffentlich wie geplant) bringen können.
Laut AMD Roadmap kommt 2024 RDNA 3.5
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Convert
  • Gefällt mir
Reaktionen: DerToerke
Telechinese schrieb:
Die 7800 auf dem Niveau der 4070...
Bei 30% "mehr" Stromverbrauch (200W zu 260W)... aha...
Das hört sich für mich nicht wie "auf selbem Niveau" an...
Und wenn's eh erst im September kommen... lol 🤣
Die 7800 wird sich zwischen die 4070 und 4070 Ti plazieren, nicht auf dem gleichen Niveau. Eine 7800 wird Stand jetzt 10-15% schneller sein wie die 6800XT, die ist aber bereits schon auf den Leistungsniveau der 4070. Dann mehr Vram minimal schlechtere RT Leistung und zum September Release passend mit Starfield wird man wohl auch mit FSR 3.0 und Hypr RX rechnen können. Das Paket könnte als ganz gut werden.
Ergänzung ()

iWeaPonZ schrieb:
Nun habe ich eine überteuerte 4090 auf 144 FPS und max. 250 Watt limitiert. Die ist auch fürs Homeoffice tatsächlich deutlich sparsamer als die AMD Varianten :(
Eine AMD GPU kannst auch limitieren. optimieren, undervolten usw. Ja die 4090 bleibt effizienter aber es ist möglich.
 
  • Gefällt mir
Reaktionen: danyundsahne und DF86
DevPandi schrieb:
Nur soviel kann ich sagen: RDNA 3 ist eigentlich eine gute Architektur, sie hat nur mit einem Hardware-Problem und einem P-State-Problem zu kämpfen.
Wirklich schade, dass es so gekommen ist. Ich hatte mich auf ein erneutes Kräftemessen auf Augenhöhe gefreut, wie bereits bei Ampere vs RDNA 2 geschehen. Viele, und dabei meine ich die meisten Nvidia-Anhänger, sind sich nicht bewusst darüber (oder es ist ihnen schlicht egal), was AMD für eine grandiose Leistung mit RX 6000 vollbracht hatte. Nur zwei Jahre zuvor lautete das Duell noch RTX 2080 Ti vs RX Vega 64/56...

DevPandi schrieb:
Was man aus AD102 bei 300 W holen kann, ist beachtlich. Auf die 5 - 7 % an fps kann man in vielen Spielen locker verzichten, was der unlimitierte Verbrauch dann bringt.
Ada profitiert im Duell mit RDNA 3 zusätzlich noch vom besseren 4nm-Prozess. Wieviel das im Vergleich zu 5nm bringt weiß ich zwar nicht. Aber zumindest gefühlt ist 4nm nochmals spürbar effizienter.

Der gewaltige Effizienzsprung von RTX 4000 kommt auch daher zustande, dass der Samsung 8nm-Prozess von Ampere damals bei weitem nicht der fortschrittlichste war. Dies begründet u.a. auch den zum Teil höheren Stromverbrauch bei gleicher (Raster)Performance im Vergleich zu RX 6000. Und nicht zu vergessen: die absurd "fetten" Kühlkörper der RTX-4000-Karten beruhen noch auf alten Berechnungen zur Leistungsaufnahme mit einem deutlich schlechteren Fertigungsverfahren. Da hatte Nvidia offenbar einfach das Glück gehabt, völlig unverhofft das besagte Fertigungsverfahren von TSMC zu bekommen - und das exklusiv.
 
Zuletzt bearbeitet:
HansDetflefAndi schrieb:
Bis dahin stehen bei NVIDIA Ti und Super Refreshes bereit..
Super Refreshs gab es seit RTX 2000 nicht mehr. und TI sind nur noch eine 4080 Ti und 4090 Ti möglich.
 
Schlimmer für AMD war das Jahr 2020, als noch im Oktober die 3 Jahre alte GTX 1080 Ti die beste AMD-Karte war, noch vor der neueren 5700 XT 😂
 
Wun Wun schrieb:
Bis die Karten kommen, ist fast schon die nächste Generation draußen :stacheln:
Der Nachfolger von ADA kommt erst 2025 und RDNA 3.5 2024 mit Zen 5. RDNA 4 wird noch eine Weile dauern und von Nvidia wird es 2024 max. Refreshes geben oder nix. und eventuell noch eine 4080/90 Ti
Ergänzung ()

TigerherzLXXXVI schrieb:
Nur zwei Jahre zuvor lautete das Duell noch RTX 2080 Ti vs RX Vega 64/56...
RX Vega 56/64 waren die Konkurrenzmodelle zur 1070/1080, gegen RTX2000 hatte AMD die Radeon VII und später die RX5700XT, 5700, 5600XT und 5500.
 
Samuelz schrieb:
Juckt keinen IMHO.

AMD schafft es einfach nicht bei der GPU Sparte, seit Jahren konstante gute GPUs auf den Markt zu bringen. Mal ist eine Gen ein Flop, dann wieder "ok" dann sogar richtig gut (RDNA 2) nur um dann wieder einen Fail Architektur zu veröffentlichen. Nvidia im Gegenzug hat es seit der 8800 GTX geschafft, konstant gute Produkte auf den Markt zu bringen, zwar leider auch zu teuer. Aber das scheint die meisten auch nicht zu stören.

Und das Ergebnis ist, dass Nvidia viel mehr für Forschung unt Entwicklung sowie KI investieren kann, und AMD eigentlich immer nur nachmachen kann. DLSS, FG, RT, usw.

Deswegen ist der GPU Markt so, wie er nun mal ist. Daran hat AMD leider eine große Mitschuld.

Das kann ich so definitiv nicht unterschreiben. Grundsätzlich stimme ich zu, dass AMD tatsächlich mal stärkere und schwächere Serien hat, aber etwa Nivdias 3000er-Serie war abgesehen von der RTX3090 durchweg bei den stärkeren Karten mit deutlich zu wenig VRAM ausgestattet und ist ist jetzt, gerade einmal 2,5 Jahre später sowieso schon zu lahm für Raytracing. Man kann sich das schönreden, aber meines Erachtens liefern beide Hersteller nicht durchgehend ab. Auch die 4000er Serie ist absolut nichts besonderes. Energieeffizent? Ja. Das war es dann aber auch.

LG

Micha

PS: Auch wenn ich meine RX7900XT auch in gewissen Punkten verbesserungswürdig finde, bin ich gespannt auf die Stimmen von 4070(ti) Käufern, die in wahrscheinlich schon 1,5 Jahren rumheulen, weil der VRAM nicht mehr ausreicht (siehe RTX3070 vs. RX6800/6900, wo die Radeons aufgrund des VRAMs tatsächlich sogar mit Raytracing schneller sind).
 
  • Gefällt mir
Reaktionen: HierGibtsNichts, danyundsahne, Icke-ffm und 3 andere
Zurück
Oben