News Radeon RX 7000: Kurz vor GeForce RTX 4000 nennt AMD den RDNA-3-Termin

Taxxor schrieb:
Erst bei 45W dreht sich das Bild
Das ist ein Phänomen, welches die CPUs mit zwei Chiplets betrifft. Scheint nicht genug Saft für die dann zu sein. Der 7700X ist da nur noch 2% bei Anwendungen hinter dem 7950X. Gleichzeitig sinkt der Vorsprung des 13900K gegenüber des 7700X weiter, sind bei 45W nur noch 10%.

Hatte ich gestern schon im CPU-Test "analysiert"

Aber nun zurück zu Grafikkarten:

Der Trend mit immer höheren TDPs/Leistungsaufnahmen ist echt der Falsche weg, insbesondere, wenn man sieht, wie wenig die letzten Wattsteigerungen bringen. Schaut man sich die 4090 FE an, bringt die steigerung von 300W auf 350W noch rund 7% mehr Leistung, sind es nur noch 3% für die letzten 100W auf 450W. Und wenn man dann bedenkt, dass Custom-Designs mit deutlich höheren PPTs kommen sollen, kann man sich zu recht Fragen, was da noch zusätzlich unnötig verblasen wird. Aber hauptsache der Balken ist am längsten, dabei sind 3% subjektiv sicher nicht zu spüren im Spielbetrieb. Nicht spürbare Leistung für zusätzliche 100W Leistungsaufnahme, wer die dann so betreibt, hat den letzten schuss auch nicht mehr gehöhrt.

Natürlich wird AMD auch mit den Erhöhungen mitziehen, weil es um die Werbewirksamen Balken geht, so wird es immer mehr Pflicht des Nutzers die Leistungsaufnahme der Hardware an die Leine zu nehmen. Auch CPUs gewinnen nur marginal an Leistung durch die höheren Powerbudgets. Ein 7950X läuft mit 230W auch nur 5% schneller als er im Eco-Modus bei 142W bringt. Beim 13900K sind es immerhin 16% von 142W auf 253W, sind aber satte 78% mehr Leistungsaufnahme, die eben auch weggekühlt werden muss. Das sind natürlich nicht die Werte innerhalb des Spielebetriebs, Da wird die Leistung lange nicht so krass abgerufen, und von den Vielen Kernen/Threads von 13900K und 7950X profitieren Spiele nur sehr marginal, Es verpufft sogar mehr Leistung bei den Großen gegenüber den kleineren CPUs wie 5800X3D, 7700X und 13700K. Mist, doch wieder bei CPUs gelandet...

Wenn man das gesamte System betrachtet, kann man schon einiges an Leistungsaufnahme sparen, ohne dabei Einschränkungen zu erfahren, wenn man sich mit den PPTs beschäftigt, die dann einfach und schnell einstellbar sind. Undervolting ist da deutlich mehr Arbeit, was wohl die wenigsten Leute machen würden.
FPS-Limit ist auch ne gute Idee, wenn man einige wenig fordernde Spiele spielt und da die FPS unnötigerweise durch die Decke gehen. Was soll ich beispielsweise bei einem Aufbauspiel mit mehr als 60 FPS anfangen, wenn ich immernoch ein 60Hz Monitor habe? Ich starte des öfteren Spiele, wo ein 400 FPS-Schnitt rauskommt, bei 1440p mit einer RX6600. Mit FPS-Cap hab ich dann statt 100W GPU-Power keine 30W mehr. Die Wärmeabfuhr und damit auch die Lautstärke meines SFF-Systems wird es nur danken, und die Stromrechnung nebenbei auch ein wenig.
 
  • Gefällt mir
Reaktionen: Iarn
Apacon schrieb:
Raptor Lake hat AMD doch schon geschlagen, schauen wir mal ob sie bei den GPU's mithalten können. Ich denke nicht.
Also hierzu muss man ja erstmal sagen, dass wir bisher nur die (überragend starke) RTX 4090 kennen. Die angekündigte RTX 4080 wird voraussichtlich bedeutend schwächer und wie RDNA3 abschneiden wird ist genauso unbekannt wie die Bepreisung entsprechender Karten. Für die Käufer, die keine 2000 € oder mehr für eine Grafikkarte ausgeben (also 99% des Marktes), kann es eigentlich nur besser werden.

Persönlich rechne ich mit der jetzt seit über einem Jahrzehnt (mit einer Unterbrechung zwischen R9 300 und RDNA2) üblichen Anordnung: AMD hält über beinahe alle Bereiche gut mit, das absolute High-End wird aber nicht ganz erreicht. Da jetzt beide Hersteller wieder bei TSMC produzieren lassen, wird die Effizienz dabei vermutlich vergleichbar sein. Dank Chiplet-Bauweise müsste AMD nun aber Kostenvorteile haben, die hoffentlich wenigstens teilweise weitergereicht werden ...

Bzgl. Raptor Lake bin ich übrigens auch der Meinung, dass Intel gut abgeliefert hat - in jedem Fall weit besser als ich selbst erwartet hätte. Beide Hersteller übertreiben es mit den Werkseinstellungen ihrer CPUs auf dämtlichst-mögliche Art und Weise, was aber auch bedeutet, dass man das nicht isoliert kritisieren kann. Hier haben beide in die Scheiße gegriffen. Optimiert sind dann aber auch beide Generationen super, Intel für P/L-Käufer erstmal besser, AMD für künftige Aufrüster, die ihr Board lange nutzen wollen.

Hutzeliger schrieb:
Wie schlecht kann etwas altern?
Die für Enthusiasten interessantesten Zen 4-CPUs sind ja noch gar nicht draußen, ebensowenig wie RDNA3 oder die Mehrheit der Ada-Generation. Insofern gibt es schon noch einiges, auf das man sich freuen kann. Ich finde die RTX 4090 überragend und könnte mir vorstellen, früher oder später (eher später allerdings) eine zu kaufen, aber bzgl. RTX 4080 und darunter bin ich weniger enthusiastisch. Für AMD bleibt da genug Raum.
 
  • Gefällt mir
Reaktionen: Iarn
ArrakisSand schrieb:
Diese von Ineffizienz und von abartig hohem Verbräuchen gebrandmarkten Raptor lakes und im speziellen der 13900K schafft es bei Multi-Core Anwendungen noch nicht mal, wenn er gegen oben geöffnet wurde und 350W dabei verbraucht gegen den normalen 7950X mit 142W zu bestehen.
Da sagt der CB-Test aber was anderes im Anwendungsmix. Punkt 1: Auf 350W kommt der 13900K nicht sind 315W Package Power im Maximum und das unter Prime und nicht unter den Anwendungsmix und Punkt 2: wird hier der 7950K im Eco knapp vom 13900K sogar mit 253W-Begrenzung geschlagen.
Betrachtet man nur Handbrake, dann ist der 7950X im Eco tatsächlich schneller, als der 13900K. Hier ist der 13900K aber noch einmal weiter weg von den 350W, sind dann "nur" noch 276W. Immer noch ineffizient, aber man darf die Vergleiche nicht so durcheinander bringen um eine Übertreibung aufzuführen.
 
crustenscharbap schrieb:
Die RX 6400/6500 hat keine Video Encoder und daher für mich unbrauchbar.
Bitte was?

Video Core Next supports: MPEG2 Decode, MPEG4 Decode, VC-1 Decode, H.264/MPEG-4 AVC Encode/Decode, HEVC Encode/Decode, and VP9 Decode.[4]

VCN 2.0 is implemented with Navi products and the Renoir APU. The feature set remains the same as VCN 1.0. VCN 3.0 is implemented with Navi 2 products.[5]

https://en.wikipedia.org/wiki/Video_Core_Next
Ergänzung ()

Apacon schrieb:
Okay, völlig richtig. Ich war bei Spielen
Ja bei den Spielen ist der Raptor wirklich sau schnell selbst wenn man ihn auf 90W beschränkt

Aber dass der 13900er im Game da im Normalbetrieb gleich nochmals 30-40W mehr braucht als der 12900K
der eh schon einiges mehr soff als ein 5800X3D laut CB ist nur so semi geil.
Der braucht inzwischen locker das Doppelte, nur die CPU, für 15% mehr und das ist schlicht lausig.

https://www.computerbase.de/artikel...bschnitt_leistungsaufnahme_in_spielen_ab_werk
 
Zuletzt bearbeitet:
modena.ch schrieb:
Ja bei den Spielen ist der Raptor wirklich sau schnell selbst wenn man ihn auf 90W beschränkt
Finde es schon sehr krass was der auf 90W gedrosselte 13900k mit dem 7950X in spielen anstellt...
 
Das wird nur keiner machen. Und so säuft er 140W im Game!
Ganz tollle Wurst!
Ergänzung ()

Laphonso schrieb:
So lange hier in den Computerbase Tests fast ausnahmslos festgehalten wird
"RDNA hat wieder Probleme in den raytracing fps", hast Du hier den nächsten unique selling point, mit dem das Ganze aufgeht.

Naja, das Problem ist ein Grossteil der Spielerschaft zieht sich an solchen Features hoch.
Und glaubt das zu brauchen.
Es gibt 3-4 Spiele wo RT gut implementiert wurde der Rest ist totaler Kernschrott wo es dazu noch massenhaft Frames frisst.
Da sieht die Rastergrafik meist sogar besser aus bzw. 98% der User würden RT on und off nicht zuweisen können, schon gar nicht wenn die Action abgeht.

Also am Ende bleibt Einbildung, Gespiegel welches oft völlig übertrieben eingesetzt wird
und etwas Licht und Schatten. Von mir ein grosses Yay!

Man kann es sehr sinnvoll einsetzen, um die Immersion zu verbessern.
Aber meistens ist es einfach schlecht gemacht.

Nichts gegen DLSS/FSR, das bringt wirklich was.
Aber RT läuft bei mir meistens unter LOL! Echt jetzt?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MRclean, GerryB und p4z1f1st
modena.ch schrieb:
Bitte was?

Video Core Next supports: MPEG2 Decode, MPEG4 Decode, VC-1 Decode, H.264/MPEG-4 AVC Encode/Decode, HEVC Encode/Decode, and VP9 Decode.[4]

VCN 2.0 is implemented with Navi products and the Renoir APU. The feature set remains the same as VCN 1.0. VCN 3.0 is implemented with Navi 2 products.[5]
RX6400 und RX6500 haben in der Tat sowohl keine Encoder für H264/265 also auch kein Encoder und Decoder für AV1. Die gibt es erst ab RX6600. Steht so sogar auf der AMD-Seite.

6400/6500 waren ursprünglich nur für Mobile-Anwendungen gedacht, wo die neben der APU eingesetzt werden, die die Encoder haben. Daher hat man sich die hier gespart.
 
  • Gefällt mir
Reaktionen: nille02
Apacon schrieb:
Finde es schon sehr krass was der auf 90W gedrosselte 13900k mit dem 7950X in spielen anstellt...
Naja, dazu muss man sagen, dass ein 7950X und speziell auch der 7700X selbst mit 65W Limit nicht wirklich an Leistung verliert und dann liegt der Unterschied eben noch bei ~10-12% mit einer Nvidia GPU, mit einer AMD GPU dann entsprechend bei ~5-7%
 
modena.ch schrieb:
Das wird nur keiner machen. Und so säuft er 140W im Game!
Ganz tollle Wurst!
Zumal ein 13900K gedrosselt auf 88W dann auch von einem 7950X auf 88W locker geschlagen wird. Ein 13900K schleppt auch für nur Gaming einfach zu viele Kerne mit, die dann meist ungenutzt rumidlen.

modena.ch schrieb:
Aber RT läuft bei mir meistens unter LOL! Echt jetzt?
Sehe ich ähnlich. Gerade in den unteren Grafikkartenklassen wird RT sowieso zum Witz, weil die insgesamt schon weniger Ressourcen für RT mitbringen, zusätzlich zu der sowieso schon geringeren Leistung. Da will man sich doch nicht so ein halbgaren Leistungsfresser antun. Trotzdem wird die RT-Leistung bei NV gerne als Kaufargument aufgeführt, selbst bei Karten wie ne 3060 und am Ende nutzt darauf keiner RT, weil die dann zu langsam sind.

RT ist bisher ein Leistungsfresser ohne großen Mehrnutzen beim spielen.
Ergänzung ()

Taxxor schrieb:
speziell auch der 7700X selbst mit 65W Limit nicht wirklich an Leistung verliert
Jup, der 7700X benötigt im Spieleschnitt auch nur 72W, also kommt so schon nicht bei einer 88W-Drosselung an. Auf 65W werden einiger der Spiele aus dem Test sogar garnicht gedrosselt. Und am Ende hängen die Systeme bei vielen Spielen doch im GPU-Limit, weil man nicht in 720p spielt mit einem Highend-Rechner mit 700€+ CPU und 2000€ GPU.

Leider gibt es noch zu wenige Tests bezüglich reduzierter Leistungsaufnahmen gerade in Games. Langsam wird es mal Zeit, dass man für die heutigen Situationen mit hohen Stromkosten und unnötig hohen TDPs mehr ein Fokus auf zumindest leichte Optimierungen legt, wie ich weiter oben schon geschrieben habe, oft verbrennt Leistung ohne Mehrwert: Ein Ungedrosselter 13900K ist gerade mal 7% schneller in Spielen, als ein auf 88W gedrosselter. Eine 4090 ist gerade einmal 3% schneller auf 450W als eine auf 350W, ein 7950X ist in Anwendungen gerade einmal 5% schneller bei 230W gegenüber einen im Eco bei 142W. Nur um ein paar lose Beispiele zu nennen. Das sind Werte, die kaum bis garnicht spürbar sind, eher nur Messbar für den längsten Balken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Bassmensch, Rockstar85 und modena.ch
Der Livestream findet statt am 3. November 2022 um 21 Uhr deutscher Zeit und kann auf AMDs YouTube-Kanal verfolgt werden. Paar Stunden nach Ende der Veranstaltung soll eine Wiederholung auf amd.com/Radeon zur Verfügung stehen.
Quelle: AMD.com
 
@-Ps-Y-cO- will ja nicht wie der Spielverderber klingen, aber genau das wurde im gestrigen Artikel-Update erwähnt / ergänzt 😅🤷🏻‍♂️
 
Zuletzt bearbeitet:
@DenMCX ahhh Lesen muss man können :D
Sorry hahaha
Hab nur Update1 gesehen+gelesen. ^^
 
Taxxor schrieb:
Erst bei 45W dreht sich das Bild
Warum ist das so? Weil dann hauptsächlich die effizienteren ecores verwendet werden?
Laphonso schrieb:
Weil die eigene Filterblase und/oder die Medienberieselung vielleicht suggeriert, dass es nur noch Minijobs gibt, SGB Bezug und schlecht bezahlte Arbeit und Schüler und Azubis etc.

Das ist nicht der Fall. Die Chemiebranche haut z.B. im neuen Tarifabschluss direkt mal insgesamt 3000 Euro Einmalzahlung raus.

Weil es auch weiterhin viele gibt, die liquide/solvent sind mit disposable income.
Und weil PC Gaming nachwievor ein günstiges Hobby ist.

Neben mir auf der Liege in Fuerteventura (Costa Calma Beach) war vor ein paar Tagen eine Familie im Urlaub, die für 10 Tage mit Flug und Freizeitaktivitäten 3500 Euro ausgibt.
Mein Kollege, dessen Hobby Autos Tuning sind, hat gerade 4500 Euro in der Getriebereparatur gelassen.
Meine beste Freundin und Ihr Mann finazieren dem Sohnemann gerade das Soziale Jahr in Südamerika mit 5000+ Euro.
Mein letztes Kumpelwochende mit Lasergun Action, Kino, Essen etc hat mich inkl. Fahrtkosten 200 Euro gekostet.
So ist es andere Leute haben andere Prioritäten
Ich würde würde niemals 2500€ für ne Grafikkarte ausgeben aber zwei Freunde denen erheblich weniger Geld zur Verfügung steht haben das garnicht lange überlegt und bestellt
Für einen Urlaub sehe ich 2500€ hingegen wieder alle relativ günstig an

Meine Glaskugel sagt übrigens 2,1 fache Rasterleistung der 6900xt, 20% langsamer in RT als die 4090 zum Preis von 1300$
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Weiß nicht ob hier schon die letzten Gerüchte bekannt sind. Laut Leak soll 2Fache Leistung erreicht werden. Sowohl Raster als auch RT - wobei RT über 2facher sogar liegen soll.
Interessant - TBP soll auf der Referenzkarte "amazing" sein.
Boardpartner haben Chips bereits zum Testen...
Wenn das letzte stimmt - sollten ja demnächst weitere Leaks folgen...
 
Beteigeuze. schrieb:
Warum ist das so? Weil dann hauptsächlich die effizienteren ecores verwendet werden?
Weil dann bei AMD der Anteil des IO-Die zu groß wird und die Kerne nicht mehr genug Saft bekommen um hoch zu Takten, daher brechen sie in dem Bereich stark ein.

Sieht man beim 5950X genauso, nur dass es da früher passiert weil die Kerne an sich mehr verbrauchen
 
" Nach dem letzten Stand soll Navi 31 im Vollausbau ein GCD (Graphics Core Die) mit 48 WGPs, 12 SAs und 6 SEs haben. Das soll in 12.288 FP32-Shader-ALUs münden. 96 MiB Infinity Cache und 348 Bit bei 24 GiB sollen es sein. Die gekappte Version für die Radeon RX 7900 XT soll 42 WGPs haben oder 10.752 FP32-Shader-ALUs. Dazu 80 MiB Infinity Cache und die erwähnten 20 GiB Speicher an 320 Bit. Der Infinty Cache im MCM-Design kommt von bis zu sechs MCDs mit je 16 MiB. Es soll auch eine gestaüpelte Variante geben, die je Chip den Speicher verdoppelt. Das würde maximal 192 MiB ermöglichen. "
" das ursprüngliche Design 24 soll GiB vorgesehen haben, aber dann sei die Menge auf 20 GiB reduziert worden. Das geht natürlich auch nur parallel zum Speicher-Interface, das dadurch schmaler wird und damit variiert auch die Bandbreite. Ein Vollausbau mit 24 GiB soll von Navi 31 allerdings möglichg sein, könnte als Radeon RX 7950 XT auf den Markt kommen und soll sich angeblich die Geforce RTX 4090 Ti zur brust nehmen."

https://www.pcgameshardware.de/Rade...900-XT-angeblich-mit-20-GiB-Speicher-1405811/
https://wccftech.com/amd-radeon-rx-7900-xt-rdna-3-graphics-card-to-pack-20-gb-gddr6-memory/
 
  • Gefällt mir
Reaktionen: p4z1f1st
Wird spannend, was in knapp 2 Wochen von AMD vorgestellt wird. Es versuchten sich ja mittlerweile immer mehr die Gerüchte, dass die Performance doch sehr nah an die der 4090 kommen könnte.
Außer, man redet sich die "Fake-Frames" durch DLSS 3 als echte FPS ein...
 
crustenscharbap schrieb:
Vielleicht funzt die Karte mit ein Ryzen 5600G z.B.
Bestimmt, leider haben die G Serie APUs nur PCIe 3 was bei der Karte mit 4 Lanes etwas eng wird. Aber das konnte AMD von Beginn an nicht erklären. Die CPUs die PCIe4 beherrschen nutzen eher stärkere GPUs bzw welche mit De- und Encoder und die die prädestiniert dazu wären haben ein langsameres PCIe Interface was die Karte aus bremst. Ich meine 35% im Durchschnitt ist bei so einer Karte schon eine ganze menge.
 
Zurück
Oben