Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

mojomojo schrieb:
Das wäre super, man sollte aber die Preise der lieferbaren Karten vergleichen.
Alles andere wäre ein Gebet an die UVP an die sich niemand halten muss.
Waren heute Morgen oder gestern Abend lt. Forum bei AMD direkt wieder lieferbar, ganz ohne Drop, Warteschlange und Tamtam und das unter der UVP.
Chilisidian schrieb:
Wird glaube ich Zeit den Thread hier mal zu schließen, bevor es komplett eskaliert. Nach 140 Seiten ist glaube ich auch alles gesagt. Man dreht sich ohnehin nur noch im Kreis.
Das würde nur ein verlagern der Diskussion nach sich ziehen ;-)
 
  • Gefällt mir
Reaktionen: Eld0r
Zer0Strat schrieb:
Das ist etwas, was man als Endkunde erwarten kann, wenn die Karte zu Hause ankommt.
Der Endkunde bekommt das was getestet wurde. Dass das nicht aktiviert ist macht die Karte ja weder schlechter noch besser. Jeder wusste der sich eine Karte kauft was er kauft, sollte er sich informiert haben, d.h. der Kunde ist auch nicht benachteiligt worden, weil seine Karte nun plötzlich langsamer oder schlecht ist als in all den Tests dargestellt. Wer sich nicht informiert, dem ist eh nicht zu helfen.

Hier macht es also absolut keinen Unterschied ob da nur 2% oder 20% Leistung dabei draufgehen, solange die Karten, die zum Test zur Verfügung standen exakt das gleiche bieten/nicht bieten. Wo ist also der Aufreger? Gibt es nicht.

Abgesehen davon. Sehe ich die Karte auch nicht so schlecht, wie von einigen dargestelt. Es ist einfach nicht der große Wurf der erwartet/erhofft wurde und Nvidia hat die Messlatte unerwartet hoch gesteckt. Ich hab nur auch schlicht keine Zeit und Lust mich mit dem Kindergarten zu beschäftigen und jeden der hier Blödsinn redet mit Fakten zu korrigieren. Es ist mir mittlerweile schlicht egal. Kaufts oder lasst esbleiben, mit Vernunft hat dies hier schon lange nix mehr zu tun. Mercedes oder BMW?
 
  • Gefällt mir
Reaktionen: Jagdwurst, ThePlayer, NMA und eine weitere Person
Zer0Strat schrieb:
Das mag sein. Wurde ja schon geäußert, aber es ging eher darum, dass der Mesa Code A0 abfragt und dann Shader Prefetching deaktiviert. Das ist etwas, was man als Endkunde erwarten kann, wenn die Karte zu Hause ankommt.
Wie ist das mit Software eigentlich? Was ist der Vorteil von Software noch einmal?

Wer Probleme sucht, wird Probleme finden.

Ohne den Kontext kann man eben alles interpretieren.
Genauso kann es sein dass AMD mit FSR3.0 ein großes Software Update bringt und die Karten neu mischt. Kann aber such nur ein Strohhalm sein. Wir wissen es nicht. Aber gleich eine Schlinge draußen machen ist schon interessant.
 
Zer0Strat schrieb:
Angeblich rund 2% laut meinem Link von oben, kräht kein Hahn nach.
Warum dann so ein Aufschrei dazu von dir was das Thema angeht? @DevPandi hat schon Recht, du neigst teils zu extremen Haltungen und bist dadurch auch dir selber gegenüber nicht konsequent bzw. widerspruchsfrei. Vielleicht mal die Themen langsamer angehen.

Das Thema selber finde ich sollte dennoch (sachlich) recherchiert werden. Der Eintrag bei github ist bereits vom 3. August wenn ich das richtig sehe und dort ist die Rede von „some A0 chips only. Other chips don't need it.“.

Eine Chiprevision A1 wurde auch bereits angelegt. Wenn ich das richtig verstanden habe dachte man u.a. deswegen damals das AMD direkt mit einem fehlerbereinigten A1 startet 🤔

Link dazu: klick mich
 
  • Gefällt mir
Reaktionen: Rockstar85, Fighter1993 und NMA
Gr33nHulk schrieb:
Warum? Auf was für Fakten basiert diese Aussage denn?

Auf den Fakt das die 4080 auf dem Papier (Rechenleistung, Speicher, Speicherbandbreite) bereits der XT (nicht nur der XTX) unterlegen ist und trotzdem deutlich (!) bessere Performance liefert. Das kann kein reines Treiberproblem sein bei solch eklatanten Unterschieden. Und die primäre Neuerung von RDNA2 zu RDNA3 ist nun einmal das Chiplet-Design auf das aber die gesamte RDNA3 Generation setzt.
 
  • Gefällt mir
Reaktionen: Benji18
Thepunisher2403 schrieb:
Lustig is ja das bei rdna2 das thema effizienz als das Argument schlechthin gegen nvidia war und jetzt plötzlich wird es von eucht quasi totgeschwiegen
Wenn man dann mal Kritik anbringt dann is es plötzlich Ideologie 😂😂

Wenn Fakten gewünscht sind, dann doch bitte selbst bei selbigen bleiben.

Die Effizienz wurde im Vergleich zu RDNA2 gesteigert. Dennoch ist der relative Verbrauch viel zu hoch und im direkten Vergleich zur RTX4080, ist die Effienz eben (viel) schlechter. Hier wird nichts totgeschwiegen.
Und genau das meinte ich in meinem Beitrag mit "differenzieren".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und ComputerJunge
MrHeisenberg schrieb:
@mcsteph ist ja so einer, der sich bei Intel und Nvidia über den Mehrverbrauch negativ geäußert hat:

Haste brav gemacht, Sitz! Was willst du mir damit sagen? Wo habe ich geschrieben das ich den Vebrauch von den neuen AMD Karten gut finde. Die generelle Entwicklung, egal bei welchen Hersteller finde ich nicht gut. Die Effizienz ist nur eine Seite der Medaille, es müssen generell die Verbräuche nicht immer weiter steigen.
 
met schrieb:
Das die kleineren Navi3x Chips auch auf das Chiplet-Design setzen ist ja bereits bekannt.
Das stimmt schon. Und die dadurch größer werdende Gesamtkomplexität bei der Parameterabstimmung bleibt erhalten.
Aber inwiefern sich das bisher beobachtbare Gesamtbild primär aus dieser "verteilten" Architektur ableitet, vermag ich noch nicht zu beurteilen.
Dual-Issue erscheint mir ebenso sehr relevant für Leistungsbewertung (und deren Schwankungen). Nach meinem Verständnis heißt das dann noch mehr Verantwortung bei der Treiberentwicklung und -wartung. Einfacher wird es dadurch nicht, das kann sich aber bis zum Launch der nächsten Varianten schon deutlich verbessert darstellen.

Beim Idle-Verbrauch habe ich andere Designentscheidungen als Ursachen verstanden. Und da fürchte ich schon, dass dieser Punkt "gekommen ist, um zu bleiben". Für mich ist das ein wichtiger Punkt (neben Compute).
 
@met
Ich sehe das anders..NV hat die Shader Anzahl verdoppelt und profitiert davon, dass man jetzt endlich durch die Verbreitung von 4k Monitore diese einfach auslasten kann. Das war damals das Problem von Vega, in hohen Auflösungen hatte das teil weniger Probleme als eben bei FHD, was damals sehr verbreitet war.
Deshalb sehe ich Dual Issue eher eine Lehre aus damaligen Zeiten von AMD. Die Shader sollen sowohl in FHD als auch in 4k gut ausgelastet werden. Tja die Auslastung paspasst jetzt in FHD und 1440p aber in 4k kommt nicht das an was sollte. Eben nur die 19% (glaub 19% war die Zahl) mehr Shader.
Deshalb kommt das Thema Wunder Treiber wieder...
Fehlt da noch was, damit Dual Issue besser funktioniert?
Weil die Rohleistung hätte sich so mehr als "verdoppelt" ankommen tut sie aber unter 4k nicht.
Ähnliche Probleme hatte 5700XT damals auch. Probleme mit Black Screens (ich hatte irgendwie keine aber scheinbar viele andere) und Treiber Probleme, da sie großteils auch noch fur GCN optimiert waren. Die Arbeit die dann in RDNA gesteckt wurde, waren die beste Vorarbeit fur RDNA2. Deshalb hatte dieser auch einen guten Start.

Funktioniert Dual Issue nicht gut, oder der Chiplet Ansatz oder ist es sogar eine Kombination?
(Limitiert vllt etwas ?)
Und wieso die Fragen, weil die Effizienz nicht dort ist, wo sie erwartet wurde. Vllt geht auch einfach etwas nicht, was man dachte und wir sehen ein worst case Szenario.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThePlayer, Benji18 und NMA
Chilisidian schrieb:
Wird glaube ich Zeit den Thread hier mal zu schließen, bevor es komplett eskaliert. Nach 140 Seiten ist glaube ich auch alles gesagt. Man dreht sich ohnehin nur noch im Kreis.
Nein es ist nicht alles gesagt.
Mir hat noch niemand geantwortet ob die 7900er überhaupt im Sweetspot laufen.
Wie ich schonmal sagte, Präsentierte AMD mehr als ein halbes Jahr eine Verbesserung von mindestens 50% mehr Leistung Pro Watt.
Und dann brachte Nvidia ihre Karten, die deutlich Stärker waren als ewartet.
Ich vermute daher, dass die AMD Karten weit über dem Sweetspot laufen, um in den Benchmarks nicht ganz abgeschlagen auszusehen.
Daher ist die Leistung pro Watt teils 0% besser im vergleich zu RDNA 2.
Daher vermute ich, wenn man die RX 7900er um zb 500mhz runtertaktet, und die Vcore dem entsprechend auch leicht absenkt, würden wir evtl diese 50% mehr Leistung pro Watt gegenüber RDNA 2 sehen.
Kann das mal ein RX7900 Besitzer testen ?
 
  • Gefällt mir
Reaktionen: TKessel und .Sentinel.
pipip schrieb:
(Limitiert vllt etwas ?)
AMD hat auf den Präsentations-Folien ja selbst zugegeben das man durch das Chiplet-Design mit höheren Latenzen zu kämpfen hat. Offenbar sind die Auswirklungen größer als gedacht.
 
  • Gefällt mir
Reaktionen: pipip
1671098785518.png


gerade auf AMD.com für 1004 verfügbar, falls jemand eine haben will
 
Zer0Strat schrieb:
Hab auch eine bestellt, müsste heute oder morgen kommen. Weil ich mich das selbst gerade frage, wo ist deine Grenze? Coil Whine, 110°C Hotspot Temperatur, kein Shader Prefetching, Clock Issues mit einem sonderbaren Performanceverhalten, hoher Idle Verbrauch, generell hoher Verbrauch, keine Matrix Cores, kein Frame Interpolation (noch nicht), mittelmäßige RT Performance....

Wo zieht man da die Grenze? Oder geht es manchen nur darum, AMD zu supporten, warum auch immer?
Subtile unterste Schublade.
Wirst schon mit allem recht haben.
Ich höre solch Gejammer jetzt seit den allerersten 3D Ati‘s. Jede Zeit hat ihre neunmalklugen Jammerer. Sei‘s drum.
 
  • Gefällt mir
Reaktionen: Rockstar85
Dai6oro schrieb:
Abgesehen davon. Sehe ich die Karte auch nicht so schlecht, wie von einigen dargestelt.
Sehe ich auch so, das übliche bashing dreht sich nun wie immer im Kreis und jeder will Recht behalten.
Dai6oro schrieb:
Mercedes oder BMW?
Du hast Dacia (Intel ARC) vergessen :D
 
  • Gefällt mir
Reaktionen: ThePlayer
met schrieb:
Auf den Fakt das die 4080 auf dem Papier (Rechenleistung, Speicher, Speicherbandbreite) bereits der XT (nicht nur der XTX) unterlegen ist und trotzdem deutlich (!) bessere Performance liefert. Das kann kein reines Treiberproblem sein bei solch eklatanten Unterschieden. Und die primäre Neuerung von RDNA2 zu RDNA3 ist nun einmal das Chiplet-Design auf das aber die gesamte RDNA3 Generation setzt.
Hier wird alles mögliche durcheinander geschmissen. Die Treiber sind logischerweise noch nicht final/ausgereift für die neuen Karten, aber ein generelles Problem besteht da nicht. Da wird man maximal etwas stabilere Leistung ausbauen und die ein und andere Sache fixen.

Speicher und SI haben rein gar nichts mit der reinen Leistung einer GPU zu tun. Da gibt es in dem Bereich halt Auslastungen wo VRAM oder SI z.B. limitieren könnten, letzteres kann man bei der 4080 schon beobachten. Bei diesen Ausstattungsmerkmalen punktet ja AMD zufriedenstellend.
Und das eine 7900 XTX mit der 4080 konkurriert wurde weit vor Release der Karte genauso angegeben und dies schafft sie erfolgreich......was jetzt auf einmal die 7900 XT Aussage da soll, außer haltlos weiter Blödsinn zu verbreiten, verstehe ich nicht.

Einzig die RT Leistung der 7900er Karten hat nicht das erreicht was man hätte schaffen müssen um ein rundum gutes Paket abzugeben. Unter der 4080 ja, aber das stabil 10%-15% darunter wäre gut gewesen.
Nimmt man nur die 7900 XTX und die 4080 machen beide einfach zu viel falsch um wirklich als gute GPUs rüber zu kommen, dann noch die Preise dazu und es ist für die Tonne (ich hatte auch zu viele Erwartungen in die 7900 XTX, was leider nicht erfüllt worden ist......aber diese Erwartungen hatte ich davor auch in die RTX 4080).
 
  • Gefällt mir
Reaktionen: PeriQue1337 und DeadEternity
Melu76 schrieb:
Die Frage ist halt ob man die Effizienz der 4080 noch weiter verbessern kann, oder ob das Teil schon ausgereizt ist, und entsprechend dasselbe für die 7900 XTX.

Naja, die 4080 läuft ja auch mit einer TDP von 250 Watt quasi ohne großen Leistungsverlust. Entsprechend kann man die von Haus aus gute Effizienz noch weiter deutlich steigern. Die 7900xtx nimmt sich dagegen gerne die 355 Watt und profitiert sogar von noch mehr Watt. Würde mich auch interessieren, was die 7900xtx bei 250 Watt noch leisten kann.

Würde die 4080 mit 320 Watt und die 7900xtx mit 355 Watt laufen und sich gleich verhalten, dann hätten wir einen marginalen Unterschied, aber bei der 7900xtx läuft einfach noch gar kein Szenario effizient.

Idle 4k + 144hz = 100 Watt (5x mehr!) und Idle nimmt am Desktop einfach Zeit ein
Youtube: 80 Watt+, nimmt bei vielen ebenfalls sehr viel Zeit ein
Teillast/Framelimit: Computerspiele die eigentlich nicht die volle Power benötigen nehmen trotzdem 355 Watt. Auch ein Framelimit spart überhaupt nichts ein. Hat man die Hälfte der Frames und trotzdem 355 Watt.
Last: Immer direkt bei 355 Watt, der Strom der da ist, wird benutzt
Raytracing: Komplett Lost und das wird auch nicht über Treiber anders werden. Die Leistung und damit auch Effizienz meilenweit zurück.

Die 4080 begnügt sich im Idle dagegen mit 20 Watt oder weniger je nach Modell. Youtube deutlich weniger. Teillast/Framelimit massiv weniger und selbst unter Last häufig weniger als die TDP. Man spart quasi durchgehend.
 
  • Gefällt mir
Reaktionen: DeadEternity, TKessel und PeriQue1337
Gr33nHulk schrieb:
Hier wird alles mögliche durcheinander geschmissen.
Ich vergleiche Rechenleistung, Speicher und Speicherbandbreite und das was am Ende dabei raus kommt. Und selbst verständlich kann man auf dieser Grundlage auf Leistung schließen. Namen und Farben sind nur Schall und Rauch.
 
Gr33nHulk schrieb:
Nimmt man nur die 7900 XTX und die 4080 machen beide einfach zu viel falsch um wirklich als gute GPUs rüber zu kommen

Was genau macht die 4080, abgesehen vom Preis, überhaupt falsch? Ich finde es gab lange kein runderes Gesamtpaket aus Leistung, Raytracingleistung, RAM, Effizienz, Kühlerdesign und Treibersupport ab Tag1. Mir fällt da maximal der Stromstecker ein.

Eine Karte für 4k + Raytracing + hohe Frames bei 250 Watt. Bis 100 Watt läuft das Ding problemlos passiv. und darüber hinaus wird die Karte auch nicht heiß oder laut. Softwaremäßg keinerlei Probleme zum Start.

Bei der 3070/80 haben mich z.B. massiv die 8/10GB gestört. Dazu schlechtere Effizienz, auch gegenüber AMD.
 
  • Gefällt mir
Reaktionen: DeadEternity und b|ank0r
Zurück
Oben