Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“
R
Ragnarök88
Gast
Wenn man Indie Titel oder vor allem Custom Szenen benchmarkt, rutscht die 7900XTX hinter die RTX 4080, vor allem bei Frametimes und Percentilen.MiroPoch schrieb:Das liegt wohl an der Spielerauswahl und den verwendeten Testszenen. Die performance der 7900XTX ist stark schwankend je nach Titel.
Nutzt man vorgefertigte integrierte Benchmarks ist die 7900XTX ~5% im Mittel schneller.
Dann spielst Du die Spiele nicht, die das haben ;-)dermatu schrieb:Hab in keinem Spiel bisher einen wirklich bahnbrechenden Effekt gesehen, d
Benji18
Rear Admiral
- Registriert
- Jan. 2005
- Beiträge
- 5.379
Es gibt tatsächlich Gerüchte dazu, die selben die auch von HW Bugs in Navi31 berichten. Der Text klang aber tatsächlich so als wäre es fix, ich hab das korrigiert weil wie gesagt offiziell gibts dazu ja nix.ilovebytes schrieb:gibt es dafür auch irgendwelche Quellen, oder ist das einfach mal ins Blaue geschossen ?
Gerithos
Lt. Commander
- Registriert
- Mai 2020
- Beiträge
- 1.747
Ist auch so, die selben Leute (häufig wirklich die selben!) waren bei ryzen genauso, and sollte Druck machen, damit Intel endlich liefert, damit das endlich gekauft werden kann. Die gammelten lieber 6 Jahre auf ihren 7700K rum und jammerte Jahr für Jahr, dass Intel dich endlich die leistung von ryzen 2 bzw 3 bringen soll, damit sie aufrüsten können 😂DAU123 schrieb:Hat zumindest bei mir diesen Eindruck erweckt...
Warum denn wohl? Weils ein Gerücht gewesen ist, viele Gerüchte einfach nonsens sind/waren. Hinterher, nachdem die Daten bekannt sind, kann man sich immer hinstellen "ich habs ja gesagt!".MistressOfAgony schrieb:Wurde von Computerbase als unglaubwürdig eingestuft und meine Meldung ignoriert.
Krass wieviele mittlerweile bei cb garnicht mehr suf dem laufenden sind und jetzt überrascht sind.
Das ganze ist glaubwürdig seit Oktober mittlerweile bekannt und ist eingetroffen.
Hier tut man überrascht oder verwundert.
Nur weiß es eben vorher keiner. Die Gerüchteküche war dieses mal noch nerviger als sonst und Daten zu RDNA3 und ADA haben sich alle paar Wochen, manchmal sogar alle paar Tage, immer wieder gedreht.
Persönlich habe ich mir diesen Mumpitz von den üblichen Wichtigtuern, ich meine Leakern, irgendwann auch nicht mehr gegeben. Warum auch, wenn manches stimmt, und anderes nicht. Da kann ich auch gleich abwarten.
CB rennt nicht jedem Gerücht hinterher, und macht es damit goldrichtig. Stell es dir mal andersrum vor: das Gerücht erweist sich als falsch und CB beteiligt sich daran, nonsens zu verbreiten. Wer will sowas schon? Dass da ein Gerücht liegengelassen wird, dass sich später als wahr erweist, finde ich nicht schlimm, im Gegenteil; es macht CB seriös.
anthony274
Ensign
- Registriert
- Jan. 2011
- Beiträge
- 230
Shoryuken94 schrieb:
Sie hätten einfach klar kommunizieren müssen:
Wir bieten etwas weniger als die 4080 zum Preis einer 6900XT --> 900 €
Die 6900XT und alles drunter wird langsam abverkauft mit guten Preisen und dann Zug um Zug durch die kleineren 7xxx ersetzt
Problem ist halt, dass nVidia danne einfach die 4080 für 1000 € angesetzt hätte und am Ende trotzdem alle nVidia gekauft hätten.
Also, was bringt es AMD, das so zu machen? Können sie auch gleich Geld verschenken.
Zuletzt bearbeitet von einem Moderator:
danyundsahne
Commodore
- Registriert
- Okt. 2007
- Beiträge
- 4.512
Ja, ich weiß noch zu gut, dass man bei den Gerüchten Anfangs von 15000+ Shadern ausgegangen ist durch das Chiplet Design...also 2x 7680 ca. Da sprach man schon von 2,5-3-facher Leistung.DerRico schrieb:Psychologisch haben die AMD-Karten es einfach schwer: Die NV-Gerüchte basierten anfangs auf den Hochrechnungen auf Samsung Design: 600W, kaum mehr Takt - und dann kam der Umstieg auf TSMC 4 und sie haben viiiiel mehr geliefert als erwartet.
Die AMD-Gerüchte basierten auf der Idee, dass Chiplet von Anfang an so gut taktet wie Monolith und von den internen Verlusten wusste damals noch niemand etwas. Dazu ein paar kleine und unnötige Bugs wie den Leerlaufverbrauch - so haben sie eben ein "weniger" geliefert als erwartet.
Dann wurden daraus 12288 Shader, aber das war eben nur die Dual-Issue Thematik.
Am Ende sind es exakt 6144 Shader, die entweder nur 20% mehr sind falls kein Dual-Issue zur Verfügung steht, oder eben dann bis zur (theoretischen) doppelten Leistung falls Dual-Issue umgesetzt werden kann im Game.
Und genau so schwankt auch die Leistung mehr oder weniger stark wie es im Test auch bewiesen wird.
Das Problem hat aber doch NV auch schon mit Ampere gehabt, massig CUs/shader und konnten sich kaum von RDNA2 absetzen.
Von daher muss man sehen, was die Tage/Monate noch an Treiber Updates rauskommen. Vielleicht tut sich da was, vielleicht auch nicht.
Gerithos
Lt. Commander
- Registriert
- Mai 2020
- Beiträge
- 1.747
Mich überzeugt rt in cyberpunk sehr, das sieht stimmig aus. Ansonsten aber ist das nich immer ne wundertüte und wenn es wirklich gut läuft und implementiert ist, wird wahrscheinlich selbst die 4090 alteisen sein, der Prozess ist nsch wie vor im gange. Was rdna3 angeht, aufgrund es idle Verbrauch finde ich die Karten katastrophal. Sollte AMD da nachliefern und den Verbrauch signifikant reduzieren, sind die Karten sinnvolle Bestandteile der high end Riege, günstiger und overall halt schwächer. Kein Durchbruch, kein Beinbruch. Aber AMD sollte klar sein, dass das nur der Anfang sein darf, rdna4 muss multichiplet signifikant verbessern ähnlich wie bei ryzen. Gelingt das, haben sie eine vorreitersituation, die man ja sonst nur von Team Grün kennt. Gelingt es nicht, hat man ein hbm Desaster wie bei Vega und dann sollte die Frage berechtigt sein ob AMD die sparte nicht lieber abstoßen sollte.Laphonso schrieb:Dann spielst Du die Spiele nicht, die das haben ;-)
Nekkepenn
Lieutenant
- Registriert
- Juli 2019
- Beiträge
- 659
Was passiert eigentlich wenn man statt einen 144hz einen 240hz Monitor anschliesst, 150W idle ?
Dazu noch :
Doom Eternal 144 FPS Limit 4K
4080=222W
4090=244W
7900XTX=345W
1440p
4080=125W
4090=139W
7900XTX=248W
Ne AMD, das ist weder normal noch i.O.
Dazu noch :
Doom Eternal 144 FPS Limit 4K
4080=222W
4090=244W
7900XTX=345W
1440p
4080=125W
4090=139W
7900XTX=248W
Ne AMD, das ist weder normal noch i.O.
Freiheraus
Lt. Commander
- Registriert
- Nov. 2017
- Beiträge
- 1.274
Genau, egal! Lassen wir RDNA3 mit einer selektiven Wahl noch schlechter aussehen als im repräsentativen Schnitt.anthony274 schrieb:Spielt doch keine Rolle. Die AMD sieht nicht so gut aus wie man es sich vorgestellt hat. Da kann man jetzt noch 20 Spiele mehr nehmen.
MiroPoch
Ensign
- Registriert
- Juni 2021
- Beiträge
- 208
k
95° C mit Ryzen 7000 oder 105°C mit Intel, beides aber nur im worst case, was den normalen Spieler wenig kümmern muss. Außerdem sind solche Temperaturen unbedenklich, weshalb ich die Aufregung nicht ganz verstehe. Im schlimmsten Fall taktet die CPU runter. Daran gewöhnen müssen wir uns sowieso, da die zu kühlende Chipfläche immer kleiner wird.
Mein Schenker Laptop aus dem Jahr 2012 mit dem i7-3740QM überschreitet immer wieder gerne die
100 °C grenze und läuft bis heute ohne Probleme, ist nur etwas laut.
Xnfi01 schrieb:Schade AMD, knapp vorbei ist auch vorbei. Auch wenn ich wirklich ein AMD System kaufen möchte,
kann ich bei deren CPUs 95°C und hier den Verbrauch im Desktop sowie unter Last nicht akzeptieren...
Preis hin oder her.
95° C mit Ryzen 7000 oder 105°C mit Intel, beides aber nur im worst case, was den normalen Spieler wenig kümmern muss. Außerdem sind solche Temperaturen unbedenklich, weshalb ich die Aufregung nicht ganz verstehe. Im schlimmsten Fall taktet die CPU runter. Daran gewöhnen müssen wir uns sowieso, da die zu kühlende Chipfläche immer kleiner wird.
Mein Schenker Laptop aus dem Jahr 2012 mit dem i7-3740QM überschreitet immer wieder gerne die
100 °C grenze und läuft bis heute ohne Probleme, ist nur etwas laut.

Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 9.088
DAU123 schrieb:Was man hier im Thread rausliest, dassdie nVidia-Käufer wollen, dass AMD abliefert, damit die nVidia GPUs günstiger werden, weil sie nicht bereit sind, den Preis von nVidia zu bezahlen. Eine AMD wollen sie aber auch nicht, weils ja nicht ins Build passt, weil RT nicht passt, weil Performance enttäuscht, weil der Stromverbrauch nicht passt etc.
Hat zumindest bei mir diesen Eindruck erweckt...
Ist am Ende auch vollkommen okay. Am Ende wollen alle das gleiche. Konkurrenz mit Produkten auf Augenhöhe, damit man anhand seiner eigenen Vorlieben und des persönlichen Geschmacks entscheiden kann, welches Produkt man kauft.
Solange AMD aber in vielen Punkten nicht auf dem gleichen Level ist, aber trotzdem die Preissteigerungen von Nvidia mitmacht und diese nur leicht unterbietet, ist dem markt wenig geholfen.
danyundsahne
Commodore
- Registriert
- Okt. 2007
- Beiträge
- 4.512
Richtig, die meisten hoffen eh nur dass AMD was konkurrenzfähiges bringt, damit NV sich gezwungen sieht, ihre horrenden Preise zu reduzieren.anthony274 schrieb:Die 6900XT und alles drunter wird langsam abverkauft mit guten Preisen und dann Zug um Zug durch die kleineren 7xxx ersetzt
Problem ist halt, dass nVidia danne einfach die 4080 für 1000 € angesetzt hätte und am Ende trotzdem alle nVidia gekauft hätten.
Die Leute warten auf AMD nicht um AMD zu kaufen, nein, sondern um NV zu kaufen.
Nur, falls AMD am Ende nicht konkurrenzfähig ist, wird noch mehr auf AMD rumgehackt, da sie dann die hohen NV Preise zahlen müssen

Das sieht man quer durch die Techforen und an den entsprechenden Marktanteilen. Isso.
Genau das hat auch schon Raff von PCGH geschrieben. Nichts anderes erwarten die Leute von AMD.
AMD müsste deutlich VOR NV sein, in Raster und RT, dazu noch mehr Speicher, wesentlich höhere Effizienz und perfekte Treiber für Games und Anwendungen.
Dazu ein geringerer Preis.
Und selbst dann hätte es AMD schwer....
Von daher, ja, AMD müsste also auch nicht die Preise senken, würde nichts ändern an der Gesamtsituation.anthony274 schrieb:Also, was bringt es AMD, das so zu machen? Können sie auch gleich Geld verschenken.

cookie_dent
Commander Pro
- Registriert
- März 2017
- Beiträge
- 2.959
Das dumme dabei ist das unsere Löhne nicht dem entsprechend mitsteigen.domian schrieb:Es wäre zu einfach es nur darauf zu schieben. Energiekosten, steigende Arbeitskosten in Fernost, Inflation, etc. Wir leben nicht im Schlumpfdorf.
PHuV
Banned
- Registriert
- März 2005
- Beiträge
- 14.219
Das tun vermutlich weniger Leute, als Du denkst. Aufgrund der steigenden Preise und vorher schon wegen dem Debakel GTX 960 4GiB/3,5 GiB Ram und anderer Befindlichkeiten haben viele Leute Nvidia zum personifizierten Bösen erklärt und wollen AMD kaufen. Nur ist AMD eben auch nicht besser, genauso wie der ewige CPU Streit Intel wie AMD. Der eine wird zum Buhmann erklärt, der andere zum vermeidlichen Helden, obwohl der keinen Deut besser ist. Manche hier begreifen eben nicht, daß das Leben leider kein Ponyhof ist, und alle Firmen - besonders jetzt - gutes Geld machen wollen, damit sie weiter überleben können.kalude schrieb:ich verstehe, dass man sich gerne einem „Lager“ zuordnet. Einfaches menschliches Verhalten eben. Aber wenn man sich selbst dazu überreden muss, um beim eigenen Lager zu bleiben, ist das nicht bedenklich?
kachiri
Fleet Admiral
- Registriert
- Apr. 2011
- Beiträge
- 19.085
Augen auf bei der Gehäusewahl. In mein A4-H2O passt zumindest theoretisch sogar die FE der 4090 ;PTico19 schrieb:Was viele glaube ich vergessen, die AMD Karten sind kleiner, also eine 4080 hat bei mir nicht mehr reingepasst, ne 7900 würde zumindest![]()
Daggy820
Lt. Commander
- Registriert
- Aug. 2010
- Beiträge
- 1.975
Ich weiß ja nicht was du mir hier Unterstellen willst aber ich habe weder Pro AMD noch Contra Nvidia geschrieben, in was für einer kleinen Traumwelt lebst du denn bitteschön???Thepunisher2403 schrieb:seit ihr echt so in eueren welt oder wie?
diese wundertreiber geschichte gibt es nicht.....
wenn es hoch kommt vllt 2 bis 5 % aber in dieser zeit hat auch nvidia ihrer treiber etas verbessert etc..... das gleicht sich im endeffekt wieder aus....
dazu kommt die ineffizient der höhere verbrauch aber plötzlich is das ja kein thema mehr weil amd nicht mehr die effizienz krone hat....
bei ampere hat man die drauf eingeschlagen als nvidia mehr verbraucht hat komisch das es jetzt bei amd kaum zu sprache von euch kommt![]()
Und das AMD Karten mit zukünftigen Treibern immer meist Performance dazu bekommen ist ja nun kein Geheimnis mehr und seit mehreren Generationen ein Fakt
Ich hab mich auch niemals über Effizienz oder sonstiges geäußert weils mir am Arsch vorbei geht auf gut Deutsch ob die Karte jetzt 250 oder 300W verbraucht.
Ich hab sowohl eine 6900XT sowie eine RTX 3080 12FB hier im Einsatz und bin mit beiden Karten mehr als zufrieden, suche nur einen Ersatz da die 6900XT verkauft ist und ich halt eine neue benötige.
Und da mir persönlich keine Karte mit diesem 16 Pol Stecker ins AHaus kommt, will ja auch mal beruhigt das Zimmer verlassen können oder schlafen während der Rechner läuft ohne das ich Angst haben muss das die Bude brennt, kommt halt zurzeit nur die 7900 XT/XTX für mich in Frage. Es sei denn es kommt nochmal irgendwann eine RTX 4000er mit 2 oder 3 8Pol. Anschlüssen.
Aber solange Nvidia und die Boardpartner auf diesen 16 Pol Anschluss setzen werde ich die nicht kaufen, punkt.
Vielleicht ist der Anschluss bei Nvidia ja bei der nächsten Generation so Sicher das ich ohne Bedenken am PC sitzen kann, aber diese Generation haben Sie in mir definitiv einen potenziellen Kunden damit verscheucht, aber das muss ja jeder für sich selbst entscheiden.
- Registriert
- Juni 2008
- Beiträge
- 1.927
Es ist echt wieder das alte Problem. Leute werden geblendet durch RT, sorry, aber zu wenige Spiele, mit zu wenig Mehrwert, mit noch weniger Qualitativ gutem RT. Dann bei der Effizienz meckern. Videospeicher braucht halt Strom, AMD wird am Ende dafür bestraft, dass Sie mehr verbauen, weil man auf der Effizienz rumhackt. Verstehe ich nicht 💁♂️
Czk666
Lt. Commander
- Registriert
- März 2020
- Beiträge
- 1.865
SVΞN schrieb:Man kann nur hoffen, dass der zweite Wurf mit MCM dann im kommenden Jahr gelingen wird.
ich lese immer nächstes Jahr. Ist das nicht unwahrscheinlich so früh? Gab's das so jemals in den letzten Jahren? sind nicht immer mind. 2 Jahre zwischen den Generationen?
Ähnliche Themen
- Antworten
- 741
- Aufrufe
- 64.876
- Antworten
- 894
- Aufrufe
- 110.452
- Antworten
- 260
- Aufrufe
- 46.383
- Antworten
- 1.958
- Aufrufe
- 220.333
R
- Antworten
- 182
- Aufrufe
- 28.859