News Radeon RX 9070 XT: Spiele-Benchmarks und neuer Hinweis auf 3 GHz

Wenn ich die 9070XT undervolte wird das sicher passen.
Meine 6800XT ist auch undervoltet.
Als Netzteil verwende ich ein Corsair RM 650 Plus Gold .
 
  • Gefällt mir
Reaktionen: SweetOhm
@riOrizOr Ok, es kommt noch darauf ob du ein singelrail oder Multirail Netzteil hast. Dazu sei gesagt das, wenn es nicht gerade ein sehr altes Netzteil ist, es mehr kann als 650watt kurz zeitig um genau diese spikes abzufangen. Aber es gibt auch genug möglichkeiten die Leistung der Karte etwas zu beschränken um ohne Probleme dort hinzukommen damit es mit so einem Netzteil funktioniert.

Eigentlich braucht man keine 3x8 pol stecker für 330watt. da der PciE port auch noch 75watt liefert. Hier geht man einfach nur sicher, oder über den PciE port wird nix geliefert.

@Darkwater
deine cpu wird beim zocken aber eigentlich nie die 181watt ziehen müssen.
 
Benni82 schrieb:
Als Netzteil verwende ich ein Corsair RM 650 Plus Gold .
Wenn ich das hier in der Tierlist richtig sehe, dann ist das immerhin ein Tier A Netzteil, also zumindest die Verlässlichkeit ist gegeben - aber klar, kann es trotzdem knapp werden. Ich selbst plane mit einem NZXT C750 oder FSP Hydro G Pro 750W für die mögliche Kombo 5800X3D + RX 9070 XT (oder RX 7900 XT), einfach um da keine Probleme zu bekommen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Northstar2710 schrieb:
Ok, es kommt noch darauf ob du ein singelrail oder Multirail Netzteil hast
Mein NT kann man in meiner Signatur ablesen.
Darkwater schrieb:
330W GPU TDP
+181 W CPU im Turbo (13600KF bei mir)
sind zusammen 511W
So funktioniert das aber nicht. Wenn deine GPU kurz mal auf 450 Watt springt bist du da schon weit drüber.
Darkwater schrieb:
Gibt wohl auch 2x8 Pin Karten
Ja das soll es wohl geben, habe ich auch bereits oben mal erwähnt. Das wäre die einzig richtige Wahl. Alles andere könnte ärger machen. Es sei denn du tust immer das Powertarget limitieren.

Kann natürlich auch sein das alles passt, ich würde nicht darauf spekulieren.
 
riOrizOr schrieb:
So funktioniert das aber nicht. Wenn deine GPU kurz mal auf 450 Watt springt bist du da schon weit drüber.

Geht das bei einer Karte mit 2x 8Pin überhaupt (hatte gedacht dass die jeweils nur 150W liefern - war deshalb auch irritiert dass es Karten mit nur 2 Anschlüssen zu geben scheint, wenn die TDP 330W ist)?
 
Ozmog schrieb:
Ich weiß aber jetzt schon, dass ich nicht nur keine AMD Karte der kommenden Generation kaufen werde
Doppelte Verneinung, also kaufst jetzt doch eine, oder wie ?!? :rolleyes:
 
  • Gefällt mir
Reaktionen: Holgmann75
  • Gefällt mir
Reaktionen: SweetOhm und Holgmann75
Knobi Wahn schrieb:
Lass den Sekt mal noch zu, bis die ersten Tests da sind.

330W ist jetzt nichts was ich feiern würde.
Na dann feiere die 400/600 Watt einer 5080/90 :daumen:
 
SweetOhm schrieb:
Doppelte Verneinung :rolleyes:
Da muss man den ganzen Satz nehmen, denn er sagt, dass er nicht nur von einem Kauf einer AMD Karte absieht, sondern generell vom Kauf einer GPU der kommenden Generation absieht.
 
  • Gefällt mir
Reaktionen: Ozmog, Holgmann75, SweetOhm und eine weitere Person
SonyFriend schrieb:
Hatte vor fast 3 Jahren auf eine 6750XT gewechselt und bin seitdem damit zufrieden, obwohl sie mir etwas zu viel Strom nimmt (220W im Game laut Test cb in 05.2022, mit Treiber ausgelesen und UV bei mir unter 190W).
Der wahre PL Sieger !!
Hab ich letztes Jahr mehrere verbaut/empfohlen.
Schade, dass jene bei Benches (absichtlich) außen vor gelassen wird !! Ein Schelm, wer ... :stacheln:
Ergänzung ()

Raider_MXD schrieb:
Das sind die Zahlen eines einizigen Händlers und das auch nur für Einzelkomponenten. Im Steam Hardware Survey,
:daumen:
Ergänzung ()

jo192 schrieb:
Vor ca. 20 Jahren habe ich eine Radeon 9100 AGP für 70€ gekauft.
Jene hatte ich auch für 74 € (69 € + 4,99 € Versand) käuflich erworben für meinen 2. Automat, und hat die Geforce 4 MX 460 ersetzt ...
Ergänzung ()

Fallout667 schrieb:
Wenn du meine Signatur gelesen hättest, hättest du evtl gesehen das in meinem zweiten PC eine 7900XT steckt. Diese wollte ich gegebenfalls gegen die 9070 austauschen. Es ging nirgendwo um einen Vergleich mit der 4090 oder 5090. Wäre die 9070 von den Specs interssanter, hätte ich die gekauft. Allerdings, so wie es jetzt aussieht, wird sich das nicht wirklich lohnen.
Daher werde ich wohl die 4090 da rein stecken. Wo ist das Problem?
NV sagt/schreibt doch, dass die 5070 eine 4090 schlägt in ihren Benches.
Heißt doch im Umkehrschluss, wenn die 9070 schneller ist als ein 5070, ist sie ja auch "besser" als eine 4090 ... ;)
Ergänzung ()

riOrizOr schrieb:
Unter nicht Kennern stimmt das. Schaut man sich aber mal in Enthusiast Foren um, merkt man schnell das aus 90 / 10 % ein 60 / 40% wird. Das bedeutet das Leute die sich mit Hardware tatsächlich auch auskennen sehr wohl wissen das einige Features deutlich besser sind bzw. Mehr.
Siehe (Anhang) bei "Nerds". Da liegt das Verhältnis bei ca. 55 zu 45 % (zu Gunsten NV) ...
Ergänzung ()

PeacemakerAT schrieb:
Weil sie niemand kaufen wird wenn RTX 5070 um 649€ auf den Markt kommt und wie wir gelernt haben ist die so schnell wie eine RTX 4090 :daumen:
Wieso, wenn die 9070 genauso schnell ist wie eine 5070, dann ist sie ja genau so schnell wie eine 4090 (2000 €) ;)
 

Anhänge

  • HW Data 724.jpg
    HW Data 724.jpg
    209,7 KB · Aufrufe: 20
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: FrittiDeluxe und Holgmann75
Darkwater schrieb:
Geht das bei einer Karte mit 2x 8Pin überhaupt (hatte gedacht dass die jeweils nur 150W liefern - war deshalb auch irritiert dass es Karten mit nur 2 Anschlüssen zu geben scheint, wenn die TDP 330W ist)?
+ 75 Watt vom PCI-E Slot... also theoretisch..
Ergänzung ()

SweetOhm schrieb:
NV sagt/schreibt doch, dass die 5070 ein 4090 schlägt in ihren Benches.
Jensen sagt auch, das wir alle 10.000 Dollar PCs zuhause haben.... :freak:
 
  • Gefällt mir
Reaktionen: martin_m und SweetOhm
Northstar2710 schrieb:
@Darkwater
deine cpu wird beim zocken aber eigentlich nie die 181watt ziehen müssen.

Ja, aber die GPU kann ja auch noch Boosten (mit 2 8Pin zwar eigentlich maximal auf 375W wenn ich die Technik nicht missverstanden habe) - aber meine Netzteil davor hat den dienst ebenfalls Quittiert als ich nachgerüstet habe (war aber auch ein No-Name Netzteil in einem ALDI-Medion-PC aber rechnerisch hätte es an sich für die 1660S reichen müssen mit seinen 450W) - aber seitdem traue ich der Rechnung nicht mehr ganz...
 
riOrizOr schrieb:
Mein NT kann man in meiner Signatur ablesen.
So funktioniert das aber nicht. Wenn deine GPU kurz mal auf 450 Watt springt bist du da schon weit drüber.
Dein netzteil ist ein Multirail Netzteil. Wie jetzt die GPU angeschlossen war kann ich natürlich nicht sagen oder warum die 6900XT ausgestiegen ist. Es ist aber so das du 4x12 volt Schienen hast 2x18A und 2x22 A abgesichert. Das könnte sein das auf einer 12V schiene die max Ampere überschritten wurden und daurch die 6900XT ausging. Die straight power 11 Netzteile können eigentlich 10% mehr Leistung kurzfristig abgeben, was für dein Netzteil 715Watt entspräche.

Das Netzteil von @Darkwater ist aber ein Singelrail Netzteil welches nur eine 12V schiene besitzt und diese ist mit 54A abgesichert. Heist, das theoretisch auf einem 8pin stecker 650Watt gezogen werden könnten bis das Netzteil aussteigt.

Bei dem Be quiet sind es Max 264watt /216watt je nachdem welche 12V Schiene beantsprucht wird. Wie jetzt das Design der GPU aussah und die Lastverteilung auf den verschiedenen steckern, keine ahnung. Aber da könnte das Problem gelegen haben.
 
Darkwater schrieb:
war deshalb auch irritiert dass es Karten mit nur 2 Anschlüssen zu geben scheint, wenn die TDP 330W ist)?
die 330tdp sind laut leaks nur bei OC custom modellen zu finden. Da darf der GPU Hersteller selber entscheiden wieviel tdp er der Karte per Bios frei gibt( natürlich maximal die von AMD freigegebene)

Wie auf den Bildern der custom Modelle zu sehen gibt es z.b. bei Asrock 2x8pin modelle. Da sehe ich wie schon gesagt kein Problem.
 
Also reicht mein Netzteil wohl noch...
 
  • Gefällt mir
Reaktionen: Holgmann75
Apocalypse schrieb:
Mal schauen, ist ja keine Hexerei RT Performance zu haben, 7900xt in Raster, und 7900xtx/4070 super RT/PT ... wäre so mein Wunschdenken. Mit dedizierten Kernen für RT/AI sollte ja die Performance nicht komplett mehr Einbrechen bei PT. ;-)
Ich weiß nicht mehr wo ich das aufgeschnappt habe, aber hieß es nicht mal das AMD irgendwas mit 40% bei der PS5Pro (RDNA 3.5) geholt haben will gegenüber RDNA 3 in RT?
Weiß nur nicht mehr, ob das rein durch die Architektur war oder daran lag, das die APU generell schneller ist... 🤔
 
Denke/hoffe da auch eher auf 250 - 280 Watt bei den meisten Modellen, wobei realistisch vermutlich eher 280 - 300 Watt sind und dann eben die bekannten 20 - 40 Watt OC Aufschlag.
 
Darkwater schrieb:
Ja, aber die GPU kann ja auch noch Boosten (mit 2 8Pin zwar eigentlich maximal auf 375W wenn ich die Technik nicht missverstanden habe)
Das sind die Spezifizierten Standard werte für die Anschlüsse. Aber es gibt Lastspitzen welche besonders gerne bei starken lastwechseln auftreten. Da können dann für ms auch gerne mal 100watt mehr anliegen. Was aber Netzteile normalerweise abfangen können wenn sie nicht zuklein dimensioniert sind. Dazu kann man auch noch ein wenig UV betreiben oder Frequenzen etwas reduzieren.

Wenn dich das etwas interresiert, kann ich dir die GPU tests von Igorslab ans Herz legen. Er testet das immer mit https://www.igorslab.de/vga-cards-amd/
https://www.igorslab.de/gpu-nvidia/

@riOrizOr Hier ein schöner Satz aus dem Last Test von Igorslab, was dein Problem mit einer 6900xt zeigen könnte.
"Spitzen mit Intervallen zwischen 1 bis 10 ms können bei sehr schnell reagierenden Schutzschaltungen (OPP, OCP) vor allem bei Multi-Rail-Netzteilen zu Abschaltungen führen, obwohl die durchschnittliche Leistungsaufnahme noch in der Norm liegt."

mal ein kleines beispiel wie sich Karten unterscheiden
AMD referenz 6800xt vs MSI trio x 6800xt

Leistung in wqhd 3fps unterschied laut techpowerup AVG FPS

6800xt test.png


Belastung des Netzteiles
6800xt.png


vs

6800xt msi.png


Man kann gut sehen das besonders zwischen 1-10ms peaks, 50-75watt höhere leistung abgerufen wird

so sieht es z.b. bei einem spiel aus
6800xt gaming loop.png


Man muss sich jetzt nicht darauf versteifen. Aber ich finde es ganz gut wenn man sich wenigsten 1mal so einen Last test anschaut. Das wissen über Lastspitzen kann auch bei der Fehlersuche helfen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse und riOrizOr
Northstar2710 schrieb:
mal ein kleines beispiel wie sich Karten unterscheiden
AMD referenz 6800xt vs MSI trio x 6800xt

Wobei die 6800xt generell ja noch harmlos bei den Spannungsspitzen ist, hier mal die 3090 in der zahmen Founders Edition:

Igor Transients 3090 FE.png
 
Zurück
Oben