Test Radeon RX 7900 XT Pulse im Test: Sapphires günstigstes RDNA-3-Custom-Design

fab.erg schrieb:
Warum gibt es keine leicht gedrosselte Karte, in zwei Slot Design? .....Mini-ITX lässt grüßen. Dann mal auf eine 7800XT hoffen....
weil 300 watt? die 7800 soll auch 285 watt saufen. nvidia hat es geschafft wieder dort zu landen. vielleicht landet die 7700xt auch dort :) abwarten
 
  • Gefällt mir
Reaktionen: Pro_Bro
Habe die 7900XTX davon und man sollte schon dazu sagen, dass die Nitro leiser ist, allerdings auch noch etwas weiter weg vom Sweetspot läuft.
Ich hatte Glück und keinerlei Spulengeräusche, Temperaturen bleiben auch immer im akzeptablen Bereich nach etwas Fan Tuning bei hörbarer aber nicht in Spielen störender Geräuschkulisse.
Die Nitros sind wohl besser gebinned, die laufen also meist mit mehr Undervolting stabil, aber ich kann mit all dem leben ohne den Aufpreis für die Nitro bezahlt zu haben, nichts ist im kritischen Bereich.
 
Geforce4070 schrieb:
Dein Ernst? 100 watt saufen idle. multi monitor probleme. treiber resets . hang. uvm.
Mein Ernst dass ich den User "Geforce4070" nach Details frage, der ominös was von Bugs erzählt? Der Idle-Verbrauch ist mies, aber offenbar das gleiche Problem wie schon bei RDNA2, sprich je nach Monitor kanns auch (relativ) gut gehen. Machts nicht besser, ist dann aber nicht RDNA3-spezifisch.

Was für Treiber-Resets? Da wäre mir nichts in größerem Ausmaß bekannt. Bei nVidia crasht gerade gefühlt jedes zweite neue Spiel mit Ampere trotz teils mehrmaligem Nachbessern über Treiber und/oder Spiele.
 
  • Gefällt mir
Reaktionen: Zarlak, diGGer1337, Strubbel99 und 2 andere
  • Gefällt mir
Reaktionen: stevefrogs
  • Gefällt mir
Reaktionen: Zarlak, Dowinder, Joshua und 4 andere
Lurtz schrieb:
Mein Ernst dass ich den User "Geforce4070" nach Details frage, der ominös was von Bugs erzählt? Der Idle-Verbrauch ist mies, aber offenbar das gleiche Problem wie schon bei RDNA2, sprich je nach Monitor kanns auch (relativ) gut gehen. Machts nicht besser, ist dann aber nicht RDNA3-spezifisch.

Was für Treiber-Resets? Da wäre mir nichts in größerem Ausmaß bekannt. Bei nVidia crasht gerade gefühlt jedes zweite neue Spiel mit Ampere trotz teils mehrmaligem Nachbessern über Treiber und/oder Spiele.
Rdna 2 hatte das Problem nicht. 8 Watt verbauch am desktop mit meiner 6800 damals anno kurv vorm miningausbruch ^^

AMD bekommt es seit 2 jahren nicht hin, den Youtube verbrauch zu senken und den vram takt am dekstop in den griff zu bekommen.

Selbsvertsändlichkeiten.
Ergänzung ()

Lee Monade schrieb:
Wo erkennst du das die Karten 100 Watt im IDLE brauchen? Link bitte!
Aber ich kann dir die Mühe ersparen!
https://www.hardwareluxx.de/index.p...-pulse-radeon-rx-7900-xt-im-test.html?start=3
Und die anderen Probleme kann ich nicht nachvollziehen.
In den Reviews :) bis zu 100 watt. Dann hast du wohl Glück :).
 
Ich hab die Karte schon eine Weile (~1 Monat), damals gabs die in der Schweiz für etwas über 800 CHF.

Performance und Lautstärke ist generell gut. Lüfter bei gewissen Spielen etwas nervig, weil er im Default gerne mal die Drehzahl wechselt - könnte aber auch am Gehäuse liegen. Wobei "nervig" fast etwas übertrieben ist, man hört halt, dass sich die Drehzahl leicht ändert.

Probleme / Bugs in Spielen oder dem Treiber hatte ich noch keine. Hab zugegebenermassen aber auch noch nicht viele Spiele damit angezockt (Anno 1800, Hogwars Legacy mit RT, Farthest Frontier, Days Gone, Cities Skylines)

Allerdings fiept mein Exemplar doch sehr hörbar bei >200 fps. Da ich aber nie dort bin (immer über Radeon Chill auf max. 85) ist es nur ein hypotetisches Problem bei mir.
 
@Geforce4070

Also ich hab auf einem 144 Hz WQHD Monitor auch schon 22W gesehen.
Die Treiber aus den Launchreviews sind jetzt nicht mehr sehr aussagekräftig.
Das ist dann doch schon eine Zeit her.

Mit mehreren Monitoren mit unterschiedlichen Auflösungen und Herzzahlen kann es sein, muss aber nicht dass der Verbrauch noch nicht toll ist,
aber der Rest ist längst gelöst.
 
  • Gefällt mir
Reaktionen: Zarlak, C0rteX und Czk666
Lurtz schrieb:
Dann wird RDNA3 sich da bei dir ähnlich sparsam verhalten.
1682161588203.png


Bestimmt ist ein allseits bekanntes Problem. Das ist ein Witz. Liegt am MCM Design deswegen saufen auch die Ryzens soviel am desktop in relation zu intel cpus und im teillastbereich
Ergänzung ()

modena.ch schrieb:
@Geforce4070

Also ich hab auf einem 144 Hz WQHD Monitor auch schon 22W gesehen.
Die Treiber aus den Launchreviews sind jetzt nicht mehr sehr aussagekräftig.
Das ist dann doch schon eine Zeit her.

Mit mehreren Monitoren mit unterschiedlichen Auflösungen und Herzzahlen kann es sein, muss aber nicht dass der Verbrauch noch nicht toll ist,
aber der Rest ist längst gelöst.
1682162474533.png


4080
 
Bis auf den Preis, ist die aktuelle GPU Generation, sehr gut.
Die Preise fallen weiter. Hier in der Schweiz wäre die günstigste 7900xt, ist zufällig die Pulse, für 755 CHF zu bekommen, mit einer Händlerin wo man direkt in eine Filiale spazieren kann, 814 CHF.

@modena.ch lass GeForce4070 einfach links liegen. 180 Beiträge in 10 Tagen und alle so "nett". 😊
 
  • Gefällt mir
Reaktionen: Qonqueror, Orok91, C0rteX und eine weitere Person
Das versprochene grüne Wirtschaftswunder ist auch bei mir angekommen und so kostet eine Kilowattstunde Strom ab dem 01. Juni stolze 51,65 Cent, während sie bis dahin 20,39 Cent gekostet hat. Somit würde diese Karte aufgrund ihrer Leistungsaufnahme höchstwahrscheinlich nicht mehr in Frage kommen, obwohl ich eigentlich ein AMD Fan bin.
 
  • Gefällt mir
Reaktionen: electronish, Newblader und k0n
@Geforce4070
Es liegt genau wie bei RDNA2 am Speicherteiler, und dass der RAM bei "falscher" Monitoransteuerung nicht mehr runtertaktet. Hat mit dem MCM-Design AFAIK absolut gar nichts zu tun.
 
  • Gefällt mir
Reaktionen: Zarlak, Dowinder, C0rteX und eine weitere Person
Geforce4070 schrieb:
AMD bekommt es seit 2 jahren nicht hin, den Youtube verbrauch zu senken und den vram takt am dekstop in den griff zu bekommen.

Ist gar nix Wahres dran. Das kam bei der 7900XTX von 60 auf 55, auf 50 auf 30W runter.
Schenk dir die NV Märchenstunde.

Und meine olle 6700XT ist dabei eh sparsamer als jede NV.
Also kannst stecken lassen.
 
  • Gefällt mir
Reaktionen: DeadEternity, Zarlak, Rockstar85 und 6 andere
Lurtz schrieb:
@Geforce4070
Es liegt genau wie bei RDNA2 am Speicherteiler, und dass der RAM bei "falscher" Monitoransteuerung nicht mehr runtertaktet. Hat mit dem MCM-Design AFAIK absolut gar nichts zu tun.
Ich wette darauf das es am MCM Design liegt. Monolithen sind da einfach effizienter. Wir werden sehen. Wenn Nvidia ihre MCM Gpus releast erwarte ich auch Probleme außer sie lösen es erst Intern, wir werden sehen.
Ergänzung ()

modena.ch schrieb:
Ist gar nix Wahres dran. Das kam von 60 auf 55, auf 50 auf 30W runter.
Schenk dir die NV Märchenstunde.
AMD schaffts seit 10 Jahren nicht ihren Idle-Verbrauch in den Griff zu bekommen (es sei denn man hat irgendwie "Glück") und vieles mehr. All das habe ich bei verbauten NV Karten eben nicht - die baust du ein und es funktioniert alles.

Deswegen sieht man das in allen Reviews. sorry aber ist nicht so als wären die Daten nicht breitflächig verfügbar. Das hat nichts mit märchenstunde zu tun. Wir wissen auch das DLSS 1 kompletter Mist war hörst du wenn das abstreiten^^
 
Geforce4070 schrieb:
Ich wette darauf das es am MCM Design liegt. Monolithen sind da einfach effizienter. Wir werden sehen. Wenn Nvidia ihre MCM Gpus releast erwarte ich auch Probleme außer sie lösen es erst Intern, wir werden sehen.
Dann muss es wohl Magie sein, dass viele User nur 15 Watt TBP auf hochauflösenden HighRefresh-Displays haben, während PCGH bei stillem Desktop teils auf 80 Watt kommt. Man könnte fast glauben, es läge an der Monitoransteuerung, nicht generell am MCM-Design.
 
  • Gefällt mir
Reaktionen: Zarlak
Realistisch beides. Aber das darf nun einmal nicht sein. Wir haben 2 Gpus Hersteller(Intel steckt noch im Kindergarten). Wenn der einer das nicht hat der andere aber schon ist das einfach kein gutes Licht, so éinfach ist das.

Meine 4070 jetzt gerade eben. Am 4k 120hz Oled tv mit 10 bit hdr(ON)
gif.gif



quelle:
https://extreme.pcgameshardware.de/...die-pcgh-redakteure-dazu.633686/post-11289248


Den alki würde ich nicht gerade als lügner darstellen :)
 
Wow sie haben unter Umständen mit dem Launchtreiber nicht immer den besten Idle und Youtubeverbrauch
und das bleibt dann immer so deiner Meinung nach?

Wolln wir uns mal den Platzhirsch anschauen weil AMD ja es ja seit zwei Jahren nicht hinbekommt den Ram runter zu takten?

1683549083684.png


Und genauso der Idle Verbrauch den sie seit 10 Jahren nicht hinbekommen:

1683549221078.png



Du erzählst völligen Blödsinn und bekommst nicht mit, dass sich die Resultate
im Vergleich zu den ersten Tests bei den 7900ern klängst geändert haben.
 
  • Gefällt mir
Reaktionen: DeadEternity, Zarlak, C0rteX und 2 andere
Zurück
Oben