Test Radeon RX 7900 XT Pulse im Test: Sapphires günstigstes RDNA-3-Custom-Design

Tripleh84 schrieb:
Bin kein fanboy, aber schon alleine wegen dlss 3.0 und frame Generation und Raytracing Leistung. Kommt nur eine 4070ti in der Preisregion in Frage. RDNA3 ist leider nicht geworden wie erwartet.
you made my day

Schöne Karte aber der Preis muss runter.
 
@modena.ch Es geht aber in der Leerlauf-Verbrauch Diskussion nicht um das poplige Beispiel eines 60Hz Monitors, sondern praktisch alle anderen Variationen... 75, 100, 120, 144, 165, 240Hz oder zwei Monitore mit verschiedenen Hertz.
Und der Verbrauch bei Videowiedergabe ist ja immernoch die Hölle.
Da sollte man schon aufpassen bzw. genau den Usecase hinterfragen, wenn es z.B. in einer Kaufberatung darum geht (4070Ti vs 7900XT).
 
incurable schrieb:
Für "unter 900 Euro" ist die ganze aufgeblasene Serie von RX 7800 XTs zu teuer.

Bei 700 Euro für eine Einsteigerkarte darf AMD sich noch mal melden.
x800XT ist eine Einsteigerkarte? oO Uff, die Welt ist echt verrückt geworden.
Einsteiger waren mal die x200, x500, eventuell noch x600. X700 waren schon Highend die durch die x800 ersetzt wurden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85
Geforce4070 schrieb:
weil 300 watt? die 7800 soll auch 285 watt saufen. nvidia hat es geschafft wieder dort zu landen. vielleicht landet die 7700xt auch dort :) abwarten
Deswegen ja leicht effizienter durch weniger Takt, meine 6800 mit 230 Watt bleibt auch kühl genug, bis 250W sollte doch möglich sein.

ruthi91 schrieb:
Wie wärs mit einer 4070 FE ?
Es gäbe auch eine 4070TI im 2 Slot Design aber die 12 GB bei meinem Monitor (5120x2160) stimmen mich skeptisch. Auch wenn ich keine Hardcore Gamer bin
 
  • Gefällt mir
Reaktionen: boypac007 und electronish
ruthi91 schrieb:
Da sollte man schon aufpassen bzw. genau den Usecase hinterfragen, wenn es z.B. in einer Kaufberatung darum geht (4070Ti vs 7900XT).

20-30 Watt Differenz. Aber Mal ehrlich auf wieviele trifft das schon zu? Wieviele benutzen immer 2 Monitore gleichzeitig oder gucken YouTube Videos am PC den ganzen Tag?
 
  • Gefällt mir
Reaktionen: C0rteX, McTheRipper und PegasusHunter
Hab mir die Karte letzte Woche gegönnt. Ich bin zufrieden. Kein Spulenfiepen, Lüfter sind human. Ich kann die Karte nur empfehlen. Powertarget auf -10 und der Verbrauch stimmt auch.

Diese Multimonitor / Hertz Problematik wird hofftenlich auch bald gefixt. Denn die Karte verbraucht tatsächlich mit einem 144Hz und einem 60Hz Monitor um 85 Watt im Idle. Ich habe jetzt beide auf 60Hz laufen... wenn beide aktiv sein müssen.
 
  • Gefällt mir
Reaktionen: public_agent und Flyingiceman
Achso, ja das ist dann auch ein Problem wenn man nur mit Screenshots zu den Daten arbeitet, worauf kein Datum ersichtlich ist.
Bzw. in letzter Konsequenz AMDs Problem, denn die Welle an Release-Day Tests mit den negativen Ergebnissen ist ja schon durchs Internet geschwappt.
 
Varccas schrieb:
Stromverbrauch zeigt bei mir Adrenalin 11-14 Watt bei 3440 x 1440 bei 100 Hz an. Hat jemand das gleiches Setup mit ähnlichen Werten?
Ich habe mit meiner Pulse, nicht Nitro!
Da ich gleich einen Zahnarzttermin habe, ein Copy-and-paste von anderer Stelle von mir.

Ich besitze genau diese GPU, Leerlauf 12W, während ich gerade schreibe, LibreOffice geöffnet im Hintergrund, 12 Tabs im Firefox = max 20W.
LibreOffice aktiv, Firefox im Hintergrund = max 30W.

Einstellungen: Windows Energiesparplan = Energiesparmodus, Adrenalinsoftware = PT minus 10%, Spannung 1000mV / Einstellungen (Zahnrad oben rechts), Grafik, Profil = Energiesparend, Chilli = an, Min/Max FPS 100.
Monitor (165 Hz), 3440x1440 unter Windows-Einstellungen, Bildschirm, erweiterte Anzeige auf 100 Hz gestellt.

Als ich die Karte neu bekommen habe, vier Monitore angeschlossen = Leerlauf 80W, und geschockt :-).
Meine Lösung, ältere GT 730 zusätzlich verbaut, benutzt für statische Anzeigen, Mail, Browser ..., die Karte langweilt sich zu Tode.


Habe die Karte jetzt seit ca. 2 Wochen, die ersten Tage hätte ich geschworen, null Spulenfiepen.
Nach all den Kommentaren habe ich schon in Betracht gezogen, meine alten Ohren können die betroffenen Frequenzen evtl. nicht mehr hören.

Dann war es morgens um einiges kälter im Raum, Rechner angemacht und ich habe festgestellt, meine Ohren funktionieren einwandfrei, überspitzt, Spulenfiepen aus der Hölle, nach einer Stunde, Raumtemperatur wieder "normal" und das Spulenfiepen war komplett verschwunden.

Hin und wieder habe ich ganz leichtes Spulenfiepen zwischendurch, auch im Leerlauf, surfen ..., das ich aber nicht bewusst triggern kann, stört mich aber nicht weiter, da nicht permanent und sehr zurückhaltend.


Könnte später mehr schreiben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85, Varccas, electronish und eine weitere Person
Silencium schrieb:
Früher sehr gerne Sapphire gekauft. Diese scheint ein solides Paket darzustellen. Leider sind auch hier wieder >300W am Start. Ich würde gern wieder bei ~200W landen.
Kannst du doch, nennt sich undervolten/underclocken. Boost Takt auf 2450mhz reduzieren und die karte läuft aller höchstens 240w, im schnitt <200w. Selbst getestet. Natürlich muss man dann etwas Leistungsverlust akzeptieren, man kann halt nicht auf 2 Hochzeiten gleichzeitig tanzen, max performance ohne verbrauch gibt es nicht.

Alternativ geht auch Fps limitieren auf 60 oder 120, je nach Spiel/Leistungsreserveren und Refresh Rate.
 
  • Gefällt mir
Reaktionen: Czk666
Geforce4070 schrieb:
Ich wette darauf das es am MCM Design liegt. Monolithen sind da einfach effizienter.
Ich liebe es, wenn Leute Wetten abschließen, man aber an ihren Beiträgen merkt, dass sie sich mit der Materie nicht befasst haben und erst mal nur stumpf etwas daher schreiben.

Kannst du denn begründen, warum ein monolitischer Chip hier "einfach" effizienter wäre? Ich kann dir hier eine Begründung schreiben, warum dein Beitrag auf der einen Seite falsch und doch einen Funken Wahrheit enthält.

Monolithen sind nicht pauschal "einfach" effizienter, so eine Aussage ist pauschaler Blödsinn. Die Effizienz hängt bei einer GPU - genauso einer CPU - von vielen Faktoren ab und es ist vollkommen unabhängig ob man ein Multi-Die-Design umsetzt oder ein monolitisches Design. Es ist richtig, dass erst mal ein gesteigerter Grundverbrauch existiert im MDD. Nur ist dieser in der Regel zu vernachlässigen und der Bedarf hängt von vielen anderen Faktoren ab und auch wie effektiv die Steuerung des Chips/der GPU damit umgehen kann.

Bei einer GPU ist das aber nicht nur eine Frage der Steuerung im Chip, sondern auch eine Frage der Firmware und des Treibers, denn anders als eine CPU, die relativ viel Controll-Logik enthält, schenkt man sich diese bei GPUs zu Gunsten von Rechenwerken und Co. Daher konnte AMD auch relativ "schnell" mit den ersten Treibern hier an bestimmten Punkten abhilfe schaffen, da die ganzen States für die Chip-Bestandteile in der Firmware hinterlegt sind und der Treiber entsprechend anhand verschiedener Parameter die States setzen kann.

So kann/könnte man bei einem MDD-Design zum Beispiel ganze Memory-Controller und deren Links "deaktivieren", wenn man diese nicht braucht, was am Ende sogar "mehr" Energie einsparen könnte, als bei einem Monolithen, weil dann auch die ganze RAM-Bank abgeschaltet wird. Wäre von der "Controll"-Logik etwas komplizierter auch auf Treiber ebene, weil man dann in den niedrigen States auch den "VRAM" limitieren müsste, die der Treiber nutzen kann usw. Aber es gibt hier echt viele Möglichkeiten.

Entscheidend ist, wie viele Taktdomänen AMD/NVIDIA in ihre Chips integriert und wie viele States für diese Domänen vorgesehen werden und wie fein man auch Bestandteile des Chips abklemmen kann. Vollkommen unabhängig ob MDD oder monolitisch.
Geforce4070 schrieb:
AMD schaffts seit 10 Jahren nicht ihren Idle-Verbrauch in den Griff zu bekommen
Eine gewagte Aussage, die man so nicht stehen lassen kann: RDNA und RDNA2 sind gerade bei einem Monitor sehr gut gewesen und lagen beide unter 10 W. Erst im Multi-Monitor-Betrieb waren beide etwas schlechter aber auch nicht abgeschlagen von der Konkurrenz. Ebenso war Vega, was beim Idle-Verbrauch angeht, auf einem Level wie NVIDIA und nicht wirklich schlechter und in YouTube teils deutlich besser. Polaris war auch nicht wirklich schlechter als NVIDIA und je nach Konfiguration sogar besser - damit haben wir 8 von den 10 Jahren bereits abgedeckt und in keiner seit dem erschienen Generationen war AMD beim Idle wirklich abgeschlagen und schlechter als NVIDIA, manchmal sogar besser.

Auch Fury war nicht schlechter als NVIDIA damals und die zweite und dritte GCN-Generation war nicht wirklich schlechter als die NVIDIA Pendants und die erste Iteration ebenso wenig. Man hat immer mal schwankungen von ein paar Watt zu Gunsten des einen oder anderen Herstellers, aber die GPUs agierten beim Idle-Verbrauch alle auf einem ähnlichen Level, was den Idle-Verbrauch anging.

RDNA3 war hier - und deswegen wurde hier auch so stark darauf eingegangen - eine traurige Ausnahme bei den ersten Tests, weil es vollkommen verwundert hat, warum RDNA3 plötzlich SOVIEL schlechter abgeschnitten hat.
Geforce4070 schrieb:
All das habe ich bei verbauten NV Karten eben nicht - die baust du ein und es funktioniert alles.
Du kannst dich an der Stelle glücklich fühlen, dass du nie Probleme mit NV-Karten hattest. Ich könnte da ein ganz anderes Liedchen singen, was aber daran liegt, dass bei mir durch die Hände pro Jahr aktuell so 10 - 20 Karten je Hersteller wandern und ich daher viel eher auch mal Karten mit Dead on Arive erlebe und all die schönen Macken, die es da gibt.

Genauso wie zickig manchmal die NVIDIA-Treiber sein können. Das Dumme an all dem ist, dass man - egal ob AMD, NVIDIA oder Intel - manchmal nicht drin steckt. Selbst eine "falsche" UEFI-Einstellung kann schon mal der Auslöser von Problemen sein oder weil ein Gerät ein "exotischen" Interrupt-Einstellung setzt usw.

Es ist doof, dass AMD für dich mit mehr Problemen bisher verbunden war und dass man dann kein Bock hat: Verständlich. Ich hoffe für dich, dass du dann NIE Probleme mit NVIDIA bekommst.
Lurtz schrieb:
Dann muss es wohl Magie sein, dass viele User nur 15 Watt TBP auf hochauflösenden HighRefresh-Displays haben, während PCGH bei stillem Desktop teils auf 80 Watt kommt.
Das Problem bei solchen Messungen ist immer: Was versteht man unter Idle und wie ist Windows und Co dann auch eingestellt.

Ich erreiche aktuell in einem vollständig ruhendem Desktop ohne weitere Proramme mit der 7900 XTX Verbräuche von 6 - 15 Watt und gemittel 8 Watt. Das ist sehr wenig. Sobald ich aber meine normalen Standardprogramme an habe, die immer da sind, geht der Verbrauch auf 8 - 20 W m Mittel um die 16 W hoch.
modena.ch schrieb:
Du erzählst völligen Blödsinn und bekommst nicht mit, dass sich die Resultate
im Vergleich zu den ersten Tests bei den 7900ern klängst geändert haben.
Naja, entsprechende Nachtests bei PCGameshardware, CB und Co sind ja auch eher "Mangelware", entsprechend sind die alten Ergebnisse für viele noch greifbar. Da kannst du ihm nur bedingt einen Vorwurf machen.

Wobei ... ach mein Jahresgeld geht jetzt doch in eine 4090 ... doofe KI, jetzt hat mich das Fieber da erreicht und ja es gibt ROCm, aber das Gefrickel aktuell tu ich mir unter Linux auch nicht an. Ich will das es geht! :) Glaub, wird dann noch ein Pandi-Test geben, dann aber auch mit KI!
 
  • Gefällt mir
Reaktionen: cbmik, Zarlak, Rockstar85 und 9 andere
abzjji schrieb:
Sapphire war der Saftladen ohne Endkunden Garantie oder?

Jau das war und ist genau "der" Saftladen ;) Genauso toll wie die Idee von MSI das der Garantiezeitraum mit dem Produktionsdatum beginnt..
 
DevPandi schrieb:
Kannst du denn begründen, warum ein monolitischer Chip hier "einfach" effizienter wäre?
Warum ist Speicher auf der CPU (L1, L2, etc.) viel schneller und effizienter als DRAM? Kürzerer Weg.
 
  • Gefällt mir
Reaktionen: Geforce4070
SANDTIGER schrieb:
Ach was ist nur aus dem Überflieger Vega 56 Pulse geworden so ist es nur Standardkost - wenn auch Gute .

https://www.computerbase.de/artikel/grafikkarten/sapphire-radeon-rx-vega-56-pulse-test.62848/
Ich hatte selbst eine und es war bis dato meine Lieblingskarte, allerdings musste ich auch einiges daran machen.Die Lüfterlager hatten Probleme und die Pulse war als einzige Karte nicht mit den ganzen Standardlüftern von Polaris kompatibel, weil sie ein eigenes PIN-Layout hatte. Ich konnte zwar für 10 € Ersatzlüfter beim Ali deiner Wahl kaufen, musste aber die gesamte Technik auseinandernehmen, um sie einzubauen. Außerdem hat die Karte bei mir ganz merkwürdig auf UV reagiert. Ich bin am Ende auf etwa -200mV gewesen, die Karte hat dann aber gar nicht mehr auf UV reagiert. Also sie ist weder abgestürzt noch hat sich an der Performance etwas getan, so als würden meine Eingaben ignoriert werden.
Insgesamt eine interessante Tüftelei, hatte sie auch lackiert und während des Mining nach einem Jahr Besitz für das Dreifache verkauft.
Jetzt eine 6600 XT Nitro+ und ja, vergleicht man die beiden Karten, wirkte die Vega 56 eher wie eine Nitro+ und die 6600 XT wie eine Pulse.
Aber als kostenloses Upgrade kann ich mich nicht beklagen, wenn auch die Nitro+ selbst nach Lüfteraustausch (hat nur fast ein Jahr gedauert bei Sapphire) immer noch in gewissen Szenarien Störgeräusche erzeugt.
Nach 4 Jahren Sapphire und 3 Karten ist mein Fazit:
Von einer hochwertigen RX 570 Nitro+, zu einer guten Vega 56 Pulse, zu einer durchschnittlichen RX 6600 XT Nitro+ wird meine nächste Karte wahrscheinlich eher eine Powercolor.
Ich ärgere mich, dass ich beim "Panikkauf" nicht bessere Bilder der Red Devil gefunden habe, sonst hätte ich lieber die genommen.
Merke, das war noch in der Zeit, in welcher normale Menschen 20 Minuten nach Release keine Karte mehr zu moderaten Preisen erwerben konnten.
Zum eigentlichen Test:
Betrachte ich die Laustärkebalken so erhärtet sich mein Verdacht, dass Sapphire mit Pulsekarten bestenfalls noch Durchschnitt für 5% günstiger anbietet. Früher haben die Pulsekarten im Highend konkurriert und waren der Nobrainer für den nachhaltigen (Lüftertausch) und preissensiblen Gamer.
 
  • Gefällt mir
Reaktionen: SANDTIGER
Czk666 schrieb:
Ist doch auf 40 gedeckelt :)
Ist jetzt etwas offtopic, aber was denkst du, woher die anderen 12 Cent pro kWh herkommen?

Spoiler:
Aus deinen Steuern. Also sofern du nicht arbeitslos bist oder im Ausland lebst, bezahlst du diese 12 Cent auch mit.
 
  • Gefällt mir
Reaktionen: Oudenstekelig und Pro_Bro
Tripleh84 schrieb:
Bin kein fanboy, aber schon alleine wegen dlss 3.0 und frame Generation und Raytracing Leistung. Kommt nur eine 4070ti in der Preisregion in Frage. RDNA3 ist leider nicht geworden wie erwartet.
DLSS3 FG gibts aber nur in einer Handvoll Spielen, genauso wie es aktuell noch net wirklich sooo viele Games mit RT gibt.
Vergleich doch mal mit allen verfügbaren Games?
Das ist ein verschwindend geringer Prozentsatz. In allen anderen Games (also reines Raster) hast mit einer 7900XT dann mehr Leistung, und ausreichend VRAM ;)
Und wenn du für RT extra eine NV GPU (in dem Bsp hier also eine 4070ti) für RT wählst, bekommst als Dankeschön von NV dann auch gleich nur magere 12GB für ~900€ spendiert, nur weil sie so großzügig zu ihren Kunden (wie dich) sind. ;)

Man hat bei HUB sehr gut gesehen, was eine RX6800 (16GB) mit einer RTX3070 8GB macht....gerade in RT Titeln ;)
Einige Games, die überhaupt nicht gut laufen mit zu wenig VRAM:

Nur eine Frage der Zeit bis es andere VRAM arme NV GPUs trifft....wie die 4070, 4070ti zb. Erst ab 1200€ bekommst bei NV sorgenfreie 16GB. Wow.

Also lobt sie mal nicht zu sehr für ihre dreiste Masche Leute abzuzocken.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, Anon-525334, Flyingiceman und 4 andere
basic123 schrieb:
Na dann ist ja alles super. Bloß 100% Aufschlag.

Ich würde da allerdings den Anbieter wechseln.
Als Neukunde bekommt man aktuell um die 32-34 Cent/KWh und für Spezialtarife (Wärmepumpen, PKW etc.) um die 25-27 Cent/KWh. Ausnahmen sind die Regionen wo die Leitungen nicht mehr mit voller Leistung betrieben werden können (marode) und gleichzeitig aufgrund der neuen Abstandsregeln (und dem Freileitungsverbot in Teilen des Landes) der letzten ~10 Jahre auch kein Ersatz an der selben Stelle gebaut werden darf. Da werden sich in 5-10 Jahren noch einige Wundern.
 
  • Gefällt mir
Reaktionen: Czk666
danyundsahne schrieb:
DLSS3 FG gibts aber nur in einer Handvoll Spielen, genauso wie es aktuell noch net wirklich sooo viele Games mit RT gibt.
Vergleich doch mal mit allen verfügbaren Games?
Die alten Spiele brauchen es auch nicht wirklich und die neuen haben es, wenn der Titel nicht von AMD gesponsort wurde.
 
  • Gefällt mir
Reaktionen: trailrider und Pro_Bro
Zurück
Oben