Test Radeon RX 7900 XT Pulse im Test: Sapphires günstigstes RDNA-3-Custom-Design

incurable schrieb:
Für "unter 900 Euro" ist die ganze aufgeblasene Serie von RX 7800 XTs zu teuer.
Guter Tipp am Rande:
Kauft alle schön weiter Nvidia, denn 92,7% Marketshare reichen ja noch nicht ;)
AMD könnte die karten Verschenken, dennoch kommt auf eine AMD GPU 9 Nvidia.
Und ja wir alle haben Schuld an der Misere.

Der Test ist wie imer gut gelungen.
 
  • Gefällt mir
Reaktionen: boypac007, Sardok, Captain Mumpitz und 2 andere
Rockstar85 schrieb:
Und ja wir alle haben Schuld an der Misere.
Man hat natürlich als Kunde die Verantwortung, ein gesundes Wettbewerbsumfeld aufrecht zu erhalten. Ist klar xD
Soll halt AMD Karten bringen, die keine 100W im fast Idle ziehen. Meine 5700XT macht sowas auch nicht
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Zeige mir, dass man die Aussage nicht verstanden hat, ohne die Aussage zu verstehen
Gratuliere, du hast 100 Punkte und ladest dafür dann auf der Trolliste
Exakt wir Kunden haben schuld an dieser Verteilung.. Die ganzen Virulenten Makretingtrolle direkt vorne weg.
Hier ist es im Test nicht anders in den Kommentaren. Es werden Urban Myth mit frechen Lügen garniert verbreitet. (am besten war ja die GPU Cooler Nummer, oder die Behauptung von WCCFTech, dass AMD wissentlich das alles macht) Klar, wenn es wichtiger ist, dass alle sich Selbst Profilieren, dann kann das schon so sein. Es wäre aber Marktwirtschaftlicher Selbstmord. Man sieht aber, wie wenig manche Leute hier Einblick in Internationale Firmen haben. Vllt auch besser so.

Und dann wundert man sich, dass manche Leute keine Lust mehr haben Objektiv zu bleiben? RDNA2 war ein so guter Wurf, dass AMD es gedankt wurde mit RTX käufen, weil RT ja the big thing ist.
Witzig, dass NV nun also das dritte mal einen 150USD RT Aufschlag genommen hat.

Aber ich denke du weisst sehr wohl, was ich meine, hat nur keinen Bock auf Diskussion.
Damit schließe ich das Thema für mich.

Wir haben als Konsumenten genauso selbst Schuld, wie damals bei Intel. Nur war zu RDNA2 Zeiten das gleichwertige Produkt nicht gut genug. Dass AMD nun also den Move macht, die GPU teuer zu verkaufen ist logisch. Denn sie kauft ja eh keiner.
Und das ist ein harter Fakt.
Wenn du mir nicht glaubst, schau dir gerne mal alle Releases unter VLIW, GCN und eben RDNA an.. Ja ab und an gab es Ausreißer (mit berechtigter Kritik), aber die Quittung ist nun eben ein Monopol bei NV, die eine Geforce Now 4080 witzigerweise zum 3080 Preis anbieten können.

Ich mach an alle einen Vorschlag:
AMD bietet euch die 7600XT für 299€ an und ihr würdet dennoch NV kaufen.. Wollen wir wetten? Die Kolportierte 4060 wird irgendwo in der 500er Preisregion liegen.. Aber klar, AMD ist Schuld an den Preisen ;) Nein, das nennt man schlichtweg Marktwirtschaft.


Es ist müßig, dass viele hier mit einem so großen Zweierlei Maß messen, dass selbst solche Moves wie die 4080/12 noch hingenommen werden. Vllt sollten gewisse Leute in Zukunft AMD Threads meiden, ich finde es schon traurig, dass erst in Post 5 mal was zum Test steht.
Aber ich hab ja auch gelernt, dass meine 3060Ti nur noch für Minesweeper taugt, und RT mit dieser Karte wunderbar geht ;)

@Faust2011
Ich hoffe du nimmst es mir nicht böse, dass ich hier mal ranten musste. CB macht sich solche Mühe mit den Tests am Ende verreißen das Thema immer wieder die gleichen Leute..Schade
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Anypaper, CadillacFan77, boypac007 und 6 andere
Rockstar85 schrieb:
Zeige mir, dass man die Aussage nicht verstanden hat, ohne die Aussage zu verstehen
Gratuliere, du hast 100 Punkte und ladest dafür dann auf der Trolliste
Exakt wir Kunden haben schuld an dieser Verteilung.. Die ganzen Virulenten Makretingtrolle direkt vorne weg.
Hier ist es im Test nicht anders in den Kommentaren. Es werden Urban Myth mit frechen Lügen garniert verbreitet. (am besten war ja die GPU Cooler Nummer, oder die Behauptung von WCCFTech, dass AMD wissentlich das alles macht) Klar, wenn es wichtiger ist, dass alle sich Selbst Profilieren, dann kann das schon so sein. Es wäre aber Marktwirtschaftlicher Selbstmord. Man sieht aber, wie wenig manche Leute hier Einblick in Internationale Firmen haben. Vllt auch besser so.

Und dann wundert man sich, dass manche Leute keine Lust mehr haben Objektiv zu bleiben? RDNA2 war ein so guter Wurf, dass AMD es gedankt wurde mit RTX käufen, weil RT ja the big thing ist.
Witzig, dass NV nun also das dritte mal einen 150USD RT Aufschlag genommen hat.

Aber ich denke du weisst sehr wohl, was ich meine, hat nur keinen Bock auf Diskussion.
Damit schließe ich das Thema für mich.

Wir haben als Konsumenten genauso selbst Schuld, wie damals bei Intel. Nur war zu RDNA2 Zeiten das gleichwertige Produkt nicht gut genug. Dass AMD nun also den Move macht, die GPU teuer zu verkaufen ist logisch. Denn sie kauft ja eh keiner.
Und das ist ein harter Fakt.
Wenn du mir nicht glaubst, schau dir gerne mal alle Releases unter VLIW, GCN und eben RDNA an.. Ja ab und an gab es Ausreißer (mit berechtigter Kritik), aber die Quittung ist nun eben ein Monopol bei NV, die eine Geforce Now 4080 witzigerweise zum 3080 Preis anbieten können.

Ich mach an alle einen Vorschlag:
AMD bietet euch die 7600XT für 299€ an und ihr würdet dennoch NV kaufen.. Wollen wir wetten? Die Kolportierte 4060 wird irgendwo in der 500er Preisregion liegen.. Aber klar, AMD ist Schuld an den Preisen ;) Nein, das nennt man schlichtweg Marktwirtschaft.


Es ist müßig, dass viele hier mit einem so großen Zweierlei Maß messen, dass selbst solche Moves wie die 4080/12 noch hingenommen werden. Vllt sollten gewisse Leute in Zukunft AMD Threads meiden, ich finde es schon traurig, dass erst in Post 5 mal was zum Test steht.
Dann muss ich jetzt Intel CPUs kaufen, damit der Markt da nicht auch in Schieflage gerät? :) Ist doch Quatsch.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
@meisterkatzen
Intel IST Marktführer... Ein Spatz macht noch keinen Sommer. (man schaue sich AMDs Ryzen Anteil im Marketshare an und wundere sich)
Und jeder der Älter ist, weiß GENAU, was ich meine. Denn wir haben mal vor nicht all zu langer Zeit eben genau drauf geachtet, wie wir konsumieren. Heute reicht es, wenn nur Genug Leute das gleiche bewerben.
Genau aus diesem Grund habe ich ein CB Pro Abo, weil es hier anders ist, zumindest durch die Redaktion nicht zur Verkaufsvorstellung kommt.
Wie einige Sagten, die Pulse als Produkt ist Grundsolide, Pulse Karften waren schon immer bei Sapphire die günstigeren Modelle, dennoch selten Probleme mit gehabt. Warum dann hier aber Vergleiche zum Releasereview gezogen werden, versteh ich nicht. Mir wäre neu, dass RDNA 100W im Idle zieht :)

Übrigends werden Vollzitate hier nicht gerne gesehen.
 
Wie hoch ist denn die Mindestdrehzahl wo die Lüfter anfangen zu drehen? Bei meiner 6800 Pulse waren es 1.000rpm was deutlich hörbar war. Für viele Situationen hätten 500-600rpm locker ausgereicht um die Karte bei 50-60 Grad zu halten, war aber nicht möglich. Die ging vom Zero Fan Modus direkt auf 1.000rpm.

Meine 7900XT MBA fängt bei knapp unter 500rpm und lässt bedeutend mehr Spielraum für ein leises System. Das war übrigends DER Grund warum ich die MBA gekauft habe anstatt erneut die Pulse. Bei der MBA gab es User die freundlicherweise Infos zur Karte geteilt haben. Die Pulse gab es zwar schon im Dezember, niemand hatte aber die Karte und wieder 1.000rpm Drehzahl, das wollte ich auf gar keinen Fall.
 
  • Gefällt mir
Reaktionen: Rockstar85

Anhänge

  • AMD Verbrauch.JPG
    AMD Verbrauch.JPG
    40,8 KB · Aufrufe: 147
Wurde doch gefixed... Also 4k 144HZ steht da. Schau nochmal, was der Großteil an Monitoren hat.
In Wahrheit sind es 17W, für 85% der Nutzer... Und ja , diese ~100W waren zum Releasetest da.
Über die Immer noch zu Hohe Idle in YT darf man gerne streiten, auch da wird AMD den Treiber anpassen. Steht ja in dem Releaselog.

https://www.pcgameshardware.de/Rade...en-Stromverbrauch-im-Idle-reduzieren-1409678/

1683583341305.png

Was sagen bloß die RTX30 Kunden?
Nebenbei haben hier im Thread schon Leute geschrieben, was sie mit AMD Karten so im Idle haben. Aber lassen wir das. Eine XTX liegt also bei 7W mehr zu einer 4090Fe..
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Zeige mir, dass man die Aussage nicht verstanden hat, ohne die Aussage zu verstehen
Gratuliere, du hast 100 Punkte und ladest dafür dann auf der Trolliste
Ich frage mich gerade, wer hier der Troll ist.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und DaHell63
Rockstar85 schrieb:
Wurde doch gefixed...
Nicht wirklich, nein.
Dumm halt, dass das kaum jemand testet, aber manche zum Glück doch:
PC Games Hardware Video 4070 Ti vs 7900XT

Und ganz ehrlich, es ist egal, ob 85% der User nicht betroffen sein sollen. Es muss erwähnt werden, damit jeder, der potentiell betroffen ist eine fundierte Kaufentscheidung treffen kann.
Und ich würde davon ausgehen, dass Gamer, die eine Grafikkarte für 800+ Euro kaufen, sich auch ganz gern mal einen Monitor mit über 60 Hz zulegen. Ist aber nur eine Theorie von mir.
 
  • Gefällt mir
Reaktionen: MrHeisenberg und killbox13
@Bloodie24
Igor ist da verlässiger mit den Werten. Deswegen meinetwegen soll Raff machen.
Der oben verlinkte Screen kommt von CB, und wer lesen kann, kann erkennen, was da steht. Aber wie du meinst.
Der Unterschied 118Hz zu 120Hz zeigt halt, dass AMDs Telemetrie nicht das macht, was gewünscht ist. Wieso nochmal haben wir mehr Leistungsaufnahme bei weniger Hz? Also Treiberthema und dann ist das auch aus der Welt.

https://www.igorslab.de/en/graphics...y-with-nvidia-and-nearly-impossible-with-amd/

ach ja, auch für den letzten TBP ungleich Power Consumption.. Und das wird immer schwerer das sauber auseinander zu dröseln.. Leider. GPU werden zunehmend zur Blackbox mit Verdongellung.

Edit:
Auch im Link steht, dass es ein Treiberfehler ist. AMD muss also die Powerstates anpassen und dann haben wir nur noch das VT Thema mit 144Hz.. Ab 800€ werde ich mir eine 7900XT zulegen, einfach weil die Karte Basteldrang auslöst.
 
Zuletzt bearbeitet:
Der Screenshot ist aus dem November 2022...das Video ein paar Tage alt...
Ich bleibe da bei dem neueren Test. Kannst Dich aber gerne melden, wenn Du aktuelle Daten findest.

Hier im Forum konnte das auch schon bestätigt werden.
Link ins Form

Da Du Igor gerne magst, ein Zitat von seiner Seite (10.04.23 steht dort):
"Die 27.5 Watt im Idle sind besser geworden, aber immer noch recht hoch, wobei es zwischen 12 Watt und bis zu 36 Watt schwankt. Mit einem zweiten Monitor werden das schnell mal 50 Watt und mehr (Spitzen über 70 Watt)" -> geht um die 7900XT
Link zu Igor

Auch für andere hier im Forum noch ein ganz aktuelles Thema.
Link ins Form
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
Bloodie24 schrieb:
Da Du Igor gerne magst, ein Zitat von seiner Seite (10.04.23 steht dort):
"Die 27.5 Watt im Idle sind besser geworden, aber immer noch recht hoch, wobei es zwischen 12 Watt und bis zu 36 Watt schwankt. Mit einem zweiten Monitor werden das schnell mal 50 Watt und mehr (Spitzen über 70 Watt)" -> geht um die 7900XT
Link zu Igor
Ich hasse es ja, wenn man Zitate aus dem Kontext reisst, sowas ist echt nicht nett. Die Begründung liefert Igor gleich mit ^^

"Hier muss der Treiber immer noch dringend nachgebessert werden, zumal auch der PCIe nicht immer richtig runtertaktet, nicht einmal auf einem aktuellen Intel-System."
Also Treiberprobleme (soweit halt beherrschbar, Powerstates sind nun keine Raketentechnik)
All das kennt man von Zen 1000... Auch da hatte AMD Anfangs massive Kinderkrankheiten. Immerhin kann man diese Dinge händisch anfassen, oder gar mit einer iGPU lösen

Ich bin gespannt, ob wie WTFtech behauptete, Navi 32/33 ein RDNA3 done Right werden. Ich glaube eher RDNA4 wird dann mit MCM richtig performen. Wenn AMD bis dahin noch High End GPU baut.
Für mich ist der Test von CB am Ende aussagefähiger als das was der Herr Vötter da macht. Leistungsaufnahme via Tool messen kann eben nach hinten losgehen. Ich hoffe mal, das wird mit den Treibern.
 
@Rockstar85
Danke, dass Du bestätigst, was ich geschrieben habe und dass das Problem immer noch besteht und nicht, wie Du geschrieben hattest, bereits gefixt ist.
Woran der hohe Verbrauch liegt, also die mitgelieferte Begründung, ist mir völlig wuppe.
AMD hat es nach einem halben Jahr nicht geschafft das zu beheben. Nvidia hatte im Vergleich dazu nie dieses Problem, egal auf welcher Plattform.
Sag gerne Bescheid, wenn AMD das Problem wirklich gefixt hat, vorher werde ich sicher nicht darüber nachdenken eine aktuelle AMD Karte zu kaufen.
Ist auch nicht das erste Problem, das AMD mit mehreren Monitoren und verschiedenen Hz Zahlen hat.
Wenn ich meinen 144 Hz und meinen 60 Hz Monitor zeitgleich betreibe, macht Freesync nicht mit. Sehr nervig und wurde in all den Jahren auch nicht gefixt.

"Also Treiberprobleme (soweit halt beherrschbar, Powerstates sind nun keine Raketentechnik)"
Wenns so leicht ist, sollte es wohl kaum Monate dauern. Auf Versprechungen sollte man seine Kaufentscheidung, gerade bei den Preisen, wohl nicht aufbauen.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
900 ist ja ein schnäppchen
wenn ein viertel vom monats netto draufgeht ist das nicht "günstig"
 
Rockstar85 schrieb:
"Hier muss der Treiber immer noch dringend nachgebessert werden, zumal auch der PCIe nicht immer richtig runtertaktet, nicht einmal auf einem aktuellen Intel-System."
Also Treiberprobleme (soweit halt beherrschbar, Powerstates sind nun keine Raketentechnik)
AMD/AIOs wollen aber ihr Geld auch gleich vollständig oder darf ich jetzt erst 400€ zahlen und später wenns dann mal alles gefixt ist den Rest begleichen ? Das ist halt das Problem bei einem Produkt das JETZT zur Debatte steht - das Problem stand doch meines Wissens nach seit Release im Raum ?

Ich kauf doch bei den Preisen keine Karte die potentiell mal in nem Jahr das macht was sie soll...vielleicht. Zum Zeitpunkt wo ich kaufen will muss das Produkt liefern. Und das soll definitiv kein "Pro-Nvidia, die machen alles besser" Post sein.

Rockstar85 schrieb:
All das kennt man von Zen 1000... Auch da hatte AMD Anfangs massive Kinderkrankheiten.
Die hab ich zB auch bewusst nicht gekauft und lieber noch eine Gen ausgeharrt und dann für meine Mum mit einem 2700X zugeschlagen und für mich dann mit einem 3700X mit Zen 2 später, dann kam ein 3900X. Und seither immer wieder zu AMD gegriffen (5950X, 7950er jetzt), weil das Produkt mich einfach überzeugt hat.

Rockstar85 schrieb:
Immerhin kann man diese Dinge händisch anfassen, oder gar mit einer iGPU lösen
Super, werd ich dafür bezahlt dass ich AMDs Probleme umgehen muss ? Ich denke nicht. Ergo müssen die Karten halt entweder preislich runter oder die Problemchen gelöst werden - und zwar nicht von mir als unbezahltem Dienstleister.

Und am Ende ist es dann auch irgendwie absurd zwei GPUs betreiben zu müssen damit das gewünschte Ergebnis funktioniert. Würde ich bei nVidia genauso bekritteln.


Abgesehen davon ist die Karte für alle die wenig Fokus auf RT und Ökosystem (CUDA, Tensorflow etc.) drumrum legen für unter 800€ (schon gesehen) ein guter Deal als mehrheitlich reine Gaming Karte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
Eine gute Grafikkarte, die aber wie alle Grafikkarten derzeit einfach zu teuer ist für das Gebotene.

Ungeachtet dessen, dass aktuell alles zu teuer ist, wäre die Grafikkarte für 100 Euro weniger definitiv besser positioniert.

Das gilt aber im gleichen Maße für den direkten Gegenspieler, 4070 Ti.

Von einer 3090 TUF Gaming OC kommend, reizt mich noch nichts auf dem Markt. Ich werden mindestens noch eine Generation ausharren.

Diablo 4 läuft in 4K maxed out auch auf der 3090 mit 120 FPS+ mit DLSS Quality. Ansonsten reizt mich eh kein Spiel aktuell.

Mal sehen was die 5090 und die 8900 XTX leisten werden und vor allem zu welchem Preis.
 
Bloodie24 schrieb:
Leistungsaufnahme im Idle nicht nur 60 Hz getestet werden würden. Denn bei über 120 Hz sehen die AMD Karten sehr schlecht aus.
Stimmt pauschal nicht, ich hab aktuell ein 4K 144 Hz an der GPU und komme auf die besagten 10 W im vollen Idle und 15 W bei den normalen Hintergrundpeogrammen.

Ich könnte man den 2 Monitor anhängen, das ist aber aktuell eine Platzfrage.
 
Shy Bell schrieb:
Also sofern du nicht arbeitslos bist
Seit wann zahlen Arbeitslose keine Steuern? Ist das neu? 🙄
 
LencoX2 schrieb:
Sapphire baut in der Regel sehr gut Karten. Diese ist keine Ausnahme.
Einziger Haken bei der Sache: es gibt nur sehr wenige Gamer, die ca 800 EUR allein für die Grafikkarte zu zahlen bereit sind. Ich gehöre nicht dazu.

Ich finde 5-600 sind das absolute Limit. Kommt mit den Preisen runter und ich kaufe einen Nachfolger für meine RX 6800.
7800 xt maybe?
Ergänzung ()

Rockstar85 schrieb:
Guter Tipp am Rande:
Kauft alle schön weiter Nvidia, denn 92,7% Marketshare reichen ja noch nicht ;)
AMD könnte die karten Verschenken, dennoch kommt auf eine AMD GPU 9 Nvidia.
Und ja wir alle haben Schuld an der Misere.

Der Test ist wie imer gut gelungen.
Hä du hast doch eine sehr seltsam🤔
Ergänzung ()

SVΞN schrieb:
Eine gute Grafikkarte, die aber wie alle Grafikkarten derzeit einfach zu teuer ist für das Gebotene.
Ob die nächste gen günstiger ist glaub ich nicht
SVΞN schrieb:
Ungeachtet dessen, dass aktuell alles zu teuer ist, wäre die Grafikkarte für 100 Euro weniger definitiv besser positioniert.
Wow als ob das was bringt kann ja sein der preis fällt noch
SVΞN schrieb:
Diablo 4 läuft in 4K maxed out auch auf der 3090 mit 120 FPS+ mit DLSS Quality. Ansonsten reizt mich eh kein Spiel aktuell.
Jo klar zocke grad noch ein game (es ist Avangers) bis release danach erstmal nix ausser d4 haha
SVΞN schrieb:
Mal sehen was die 5090 und die 8900 XTX leisten werden und vor allem zu welchem Preis.
Teuer denkst plötzlich 1k haha
Ergänzung ()

CiX schrieb:
Würde ich z.b. nicht einsehen, bei einer Karte für 900€ da noch selber irgendwas einzustellen, damit ich zufrieden bin. Aber da ist jeder anders.

Umgekehrt gilt dasselbe Argument mit dem geringeren Verbrauch aber auch für Karten mit 200W, die ließen sich so ebenfalls mit weniger betreiben.
Und wäre bestimmt kaum schlechter als die 4070 ti mit seinen 12
 
Zuletzt bearbeitet:
Zurück
Oben