Test Radeon RX 7900 XT Pulse im Test: Sapphires günstigstes RDNA-3-Custom-Design

Von dem Teil gabs die letzten 3 Tage lang 250stk. Bei der Apotheke fur ~810€ inkl. Versand.
Aber der hohe Verbrauch im Idle unter gewissen Hertz/Multimonitor Setups gefällt mir so gar nicht.
Schade eigentlich, aber ich denke jetzt wo es rasch warm draußen wird, geht da auf beiden Seiten noch was am Preis.
 
  • Gefällt mir
Reaktionen: DerFahnder
Shy Bell schrieb:
Ich hatte selbst eine und es war bis dato meine Lieblingskarte, allerdings musste ich auch einiges daran machen.Die Lüfterlager hatten Probleme und die Pulse war als einzige Karte nicht mit den ganzen Standardlüftern von Polaris kompatibel, weil sie ein eigenes PIN-Layout hatte.
Ich hab sie aktuell noch im Einsatz. AMD wird bei mir ganz klar wegen der offenen Linux Kompatibilität bevorzugt. Es ist aber etwas ärgerlich, dass Vega 56 sich im Idle immer wieder über die 50°C Grenze aufheizt und dadurch die Lüfter kurz anlaufen. Da gäbe es sicherlich noch Optimierungspotential hinsichtlich Energiesparens. Aber sonst finde ich die Karte auch recht handlich und eigentlich auch gar nicht mal so schwachbrüstig - im FullHD Bereich. Mit 1440p jenseits der 60 FPS erreicht sie leider ihre Grenzen.
Ja sogar das dezent beleuchtete "Logo" an der Seite finde ich ganz nett. Es leuchtet schön gedimmt durch das abgedunkelte Glas.
Die GPU mag ja mitunter die teuerste Komponente im Rechner sein, aber das Gemecker an dem Plastik in diesem Preissegment finde ich einfach nicht nötig. Ich habe keine Ahnung, wie die Hersteller ihre Preise zusammensetzen, aber auf ein leuchtendes "Kunstwerk" wie die Asrock Grafikkarten verzichte ich gerne.
Es muss nicht alles leuchten. Es muss nicht alles kantig sein. Weniger ist manchmal mehr und genau deswegen mag ich die Pulse als Gesamtprodukt. Etwas mehr als das Original Design, aber dann doch solide und geschlossen verpackt.
Anders als z.B. die Powercolor Hellhound mit ihren offen Seiten, so dass man in die Finnen schaut oder die MSI Trio, die viele Kanten suggeriert.
 
MrHeisenberg schrieb:
Warum ist Speicher auf der CPU (L1, L2, etc.) viel schneller und effizienter als DRAM? Kürzerer Weg.
Der Vergleich passt an der Stelle nur bedingt. Die Grundprämisse ist zwar vergleichbar, es gibt aber ein paar entscheidende Unterschiede und ich habe auch bereits angemerkt, dass die Kommunikation in einem MDD etwas mehr Energie benötigt als in einem monolitischen Chip.

Du hast natürlich recht, dass der Weg hier ein entscheidender Faktor, es kommen aber auch in deinem Beispiel die Sockel/Steckplätze dazu, die in ihrer Form auch noch mal mehr Energie bei der Übertragung benötigen und als letzter Punkt ist in deinem Beispiel auch, dass entsprechende Verlust durch die Spannungswandler mit dazu kommt.

In deinem Beispiel ist der Weg deutlich länger - wir reden hier von wenigen µMeter gegen Milli- bis Centimeter. Also durchaus den Faktor 1000 - 10000, die dazwischen liegen. Dazu haben wir dazu einen Sprung aus dem Chip auf das Mainboard und in das RAM-Modul. Dazu hat das RAM-Modul sowie die CPU eigene Taktdomänen und entsprechend noch zusätzliche Wandlerverluste.

Der Weg ist bei einem MDD - wie geschrieben - deutlich geringer und quasi vernachlässigbar. Sieh dir mal an, wie dicht die MCD neben dem GCD liegebn, das ist ein minimaler Spalt. Zudem kann es hier sogar passieren - dass man den Weg sogar kürzer gestalten kann, als in einem monolitischen Design, weil man die Flächen effektiver nutzen kann.

Bei einem MDD steigt der Grundbedarf an Energie nicht primär wegen des Weges, sondern eben wegen dem Sprung aus dem Die in den Träger und dann eben wieder in den anderen Die.

Daher ist dein Beispiel zwar nicht falsch, an dieser Stelle aber unpassend, weil es von einer falschen Prämisse ausgeht, nämlich das der Weg hier alleine der entscheidende Faktor wäre.
MrHeisenberg schrieb:
Die alten Spiele brauchen es auch nicht wirklich und die neuen haben es, wenn der Titel nicht von AMD gesponsort wurde.
Ich hoffe ja, dass die Entwickler - vollkommen unabhängig ob von AMD oder NVIDIA gesponsort - sich bei der Implementation von DLSS und DLSS+FG sowie FSR und später auch FSR+FG deutlich mehr Mühe geben und auch entsprechende Masken und Co anfertigen.

Die Qualität von DLSS, DLSS+FG sowie FSR hängen immer noch sehr Stark von den Entwicklern ab und ob sie entsprechende Einstellungen/Daten auch für die Techniken bereit stellen. Es ist echt bitter zu sehen, wie schwankend die Qualität bei DLSS, FSR und auch DLSS+FG ist. Es gibt Spiele, da merkt man, dass die Entwickler sich Mühe geben - auch mal nur bei einem der Techniken - und dann zu viele, bei denen die Entwickler das Feature als Check-Heft abhaken aber so gut wie garnichts beachten.

DLSS+FG, genauso wie FSR sind geniale Techniken, aber hier sind die Entwickler gefragt.
 
  • Gefällt mir
Reaktionen: flatline1, cbmik, KoKane und eine weitere Person
killbox13 schrieb:
Von dem Teil gabs die letzten 3 Tage lang 250stk. Bei der Apotheke fur ~810€ inkl. Versand.
Aber der hohe Verbrauch im Idle unter gewissen Hertz/Multimonitor Setups gefällt mir so gar nicht.
Schade eigentlich, aber ich denke jetzt wo es rasch warm draußen wird, geht da auf beiden Seiten noch was am Preis.

Hab bei dem Angebot auch zugeschlagen da entsprechende Tests der Pulse noch mit den stimmigsten Kühler bescheinigen (XFX etwas besser aber zu laut ohne Anpassung, Powercolor vermehrt Spulenfiepen, ASUS, MSI und Gigabyte quasi nicht zu bekommen, schon gar nicht unter 900€...) und werde es am Ende abhängig machen, ob der "Desktop" Verbrauch wirklich problematisch sein wird, und natürlich vom Spulenfiepen ;)

Meine 6700XT hat den deutlich erhöhten "idle" Verbrauch wenn ich meine zwei 4K Displays anschließe, egal ob beide mit 60Hz oder einer mit 120 und der andere mit 60 laufen, sind dann quasi immer 27-33W ohne das irgendwas passiert.

Am Ende war meine Lösung den 2. Monitor über die iGPU des 10850K anzusteuern, dann läuft die GPU mit 6-12W, selbst bei 120Hz.

Wenn die 7900 dann bei ~15W landet, kann ich damit leben, ist ja ein größerer Chip (in Summe) und 20GB RAM.

Bei NV würde ich nichts unter der 4080 mit 16GB kaufen, die kostet aber 50% mehr.
 
Silencium schrieb:
Damit hast Du Recht. Ich schrieb zwar „rundes Paket“ aber preislich ist auch mir der GPU-Markt zu abgehoben. Die Preise müssten für mich deutlich fallen. Aktuell bleibt meine 2080Ti - auch gedrosselt!
Geiz ist geil wird's wohl erstmal nicht geben😉. Btw Braut sich zwischen China und Europa was zusammen, wegen möglicher Sanktionen für chinesische Firmen. Somit ist Geiz ist geil noch a bissl weiter weg😉. Btw. Ich würde da lieber 200€ drauf legen und zur xtx greifen. Die kann man ja auch undevolten und somit Spass haben.
 
pfreampfl schrieb:
Günstig ist relativ. Hätte man mir vor 4 jahren gesagt, dass ich 1300 € für eine GPU ausgeben würde, ich hätte gelacht und wenn mir die selbe Person sagen würde, dass ich wegen eines neuen Hobbys ein paar Monate später ca. 1800 noch mal drauf packe: ich würde mich vor Lachen kaum mehr ein bekommen. Und es kommt genau so.

Und dann setzt die Relation ein: Selbst eine 4090 kann günstig sein, wenn man KI als Hobby entdeckt hat und dann merkt, dass eine RTX A6000 mal schlappe 6000 und die ADA Nachfolgerin mal knapp 10.000 kostet.

Dagegen ist die 4090 günstig und die 4080 gar richtig günstig.

Alles eine Frage des Standpunktes.
 
die 7900xt wäre was für mich. bissl zu teuer noch und meine graka reicht mir momentan noch dicke aus.
die nächste graka bei mir hat aber min. 20 gb vram und soll auch wieder einige jahre halten.

grüße
 
basic123 schrieb:
Das versprochene grüne Wirtschaftswunder ist auch bei mir angekommen und so kostet eine Kilowattstunde Strom ab dem 01. Juni stolze 51,65 Cent, während sie bis dahin 20,39 Cent gekostet hat. Somit würde diese Karte aufgrund ihrer Leistungsaufnahme höchstwahrscheinlich nicht mehr in Frage kommen, obwohl ich eigentlich ein AMD Fan bin.
Mal sehen wie die 7800 xt sich so schlägt
Ergänzung ()

Christi schrieb:
die 7900xt wäre was für mich. bissl zu teuer noch und meine graka reicht mir momentan noch dicke aus.
die nächste graka bei mir hat aber min. 20 gb vram und soll auch wieder einige jahre halten.

grüße
Jo deine gpu ist echt noch supi hoffe gothic Remake kommt bald hehe
 
  • Gefällt mir
Reaktionen: Christi
Czk666 schrieb:
Habe bei meiner 7900xt den Takt und das pt gesenkt.

Würde ich z.b. nicht einsehen, bei einer Karte für 900€ da noch selber irgendwas einzustellen, damit ich zufrieden bin. Aber da ist jeder anders.

Umgekehrt gilt dasselbe Argument mit dem geringeren Verbrauch aber auch für Karten mit 200W, die ließen sich so ebenfalls mit weniger betreiben.
 
  • Gefällt mir
Reaktionen: Pro_Bro
CiX schrieb:
Umgekehrt gilt dasselbe Argument mit dem geringeren Verbrauch aber auch für Karten mit 200W, die ließen sich so ebenfalls mit weniger betreiben.
Bin ich komplett bei Dir.

CiX schrieb:
Würde ich z.b. nicht einsehen, bei einer Karte für 900€ da noch selber irgendwas einzustellen, damit ich zufrieden bin. Aber da ist jeder anders.
Kann ich nicht verstehen, da werden Monitore, Fernseher im (hochpreisigen) Segment gekauft, und es ist vollkommen normal, die Bildeinstellungen an die eigenen Bedürfnisse anzupassen, um nur ein Beispiel zu nennen.

Wenn man soviel Kohle in die Hand nimmt in Relation zur Produktpalette und keine Minuten oder eine Stunde Zeit investieren mag zur eigenen Zufriedenheit, der hat es auch nicht besser verdient.
 
  • Gefällt mir
Reaktionen: Oudenstekelig und RedSlusher
No Escape schrieb:
Wenn man soviel Kohle in die Hand nimmt in Relation zur Produktpalette und keine Minuten oder eine Stunde Zeit investieren mag zur eigenen Zufriedenheit, der hat es auch nicht besser verdient.

Bei GPUs ist es ja idR eine Sache von 1-2 Minuten, wenn man keine Lust auf exaktes Ausloten der Settings hat und einfach ein bisschen Power Target und UV Settings einstellt, die 100% überall laufen.

Ich könnte meine 4090 auch evtl noch etwas mehr Perf/W rausquetschen, wenn ich wollte, hab ich aber keine Lust zu, ich hab ein Setting genommen, das bisher nie Probleme gemacht hat und dabei bleibt es dann eben. Vielleicht könnte ich noch tiefer gehen, aber auch so ist sie schon locker 30% effizienter als eine Stock 4090, die letzten 5% schenk ich mir.
 
CiX schrieb:
Würde ich z.b. nicht einsehen, bei einer Karte für 900€ da noch selber irgendwas einzustellen, damit ich zufrieden bin. Aber da ist jeder anders.

Umgekehrt gilt dasselbe Argument mit dem geringeren Verbrauch aber auch für Karten mit 200W, die ließen sich so ebenfalls mit weniger betreiben.

Musst du ja nicht. Ich habe nur ein 550 Watt Netzteil. Das ist eigentlich der Hauptgrund :)
 
  • Gefällt mir
Reaktionen: CiX
Ich hab die Karte seit wenigen Wochen - die Spulen treiben mich ziemlich in den Wahnsinn mit ihrem Orchester, und der Multi-Monitor Stromverbrauch mit entsprechender NICHT Lüfter-Abschaltung ist halt auch ein ziemlicher fail...
Abgesehen davon bin ich aber als jemand der außer 3Dfx und nVidia Karten nichts anderes hatte, zufrieden und zumindest von der Software sehr positiv überrascht.

Sehr positiv (für mich) sind die beiden HDMI Anschlüsse - hier gibt es aber ein Problem. Ich habe 2 LG OLED's an der Karte hängen plus einen WQHD am DP. Ich kann nur an EINEM der beiden TVs HDMI Deep Colour aktiv haben (und somit 4k bei 120Hz), sonst bekommt der zweite kein Signal mehr - egal welcher von beiden nun DC aktiv hat und welcher nicht. Kann also einen der Monitore nur mit 8 bit Yb und 60Hz betreiben...
 
Zuletzt bearbeitet:
Ich hatte eine RX6800XT Pulse was soll man Sagen Naja , jetzt hab ich die 7900XTX Nitro+ was ein gerät so Leise und Kühl so edel , so schön , sie kann 3Ghz sogar ab Werk ohne nachzuhelfen ! Den Fehler mache ich nicht nochmal und hole mir etwas anderes als eine Nitro+
 
  • Gefällt mir
Reaktionen: spw
Sapphire baut in der Regel sehr gut Karten. Diese ist keine Ausnahme.
Einziger Haken bei der Sache: es gibt nur sehr wenige Gamer, die ca 800 EUR allein für die Grafikkarte zu zahlen bereit sind. Ich gehöre nicht dazu.

Ich finde 5-600 sind das absolute Limit. Kommt mit den Preisen runter und ich kaufe einen Nachfolger für meine RX 6800.
 
  • Gefällt mir
Reaktionen: DerFahnder
A4Tzero schrieb:
Den Fehler mache ich nicht nochmal und hole mir etwas anderes als eine Nitro+
Meine 6700XT Nitro+ liegt im Karton unter dem Bett. Will sie nicht verkaufen. Dafür finde ich sie zu geil🤣
 
Es muss doch möglich sein mit unter 30W in jeglichen Idle-Szenarien inkl. Videodecoding auszukommen. Diese 100W beim Video schauen etc sind für mich das Hauptargument gegen RX7900
 
  • Gefällt mir
Reaktionen: Özil
Lurtz schrieb:
Sind 2 dB mehr verglichen mit der 3070 FE jetzt viel oder wenig?
2 dB sind...nun, kan n man so nicht sagen^^
den unterschied zwischen 10dB und 12dB werden viele Menschen nicht mal wahrnehmen. Eine steigerung von 100dB auf 102dB entspricht dagegen etwa der verdoppelung.

das Thema dB(dezi Bel) ist allerdings etwas komplexer.(Bel (Einheit) - Wikipedia)
 
Ich würde mich freuen, wenn bei der Leistungsaufnahme im Idle nicht nur 60 Hz getestet werden würden. Denn bei über 120 Hz sehen die AMD Karten sehr schlecht aus.
Das sollte fairerweise jedem potentiellen Käufer bewusst sein. Für mich ist das ein KO Kriterium.
Das Problem ist seit Release bekannt und wurde bisher nicht behoben, anfangs wurde es von Seiten AMD auch nicht als Problem eingestuft, sondern als gewollt.
Da bisher nichts geschehen ist, gehe ich davon aus, dass AMD hier nicht nachbessern will oder kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: av4l und meisterkatzen
Zurück
Oben