Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

Rockstar85 schrieb:
Es ist schon ein Unterschied, wenn man 2021 das Treiberteam feuert und eine GPU auf den Markt bringt, die nur in ausgewählten Spielen performend, oder man wie AMD Probleme hat die Dual Issue Prozessoren zu aktivieren. Grade wenn man sieht, welche Knete bei Intel Steckt.
Das mag ja alles so sein. Nur macht es das Release der 7900XTX/XT nicht besser, da hier Nvidia die Konkurrenz ist und nicht Intel.

Was mir eigentlich Angst macht ist, dass AMD die R&D Ausgaben massiv ausgeweitet hat und dann so ein Release. Etwas von dem Geld ist bei der Treiberentwicklung angekommen.
 
ETI1120 schrieb:
Was mir eigentlich Angst macht ist, dass AMD die R&D Ausgaben massiv ausgeweitet hat und dann so ein Release. Etwas von dem Geld ist bei der Treiberentwicklung angekommen.
Bitte vergiss eines nicht.. so eine GPU wird Jahre im Vorraus geplant.. Du weisst schlichtweg nicht, was da schief lief.. Bei den Treibern sind es derzeit vllt auch Dinge, die man erst dank Xilinx anpacken kann..das weiß noch keiner. Wenn Navi32 genauso schlecht wird, ja dann hat AMD ein Problem.
 
Eli0t schrieb:
Nee, ich denke, das hat Igor gut erklärt. Die haben die einfach nicht getestet (braucht man ja nicht, weil das kostet Geld bei den niedrigen Margen).
Das steht ja nicht im Widerspruch zu meiner Aussage. Man testet nicht, wenn man keine Zeit hat, weil der Releasetag näher rückt.
Fehler passieren vor allem dann, wenn es schnell gehen muss.
 
@Wolfgang Danke für diesen guten Testbeitrag.

Wäre es möglich in Erfahrung zu bringen mit welchen Youtube Videos und Tools die Benchmarks durchgeführt wurden?^^

Aufgrund von Vergleichbarkeit wäre das nicht schlecht zu wissen. Aber ich kann natürlich auch verstehen wenn man das nicht preisgeben möchte.^^
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Es ist nun Mal so, die Gamer am PC bevorzugen Nvidia

Die Gründe dafür sind vielfältig. Spielt Games die Raytracing verwenden. Schlechte Erfahrung mit ATI/AMD-Karten. Immer nur Nvidia gehabt und kein Grund etwas anderes anzuschauen. Nutzt Funktionen, die nur Nvidia hat. Will mit der Grafikkarte nicht nur spielen, sondern auch für Anwendung X verwenden. Will fürs Studium mit GPGPU experimentieren. ...

Das ist glaub ich wirklich nur 5% der ganzen nvidia Kunden in der riege.

Ich mache für meine Gilden/Corps mitlerweile immer mal ein wenig Hardware beratung weil die meisten ja wirklich gar keinen Plan haben was man so kaufen soll und wenn man fragt wieso sie den eine Nvidia haben wollen kommt wirklich sehr oft.

Ich hab gehört AMD is scheiße. Oder AMD ist scheiße obwohl sie nie eine hatten.

Weiter dann fragen wie. Spielst du games wie mit Raytracing? Was ist den bitte Raytracing?. Selbst wenn sie games zocken die es können wissen sie gar nicht was es genau macht.

Es zieht sich über jahre hinweg das leidige Thema mit den treibern von AMD. Momentan hab ich sicher 10 6800 in diversen PCs angeboten und die sind alle Happy damit.

Ich Persönlich bin da eher AMD geneigt einfach weil ich den CEO Captain Lederjacke total unsymphatisch finde und mit Nvidia schon dick auf die freße gefallen bin (970 3,5GB).

Dennoch ist Nvidia Technisch einfach eine gen vorraus. Das gesteht man ein und fertig. Warum hier einige dann aber ständig dieses Fanboy gelatze abladen müssen verstehe ich überhaupt nicht.

Wenn jemand ne AMD will und er weiß was er bekommt viel spaß. Selbe für Nvidia.


Ich denke das AMD durch einige Treiber in den nächsten Monaten noch ein wenig mehr Leistung aus den 7900ern rausholen wird.
Nvidias KI Treiber wird aber ebenso einiges reißen denke ich. Von daher wird sich am ganzen nicht mehr viel ändern.

Das einzige was für AMD noch was werden könnte sind diese Ominösen Cu´s oder wie sich das nennt die noch gar nicht genutzt werden und keiner weiß wofür sie sind.
Also AMD. Wenn ihr 25% mehr Leistung overall durchdrücken könnt wäre jetzt der beste Zeitpunkt XD.
 
  • Gefällt mir
Reaktionen: Atlan2101, Oppagolf, Rockstar85 und 4 andere
Sunjy Kamikaze schrieb:
Das ist glaub ich wirklich nur 5% der ganzen nvidia Kunden in der riege.
Ich hab aus meinem näheren IT Umfeld auch das Gefühl, dass das gar nicht so viel % ausmacht, wenige davon nutzen das Teil für Rendering/KI/AI.

Sunjy Kamikaze schrieb:
Ich hab gehört AMD is scheiße. Oder AMD ist scheiße obwohl sie nie eine hatten.
Genau das wird auch hier von vielen im Forum gepredigt....
Wieso weiß ich nicht.
Fairerweise muss ich für mich sagen, ich hatte in den letzten 15 Jahren schon einige ATi/AMD Karten und ich hab immer böse Erfahrungen mit gemacht.
Aber das waren keine Fehler, die nun wirklich an der Hardware selbst zu suchen gewesen wären.
Ich bin tatsächlich extrem angetan und auch die Treibergeschichte würde mich jetzt nicht unbedingt von einem Kauf abhalten, wenn ich in dieser Leistungsklasse was suchen würde.
Tatsächlich hab ich den Test abgewartet und verglichen, bis das mit dem Verbrauch/Effizienz aufkaum wäre ich sogar eher zu AMD mit einer 7900XTX gegangen als einer 4080, da ich so arg viel RT Games gar nicht spiele.

Sunjy Kamikaze schrieb:
Ich Persönlich bin da eher AMD geneigt einfach weil ich den CEO Captain Lederjacke total unsymphatisch finde und mit Nvidia schon dick auf die freße gefallen bin (970 3,5GB).
Man muss ihm aber eines lassen, er hat noch Ahnung von dem Kram.
Im Vergleich zu Lisa Su ist er zudem Founder von NV, wenn dir mal die Firma selber noch gehört, dann agierst du ein Stück mehr "agro" und anmaßender (in der Vermarktung/Vorstellung) deiner eigenen Firma.
Ich finde ihn tatsächlich gar nicht so schlimm, er bleibt sich wenigstens seit Jahren treu, so ist er eben, kann man mögen, muss man aber nicht^^.
Und ich hatte damals parallel einen Zweitpc zu meiner 980, da war auch eine 970 drin und ich hab das Problem nie bemerkt, weder in BF3/4 oder anderen Titeln, die relativ Speicherhungrig in 1080p/WQHD waren, war das Problem außerhalb von speziellen Testaufbauten wirklich reproduzierbar?

Sunjy Kamikaze schrieb:
Es zieht sich über jahre hinweg das leidige Thema mit den treibern von AMD. Momentan hab ich sicher 10 6800 in diversen PCs angeboten und die sind alle Happy damit.
Also ganz ehrlich, die Treiberthematik wie sie hier diskutiert wird ist mir mit meiner noch vor 1 Monat in Betrieb befindlichen 6900XT nicht aufgefallen bzw. mir sind eigentlich generell wenige Bugs aufgefallen.
Hatte mal einen Bug mit AMD (Reflex Pendant - keine Ahnung wie das wieder heißt) und der Blackscreen Thematik, die aber mit dem vorletzten Treiber laut Changelog rausgepatch wurde.
Ansonsten TOP Karte, kann mir bis auf das Vaporchamber und IDLE Verbrauchsthema kaum Probleme bei der 7900XTX/ vorstellen, wie viele haben denn wirklich Probleme hier mit ihren 7900XTX mit dem aktuellen Treiber?
 
  • Gefällt mir
Reaktionen: iron_monkey, Lamaan und Geisi
Was genau soll der Post jetzt hier bedeuten? Schön hast dir was zum spielen gekauft bist ein ganz großer XD. Meine güte einige haben es ja bitter nötig hier.
Ergänzung ()

Unti schrieb:
da war auch eine 970 drin und ich hab das Problem nie bemerkt, weder in BF3/4 oder anderen Titeln, die relativ Speicherhungrig in 1080p/WQHD waren, war das Problem außerhalb von speziellen Testaufbauten wirklich reproduzierbar?
Ich hatte Damals mit Nvidia sourround 3xFullHD und 2x 970 im SLI. Das war das problem ich war immer über den 3,5GB und die ruckler waren schon wirklcih hart. Sobald ich auf nur einen Monitor gezockt habe ging das aber butterweich durch.
 
Zer0Strat schrieb:
Aber die Lösung ebenfalls. Puh, ich bin so froh, nicht auf eine AMD Karte angewiesen zu sein. Verlässt man sich auf sie, ist man verlassen. Zum Glück gibt es Alternativen.
Ist doch gut. Muss doch paar Lemminge geben die das bezahlen. Ich hoffe die nächste Generation wird noch teurer. Warum hat es nicht für ein Custom Modell gereicht? Das ist ja die Standardnudel.
 
  • Gefällt mir
Reaktionen: iron_monkey, danyundsahne, Unti und eine weitere Person
Zer0Strat schrieb:
Aber die Lösung ebenfalls. Puh, ich bin so froh, nicht auf eine AMD Karte angewiesen zu sein. Verlässt man sich auf sie, ist man verlassen. Zum Glück gibt es Alternativen.
Kann man downvoten? Wäre mal Zeit sowas einzuführen xD.
More Hate and Fanboiysm geht ja wohl nicht mehr^^.
Und ich bring ja schon oft sinnbefreite Kommentare hier ins Forum ein die mit dem Threadthema nicht zu tun haben, aber dein Post schlägt dem Fass ja fast den Boden aus... und dann noch mit Bild, das vermutlich nichtmal du selber gemacht hast ^^.

Sunjy Kamikaze schrieb:
Meine güte einige haben es ja bitter nötig hier.
Just that...
Danke.....
Zer0Strat schrieb:
Das bedeutet, dass ich lösungsorientiert handle. :D
Das bedeutet, dass du angeben willst, was ein toller Hecht du bist, weil du dir eine 4090 gekauft hast.
Und eine Lösung wäre ein Produkt der ähnlichen Produktklasse gewesen... eine 4090 ist was anderes....
Also wolltest du ergo nur angeben.... aber hey, weißt du was? Hier im Forum kommst du unter den gefühlt 50% HighEnd Karten Besitzern mit deiner Art nicht gut an.
Denn hier hat gefühlt eh schon jeder 5te ne 4090 im Rechner, also kusch kusch, bau das Teil ein, am besten mit Adapter und immer schön biegen, dann leuchtet es auch schön ;)
 
  • Gefällt mir
Reaktionen: Atlan2101, iron_monkey, danyundsahne und 7 andere
PTS schrieb:
Nicht was ICH angestellt habe sondern AMD!
Wenn du es so genau wissen willst:

1. Mein AMD FreeSync PREMIUM Monitor läuft NICHT flickerfrei mit Freesync (eine Zumutung) - mit NVIDIA Gsync alles Butterweich am rennen
2. Vertikale Sync ging nicht per Treiber in Spielen anzuschalten mit Tripple Buffering
3. Man muss Frame Limiter einsetzen was zu Microrucklern führt bei AMD
4. Stromverbrauch unter aller Sau im idle
5. der Hauseigene Benchmark bei AMD im Treiber funktioniert nicht fehlerfrei, taktet immer wieder die Karte runter nach paar Sekunden und dann wieder hoch

Und das bei einer fast 1000€-Karte... hust

Paar Wochen nach dem ich die Karten alle zurück geschickt habe, wurden ein paar Fehler per Treiber korrigiert aber das muss halt VOR Release und nicht Wochen später passieren, daher kaufe ich nun wieder NVIDIA.

Und vor etlichen Jahren mit der 6950 von AMD hatte ich dermaßen viele Bluescreens (Auch verschiedene Custom Karten), was wohl an Motherboard und kompatbilitätsproblemen mit den AMD Karten am Ende lag, sowas bleibt halt im Kopf dann bei mir hängen, mit nvidia hatte ich noch nie solche heftigen Probleme wie mit AMD Karten.

Dann jetzt noch das Hitze und Ausfall-Problem der neuen Serie bei AMD und du willst mir erzählen die Karten sind gut ? Sorry, nein sind sie nicht.

Und AMD hat NVIDIA noch wegen dem Kabelproblem ausgelacht per Twitter und nun haben sie selbst eine komplette Serie verbockt wegen der Kühlung auf den Karten, nene, AMD brauch noch lange um auf dem Stand von NVIDIA zu sein.

Ich wette wenn ich an deinem Rechner spielen "würde", würde mir zu mindestens Microruckler auffallen. Vielleicht merkst du es selbst nicht mal.... aber das ist nen anderes Thema.

1. Mein Monitor und TV laufen super mit freesync. Dieses flickern hatte ich sehr selten Mal, also eher Spiel abhängig.
2. Vsync mache ich im Spiel an oder aus. Keine Ahnung was du da im Treiber machst.
3. Wieso musst du das? Ich benutze tatsächlich eigentlich in jedem Spiel einen und das funktioniert wunderbar ohne ruckeln.
4. Verbauch im idle ist bei den 6000ern doch OK?
5. Was für ein Benchmark? Der Stress Test? Keine Ahnung, brauch ich nicht.

AMD Karten vor etlichen Jahren und heute sind vielleicht nicht unbedingt vergleichbar. :)

Die neue Karten finde ich auch nur bedingt gut bisher. Sehr schade ist vor allem der hohe Verbrauch.
AMD ist halt auch einfach der Underdog. Bleib dann halt bei Nvidia und sei trotzdem froh dass AMD wenigstens noch paar Prozente abnehmen kann, sonst haben wir alle verloren.
Ich bin eigentlich sehr empfindlich was Ruckler angeht. Da ist bei mir eigentlich die ue4 schlimm.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
Unti schrieb:
Guter Junge, erfreue dich an deiner 4090 und geh jetzt.
Und entfern bitte das CapframeX Profilbild, für dein Verhalten muss sich ja sogar die Software schämen
Den Einsatz der Software muss CB bei dem Getrolle hinterfragen.
 
  • Gefällt mir
Reaktionen: iron_monkey, McTheRipper und Unti
Rockstar85 schrieb:
Bitte vergiss eines nicht.. so eine GPU wird Jahre im Vorraus geplant.
Das Ergebnis sehen wir.
RDNA3 bringt FAIK fürs Gaming hauptsächlich 2 Änderungen:
  • Dual Issue
  • Optimierungen fürs RayTracing
Die bittere Ironie an der Sache ist, dass bei der Vorstellung alle enttäuscht waren dass Raytracing nur maximal 80 % schneller werden sollte. Aber die Verbesserungen kommen weitgehend bei den Games an.

Die renderperformace ist im Vergelich zu RDNA 2 nicht so gestiegen wie es die Zahlen von AMD suggeriert haben. Die 54 % höhere Effizienz wird noch immer fieberhaft gesucht.

Rockstar85 schrieb:
Du weisst schlichtweg nicht, was da schief lief.
Im Detail natürlich nicht. Meine Befürchung ist, dass AMD den durch Dual Issue in den bestehenden Games umsetzbaren Vorteil überschätzt hat.

Beim Test von Chips and Cheese zeigt die Nemes GPU Benchmark Suite herausragende Werte für die Operationen bei denen Dual Issue verfügbar ist. D. h. in den Vulkantreibern und den dabei verwendeten Compilern funktioniert Dual Issue.

Dass das Ergebnis bei OpenCL erheblich schlechter war, wundert mich nicht, hier wird AMD nur noch wenig investieren.
Rockstar85 schrieb:
Bei den Treibern sind es derzeit vllt auch Dinge, die man erst dank Xilinx anpacken kann.
Das sehe ich was das Gaming angeht nicht.

Xilinx bringt sehr viel Know How was AI Inferencing und auch eine sehr interessante IP für AI mit.
Die Softwareintiative die AMD am FAD vorgestellt hat, betrifft das Gaming bestenfalls indirekt.

Rockstar85 schrieb:
das weiß noch keiner. Wenn Navi32 genauso schlecht wird, ja dann hat AMD ein Problem.
Genau. Navi 32 hat nach aktuellem Informationsstand ebenso viele CUs wie die 6800. Wenn AMD hier nicht am Takt drehen kann oder die Treiber noch einige % finden (wo ich skeptisch bin) wird es kein schöner Vergleich für Navi 32 gegen die 6800.

Ähnlich sieht es bei Navi 33 aus. Das kann schwierig gegen die 6600er werden.
Shy Bell schrieb:
Das steht ja nicht im Widerspruch zu meiner Aussage. Man testet nicht, wenn man keine Zeit hat, weil der Releasetag näher rückt.
Die korrekt hergestellte Vapor Chamber kann die Grafikkarte ausreichend kühlen. Das wurde wohl auch durch Simulation und Tests geklärt.

Die Tests vor dem Release hätten versagt, wenn die Vapour Chamber falsch ausgelegt wäre und die Grafikkarte nicht ausreichend kühlen könnte. Das scheint jedoch nicht der Fall zu sein, denn es sind ja nicht alle hergestellten Grafikkarten von dem Problem betroffen.

Also reden wir von einem Produktionsfehler. Es ist nun Mal eine Binsenweisheit, dass man Qualität nur herstellen aber nicht ertesten kann. Aus diesem Grund muss die Qualitätssicherung Teil des Produktionsprozesses sein. Im konkreten Fall muss im Produktionsprozess sichergestellt werden, dass die korrekte Wassermenge eingefüllt wird oder unmittelbar nach dem Einfüllen auffallen, wenn dabei etwas schiefgegangen ist.

Die Stichproben am Ende des Produktionsprozesses sind die Qualitätssicherung des Produktionsprozesses, nicht des Produkts. Und hier ist es die Frage sind ganze Produktionslose falsch hergestellt worden, oder waren es immer nur einige der hergestellten Vapor Chambers. Eine große Streuung zu übersehen wäre sehr ärgerlich komplett defekte Lose durchzuwinken ist nicht nachvollziehbar. Vor allem wurde mich interessieren wie der zeitliche Verlauf der Fehler war.

Da die Vapor Chambers fehlerhaft produziert und ausgeliefert wurden, ist bei der Produktion einiges schief gelaufen. Sobald so etwas auftritt ist das immer großes Problem. Niemand würde dem Auftragsfertiger der Gaming-Grafikkarten den Aufwand bezahlen, alle Komponenten zu testen. In wie weit die hergestellten Grafikkarten geprüft werden, weiß ich nicht. Aber Igor schreibt ja, dass ein längerer Testlauf bei dem sie thermisch belastet werden nur bei Stichproben gemacht werden. Und auch bei diesen Testläufen gilt, man bemerkt man nur bei Parametern Abweichungen, die man auch überwacht. Ich gehe Mal davon aus, dass man in der nächsten Zeit die Hotspot-Temperaturen genauer beachtet, ...

Von Zeit zu Zeit gibt es immer Berichte, die sich über die hohen Preise für Medizinprodukte wundern. IMO geht ein Teil dieser hohen Preise auf den erheblich höheren Test- und Dokumentationsaufwand zurück. Bei Pharma Maschinen habe ich Mal Einblick ich den Aufwand gehabt der wegen GMP betrieben werden muss.

Shy Bell schrieb:
Fehler passieren vor allem dann, wenn es schnell gehen muss.
Aber auch beim Thema dieses Artikels habe ich massive Zweifel, dass es an mangelhaften oder überhasteten Tests lag. Es würde mich sehr wundern, wenn das Problem AMD erst durch die unabhängigen tests aufgefallen wäre. Das müssen die doch während der Treiberentwicklung selbst feststellen.
 
PTS schrieb:
Nicht was ICH angestellt habe sondern AMD!
Wenn du es so genau wissen willst:

1. Mein AMD FreeSync PREMIUM Monitor läuft NICHT flickerfrei mit Freesync (eine Zumutung) - mit NVIDIA Gsync alles Butterweich am rennen
2. Vertikale Sync ging nicht per Treiber in Spielen anzuschalten mit Tripple Buffering
3. Man muss Frame Limiter einsetzen was zu Microrucklern führt bei AMD
4. Stromverbrauch unter aller Sau im idle
5. der Hauseigene Benchmark bei AMD im Treiber funktioniert nicht fehlerfrei, taktet immer wieder die Karte runter nach paar Sekunden und dann wieder hoch
Glaube du hast mit den Einstellungen ein Problem und nicht die Hardware mit dir.

1) Alle Adaptive-Sync Varianten sind derzeit in beiden Treibern, sei es AMD oder NV, OUT OF THE BOX UNBRAUCHBAR!
Hier im Forum gibt es viele passende Threads dazu, die die Problematik aufgreifen. Fakt ist, am Ende ist die Defaulteinstellung für Gsync oder Freesync einfach falsch und da ich davon ausgehe, dass du beide einfach nur angeschlossen hast und passende Settings für den jeweiligen Monitor nicht korrekt gesetzt hast, hast du nun diese Probleme.

2)V-Sync gehört bei einem der Verfahren eh immer AUS! Solange man G-Sync/Freesync verwendet regelt dies der Treiber, im Spiel ist V-Sync IMMER AUS. Und Triple Buffering wird auch i.d.R. ausgeschaltet, da es die Latenz massiv verzögert (Bildausgabe/Eingabeverzögerung).

3) Ich bin immer mit Treiberbegrenzung auf 114FPS gefahren mit meiner alten 6900XT und ich hatte kein Microstuttering. Dein WIndows ist vermutlich nur total durch.... so wie das von den meisten hier, deshalb beeinflusst sich auch immer massiv vieles und führt zu Stuttering. Und da es so viele Softwareprobleme mit so vielen Hardwarekonstellationen und Treibern gibt, kann das bei dir sicherlich zu diesem Konstrukt geführt haben.... Das liegt aber nicht zwangsweise an AMD....

4) Der war immer marginal bei der RX6000.... und bei RX7000 ist es halt wie es gerade ist....

5) Wen interessieren Treiberintegrierte Benchmarks? Die ganzen Gimmicks installiert man doch eh nicht, man nimmt in der Auswahl i.d.R. "Minimal" und nicht "Full"....
Mach nen 3D Mark und öffne HWInfo64 oder GPU-Z.... verlässliche Tools, für den korrekten Einsatz....
 
  • Gefällt mir
Reaktionen: Atlan2101, Captain Mumpitz, Rockstar85 und eine weitere Person
Ich habe mit vsync im Spiel und TV auf 60hz manchmal eine ruhigere Bildausgabe. Quasi als frame Limit.
 
Rockstar85 schrieb:
Nö, Marketing wirkt eben...
Eher die gute, beständige Leistung von Nvidia, mit herausragender Software sind der Grund. Spezifikationen mit großen Zahlen sind es nicht.

Rockstar85 schrieb:
Ich meine NV hat im Vergleich zu vor Corona die Preise fast verdoppelt und ja leider auch Leute wie du liefern das Futter dafür.
Nvidia hat die Preise im Schnitt nicht viel mehr angehoben als AMD, das sind überprüfbare Fakten.
Rockstar85 schrieb:
Nicht AMD ist zu Schwach, NV wird auch dann gekauft, wenn AMD gleichwertig ist.
AMD ist nicht gleichwertig. Nvidia liegt diese Gen (4090Ti) 50 bis 100% vorne, das ist eine komplette Gen.

Nvidia kann mit dem drittgrößten Chip AMDs Highend schlagen.
Rockstar85 schrieb:
Vllt ein bissl mehr Objektivität für 2023?
Objektivität sieht anders aus.
 
  • Gefällt mir
Reaktionen: Infi88 und karl_laschnikow
Zer0Strat schrieb:
Joar, Mining ist weggebrochen. Gamer sind wieder wichtiger. ^^ Wichtig vielleicht nicht unbedingt, aber wichtiger als zuvor.

Das mit dem Effizienzproblem mit FPS Limiter haben sie nie behoben. Ist auch die Frage, ob das machbar ist mit Treiberupdates oder ob das ein grundsätzliches Problem der Architektur ist. Ich hatte seinerzeit ein effizienteres Boostverhalten simuliert, das hatte einen negativen Einfluss auf das Framepacing.

Hast du dies Verhalten mal versucht mit dem 23.1.1 zu reproduzieren? Hier ist es mit meiner Nitro ohne FPS-Cap auf jeden Fall so, dass im CPU-Bound der Verbrauch sinkt und zwar deutlich. Hier sind es um die 100w!
 
Echt? Was macht Ampere in einem AMD-Thread? Und ich habe mir den Post nochmals durchgelesen und für mich geht es da eindeutig um eine 7900!
 
  • Gefällt mir
Reaktionen: Wowka_24 und McTheRipper
Zurück
Oben