Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

gedi schrieb:
Sehr sicher nicht! Hatte den Vergleich hier und während die RTX immer mal kurz zum "Ruckeln" beginnen wollte, war es auf der XTX super smooth. Ausgabegerät ist ein LG Oled-TV mit 120Hz angeschlossen an HDMI 2.1.

Dann kann ich ja genau das gleiche wiedergeben was mir jetzt gesagt wurde, evtl. ist dein TV ja defekt und läuft deswegen mit nvidia schlechter ;)

kann man drehen wie man will, fakt ist das ich mit nvidia karten noch nie solche heftigen probleme hatte, mit den letzten 6 AMD Karten die ich hatte , gab es NUR probleme.

Und die Anzahl an Problemthreads, sowie Bugfixes in den AMD Treibern sprechen ja für NVIDIA. Da brauch man dann auch nicht diskutieren.
 
  • Gefällt mir
Reaktionen: mospider
Ayo34 schrieb:
Abgesehen von der ersten Aufregung um einen Stromstecker (der einfach nicht gut ist) funktionieren die Nvidia Karten der 4000er Generation von Minute 1 an quasi perfekt. So wünscht man sich ein Stück Hardware oder Software.
Wo ist denn hier der Gefällt mir nicht Button??

Du hast besagte Hardware in deiner Signatur, was solltest du denn auch sonst von dir geben als genau den Kram den du von dir gegeben hast. Man beißt sich doch nicht selbst ins Bein!!! n:rolleyes:
 
  • Gefällt mir
Reaktionen: cookie_dent und PegasusHunter
ETI1120 schrieb:
Das ist das Los dessen der als zweiter kommt und dazu noch einen kleineren Marktanteil hat. Niemand unterstützt die 2. proprietäre Lösung.

AMD macht das nicht Open Source weil sie so gutherzig sind, sondern weil sie es müssen wenn sie Unterstützung für ihre Lösungen haben wollen.

Du lässt die Konsolen aussen vor. Wenn die es unterstützen ist die Unterstützung gebongt.. Aber du hast recht - die Offenheit hat den Vorteil das die Unterstützung ein Selbstbräuner ist.
Und noch was - letzter Punkt - man kann sich die Unterstützung auch kaufen (siehe NV). Denn DSSL 3 - macht stand heute keinen Sinn zu implementieren..
Mir gefällt das AMD anscheinend mit Epic stark zusammenarbeitet (Unreal Engine 5)
 
Northstar2710 schrieb:
@gedi Er bezieht das auf die Erfahrung mit seinen Monitor , obwohl dieser freesync Premium können soll laut geizhals, hat das bei seinen custom AMD Karten nicht funktioniert. Aber gsync-compatibel funktioniert mit seiner jetzigen Nvidia Karte .

Ich glaube der Monitor hat ein Problem.
War G-Sync Compatible nicht generell mehr Lotterie als verlässlicher Fakt?
Das wurde von Nvidia doch nur Zähneknirschend eingeführt, da Freesync am Markt durchgedrückt wurde.
Gut möglich das er einen Monitor hat, bei dem es eben nicht reibungslos funktioniert.
Nach drei GPUs würde ich jedoch auch den Monitor genauer in Augenschein nehmen.
 
  • Gefällt mir
Reaktionen: McTheRipper und PegasusHunter
Daggy820 schrieb:
Wo ist denn hier der Gefällt mir nicht Button??

Du hast besagte Hardware in deiner Signatur, was solltest du denn auch sonst von dir geben als genau den Kram den du von dir gegeben hast. Man beißt sich doch nicht selbst ins Bein!!! n:rolleyes:

Deine Aussage macht halt null Sinn, wenn NVIDIA schlechter laufen würde, kauft man ne AMD oder behält die AMD falls man eine hat, so ist es aber nun mal bei Ihm scheinbar und bei mir nicht gewesen.

Wie gesagt, die ganzen Bugsfixes wochen nach release der karten bei amd sprechen eben für nvidia, ich wünschte es wäre NICHT SO! Aber leider hat AMD sämtliche Treiber Probleme, manch einem fällt es auf und manch einem halt nicht aber derjenige wie ich, der manche Features benutzen will und dann merkt es läuft einfach nicht Rund, wechselt dann halt wieder zurück zu den Grünen.

Ich hab mir damals ja nicht umsonst AMD Karten gekauft gehabt, weil ich davon ausging es läuft und nun mit der 6900XT hatte ich AMD nochmal eine Chance gegeben aber es hat sich abgesehen von keinen bluescreens mehr, nicht viel getan...

Und nach dem ich die 6900XTs wieder zurück gegeben habe, kam paar Wochen später (wie oben schon geschrieben) einige Bugfixes die auch mich betrafen aber da waren die Karten eben schon zurück geschickt und ich sehe es nicht ein bei einer knapp 1k€-Karte Wochenlang zu warten auf Fixes, das sollen die gefälligst VOR release machen, schafft nvidia ja auch.

Aber versteht mich bitte nicht falsch, ich würde mich tierisch freuen wenn es sich bei amd in den nächsten Jahren ändert und ich dann vielleicht auch mal ne AMD Karte erwische, die rund läuft aber da muss sich meiner Meinung nach noch ne menge bei der treiberprogrammierung ändern.
Ergänzung ()

Phobsen schrieb:
War G-Sync Compatible nicht generell mehr Lotterie als verlässlicher Fakt?
Das wurde von Nvidia doch nur Zähneknirschend eingeführt, da Freesync am Markt durchgedrückt wurde.
Gut möglich das er einen Monitor hat, bei dem es eben nicht reibungslos funktioniert.
Nach drei GPUs würde ich jedoch auch den Monitor genauer in Augenschein nehmen.

aber bei nvidia rennt es doch ohne probleme obwohl es "nur" g-sync combatible ist, darum geht es ja...

Eigentlich müsste der Monitor ja mit FreeSync besser laufen als mit G-Sync ;)
 
  • Gefällt mir
Reaktionen: mospider
Ist doch schon mal etwas...da geht auch noch mehr. Luft nach oben ist immer ;)
Sieht bei meiner 3090 nicht besser aus, die frisst im Browser 30-40 Watt, YouTube noch mehr und von zwei Bildschirmen will ich gar nicht erst anfangen. Und das kriegte Nvidia bis heute nicht gebacken....so viel zum Thema "die grünen haben top-treiber".
Selbst bei Nvidia gibt es durch Treiberupdates teilweise Performanceschübe, ist bei AMD ähnlich. Team rot ist halt auch kleiner, darf man nicht vergessen und auch dafür stellen sie mMn schon ordentlich was auf die Beine.
Das wird schon noch...
 
  • Gefällt mir
Reaktionen: Volvo480 und Dai6oro
Nightspider schrieb:
Bitte einen 175Hz Monitor mit 3440*1440 testen im Idle und Videoplayback Modus.

Da säuft meine 7900XTX bisher 120 Watt im Idle.

Auch das ist Nonsens! Es gibt einen Bug, welcher Highrefresh- und noch schlimmer Full-HDR kompatible Monitore mit Chromasampling ansprechen. Wenn man die Settings nicht wieder zu SRGB zurück verändert, dann bleibt ein hoher Verbrauch bei deutlich schlechterer Bildqualität! Damit meine ich NV-BQ, welche noch immer nicht HDR10@10-Bit vernünftig darstellen können!
 
  • Gefällt mir
Reaktionen: Volvo480
Traxton schrieb:
Du hast bereits festgestellt, dass ein Testen mit 3 verschiedene AMD Karten zum gleichen Ergebnis führt. Spätestens dann müsste man doch annehmen, dass der Monitor einen Teildefekt hat, denn er funktioniert nicht einwandfrei. D. h. der nächste logische Schritt ist, den Monitor wegen Garantie einzuschicken...
Nein! Es muss an AMD liegen, weil mit Nvidia funktioniert es!

1+1=2 gilt halt nicht für jeden.:daumen:
PTS schrieb:
ohne das catalyst center
Im welchem Jahrzehnt bist du grade? Catalyst gib es schon lange nicht mehr.
 
  • Gefällt mir
Reaktionen: drago-museweni, PegasusHunter und m.obermueller
PTS schrieb:
aber bei nvidia rennt es doch ohne probleme obwohl es "nur" g-sync combatible ist, darum geht es ja...

Eigentlich müsste der Monitor ja mit FreeSync besser laufen als mit G-Sync ;)

Nein, muss er nicht, teildefekt halt. NVidia spricht die Adaptive-Sync Schnittstelle schlicht anders an als AMD, ansonsten müsste der Monitor bei beiden einwandfrei laufen. Und durch das andere Ansprechen der Schnittstelle tritt der Defekt halt auf, kann passieren, ist für mich ein Garantiefall, denn der Monitor muss auch bei Ansprechen durch eine AMD Karte einwandfrei funktionieren, tut er aber nicht.
 
PTS schrieb:
aber bei nvidia rennt es doch ohne probleme obwohl es "nur" g-sync combatible ist, darum geht es ja...

Eigentlich müsste der Monitor ja mit FreeSync besser laufen als mit G-Sync ;)
Genau du sagst es, "nur" !
Das ist ein Monitor mit G-Sync Modul, bei dem nicht vorgesehen war das dort Freesync läuft.
Dann kam G-Sync Compatible, da Nvidia ihre wesentlich teureren G-Sync Monitore nicht mehr los geworden ist.
Das kann, muss aber nicht laufen.
Du hast da halt leider ins Fettnäpfchen gegriffen.
 
  • Gefällt mir
Reaktionen: PegasusHunter
kachiri schrieb:
Aber bitte verkaufe das ganze nicht so, als ob das easy für jeden möglich ist.
250W bei quasi gleicher Leistung dürften vermutlich mehr als 90% aller 6900XT machen. Wahrscheinlich sogar noch mehr. Meine ist eher so lala beim UV und ich komme mit maximal 5% Leistungsverlust auf 200-230W mit meiner 6900XT.

Ich finde den Leerlaufverbrauch noch erheblich zu hoch. Das hat die 6000er Generation um Längen besser gemacht. Mehr als 10 Watt sollten es definitiv nicht sein, sonst liegt ein Fehler im Design vor. In der heutigen Zeit sollte man eher 5 Watt und weniger anpeilen und nicht 20W und mehr.
YT ohne HDR ist ebenfalls noch ziemlich mies. Da scheint mir massig Leistung für nichts draufzugehen, weil man die Taktraten einfach nicht anpasst. Mit HDR steigt der Verbrauch nur noch leicht an und schon liegen die Karten plötzlich im Mittelfeld. Ein eindeutiges Zeichen, dass die Karten für leichtere Aufgaben einfach zu heftig rangehen.

Von daher sollte AMD da in fast allen Szenarien nochmal deutlich nachbessern. Ansonsten sind die Karten bei der Effizienz definitiv nicht im Jahr 2022/2023 angekommen.
 
Jagdwurst schrieb:
Ist doch schon mal etwas...da geht auch noch mehr. Luft nach oben ist immer ;)
Sieht bei meiner 3090 nicht besser aus, die frisst im Browser 30-40 Watt, YouTube noch mehr und von zwei Bildschirmen will ich gar nicht erst anfangen. Und das kriegte Nvidia bis heute nicht gebacken....so viel zum Thema "die grünen haben top-treiber".
Selbst bei Nvidia gibt es durch Treiberupdates teilweise Performanceschübe, ist bei AMD ähnlich. Team rot ist halt auch kleiner, darf man nicht vergessen und auch dafür stellen sie mMn schon ordentlich was auf die Beine.
Das wird schon noch...
Wobei es bei den Nvidia-Custom-Designs große Unterschiede gab/gibt. Die 4080 FE und Asus 4080 tuf brauchen laut GPU-Z sehr wenig(Board Power Draw).

3080 FE, 4K 120/144Hz: Idle 20-25w, Youtube 30-35w
4080 FE, 4K 120/144Hz: Idle 5-6w, Youtube 8-9w

Screenshot 2023-01-13 203021.jpg
 
Zuletzt bearbeitet:
T-Horsten schrieb:
Im welchem Jahrzehnt bist du grade? Catalyst gib es schon lange nicht mehr.

Hab ich mir auch Gedacht, vor allem war ich aber erstaunt das die RX 6900 XT mit dem CCC funktionieren.

Wollte eigentlich auch schon fast was schreiben und hab mich dann doch für ignore entschieden, die ganzen letzten Beiträge horchen sich halt stark nach Paulanergarten an.
 
  • Gefällt mir
Reaktionen: PegasusHunter
Warte ein blackscreen beeinflußt den Betrieb nicht? Ok... kann sich eigentlich keiner an den Release von Ampere erinnert ("kondensatorengate"). Omg was wurden da die Säue durchs Dorf getrieben. Aber nvidia fehlerfrei und Release? LOL sicher nicht.
 
PTS schrieb:
Dann kann ich ja genau das gleiche wiedergeben was mir jetzt gesagt wurde, evtl. ist dein TV ja defekt und läuft deswegen mit nvidia schlechter ;)

kann man drehen wie man will, fakt ist das ich mit nvidia karten noch nie solche heftigen probleme hatte, mit den letzten 6 AMD Karten die ich hatte , gab es NUR probleme.

Und die Anzahl an Problemthreads, sowie Bugfixes in den AMD Treibern sprechen ja für NVIDIA. Da brauch man dann auch nicht diskutieren.

Sorry, du bist biased, von daher Diskussion unmöglich!
 
  • Gefällt mir
Reaktionen: PegasusHunter
T-Horsten schrieb:
Im welchem Jahrzehnt bist du grade? Catalyst gib es schon lange nicht mehr.

wat weiß ich wie das zeug nun heißt, habs ja nicht mehr drauf, jedenfalls weiß denk ich jeder was damit gemeint ist, das treibercenter von amd, ist verbuggt bis oben hin
Ergänzung ()

Dai6oro schrieb:
Warte ein blackscreen beeinflußt den Betrieb nicht? Ok... kann sich eigentlich keiner an den Release von Ampere erinnert ("kondensatorengate"). Omg was wurden da die Säue durchs Dorf getrieben. Aber nvidia fehlerfrei und Release? LOL sicher nicht.

hatte noch nie nen blackscreen oder bluescreen mit nvidia, sorry
 
Traxton schrieb:
Nein, muss er nicht, teildefekt halt. NVidia spricht die Adaptive-Sync Schnittstelle schlicht anders an als AMD, ansonsten müsste der Monitor bei beiden einwandfrei laufen. Und durch das andere Ansprechen der Schnittstelle tritt der Defekt halt auf, kann passieren, ist für mich ein Garantiefall, denn der Monitor muss auch bei Ansprechen durch eine AMD Karte einwandfrei funktionieren, tut er aber nicht.

Natürlich tut er es, wenn das höchst möglich Monitorsetting ausgewählt wird! Ich weiß, ist auf NV-Karten nicht möglich, darum können die Dinger auch kein HDR10. Kindergarten-Hardware!
 
Zurück
Oben