Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

Phobsen schrieb:
Genau du sagst es, "nur" !
Das ist ein Monitor mit G-Sync Modul, bei dem nicht vorgesehen war das dort Freesync läuft.
Dann kam G-Sync Compatible, da Nvidia ihre wesentlich teureren G-Sync Monitore nicht mehr los geworden ist.
Das kann, muss aber nicht laufen.
Du hast da halt leider ins Fettnäpfchen gegriffen.

ändert trotzdem nichts an den miesen amd treibern, wie gesagt selbst wenn freesync laufen würde, hätte ich die karten nicht behalten wegen den anderen problemen, mein gott...

Und das ist auch irgendwie quatsch was du erzählst, laut prad.de steht folgendes zu dem Monitor:
"FreeSync Premium beschreibt übrigens ähnlich wie G-Sync Ultimate zusätzliche Leistungen im Vergleich zur Basistechnologie. So muss ein FreeSync-Premium-Monitor neben einem verzerrungsfreien Spiele-Erlebnis und geringen Latenzen auch noch mindestens 120 Hz bei Full-HD-Auflösung sowie „Low Framerate Compensation“ (LFC) bieten"

Heißt wenn er Freesync Premium hat, sollte es ja laufen!!!

Ergänzung ()

gedi schrieb:
Sorry, du bist biased, von daher Diskussion unmöglich!

nö, die amd treiber sind schlicht weg scheiße programmiert, sieht man doch auch an den ganzen bugfixes NACH release der karten. meine fresse...
Ergänzung ()
 
Novasun schrieb:
Du lässt die Konsolen aussen vor.
Wieso? Sony und Microsoft haben eigene Programmierumgebungen.
Sony und Microsoft würden sich schwer tun properitäre AMD-Funktionen aufzunehmen.

Was ich geschrieben habe ist nicht meine Interpretation, sondern die Wiedergabe dessen was AMD wiederholt zum Thema OpenSource gesagt hat.
Novasun schrieb:
Aber du hast recht - die Offenheit hat den Vorteil das die Unterstützung ein Selbstbräuner ist.
Das würde ich jetzt nicht behaupten, aber es ist der für AMD der einzig gangbare Weg.
Aber sie waren als Zwerg des öfteren damit erfolgreich properptäre Lösungen von Nvidia auszuhebeln.
Novasun schrieb:
Und noch was - letzter Punkt - man kann sich die Unterstützung auch kaufen (siehe NV). Denn DSSL 3 - macht stand heute keinen Sinn zu implementieren
Aber Nvidia hatte die tiefen Kassen das zu tun.

Und es hat sich für Nvidia immer ausgezahlt.
 
PTS schrieb:
ändert trotzdem nichts an den miesen amd treibern, wie gesagt selbst wenn freesync laufen würde, hätte ich die karten nicht behalten wegen den anderen problemen, mein gott...
Ergänzung ()



nö, die amd treiber sind schlicht weg scheiße programmiert, sieht man doch auch an den ganzen bugfixes NACH release der karten. meine fresse...

Die Treiber sind stabil mit wirklich sehr wenig Einschränkungen: Smaa funktioniert definitiv nicht in TR, aber ansonsten? Blackscreen oder sonstiges, hatte ich hier noch nie! Wenn die VGpu zu niedrig eingestellt wurde, gibt es halt einen BTD und mehr nicht.
 
gedi schrieb:
Die Treiber sind stabil mit wirklich sehr wenig Einschränkungen: Smaa funktioniert definitiv nicht in TR, aber ansonsten? Blackscreen oder sonstiges, hatte ich hier noch nie! Wenn die VGpu zu niedrig eingestellt wurde, gibt es halt einen BTD und mehr nicht.

hab ich alles schon aufgelistet was bei mir nicht funktioniert, blätter mal ne seite zurück oder so...

Dazu zum x. Mal, viele Probleme wurden WOCHEN nach release der 6900XT bei amd gefixt aber das kann es halt nicht sein das sie solche probleme erst nach release angehen.
 
ETI1120 schrieb:
Wieso? Sony und Microsoft haben eigene Programmierumgebungen.
Sony und Microsoft würden sich schwer tun properitäre AMD-Funktionen aufzunehmen.

Nein würden Sie nicht, da diese Funktionen genauso mittels Schnittstellen eingebunden würden wie die Open Source Funktionen.

Jedoch müsste AMD halt "Blitzschnell" reagieren wenn es mit einer der Funktionen Probleme geben würde, weil im Gegensatz zu offenen Frameworks gibt es bei proprietären Frameworks keine Möglichkeit für die Entwicklerteams von Sony und MS bzw. der Game Studios selbst einzugreifen.

Der Vorteil von Open Source liegt hier vor allem wenn eines der Entwicklerstudios ein Problem erkennt kann es das selbst beheben. Auch etwas, was ich an Open Source Frameworks schätze.
 
Daggy820 schrieb:
Wo ist denn hier der Gefällt mir nicht Button??

Du hast besagte Hardware in deiner Signatur, was solltest du denn auch sonst von dir geben als genau den Kram den du von dir gegeben hast. Man beißt sich doch nicht selbst ins Bein!!! n:rolleyes:

???

Normal schaue ich vor dem Kauf, ob etwas passt und kaufe dann. Ich kaufe nicht und beschönige später etwas gekauftes.

Ich habe mir die Grafikkarte gekauft, weil sie die einzige vernünftige Alternative zu meiner alten 1070 war. Was bemängelst du denn an der 4080/90, außer dem Preis? Man kann von Tag 1 an damit produktiv arbeiten und gleichzeitig stimmt Leistung/Effizienz mit unter 250 Watt TDP.
Ergänzung ()

Dai6oro schrieb:
Warte ein blackscreen beeinflußt den Betrieb nicht? Ok... kann sich eigentlich keiner an den Release von Ampere erinnert ("kondensatorengate"). Omg was wurden da die Säue durchs Dorf getrieben. Aber nvidia fehlerfrei und Release? LOL sicher nicht.

Du hast das BIOS-Vorschau-Bild nicht angezeigt bekommen und warst auf einmal in Windows drin. Das war der Fehler mit dem Blackscreen beim Start.
 
  • Gefällt mir
Reaktionen: oldgenervt und mospider
m.obermueller schrieb:
Nein würden Sie nicht, da diese Funktionen genauso mittels Schnittstellen eingebunden würden wie die Open Source Funktionen.
Es geht nicht darum, ob es technisch möglich wäre, sondern ob sich Sony und Microsoft dieses Kuckucksei ins eigene Nest legen würden.
 
Schön, dass die den Verbrauch wenigstens etwas verbessern konnten.
Schade, dass es nur der Sprung von sehr schlecht zu schlecht war.

Speziell über den idle-Verbrauch komme ich nicht weg.
Wenn es aus welchen Gründen auch immer nicht möglich ist den idle-Verbrauch von Grafikkarten zu senken, dann entwickelt doch bitte einen Mechanismus, dass die Karte runterfährt, die IGP übernimmt und nur noch das Bild für bis zu 3 Monitore durchgeschliffen wird.
Oder lasst die Ausgänge an der Karte weg und genriert nur das Bild und schleift es zur IGP durch.
Optimus gibts seit über 10 Jahren, sollte doch machbar sein sowas auch am Desktop zu etablieren.

Ist ja peinlich wenn ein Desktop idle mehr verbraucht als ein Mittelklasse-Notebook bei Vollast.
 
  • Gefällt mir
Reaktionen: Skjöll
Mcr-King schrieb:
Ist aber auch viel zu teuer sorry eine 080er für 1300-1400 mit kleinen Chip und nur 16GB nee echt madig.

Vom Kabel Desaster und unnötigen Stecker mal abgesehen nee bei der 40er Serie bin ich raus.
Toll, was kostet ne 7900XTX, genauso teuer wie ne 4080.... da nehmen sich beide nichts....

Der Stecker der 40er Reihe ist scheiße, da bin ich ganz bei dir, aber der 12VHPWR ist schon fein.
Für mein Silverstone habe ich ein orginales Kabel dafür, ohne diesen Lötpfusch im Adapter....
Da ist der echt geschickt und bei dem orginalen mach ich mir auch keine Gedanken, dass das Teil abfackelt.

Ansonsten ist das von den AMD Jüngern immer die Ausrede.... hätte AMD mal lieber die Fresse gehalten mit ihrem gefrotzel, was auf solchen Veranstaltungen wie der Keynote auch nix zu suchen hat.
Dann hätten die selber jetzt vll. kein so ein Drama. Karma is a Bitch und so.
 
  • Gefällt mir
Reaktionen: ChrissKrass
ETI1120 schrieb:
Es geht nicht darum, ob es technisch möglich wäre, sondern ob sich Sony und Microsoft dieses Kuckucksei ins eigene Nest legen würden.

Ich bin mir sicher es wäre nicht das einzige Kuckucksei und am ende alle alles nur eine Sache von (Standard) Verträgen (Reaktionszeit, Pönalzahlungen, usw.) aber auf jedenfalls wäre es für AMD teurer. Nicht weil Sie Sony oder MS was zahlen müssten sondern weil Sie bedeutend mehr Kapazitäten für ihre proprietären Systeme abstellen müssten was sie sich halt bei einer Open Source Lösung zum teil sparen. :)
 
jo, also is schon gut, dass AMD hier bei RDNA 3 deutliche Fortschritte macht.

Auf der anderen Seite zeigt das Ganze wie sehr ge-rushed und viel zu früh die Karten
rausgebracht wurden.
Soviele Bugs und Hardware sowie Software Probleme - das ist immer noch
ein Beta-Test was da mit dem Verkauf von RDNA 3 läuft 🤜 😮‍💨

Die Umfrage vor paar Tagen hat es ja schon eindeutig gezeigt,
dass der anfängliche Buh-Mann 4080 bei der hiesigen community
fast doppelt soviel gekauft wurde wie die 7900 XTX.

Das war soweit ich mich erinnere einer der größten Fails der
GPU Geschichte, wo nach der netten Präsi von Lisa einige
schon mit dem neuen Messias rechneten und nun
aber einfach und direkt in die Buffe bekamen.
 
  • Gefällt mir
Reaktionen: Ayo34
Mcr-King schrieb:
Vom Kabel Desaster und unnötigen Stecker mal abgesehen nee bei der 40er Serie bin ich raus.
Das "Kabel Desaster" betraf ca. 50 User weltweit und keinen in Deutschland. Der Stecker wurde nicht richtig eingesetzt, hat sich als wahrscheinlichster Fehler rausgestellt. Es gab wohl keinen Fall in den letzten Wochen oder mit einer RTX 4080. Da macht es Sinn, deshalb keine 40xx zu kaufen.
 
  • Gefällt mir
Reaktionen: W4RO_DE, Don Sanchez und Ayo34
Ein unfertiges Produkt etwas fertiger. Das macht die Karte auch nicht attraktiver.
 
  • Gefällt mir
Reaktionen: W4RO_DE und Ayo34
Das passt auch irgendwie schon zum Thema (Treiber und Performance) und zwar bin ich gerade eben ueber das eher pessimistisch anmutende Video von JayzTwoCents gestossen, dass die Weiterentwicklung des (m.E. immer noch Vorzeige-Tuning Programms) MSI Afterburner wohl gefaehrdet sein koennte und das betrifft natuerlich AMD/RTG und nVidia Grafikkarten (evt. sogar Intel Arc Karten), aber seht selbst (falls es Euch interessiert):


Also gerade den altehrwuerdigen "Nachbrenner" verbinde ich persoenlich als sehr positiv mit der Marke bzw. dem Hersteller/Boardpartner MSI und es waere wirklich schade bis bitter (nicht nur fuer die Overclocker-Szene, denn auch normale User nutzen das kostenlose Tool seit sehr vielen Jahren), wenn wegen des russischen Krieges und der resultierenden Sanktionen und eben der Tatsache, dass scheinbar der Alleinentwickler des Programms in Russland sitzt, der MSI Afterburner komplett verschwinden wuerde.

Vielleicht wird da ja noch seitens ComputerBase ( @Wolfgang & @Jan ) weiter/tiefer nachgeforscht, wie der Stand der Dinge ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
mospider schrieb:
deshalb keine 40xx zu kaufen.
Nee es gibt noch mehr Gründe zu Teuer ich gebe nicht mehr als 250€ für eine GPU aus und auch kaufe ich kein neues Gehäuse und kein neues NT habe erst ein neues gekauft. ;)
 
  • Gefällt mir
Reaktionen: mospider
engineer123 schrieb:
Das war soweit ich mich erinnere einer der größten Fails der
GPU Geschichte,
Es sind immer die Erwartungen, die bestimmen ob etwas als Erfolg oder Fehlschlag eingestuft wird.
engineer123 schrieb:
wo nach der netten Präsi von Lisa einige
schon mit dem neuen Messias rechneten und nun
aber einfach und direkt in die Buffe bekamen.
Nach der Präsentation trat schon eine ordentliche Ernüchterung ein.
Da wurde nämlich klar, dass es keine 12288 sondern nur 6144 Shader sind.

Generell ist der Mangel an Benchmarks aufgefallen. Es lies anhand der Zahlen von AMD abschätzen, dass die 7900XTX zwischen der 4090 und der 4080 liegen sollte.

Das eigentlich ärgerliche an der Präsentation war, dass die entscheidenden Angaben (Effizienzsteigerung, durchschnittliche Performancesteigerung) erheblich geschönt waren. Das war man in der letzten Zeit von AMD nicht gewohnt und das hat die massive Katerstimmung beim Erscheinen der unabhängigen Tests ausgelöst.
 
  • Gefällt mir
Reaktionen: m.obermueller
gedi schrieb:
Die Treiber sind stabil mit wirklich sehr wenig Einschränkungen: Smaa funktioniert definitiv nicht in TR, aber ansonsten? Blackscreen oder sonstiges, hatte ich hier noch nie! Wenn die VGpu zu niedrig eingestellt wurde, gibt es halt einen BTD und mehr nicht.

Deine restliche Konfiguration? Hier ist AM5 am Start und das NT kann 1200w ab.
Ergänzung ()

ETI1120 schrieb:
Es sind immer die Erwartungen, die bestimmen ob etwas als Erfolg oder Fehlschlag eingestuft wird.

Nach der Präsentation trat schon eine ordentliche Ernüchterung ein.
Da wurde nämlich klar, dass es keine 12288 sondern nur 6144 Shader sind.

Generell ist der Mangel an Benchmarks aufgefallen. Es lies anhand der Zahlen von AMD abschätzen, dass die 7900XTX zwischen der 4090 und der 4080 liegen sollte.

Das eigentlich ärgerliche an der Präsentation war, dass die entscheidenden Angaben (Effizienzsteigerung, durchschnittliche Performancesteigerung) erheblich geschönt waren. Das war man in der letzten Zeit von AMD nicht gewohnt und das hat die massive Katerstimmung beim Erscheinen der unabhängigen Tests ausgelöst.

Bis auf sie Anzahl der Shaderplacements alles korrekt. Allerdings geht es Treiber per Treiber in Bezug Verbrauch immer weiter voraus:

CPU-Limit:

FS alter Treiber (12.2) 79k, neuer Treiber 82k bei nicht mehr 463w am Anschlag, sondern zwischen 330 und 410w.

Settings: 3.415g@1.07v. Leider gibt es allerdings einen Hardware-Bug, welches mehr als 3.3-3.4g nicht mehr stabil möglich machen.

Beispiel: 3.6G@1.02v gehen easy, wenn alles incl. RT aufgedreht wurde-100%stabil! RT weg, Game crasht, da dann die Taktraten durch die Decke gehen, unabhängig was man eingestellt hat. Hier standen vor dem Crash 3.92g an.

Ich denke doch, dass es wohl einen Hardbug gibt, bedingt in zu hoher Verlustleistung.

Performance generell: Weit weg von einer 3090ti und im Raster auch einer 4080, mit RT (NV-Titel ausgenommen) wohl min. Augenhöhe mit einer 4080 mit meinen Settings!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sun-Berg
Wolfgang schrieb:
Wenn möglich die FPS immer im Spiel limitieren.
Also bei mir hab ich keine Änderung. Meine XTX zeiht weiterhin ca. 354W. Was seltsam ist, dass der Limiter nicht exakt arbeitet. Es macht kein Unterschied ob ich es im Spiel oder über den Treiber limitiere. Wenn ich zb. 60FPS einstelle habe ich immer 63FPS. Bei 144 habe ich ca. 148 FPS (Warzone 2.0)
 
pannooney schrieb:
Könnt ihr noch Benchmarks mit mehreren 1440p high-refresh Monitoren anhängen? Der hohe Multi-Monitor-Idle-Verbrauch ist aktuell meine große Kaufhürde für die 7000 Series. Meine 6800 XT "begnügt" sich mit 42W idle bei zwei oder drei 1440p 165hz Monitoren.
Darf man den Grund deines Upgrades erfahren? Ich sehe den aktuell leider nicht. Die neue gen hat für mich zuviele Nachteile und mehr als tausend Euro für ca. 20-40% mehr Leistung empfinde ich für das gebotene als zu teuer.

Desto mehr interessiert mich wie andere es sehen, vor allem weil ich auch ne 6800xt habe
 
  • Gefällt mir
Reaktionen: Ayo34
Ordentliche Verbesserung aber idle muss noch besser werden.
Mein 2080 super hat 19 Watt bei dual Monitor, full hd und 4k. Bei fullhd 240 hz 50w
 
Zurück
Oben