Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

Rockstar85 schrieb:
Ersetze DP durch RT....
Wo denkst Du hier bitte klar?
Realität:
RT ist da, in 100 Spiele, wie Du es sagst, und es können seit mehreren Jahren Leute damit spielen. Ob gut oder schlecht, performant oder nicht, das spielt keine Rolle. Es ist da, und ich kann sehr wohl Cyberpunk 2077 und anderes mit über 60 FPS nativ auf 4k UHD spielen. Es gib dazu viele Tests und Benchmarks, Engines, die das unterstützen, Blender und Co. rechnet damit wesentlich schneller....

DP2.1 Anschluß ist auch da.

Fiktion:
Wo sind die Monitore? Wo gibts kompatible Kabel zu kaufen? Wo sind Test zu der neuen Schnittstelle? Wo gibts Benchmarks, die belegen, daß es mit DP 2.1 besser läuft? Wie kompatibel ist DP 2.1? Wo gibts Probleme? Welche Auflösungen laufen gut, welche nicht... alles Fragen, die nicht beantwortet werden können, weil fiktiv und spekulativ. Oder hast Du schon einen DP 2.1 Monitor lauffähig stehen?

Merkst Du es endlich? 🙄 0 * nix = 0.
 
  • Gefällt mir
Reaktionen: DayvanCowboy
TKessel schrieb:
Damit beantwortest du deine Fragestellung warum man darüber diskutiert selbst.
Sorry aber diskutieren tut hier niemand mehr.
Und beantwortet habe ich gar nichts.
Ich kann verstehen das man evtl mal in Zukunft DP2.1 brauchen könnte. Wenn ich allerdings sehe wie lange es gedauert hat bis überhaupt mal 4K 144Hz Bildschirme kamen dann denke ich das wird noch ne ganze Weile dauern bis es da was auf dem Markt gibt. Und wenn es dann soweit ist dann hat man entweder ne Karte die das unterstützt oder eben nicht. Manche werden es dann noch mit der AMD 7000er Reihe nutzen können andere erst ab der Nividia 5000er Reihe. So what?
Wenn ich mir jetzt eine Karte kaufe dann weiß ich welche Anschlüsse die hat und das ich mir mit ner Nvidia dann halt evtl was neues kaufen muss, wenn mir DP2.1 so wichtig ist.
Darüber eine riesen Diskussion vom Zaun zu brechen ist einfach mal Kindergarten. Denn die Karten sind so wie sie sind, AMD oder Nvidia werden die jetzt nicht nochmal kurzfristig ändern nur weil hier im Forum paar Leute rumheulen. Also was ändert es an der Situation? Gar nichts.
Dann kann man sich halt eionfach entscheiden ob man es will, dann kauf man sich ne neue AMD, oder man will es nicht dann geht auch Nvidia.
Aber sich hier gegenseitig überzeugen zu wollen das DP2.1 jetzt wichtig ist oder nicht ist vollkommen sinnlos, da jeder für sich selbst entscheiden muss ob es ihm wichtig ist. Hat halt jeder sein eigenes Use-Case.
Das ist Verschwendung von Energie und kämpfen gegen Windmühlen. Warum macht man sowas? Mir ist es doch vollkommen egal ob wem anders DP2.1 wichtig ist oder nicht, soll derjenige doch selber entscheiden. Oder tut mir das weh wenn jemand ne andere Meinung hat als ich?
 
Melu76 schrieb:
wie können uns aber darauf einigen das das verhalten wohl (hoffentlich) ein bug ist, der in zukunft behoben wird.
Das hoffe ich auch. Ich meine ja auch nicht das der Verbrauch OK wäre. Aber 144hz, Dual Monitor haben dir meisten nicht. Und damit meine ich alle nicht nur uns Spinner hier auf CB usw.
Rockstar85 schrieb:
Nichts desto Trotz ist das ein Trend, der alles andere als Nice ist
Deshalb lehne ich mich zurück und gucke was da noch passiert. Mit meiner Grafikkarte habe ich auch leicht reden.
Ich muss sagen ich habe mehr erwartet von RDNA3 vor allem bei RT. Beim Verbrauch bin ich aber schon erschrocken. Wenn man sich RDNA bisher anschaut sieht man da ist was falsch gelaufen bei RDNA3. Ob es ein Designfehler ist oder das Zusammenspiel von MCD und GCD. Und wie sich das beheben lässt ob Treiber oder Refresh wird man sehen müssen. Aber ich glaube vor Spätsommer 2023 werde ich mir keine neue GPU kaufen. Ich zocke eh in UWQHD und da reicht auch weniger Leistung.
Und egal wie sich die Leute GPUs für über 1000 oder 2000 Euro schön reden. Wer das bezahlt schießt sich nur selbst ins Bein. Die Hersteller nehmen das als Freifahrtschein um die Preise im Highend und jetzt selbst im Midrange stark nach oben zu treiben.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Rockstar85 schrieb:
nur renn ich halt nicht in einen Thread und ziehe mir Argumente aus der Nase um ein Produkt schlecht zu machen.
Wo mache ich die neuen GPUs von AMD schlecht? Ich reg mich nur über die verbissene Argumentation über DP 2.1 als postives Feature auf, welches keines ist, da sie lange nicht verwendet werden kann, und nutzlos ist. Ansonsten ist sind die GPUs 7900 XT(X) in meinen Augen ok, man bekommt für weniger Geld eben die Features, die es aktuell marktgerecht bietet. Nicht mehr, nicht weniger. Ich würds mir nicht kaufen, aber ich würde es keinem madig machen, es zu kaufen. Nur dann, wenn er behauptet, er kauft diese Karte wegen DP 2.1.
 
  • Gefällt mir
Reaktionen: ThirdLife
PHuV schrieb:
Nur dann, wenn er behauptet, er kauft diese Karte wegen DP 2.1.
Ja aber dafür kauft man es doch. Endlich 8K165 zocken dank der magischen AMD-Watts. Die bewirken so einiges !🤣
 
  • Gefällt mir
Reaktionen: Ragnarök88, DayvanCowboy, Hutzeliger und eine weitere Person
So, mal ein kurzer Status: Die Tests mit der 5700 XT sind abgeschlossen. Morgen kommt die 7900 XTX und dann wird zum Wochenende der Rest getestet und im Text verwurstet. XD

@Zer0Strat auch wenn du manchmal krawallig bist, CapFrameX hast du sehr gut gemacht. ;)
 
  • Gefällt mir
Reaktionen: .Sentinel., Apocalypse, mojomojo und 2 andere
Gibt JETZT in diesem Moment wieder XTX im AMD Shop falls es jemanden interessiert.
 
  • Gefällt mir
Reaktionen: mazO! und ThirdLife
DevPandi schrieb:
@Zer0Strat auch wenn du manchmal krawallig bist, CapFrameX hast du sehr gut gemacht. ;)
Danke dir, das Lob geht natürlich auch an @Taxxor. Außerdem, so auf Krawall gebürstet bin ich gar nicht. ^^
 
  • Gefällt mir
Reaktionen: .Sentinel., TKessel, mazO! und eine weitere Person
@Zer0Strat
Kommt dann die Revidierung bezüglich A0 deinerseits?
Das hat schon stark was von Aufwiegeln.. Ich meine es hat ja Gründe, warum du hier Kontra kriegst und Taxxor eben nicht.
 
  • Gefällt mir
Reaktionen: TKessel
TKessel schrieb:
Nö, es wird bloß ein Fass aufgemacht ohne, dass es bisher dazu irgendwelche Fakten gibt. Solange Igor oder z.B. GamersNexus dazu keinen Investigativen Bericht bringen der irgendwas aufdeckt (denn der kommt wenn es etwas zum aufdecken gibt) kann man das fürs erste ignorieren.

Man braucht halt was zum dran hoch ziehen.

Das war eine erste Idee, warum die AMD soviele Probleme beim Stromverbrauch hat bei diversen Szenarien (idle, youtube, Teillast, Framelimit, Last). Man hat ja gesehen, dass bei A0 eben der Register auf False und bei A1 auf True gestanden hat in der Programmierung. Heißt, eventuell sind die Sachen mit A1 dann beseitigt.
 
Rockstar85 schrieb:
Kommt dann die Revidierung bezüglich A0 deinerseits?
Welche Revidierung? Die Karten sind halt A0, was soll man da revidieren?

Wann kommt mal ein Lob von dir für das Tool, was wir für die Community geschaffen haben? War viel Arbeit!
 
  • Gefällt mir
Reaktionen: DayvanCowboy
Ayo34 schrieb:
Das war eine erste Idee, warum die AMD soviele Probleme beim Stromverbrauch hat bei diversen Szenarien (idle, youtube, Teillast, Framelimit, Last).
Ja und auch eine spannende, da Pflichte ich dir bei, denn ich verfolge das auch mit Interesse. Bin ein potenzieller XTX Käufer der einfach ein bisschen warten mag was sich in den nächsten Tagen und Wochen tut, vor allem eben auch Hands-On Berichte und mal ein schöner UV Beitrag von Igor z.B. Solange sich das ganze nicht bestätigen lässt, stochern aber aktuell alle im dunkeln. Es ist eine Möglichkeit die aber aktuell niemand wirklich untermauern kann. Die andere Frage wäre z.B. was bei der 6800XT drin stand. Leider habe ich meine Day-One 6800XT nicht mehr, die ist in der RMA gelandet, sonst würde ich da gern schauen. Meine aktuelle stammt aus dem April diesen Jahres.

Zer0Strat schrieb:
Welche Revidierung? Die Karten sind halt A0, was soll man da revidieren?
Ich glaube es geht einfach darum, dass damit diverse Dinge in Verbindung gebracht werden die aktuell einfach niemand wirklich bestätigen kann.
 
@Ayo34
das sind alle Treiberprobleme...
Da ist nichts in Hardware. Und schau dir die Phoronix Beitrag an, wieso sieht es da besser aus?

gerade wo man weiß, das CPU-Z und auch andere Screens gefaked werden, wäre ich da sehr sehr vorsichtig.. Und wie gesagt, Igor hat nichts dazu gesagt, hier ebenso.

@Wolfgang
welche Rev hat denn eure 7900XTX?

@Zer0Strat
Du weisst was ich meine... deine Hämische Twitter Zitierung wider Basis jeglicher Fakten..
Ich hab Artikel aus 2019 gefunden, die von Release Navi reden mit A0. Warum kann keiner mehr wirklich gescheit Recherchieren?
Ach und Taxxor hat den Dank bekommen, du sogar auch.. Vllt mal Schaum wegwischen? Du bist kein Gott, nur weil du Coden kannst.
 
Wie schätzt ihr Preissenkungen bei der 3000er Generation ein, speziell RTX 3090 (Ti) ? Sind immer noch für neu für um die 1.500,- drin, aber für den Preis bekomme ich auch eine 4080. Hab zumindest die Hoffnung, dass man eine ältere Generation für 4k-Gaming günstig schießen könnte :)
 
Rockstar85 schrieb:
@Ayo34
das sind alle Treiberprobleme...
Da ist nichts in Hardware. Und schau dir die Phoronix Beitrag an, wieso sieht es da besser aus?

Bei den Treiberfehlern ist bisher nur das Idle Problem aufgelistet. Heißt 4k + 144hz sollte keine 100 Watt verbrauchen. Zu den anderen Problemen gibt es aber noch nichts offizielles und dann ist die Frage wann und ob überhaupt das per Treiber alles gut gelöst werden kann. Wäre es trivial, gäbe es diese Probleme nicht. Daher ist abwarten nicht so verkehrt.

Ich verstehe z.B. nicht, warum ein Spiel unlimitiert läuft und dann bei 300 Frames 355 Watt verbraucht. Gleichzeitig bei einem Framelimit von 144 immer noch 355 Watt verbraucht. Bei Nvidia skaliert das bereits sehr gut. Bei AMD muss man abwarten.

Dazu kommt eben eine kleine Unbekannte durch das neue AMD Design. Der Ansatz ist ja ein anderer und entsprechend kann es da auch zu neuen Problemen kommen, die man vielleicht gar nicht auf dem Schirm hatte. Vielleicht sind manche Szenarien auch einfach schwieriger und man muss dann mit mehr Watt dagegen halten.
 
PHuV schrieb:
Daher ist DP 2.1 eine einzige nutzlose Bloatware, wo sich AMD Jünger darauf versteifen, obwohl eh von denen kaum einer einen 8k Monitor mit 240 Hz leisten wird und kann.
Käufer einer 1200 Euro GPU können sich keinen 4K 240 Hertz Schirm leisten?
Das würde ich doch deutlich bezweifeln.
Nvidias altbackener Anschluss ist definitiv ein Nachteil für High Refresh Rate Gamer in 4K.
PHuV schrieb:
Für die meisten wird DP 1.4 locker lange ausreichen. Und bis in 2 Jahren, wo DP 2.1 Monitor entsprechend auf dem Markt verfügbar sein werden, ist eh schon bei Nvidia die nächste GPU Generation am Start.
Dieses Argument kenne ich irgendwo von der RT Debatte.
Der Anschluss ist ein klarer Nachteil für eine bestimmte Nische.
Die schwache RT Leistung der AMD´s ist für mich ein No-Go, aber High Refresh Gamer ( low Settings) kaufen eher die AMD Karte für 4K Gaming.
 
InhaltDerNacht schrieb:
Wie schätzt ihr Preissenkungen bei der 3000er Generation ein, speziell RTX 3090 (Ti) ? Sind immer noch für neu für um die 1.500,- drin, aber für den Preis bekomme ich auch eine 4080. Hab zumindest die Hoffnung, dass man eine ältere Generation für 4k-Gaming günstig schießen könnte :)

Die 3090 scheint ja schon länger quasi ausverkauft. Die 3090ti war schon mal deutlich günstiger, spricht auch dafür, dass es einfach nicht mehr viele gibt. Dazu stört bei der 3090ti der Stromverbrauch. Am Ende hängt es davon ab, wieviele Karten noch irgendwo rumliegen.
 
  • Gefällt mir
Reaktionen: Icke-ffm und InhaltDerNacht
Ayo34 schrieb:
Bei den Treiberfehlern ist bisher nur das Idle Problem aufgelistet. Heißt 4k + 144hz sollte keine 100 Watt verbrauchen. Zu den anderen Problemen gibt es aber noch nichts offizielles und dann ist die Frage wann und ob überhaupt das per Treiber alles gut gelöst werden kann. Wäre es trivial, gäbe es diese Probleme nicht. Daher ist abwarten nicht so verkehrt.
Warum läuft das Spiel bei aktiven Limiter auf Vollgas? Nun ja, weil die Teillast per Treiber nicht berücksichtig ist.. (Du kannst im Treiber eben etliche Zustände hinterlegen.. Spannender wäre zu wissen, wieso AMD die Spannungsüberwachung wieder umgebaut zu haben scheint, denn bei RDNA2 hatten wir ein anderes Verhalten bei Teillast)

https://www.computerbase.de/artikel...nitt_leistungsaufnahme_spiele_youtube_windows
Hier siehste, dass das Problem auch nicht Neu ist.

1671118757082.png


So hart es ist, es IST Trivial.. Aber es ist lt AMD ja auch so gewünscht (siehe PCGH Artikel)
Du könntest bei der Auslastung der Rechenwerke von ggf Hardware Problemen ausgehen, aber auch da dann die Frage, wieso es unter Linux besser läuft und vor allem, wieso zB bei IW9 die Auslastung greift..
Ich sehe da die gleiche Problematik wie damals bei Zen1. Man kann sogar sagen, dass auf Grund des hohen Taktes eben die Energieaufnahme steigt.. Den Rest macht die Physik..

Und was zum Thema Effizienz:

1671118829671.png

Wir reden bei N4 von einem Fullnode von N8 Samsung (der eher ein N10 ist)
Und einem Halfnode Sprung von N7 zu N5.. Man schaue sich dazu das Diagramm der 6900XT an..
 
Zuletzt bearbeitet:
.Sentinel. schrieb:
Ich bin mir inzwischen garnicht sicher, ob man es nicht wie früher zum Anfang der 3d- Beschleuniger Zeiten hätte machen sollen.
Sprich- Dedizierte Karten dafür anbieten, die grunsätzlich zu 100% auf Path- Tracing ausgerichtet sind.
Gleich volles Rohr, ohne Raster- Zwischenschritte. Und dann natürlich auf disruptive Art und Weise Software dafür auf den Markt werfen, die komplett und kompromisslos dafür entwickelt sind.
Dann hätte man den Aha- Effekt geerntet, mit volldynamischen Szenen und nie dagewesener Berechnung des Lichttransports.

Dieser Hybrid- Ansatz ist vornehmlich das, was in alle Richtungen den Aufwand explodieren lässt.
Das war aber wohl selbst nVidia ein zu hohes Risiko, so dass man es anders auf den Markt zwingt/gezwungen hat.
Meinst du als Zusatzkarte in den zweiten PCIe Slot, mit Hybridspielen oder ganz unabhängig? Im zweiten Fall wäre es wohl schwieriger einen neuen Markt aufzubauen, der nicht gänzlich aus Enthousiasten besteht, wie etwa im Fall von VR. Das Spagat zwischen Adoption der breiten Masse und Fortschritt ist nicht einfach.
 
Fallout667 schrieb:
Das ist Verschwendung von Energie
Wie viele extra Watt zieht ein DP 2.1 Port, welcher mit 1.4 Speed genutzt wird? Ist deshalb der Verbrauch bei den RDNA3 etwa höher?
 
  • Gefällt mir
Reaktionen: Eld0r, ThirdLife und Rockstar85
Zurück
Oben