Test Radeon RX 7900 XTX & XT im Test: AMD RDNA 3 gegen Nvidia GeForce RTX 4000 „Ada Lovelace“

ThePlayer schrieb:
Wenn die Monitore nächstes Jahr kommen und du in 2560x1440 in Low Settings dann deine 400FPS und mehr nutzen kannst und Du als Nvidia Nutzer dann bei 240hz in die Röhre schaust sieht die Welt ganz anders aus.
Du ganz ehrlich, ich bezweifle stark, dass ich zwischen 240 und 400 Hz einen wirklichen Unterschied bemerke. Das sind nur noch Nuancen und dann bleibe ich lieber bei 144 Hz, anstatt 2000 €+ für 400 Hz zu bezahlen, die keinen wirklichen Mehrwert bringen.
 
  • Gefällt mir
Reaktionen: Ragnarök88, PHuV und Innocience
Dr@gonXP schrieb:
Sind aus meiner Sicht die RTX 3070
3000er Serie würd ich auf keinen Fall mehr kaufen. Dann warte doch auf die 4070…oder nimm die 6800
 
Ich für meinen Teil habe mich für die 6800 entschieden (u.a. wegen MW2) :D und ich bin sehr zufrieden damit.
 
  • Gefällt mir
Reaktionen: Anon-525334 und b|ank0r
DevPandi schrieb:
Nein, in dem Fall Datenanalyse auf der Arbeit. Ich muss die Jahresstatistik vorbereiten und muss jetzt sehr viele Daten auswerten, aufbereiten und dann meinem Chef und anschließend der Kommission vorstellen.
via OLAP/JEDOX oder so?
 
Erste 7900XT unter 1000€, jetzt müssen nur die XTX richtig lieferbar werden und die für mich groben Fehler (Leistungsaufnahme Idle Video)behoben werden..

hier

7900XT.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shy-Denise, Icke-ffm, msv und eine weitere Person
DayvanCowboy schrieb:
3000er Serie würd ich auf keinen Fall mehr kaufen. Dann warte doch auf die 4070…oder nimm die 6800

Die 3070 war abgesehen von den 8GB eine feine Karte mit guter Effizienz vor 2 Jahren. Aktuell würde ich auch eher die 6800 bei dem Preis nehmen. 4070 wird wohl um die 799€ kosten, dafür schneller, effizienter und 12GB. Wäre schon einiges besser als die 3070 für ~600€.

Hätte auch irgendwie gedacht das die 3070 auf 400€ oder so fällt, aber irgendwie gehts nicht unter 550€.
 
Dr@gonXP schrieb:
Wenn man die Verbräuche der aktuellen Karten sieht, dann bleiben nicht viele Karten (Vernunftentscheidung) übrig. Sind aus meiner Sicht die RTX 3070 und die Radeon RX6800. Beiden reichen bequem für WQHD aus. Alle anderen Karten sind entweder zu teuer und/oder verbrauchen einfach zu viel. Es muss auch nicht immer das "Neuste" sein....
Sebst die sind zu teuer, wobei es ja gerade kn die richtige Richtung geht. Die RTX 3070 halt ich für schwierig, da nvidia jetzt auch den Weg größerer Vrams geht. Das könnte ärgerlich werden. 8GB sind ja schon lange Standard und dann kippt es irgendwann ganz schnell.
Ergänzung ()

Melu76 schrieb:
doch das zieht. denn die Budget-option ohne Extras (kein/reduziertes RT), sollte natürlich auch im Verbrauch Budget sein, ansonsten kommen wir in eine Schieflage, in der die Budget Option "billig" (weniger wertig) erscheint.

Günstigere Karten haben halt meist einen schlechteren Fertigungsprozess und sind dadurch weniger Energieeffizient. Ob billig oder günstig entscheidet dann der Preis. Ob die RX 7900 nun gut oder schlecht ist kann man nur mit dem Blick auf den Preis sagen.
 
Bengart schrieb:
Sebst die sind zu teuer, wobei es ja gerade kn die richtige Richtung geht. Die RTX 3070 halt ich für schwierig, da nvidia jetzt auch den Weg größerer Vrams geht. Das könnte ärgerlich werden. 8GB sind ja schon lange Standard und dann kippt es irgendwann ganz schnell.
Ergänzung ()


Stimmt, dass war auch einer der Gründe, warum ich mich für die 6800 entschieden habe.
 
Bengart schrieb:
Günstigere Karten haben halt meist einen schlechteren Fertigungsprozess und sind dadurch weniger Energieeffizient. Ob billig oder günstig entscheidet dann der Preis. Ob die RX 7900 nun gut oder schlecht ist kann man nur mit dem Blick auf den Preis sagen.

Eigentlich hat eine Serie immer den gleichen Fertigungsprozess mit ganz wenigen Ausnahmen. Das Problem ist eher, dass man bei den kleineren Karten auf die Kosten schaut und weniger auf die Effizienz. Teilweise wurden ja sogar Mobilchips genommen, diese einfach hochgetaktet bis zum "geht nicht mehr" und dann hat man es 3050 oder 6500 genannt. Heißt die geringe Leistung kommt über den Chiptakt und das kostet relativ viel Watt.
 
Melu76 schrieb:
doch das zieht. denn die Budget-option ohne Extras (kein/reduziertes RT), sollte natürlich auch im Verbrauch Budget sein, ansonsten kommen wir in eine Schieflage, in der die Budget Option "billig" (weniger wertig) erscheint.

  • gleiche leistung wie 4080 im Raster
  • deutlich weniger leistung in RT
  • 21% zur 4080
  • gleich mit 3090 OC

Die 3090 OC, für die einige über 2000 € bezahlt haben, hat also heutzutage wenig RT-Leistung.

Melu76 schrieb:
  • support software reduziert (kein Dlss3)
Der Nvidia Software fehlen auch so manche Dinge, die die AMD Software hat.

Melu76 schrieb:
  • deutlich mehr verbrauch
- 7900XTX 354W zu 4080FE 289W => 65W

Melu76 schrieb:
  • paar euronen weniger
  • 7900XTX 1.119,30 € (amd.com)
  • 4080FE 1399 € (nvidia.com)
=> 279,70 €

280 € sind ein also "ein paar euronen". So viel haben meine letzten Grakas im Schnitt gekostet.

Bei 0,45 €/kWh Strompreis wären dies 9560 h, bei 8 h Spielzeit pro Tag wären dies 1195 Tage bzw. 3,27 Jahre.

Edit: Quelle: computerbase.de
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm, Rockstar85, DeadEternity und eine weitere Person
Ayo34 schrieb:
Eigentlich hat eine Serie immer den gleichen Fertigungsprozess mit ganz wenigen Ausnahmen. Das Problem ist eher, dass man bei den kleineren Karten auf die Kosten schaut und weniger auf die Effizienz. Teilweise wurden ja sogar Mobilchips genommen, diese einfach hochgetaktet bis zum "geht nicht mehr" und dann hat man es 3050 oder 6500 genannt. Heißt die geringe Leistung kommt über den Chiptakt und das kostet relativ viel Watt.
In den letzten teuren Generationen ja. Früher war es durchaus üblich die teuren Fertigungsprozesse den Top-Modellen vorzubehalten. Da haben die alten Fertigungsprozesse aber auch merkliche Kostenvorteile gebracht. Da hab ich zur Zeit kein Überblick, da es immer ein Trade-Off zwischen notwendiger Fläche und Waferpreis ist. Ich wäre z.B. ganz froh, wenn AMD oder NV eine Mittelklassekarte ohne RT Einheiten und in einem günstigeren Fertigungsprozess herstellt, aber mit dem aktuellen Chipdesign Standard.
 
Rocky Malvia schrieb:
Wie kommst du auf 21%?
Unbenannt.png


Du hattest als Quelle Computerbase angegeben. Gibts noch ein anderes CB oder wird hier mal wieder an den Zahlen gedreht?
 
  • Gefällt mir
Reaktionen: DeadEternity
ThePlayer schrieb:
Wenn die Monitore nächstes Jahr kommen und du in 2560x1440 in Low Settings dann deine 400FPS
Wo gibt es so einen Monitor? Hand hoch, wer plant eine DP 2.1 Anschaffung als Monitor, weil notwendig? Ich mache dazu mal eine Umfrage.
ThePlayer schrieb:
und mehr nutzen kannst und Du als Nvidia Nutzer dann bei 240hz in die Röhre schaust sieht die Welt ganz anders aus.
Du hast bisher nicht viele Monitore gehabt oder? Es dauert von der Ankündigung bis zur Marktstart oftmals mehrere Monate, bis Du so einen Monitor kaufen kannst. Es gibt sogar Ankündigungen, die dann tatsächlich aufgrund von Herstellungsproblemen und anderem gar nicht auf dem Markt kommen, siehe den Dell OLED UP3017Q damals, der faktisch bei uns im Handel gar nicht mehr auftauchte.

https://www.computerbase.de/news/mo...-inklusive-8k-ultrawide-ab-anfang-2023.82316/
Sprich, wir können realistisch Q2-Q3 damit rechnen, daß sie entsprechend verfügbar sind:

Dann zu Deinem 240 Hz Argument:
https://www.computerbase.de/news/mo...rhoeht-beim-xeneon-32qhd240-auf-240-hz.81229/
https://www.computerbase.de/news/mo...or-mit-wqhd-und-240-hz-fuer-999-usd-an.82499/
https://www.computerbase.de/news/mo...uantum-dot-ips-mit-hdmi-2-1-und-144-hz.81072/
https://www.computerbase.de/news/mo...-inklusive-8k-ultrawide-ab-anfang-2023.82316/

Sie können alle mit DP 1.4 gut versorgt werden, kein DP 2.1 vorhanden, und hier auch nicht notwendig.

Warum kapieren hier einige nicht, daß DP 2.1 aktuell weder grafisch versorgt werden kann, noch überhaupt ein Monitor existiert, der das hat, geschwiege denn so eine Bandbreite benötigt wird?

Ich hab doch persönlich nichts dagegen, daß DP 2.1 als Anschluß für die 7900 XT(X) schon da ist. Aber das Argument für den Kaufgrund ist doch nur krude und daneben. Oder wird sich hier jeder, der eine 7900 XT(X) kauft, auch einen entsprechenden 8k Monitor mit 144 Hz und mehr kaufen? Die meisten RDNA3 Käufer hier werden doch, schon allein aus preislichen Gründen, bei WQHD 144-240 Hz oder UHD bei 144 Hz und ein paar mehr bleiben. Daher, DP 2.1 ist aktuell und die nächsten Jahre einfach nutzlos für die meisten Käufer hier. Es gibt aktuell KEIN GPU, KEINE (!!!), die UHD 4k mit 144 Hz oder mehr in hohen oder höchsten Grafikeinstellungen überhaupt versorgen können. Von 8K UltraWide mal ganz zu schweigen! Hier können wir aktuell froh sein, wenn eine GPU mit dieser Auflösung mehr als 40-50 FPS liefern (die nicht mal eine 4090 schafft, wohlbemerkt).

Daher, wo soll bitte bei DP 2.1 der Vorteil aktuell sein? Den fabulieren sich einige hier nur her. Ohne die entspreche (und aktuell NICHT VORHANDENEN Bildschirme) wird das nichts.

Für WQHD 144-240 Hz, UHD mit 144-175 Hz reicht aktuell DP 1.4 noch aus. Und das werden die meisten sich aktuell zu Hause hinstellen. Und 8k UW/144Hz Spieler haben wir hier aktuell... wieviele?
 
  • Gefällt mir
Reaktionen: Innocience
PHuV schrieb:
Oder wird sich hier jeder, der eine 7900 XT(X) kauft, auch einen entsprechenden 8k Monitor mit 144 Hz und mehr kaufen?
Einige kaufen sich die 7900XTX, weil sie günstiger als die Konkurrenz ist und wollen sich dann einen 8K 144 Hz Monitor kaufen, der garantiert die 2000 € knacken wird?
Wie passt das zusammen? :freak:
 
  • Gefällt mir
Reaktionen: Ragnarök88, Innocience und PHuV
MrHeisenberg schrieb:
Einige kaufen sich die 7900XTX, weil sie günstiger als die Konkurrenz ist und wollen sich dann einen 8K 144 Hz Monitor kaufen, der garantiert die 2000 € knacken wird?
Wie passt das zusammen? :freak:
In dem es nicht die gleichen Leute sind, oder die Prioritäten anders sind, usw...

Nicht jeder Kauf ist ausschließlich rational.

Beim Stromverbrauch kommt doch hier von den Nvidia Verfechtern (neuerdings allerdings erst wohlbemerkt) der Strohmann mit den höheren Stromkosten und dass deshalb die Nvidia eigentlich günstiger wäre...

Der Verbrauch ist aktuell ein Nachteil auf AMD Seite, der Preis ein Vorteil, so einfach ist das. Und dass DP 2.1 bereits vorhanden ist, ist eben ein weiterer Vorteil, und ganz sicher kein Nachteil.
 
  • Gefällt mir
Reaktionen: Icke-ffm und Rockstar85
PHuV schrieb:
Es gibt aktuell KEIN GPU, KEINE (!!!), die UHD 4k mit 144 Hz oder mehr in hohen oder höchsten Grafikeinstellungen überhaupt versorgen können. Von 8K UltraWide mal ganz zu schweigen! Hier können wir aktuell froh sein, wenn eine GPU mit dieser Auflösung mehr als 40-50 FPS liefern (die nicht mal eine 4090 schafft, wohlbemerkt).
Ich weiß ja worauf du hinaus willst. Aber es gibt ja nun wirklich genug Games die quasi keinerlei Grafikleistung brauchen. Möglich ist es also durchaus auf solche zahlen zu kommen. dafür braucht man dann auch keine 4090. Gut aber eine AMD 7900 weil sonst der DP anschluss limitiert :D

Auch unterschlägst du leute die eben kein RT Ultra High settings oder so wollen sondern einfach ihre gemütlichen 200 hz in hoher auflösung.
Klar beides absolut Nische aber dennoch vorstellbar.
Warum also DP 2.1 schlechtreden wenns doch gut ist das man es hat.
 
  • Gefällt mir
Reaktionen: MasterAK
MrHeisenberg schrieb:
Wie kommst du auf 21%?
Anhang anzeigen 1298068

Du hattest als Quelle Computerbase angegeben. Gibts noch ein anderes CB oder wird hier mal wieder an den Zahlen gedreht?
Du musst oben noch auf Raytracing AVG-FPS drücken. Er sprach von deutlich weniger RT Leistung.
Ergänzung ()

PHuV schrieb:
Wo gibt es so einen Monitor? Hand hoch, wer plant eine DP 2.1 Anschaffung als Monitor, weil notwendig? Ich mache dazu mal eine Umfrage...
Jede Technik hat am Anfang wenig Anwendungsbereiche. Raytracing in der Nvidia 2000 Serie hatte am Anfang auch kaum Spiele (ich glaube BF5 war eins der ersten) und trotzdem haben Leute diese Grakas gekauft.
DP 2.1 ist besser als DP 1.4.
 
Zuletzt bearbeitet:
Bengart schrieb:
In den letzten teuren Generationen ja. Früher war es durchaus üblich die teuren Fertigungsprozesse den Top-Modellen vorzubehalten. Da haben die alten Fertigungsprozesse aber auch merkliche Kostenvorteile gebracht. Da hab ich zur Zeit kein Überblick, da es immer ein Trade-Off zwischen notwendiger Fläche und Waferpreis ist. Ich wäre z.B. ganz froh, wenn AMD oder NV eine Mittelklassekarte ohne RT Einheiten und in einem günstigeren Fertigungsprozess herstellt, aber mit dem aktuellen Chipdesign Standard.

Aktuell sieht es eher so aus, dass man langsam auf die neue Generation umstellt und entsprechend lange einfach die alte Generation in der alten Fertigung weiter produzieren lässt. Schade ist nur, dass man den Preisvorteil dann nicht merkt und man einfach an den Preisen festhält.

3060 - 249€
3070 - 399€
...

Glaube das wäre ein fairer Weg für den Übergang. Aber scheinbar hat es Nvidia nicht nötig.
 
  • Gefällt mir
Reaktionen: Bengart
Rocky Malvia schrieb:
DP 2.1 ist besser als DP 1.4.
Das bestreitet doch keiner! Aber 99% der aktuellen RDNA3 Käufer werden es, mangels Hardware UND mangels eigener Ansprüche überhaupt nicht nutzen und nutzen können. Darum gehts. Das sich jemand eine 7900 XT(X) kauft, ist alles gut. Aber das Argument, er kauft sich diese wegen DP 2.1, das ist ein Scheinargument, egal wie man es drehen oder wenden will. Alles bis UHD 4k bis 175 Hz kann aktuell noch gut über DP 1.4 befeuert werden.
 
  • Gefällt mir
Reaktionen: Innocience
Zurück
Oben