Test AMD Radeon RX 9070 (XT) im Test: RDNA 4 und FSR 4 sind eine Revolution

Pisaro schrieb:
@Cronos83 Dieses Stromsparargument finde ich immer oft sinnlos. Wir gehen mal ins Extreme und du sparst dadurch 250€ im Jahr... im JAHR. Das ist doch nichts.

Um Geld gehts mir dabei nicht. Sonst würd ich doch nicht zum größeren Chip greifen und Leistung brach liegen lassen....
Aber ich hab damit für die erreichten FPS die geringste Abwärme und die niedrigste Geräuschbelästigung. Das ist mir persönlich einfach wichtig.

Strom sparen hat einfach mehr Aspekte als nur Geld sparen.
 
  • Gefällt mir
Reaktionen: Matuchekk, Rockstar85, PulsarS und 6 andere
Pisaro schrieb:
@Cronos83 Dieses Stromsparargument finde ich immer oft sinnlos. Wir gehen mal ins Extreme und du sparst dadurch 250€ im Jahr... im JAHR. Das ist doch nichts.

Vielleicht ist sein Horizont ein Kreis mit Radius größer 0 und es geht ihm gar nicht (nur/primär) um den monetären Aspekt?
Edith sagt: Oh, da war er selbst wohl schneller.

xpad
 
  • Gefällt mir
Reaktionen: Matuchekk, PulsarS, Cronos83 und eine weitere Person
Zulgohlan schrieb:
Die 9070 hat extreme Lastspitzen. Diese sollten von einer vernüftigen PSU abgefangen werden. Kauf keine 800-900Euro Gpu und spare dann am Netzteil.... min 750W gepaart mit ATX3.1
Die 9070XT verbraucht 304 Watt?!
Mein Corsair 650Watt Plus Gold sollte doch eig reichen?
Meine 6800XT verbraucht genauso viel (300Watt,)
 
Pisaro schrieb:
@Cronos83 Dieses Stromsparargument finde ich immer oft sinnlos. Wir gehen mal ins Extreme und du sparst dadurch 250€ im Jahr... im JAHR. Das ist doch nichts.
Ähm nö. Nach zwei Jahren kann ich mir dafür einen neuen Reifensatz für meinen Civic kaufen. Das Stromsparargument (bzw. Effizienz) ist für mich eines der wichtigsten Argumente beim Kauf von Hardware überhaupt.
 
Cronos83 schrieb:
Um Geld gehts mir dabei nicht. Sonst würd ich doch nicht zum größeren Chip greifen und Leistung brach liegen lassen....
Aber ich hab damit für die erreichten FPS die geringste Abwärme und die niedrigste Geräuschbelästigung. Das ist mir persönlich einfach wichtig.

Strom sparen hat einfach mehr Aspekte als nur Geld sparen.
Spricht groß von Abwärme und hat nen 13700K verbaut...
 
  • Gefällt mir
Reaktionen: edenjung, Alphanerd, Celinna und 2 andere
moos1407 schrieb:
Kommt da noch eine XTX oder ähnliches? Ich hätte gern eine neue Grafikkarte, aber hab keine Lust auf nur 16GB VRAM.
nein da bleibt Dir nur die 7900xtx im abverkauf oder aber eben die 5090 zum schnäppchenpreis ;)
kachiri schrieb:
Die-Size ist hier ja auch ähnlich. In dem Vergleich sind die Preise vielleicht sogar eine Ansage. Auf der anderen Seite sind in dem Vergleich die Ergebnisse auch anders einzuordnen.
wie Du machst Dir sorgen um die Hersteller Margen als Kunde ? da sind die Endpreise relevant.
und AMD liefert mehr Leistung & Vram in Deutschland sogar für weniger UVP.
was sagst Du dann Zu Intel ? die verkaufen Ihrer B580 272mm2 für $249 schaffen aber nicht mal 50% der 5070.
Alphanerd schrieb:
Eine 5080 kostet um die 1,5k?
ist aber Nvidia da zahlt man eben gerne 50% Aufpreis :) muss man nicht verstehen.

@CB Team jetzt habt Ihr ja mal bisschen leerlauf, wie sieht es denn mit einem Vergleichstest RT aus ?
Call of Duty Black Ops Cold War
Control
Watch Dogs Legion
COD: Modern Warfare
Deliver us The Moon
Shadow of the Tomb Raider
CP2077
alle mit dem Aktuellem Setup Treiber & Update stand
2060-12GB
2080-8GB FE
2080ti-11GB FE
3060-12GB
3070-8GB FE
3080-10GB FE
3080ti-12GB FE
3090-24GB FE
4070-12GB FE
4080-16GB FE
sowie AMD
6700xt-12GB
6800xt-16GB
7700xt-12 GB
7900xtx-24GB
7900-16GB
und das ganze dann im vergleich % stellen wie es zum zeitpunkt des erst tests war
nur WUHD und UHD
 
  • Gefällt mir
Reaktionen: Alphanerd
Benni82 schrieb:
Die 9070XT verbraucht 304 Watt?!
Mein Corsair 650Watt Plus Gold sollte doch eig reichen?
Meine 6800XT verbraucht genauso viel (300Watt,)
Les dich einfach bissl ein bezüglich Lastspitzen moderer Grafikkarten im oberen Segment, da gehts in keinster Weise um irgendeine Art von gemittelter Dauerlast.
 
Zulgohlan schrieb:
Spricht groß von Abwärme und hat nen 13700K verbaut...
Auch den bekommt man gebändigt.
Und dass die CPU in der Hinsicht nicht optimal ist, ist mir durchaus bewusst. Das bedeutet nicht, dass ich bei der GPU keine Optimierung vornehmen kann.

Worauf willst Du also hinaus? Irgendwelche konstruktiven Anmerkungen? Irgendetwas, was meine auf GPUs bezogene Einstellung ad absurdum führen würde?
 
  • Gefällt mir
Reaktionen: Cr4y
Sehr ordentlich bis durchwachsen was AMD mit seinen Midrange Karten abliefert, Euphorie darüber?! - eher weniger, denn es zeigt sich jetzt deutlich, weshalb sich NV bei der RTX5 Serie nicht besonders anstrengen musste. Der nächste echte Leistungssprung bezüglich RT/PT wird es dann wohl erst in ein paar Jahren geben. Bis dahin kann AMD sicherlich über den Preis und die Verfügbarkeit punkten. Angesichts der eklatanten Schnitzer, die sich Nvidia immer wieder leistet, sei das den Roten auch gegönnt.
 
  • Gefällt mir
Reaktionen: mydayyy und Quidproquo77
göschle schrieb:
Sehr ordentlich bis durchwachsen was AMD mit seinen Midrange Karten abliefert, Euphorie darüber?!

Ich hab nun etliche Reviews über viele Seiten gelesen, auch die US-Anlaufstellen für Reviews, aber anscheinend haben die alle keine Ahnung, wenn man solche Posts hier immer wieder lesen muss.
 
  • Gefällt mir
Reaktionen: Rockstar85, Alphanerd, zhompster und 3 andere
Moritz Velten schrieb:
Kommt vielleicht noch, wer weiß
Der Chip auf der XT ist doch schon der Vollausbau, was soll da noch kommen? AMD hat ja schon angekündigt, das High End Segment nicht zu bedienen.
 
Zulgohlan schrieb:
Les dich einfach bissl ein bezüglich Lastspitzen moderer Grafikkarten im oberen Segment, da gehts in keinster Weise um irgendeine Art von gemittelter Dauerlast.
Aber das trifft auf moderne Netzteile genauso zu. Die vertragen auch kurzzeitige Lastspitzen überhalb der Nennwerte. Von daher muss sich zeigen, ob das Thema tatsächlich so relevant ist.
 
  • Gefällt mir
Reaktionen: Rockstar85
Benni82 schrieb:
Die 9070XT verbraucht 304 Watt?!
Mein Corsair 650Watt Plus Gold sollte doch eig reichen?
Meine 6800XT verbraucht genauso viel (300Watt,)

Einfach probieren, ein gutes Netzteil kann das vermutlich ab, aber sei nicht überrascht, wenns nicht reicht und Du halt noch ein Netzteil kaufen musst.

Cronos83 schrieb:
Um Geld gehts mir dabei nicht. Sonst würd ich doch nicht zum größeren Chip greifen und Leistung brach liegen lassen....
Aber ich hab damit für die erreichten FPS die geringste Abwärme und die niedrigste Geräuschbelästigung. Das ist mir persönlich einfach wichtig.

Strom sparen hat einfach mehr Aspekte als nur Geld sparen.
Mit einer Custom Wakü sollten doch beide Themen kaum ne Rolle spielen, je nach Radio würde auch ein 14900K + 5090 relativ easy leise weggekühlt werden, oder nicht? Aber klar macht das Betreiben am Sweetspot generell Sinn, das einzige Problem ist, dass die Hersteller die Optionen preislich relativ hoch legen dafür.


Kinkerlitzchen* schrieb:
Ähm nö. Nach zwei Jahren kann ich mir dafür einen neuen Reifensatz für meinen Civic kaufen.
Das ist aber günstig, bei mir reichen 500€ gerade so für einen Hinterreifen :D
 
Ich hab jetzt öfter gelesen am 6.3.2025 ab 15 Uhr verkaufsstart in Deutschland.. wo ist das zu ne quelle? Stimmt das?
 
whigga schrieb:
Ich bin da bei AMD nicht so drin und hab mir jetzt auch nur die Benchmarks angeschaut. Kann mir jemand erklären, warum AMD Leistungstechnisch einfach ne Karte von vor über 2 Jahren mit weniger VRAM bringt?
Weil sie sich auf Mittelklasse konzentrieren und so den größeren TAM adressieren.
Aber mal davon ab...NV hat nicht viel besseres als ihre 2 Jahre alten GPUs rausgebracht mit ihrer RTX50 Reihe.
Oder siehst du da großen Fortschritt?
Ich nicht.
Der ist bei AMDs 9000er Reihe deutlich größer.
whigga schrieb:
Also, ich check ja, dass sie nich mit Nvidia konkurrieren können, wenns Richtung 5080+ geht - aber wie kann es sein, dass man selbst seine eigene Karte der letzten Gen. nur marginal schlägt?
Weil das eine Mittelklasse GPU ist, die AMDs letzte High End Klasse in so gut wie jeder Disziplin schlägt.
Und das für 599USD anstatt 999USD.
Ganz einfach.
;)
 
  • Gefällt mir
Reaktionen: xXDariusXx, Alphanerd, wolve666 und eine weitere Person
aldaric schrieb:
Ich hab nun etliche Reviews über viele Seiten gelesen, auch die US-Anlaufstellen für Reviews, aber anscheinend haben die alle keine Ahnung, wenn man solche Posts hier immer wieder lesen muss.
Naja, ist halt viel Clickbait heutzutage im Internet. "Revolution" bringt mehr Klicks als meinetwegen "... ist wieder gleichwertig zu Nvidia". Die Revolution gibt's ja auch nur, wenn man die schwache Vorgängergeneration als Referenz nimmt.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Mr.Zweig
CadillacFan77 schrieb:
Mit einer Custom Wakü sollten doch beide Themen kaum ne Rolle spielen, je nach Radio würde auch ein 14900K + 5090 relativ easy leise weggekühlt werden, oder nicht? Aber klar macht das Betreiben am Sweetspot generell Sinn, das einzige Problem ist, dass die Hersteller die Optionen preislich relativ hoch legen dafür.

Mal aufs Gehäuse geschaut? :D unter 15 Litern....
Kein Mora, da 6 Mal im Jahr auf LAN.^^

Aber auch mit großem Gehäuse oder Mora bleibt die Abwärme im Raum, auch, wenn man die Lautstärke zähmen kann.
Deswegen werde ich immer so gut es geht am Sweetspot bleiben :)
Den Aufpreis dafür zahl ich halt, um "zu" große Chips, bzw, potentere Karten als für mich nötig zu kaufen und dann einzubremsen (zocke in WQHD meist auf 100 FPS limitiert. Mit der 1080ti hab ich noch in FHD gezockt... auch auf 100FPS limitiert).
 
Kinkerlitzchen* schrieb:
Das Stromsparargument (bzw. Effizienz) ist für mich eines der wichtigsten Argumente beim Kauf von Hardware überhaupt.
Finde ich nicht. Meiner Meinung nach machen 100 - 200 Euro im Jahr mal gar keinen Unterschied. Ist aber nur meine Meinung. Das mag sich für den ein oder anderen dumm anhören, kann ich verstehen, aber: 200€ im Jahr mehr oder weniger merkt man doch nicht...

Kinkerlitzchen* schrieb:
neuen Reifensatz für meinen Civic kaufen.
Das allerdings ist gut. Also der Civic, fahre auch einen :) Leider mit einem "Motorschaden" nach der Garantie. Allerdings wurde aus Kulanz der Motor getauscht. Dafür mag ich Honda!
 
Wird mal wieder Zeit für neue PCs für mich und meine Frau (2500K/3570K mit Fury/HD7870).

9800X3D + RX 9070 XT für weniger als 1000 € im Sommerloch wären ein akzeptables Angebot, die Inflation der letzten Jahre mit eingerechnet.

Die letzten beiden Tage habe ich versucht, den 486DX2 80Mhz mit 16 MB Ram und 14 Zoll Röhrenmonitor wieder zum Laufen zu bringen. Aber offenbar ist die Festplatte hinüber (wird problemlos erkannt im externen Gehäuse an USB, aber weder TestDisk noch Disk Drill finden irgendwas außer defekter Sektoren und hört sich auch nicht gesund an). Monitor (Made in Finnland März 1994), Tastatur (Made in Germany), Grafikkarte (Made in USA) und der Rest funktionieren noch wunderbar. Warum hier im Forum tausende Beiträge zu Grafikkarten lesen, die zu den aktuellen Preisen völlig uninteressant sind. Da beschäftige ich mich lieber mit der Hardware, die eh schon herumsteht.

Aber RX 9070 (XT) - ganz klar die Highlights in diesem Jahr, wenn es um PC Hardware geht.

PS: Vor zwei Tagen der Bericht zur GTX Titan mit 12 GB VRAM war witzig. Da liefert die RX 9070 (XT) aber höhere FPS in aktuellen Spielen in 4K bei einem deutlich geringeren Preis. Also gute Mittelklasse reicht doch auch heute noch, vielmehr bekommt man jetzt sogar 4K Auflösung, wo vor 10 Jahren nicht mehr als Full HD möglich war.
 
II n II d II schrieb:
Bei der ordentlichen Vorstellung, die AMD da abliefert ist es umso ärgerlicher, dass es keine Highend Karten gibt.
War nicht was in der Gerüchteküche zu einer 9080 später dieses Jahr ? Gut wieder nur Gerüchte.
 
  • Gefällt mir
Reaktionen: GreenCourt und mannefix
Zurück
Oben