News AMD Radeon RX 9070 (XT): Mehr Details und Hersteller-Benchmarks durchgestochen

OpenSystemFan schrieb:
Aber doch kein RT und alte Gen. 5070Ti gibt es für 1200. Ich hoffe auf günstige Preise, aber der Markt ist aktuell kaputt.
Wegen der 5070ti darauf zu schließen obwohl amd gute Preise angedeutet hat,die Leute kaufen keine Rx9070xt nur wegen etwas mehr rt Performance und zahlen dann 1000euro ,ich sehe einen Preis von 799 vielleicht teure 899 ,eher erstere die rx9070xt ist in der Herstellung günstiger durch mehrer Faktoren , vram, chipfläche und Speicheranbindung

https://www.pcgameshardware.de/Rade...281023/News/Leistung-Effizienz-Preis-1463013/

Dein einziges Argument ist der Preis der 5070ti und bis eine Karte wirklich Path tracing, in brauchbare Frames gibt dauert es noch ewig
 
Easy1991 schrieb:
Dein einziges Argument ist der Preis der 5070ti und bis eine Karte wirklich Path tracing, in brauchbare Frames gibt dauert es noch ewig
Ja, 10% unter 5070ti Leistung wird entsprechend bepreist. AMD könnte einen günstigeren UVP anstreben. Doch dann kommen noch die Händler und die Nachfrage ins Spiel. Es hängt halt viel von der Verfügbarkeit ab. Ein sSelbstläufer ist ein günstiger Preis halt nicht.
Ergänzung ()

EL-Xatrix schrieb:
ich glaube das wird besser, da ja teils schon karten seit anfang den jahres bei händlern liegen, haben die bis jetzt noch einiges zeit gehabt mehr für tag eins anzusammeln, und erwartungsgemäß vommarktanteil her wirds auch nicht ne halbe milion leute geben die an tag eins für die karte vor den shops steht...
I hope so...
 
  • Gefällt mir
Reaktionen: mydayyy
FrittiDeluxe schrieb:
Und den Umstand wird AMD auch künftig nur ändern können, wenn ihr GPU Angebot so gut ist, dass viele umsteigen (es geht nicht mal darum, dass AMD Käufer diese bleiben) und es eine breitere Masse an AMD Usern gibt, für die man auch in Spielen etwas umsetzen möchte als Entwickler.
Ihr vergesst weiterhin, dass eine ordentliche 8-stellige Anzahl an FSR-fähigen GPUs in der Welt rumstehen und stetig absatz finden.
 
Viper816 schrieb:
Ursprünglich hatte AMD doch ein Chiplet geplant, das aus dem Zusammenspiel von 2x (vermutlich) genau dieser Chiplets bestandt.
Navi 48 wurde als monolithischer Chip aufgelegt, nachdem die Chiplet-Varianten eingestellt wurden.
Navi48 ist und war nie dafür vorgesehenen, im Zusammenspiel mit einem anderen Chip zu arbeiten.

Salamimander schrieb:
Ich blicke bei dem Naming nicht mehr durch. Wieso kommt nach der 7xxx Serie jetzt eine 90x0 Serie und wieso ist die langsamer als die alte Serie? Irgendwo muss ich die Abfahrt verpasst haben :O
AMD passt den Namen an das Schema von Nvidia an. Die 8000er werden für die APUs genutzt.
AMD bringt diese Generation kein High-End, weil die Chiplet-Technik nicht wie gewünscht funktioniert. Deshalb kommt nur ein Nachfolger der 7700 XT / 7800 XT.
 
mfJade schrieb:
wäre cool wenn sie ne special Edition machen würden um die Legendäre 9700 zu würdigen
oder noch eine 9500 non XT, die man zur 907 XT unlocken könnte ;)
 
  • Gefällt mir
Reaktionen: Rockstar85 und Schumey
Northstar2710 schrieb:
Und wenn jetzt jemand mit zukunft sicherheit kommt sollte wissen die gibt es nicht.
doch. schon irgendwie. darum altern AMD grafikkarten so gut.
siehe zB die 3080. die karte könnte heute vermutlich einiges mehr leisten, wenn nicht die 10GB ausbremsen würden.
das ding kam zur selben zeit raus wie eine 6800 mit 16GB.. sogar die alte rx580 aus 2017 hatte schon 8GB

wer über 1000€ ausgibt und dafür nur 16GB VRAM bekommt muss sich doch vera****t vorkommen, vor allem, wenn NV ihr zeug für dinge verkaufen will, die VRAM fressen wie KI, RT und DLSS
 
  • Gefällt mir
Reaktionen: jo0 und mydayyy
Ich kann die ganzen für 500 oder 600 Euro hole ich mir die Karte Kommentare nur belächeln. Glaubt ihr allen ernstes AMD hat was zu verschenken? Ich würde mich da eher an die UVP von Nvidia in ähnlicher Leistungsklasse orientieren. Vielleicht ein paar Euro günstiger, mehr aber auch nicht. Für wieviel diese dann letztendlich angeboten wird ist natürlich unklar.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, edenjung, Medcha und eine weitere Person
longusnickus schrieb:
wer über 1000€ ausgibt und dafür nur 16GB VRAM bekommt muss sich doch vera****t vorkommen, vor allem, wenn NV ihr zeug für dinge verkaufen will, die VRAM fressen wie KI, RT und DLSS
Letzteres ist das Hauptproblem, sehe ich auch so. Ich bin nicht gegen die genannten Dinge, wenn die Bildqualität stimmt. FG setze ich auch super gerne ein.

ABER wenn die Rechenleistung dann weniger ein Problem ist, die Speicheranforderungen steigen und steigen. Und das Zeug kostet ja relativ gesehen "nüscht" im Vergleich zu den immer teureren Karten. Daher ist es so absurd. Wenn eine 5070ti für +1000Euro über den Tisch geht, kommt es auf den Hunderter für 24GB auch nicht mehr an.
 
schkai schrieb:
Ich kann die ganzen für 500 oder 600 Euro hole ich mir die Karte Kommentare nur belächeln. Glaubt ihr allen ernstes AMD hat was zu verschenken?
Eine Erwartungshaltung aus einer Aussage wie
Für ...€ wäre das Produkt interessant für mich und ich würde es kaufen
abzuleiten ist eine Missinterpretation.

Um 1000 € würde ich mir auch eine Luxusjacht leisten, aber erwarte ich auch, dass dieser Preisbereich eintreffen wird!?

Es sind leere Absichtsbekundungen, die sind statt zu belächeln höchstens nutzlos
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Loopman und schkai
Captain Mumpitz schrieb:
Ich bin richtig, richtig gespannt.
Leistung auf dem Niveau einer 7900GRE mit etwas Raytracing und brauchbarer Effizienz
Dito 9070 als Ersatz für meine 3060Ti wäre bei der Leistung wohl gesetzt. Ich hoffe ja, die XT kostet keine 799 USD
 
longusnickus schrieb:
siehe zB die 3080. die karte könnte heute vermutlich einiges mehr leisten, wenn nicht die 10GB ausbremsen würden.
das ding kam zur selben zeit raus wie eine 6800 mit 16GB.. sogar die alte rx580 aus 2017 hatte schon 8GB
Damals haben die 10, bzw. 12 ja gereicht, inzwischen ist die 3080 4,5 Jahre alt. Im Computerbase Test, bzw. Rangliste liegt sie gleichauf zur 6800xt, also quasi unverändert zum Release. Für mehr als WQHD ist die Karte, wie die 6800xt ja auch aufgrund des Alters nicht mehr wirklich geeignet, meinst du sie wäre mit mehr Vram jetzt eine schnellere WQHD Karte? Aus Interesse, wo bremsten die 10, bzw. 12 GB denn bei WQHD?
 
Stefan9 schrieb:
Man sollte die Stromkosten nicht vergessen ... und nicht nur auf den Kaufpreis/Performance schauen!!!
Beispielsweise 50W Mehrverbrauch bei 8h/Tag ontime macht in 5 Jahren immerhin ~250€ Mehrkosten aus!
Macht also bei realistisch 4h zocken ganze 0,2KWh oder 8 Cent bei derzeitigen Preisen von 41 cent... Ich bin erstaunt..
Die 50W Mehrverbrauch sind also nicht wirklich wichtig, wenn man schon eine 700€ GPU kauft
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, Shoryuken94 und Casillas
Apocalypse schrieb:
Wer bei die GPU auf den Strom schaut, der schaut in der Regel auch sonst drauf die kostengünstigste Dinge zu verwenden.
Hmm.. Kann man sich da sicher sein?

Apocalypse schrieb:
Kürzer duschen ist aber dann wiederum eine andere Baustelle. Das ist ja dann schon verzicht, davon war ja jetzt nicht die Rede, sondern nur beim kostenvergleich zwischen GPUs der selben Leistungsklasse, auch den Strom nicht zu vergessen. Also eben ohne Konsumverzicht, man kauft die Leistung die man gerne hätte und dann halt vom Anbieter der die am günstigens über die Laufzeit anbietet.

Ja klar ist kürzer duschen ne ganz andere Baustelle. Mir gings darum mal ein Verhältnis für Energieverbräuche aufzuzeigen. 1 Minute Duschen warm - Energiemenge = Energiemenge von 6 Stunden Zocken bei 50 Watt unterschied im Stromverbrauch. Duschen tut man in der Regel täglich (wo man dann auch wieder sehr schön Überleiten könnte, was das allg. Verhalten beim Verbrauch von Energie betrifft). 6 Stunden Zocken sicherlich nicht.

Kosten über Laufzeit. Klar kann man darüber diskutieren. Aber wiederum nicht, ohne den Kaufpreis ins Verhältnis zu setzen. siehe auch Beitrag #151 von @DevPandi
 
  • Gefällt mir
Reaktionen: Apocalypse und Rockstar85
Casillas schrieb:
Hmm.. Kann man sich da sicher sein?
Das es kaum einen Unterschied beim Geld macht hat CB ja selbst in den Tests schon raus gestellt. Die Abwärme ist das was mich eher stören würde, weil die Watt müssen ja abgeführt werden. Von daher verneine ich das mal^^
 
Pro_Bro schrieb:
Aus Interesse, wo bremsten die 10, bzw. 12 GB denn bei WQHD
Die 10GB bremsen bei einigen Spielen mittlerweile, 12GB eigentlich gar nicht, bzw nur in ganz wenigen Einzelfällen.
Ein richtiges Problem ist das aber erst seit Kurzem.
War es damals zu wenig: ja, ein bisschen
Sind heute 16GB zu wenig: ich denke nein, in 4-5 Jahren wird man mit 16GB noch kein Problem haben.
 
longusnickus schrieb:
siehe zB die 3080. die karte könnte heute vermutlich einiges mehr leisten, wenn nicht die 10GB ausbremsen würden.

Um dich mal zu erleuchten: Die 3080 gab es auch mit 12 GB.
 
Mich interessiert tatsächlich auch die Verfügbarkeit sehr. Ich kann das nicht richtig einschätzen, ob die 9070 XT wirklich so einfach und Richtung UVP zu kriegen sein wird.

Das einzige positive, was man ja auf jedenfall weiß, ist das, die seit Januar bei den Händlern sein soll.
 
  • Gefällt mir
Reaktionen: mydayyy
Zurück
Oben