News Radeon RX 9070 XT: Vorstellung am 28. Februar, Tests am 5., Handel am 6. MĂ€rz

Limonadenmann schrieb:
Denke ich werde auf eine Powercolor Reaper gehen. Komme jetzt langsam in das Alter wo Schluss mit RGB ist 😀
Bei mir wirds wohl die Karte die noch ins GehÀuse passt und die mit am leisesten ist. Wie die aussieht interessiert mich nicht da ich eh kein Glasfenster habe.
 
  • GefĂ€llt mir
Reaktionen: Micha_80 und Limonadenmann
Ich hoffe mal die Karten können wirklich noch mit den 5070ern mithalten. WĂ€re schon besser fĂŒr den Markt :D bin mal gespannt was hinsichtlich FSR und RT so geht.
 
test.png
Einige schreiben sie denken die neue Karte wÀre besser als die 7000er. Ich gehe mal stark davon aus dass die nicht mal meine 6000er (uv) schlÀgt. Mal sehen, von den Werten haut mich das alles nicht vom Hocker. Fakeframe aus wenn schon, als erstes sollte immer der native Leistungsunterschied dienen.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: - MechBuster -
Auf der Packung sieht man ganz klar:
64 Compute Units.
Damit sind die Grenzen dieser Karte auch klar abgesteckt!

Screenshot (2073).png
 
HasleRuegsau schrieb:
Das ist einfach immer noch zu teuer um dann auf DLSS, Gsync und RT zu verzichten...
G-sync? Es gibt schon lÀnger keine realen Vorteile mehr durch G-sync.
 
  • GefĂ€llt mir
Reaktionen: T-Bone, Perdakles, eXe777 und eine weitere Person
Die auf den Unboxed-Fotos abgebildete LĂ€nge von ~ 29cm ist interessant.
TÀte in mein GehÀuse passen, wenn es sich bestÀtigt.
MĂŒssten nur noch Preis u. Leistung passen...
 
Die Netzteilempfehlung auf der Verpackung der Red Devil ist schon etwas komisch. 900 W, wenn gleich eine 5090 FE mit 1.000 W empfohlen wird.
 
  • GefĂ€llt mir
Reaktionen: C4rp3di3m
@SKu Darauf wĂŒrde ich nicht viel geben. Hersteller (in diesem Fall ein Board Partner) wollen sich immer gegen den worst case rechtlich absichern und geben deshalb große Wattzahlen an, wahrscheinlich davon ausgehend, dass man ein billiges Netzteil gepaart mit einer stromhungrigen CPU hat und sowohl GPU also auch CPU stark ĂŒbertaktet.

Igor hatte meine ich zu den RTX3000er mal einen detaillierten Test mit diversen Netzteilen gemacht, welcher u.A. zeigte, dass meist viel weniger ausreicht, als der Hersteller angibt, um die Grafikkarte zu betreiben. In dem Falle musste das Netzteil qualitativ hochwertig genug sein, um die transienten Spikes der 3000er Serie anzufangen, die Dauerlast war nicht das Problem.
 
DaMuffinman schrieb:
@SKu Darauf wĂŒrde ich nicht viel geben. Hersteller (in diesem Fall ein Board Partner) wollen sich immer gegen den worst case rechtlich absichern und geben deshalb große Wattzahlen an, wahrscheinlich davon ausgehend, dass man ein billiges Netzteil gepaart mit einer stromhungrigen CPU hat und sowohl GPU also auch CPU stark ĂŒbertaktet.

Und dann gibt Nvidia bzw. die Boardpartner bei einem 600W Boliden nur 1.000W an? Zumal die kolportierten Topmodelle der 9070XT mit 3x8-PIN daherkommen und damit Max. 450W ziehen dĂŒrften.
 
SKu schrieb:
Die Netzteilempfehlung auf der Verpackung der Red Devil ist schon etwas komisch. 900 W, wenn gleich eine 5090 FE mit 1.000 W empfohlen wird.
Die empfohlene Netzteil GrĂ¶ĂŸe bei der
6900 war 1000 Watt bei i9 und 850 Watt mit Ryzen7
Finde jetzt 900 Watt nicht unbedingt seltsam
 
Quidproquo77 schrieb:
Ich wĂŒrde auch primĂ€r ein CPU Limit sehen.
So, ich hab es gestern Abend nicht mehr geschafft, aber heute Morgen und kann an der Stelle bei einer RTX 4090 weitgehend ein CPU-Limit ausschließen in 1080p bei Ultra-Einstellungen und DLSS-Quality. Ebenso mit FSR-Quality.

Bei 720p Minimale-Details, DLSS Ultra-Preformance und RT auf High - da RT auch auf die CPU geht zum Teil - erreicht ein 7800X3D bei mir 135 - 145 fps.

In 1080p mit den Ultra-Einstellungen und DLSS-Quality kommt die RTX 4090 am Ende auf 110 - 120 fps zum Ende.

Damit kann der 7800X3D ca. 20 - 22 % mehr FPS liefern, als die RTX 4090 an dieser Stelle am Ende wirklich umsetzten kann.

Es gibt - und das muss ich dazu aber auch schreiben - allerdings durchaus ein CPU-Limit - jedoch rennt eine 7900 XT - die ich zum GlĂŒck noch organisieren konnte, Nachbar sei dank - genau so an der Stelle in das gleiche CPU-Limit wie die RTX 4090, das betrifft vor allem das letzte 1/3 des Tests.

WĂŒrde die RTX 4090 in ein CPU-Limit allgemein laufen und von der CPU limitiert werden, wĂŒred ich mich in 1080p bei Ultra-Einstellungen deutlich nĂ€her an den Ergebnissen von 720p im gesamten Verlauf, nur bin ich das eben nicht.

Gleichzeitig, langweilt sich die RTX 4090 dennoch und genau das ist es, was ich meinte: Es kommen nicht genug Pixel und damit Warps zusammen. Erst ab 1440p kommt eine RTX 4090 "halbwegs" in Gang.
 
  • GefĂ€llt mir
Reaktionen: Obvision, C4rp3di3m, ETI1120 und eine weitere Person
Chismon schrieb:
Damit wirst Du nach aktuellen Preislistungen wohl eine RX 9070 bekommen, aber vermutlich keine RX 9070XT (dafĂŒr braucht es schon ĂŒber 800 Steine, wenn die Preise realistisch gelistet wurden und keine Platzhalterpreise sind), einen möglichen Scalperzuschlag nicht eingerechnet.
Notfalls muss ich dann so hoch gehen, aber man hofft natĂŒrlich, dass es eher maximal in Richtung 719€ - 739€ geht.
 
  • GefĂ€llt mir
Reaktionen: Unlimited1980 und Chismon
Ja so zwischen 700€ - 800€ fĂŒr eine RX 9070 XT, wĂ€re schon ein Traum, die Karte eignet sich nĂ€mlich perfekt fĂŒr 1080P 60 Hz, sodass man sie etwas lĂ€nger nutzen kann, als z.B. eine RTX 4060, RX 7700 XT oder eine Intel ARC B580, die wahrscheinlich nach 2 Jahren bei 20 FPS sind. Aber im beim Thema zu bleiben, ich denke, die Karte wird gescalpt wie die RTX 5000 Serie halt auch. Daher wird die Grafikkarte wahrscheinlich, die erste Zeit nicht fĂŒr den UVP zu bekommen sein.
 
FrittiDeluxe schrieb:
aber man hofft natĂŒrlich, dass es eher maximal in Richtung 719€ - 739€ geht.
Tja, verstĂ€ndlich, aber danach sieht es leider gar nicht aus, siehe neuer Preis-Leak zur XFX RX 9070 XT OC Magnetic Air, die vielleicht nicht das gĂŒnstigste Modell werden wird sondern eher in Richtung Topmodell geht, aber bei 849 US$ plus ca. 20% Steuer- und EU-Importaufschlag dĂŒrfte dann schon der Preis in der BRD bei ĂŒber 1000 Euro landen und mehr als 200 Euro Preisaufschlag gegenĂŒber den RX 9070XT Einsteiger-Custom-Modellen und Referenzmodellen fĂ€nde ich auch schwer vorstellbar.

So richtig passt diese Preisansetzung von AMD und (Exklusiv-)Boardpartnern m.E. nicht, um von nVidia Marktanteile gewinnen zu können, aber schauen wir 'mal.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Unlimited1980
Der Preis wÀre ein Brett und zwar im Negativen Sinne.
So kann man keine Marktanteile gewinnen.
 
  • GefĂ€llt mir
Reaktionen: Ituran
Abwarten und Tee trinken...
Der Artikel schreibt, dass es unklar ist ob, US-$ oder kanadische Dollar. Und wir wissen auch nicht, ob es ein Platzhalterpreis war oder nicht.

Man braucht nicht viel Fantasie, um zu erkennen, dass sich eine 9700xt fĂŒr 1000€ nicht verkaufen wird, solange eine 7900xtx mit mehr Leistung fĂŒr 900€ und weniger im Markt ist.

Mit der 5080 dĂŒrfte das auch nur funktionieren, weil die 4080S nicht mehr verfĂŒgbar ist und die Mengen der 5080 so gering sind. Selbst bei Nvidia wird man nicht sooo viele Verbohrte haben, die freiwillig 50% Aufpreis fĂŒr 10% Mehrleistung zur alten Generation zahlen.

edit: bei Videocardz ist nicht mehr die Rede von Kanadischen $
https://videocardz.com/pixel/xfx-ra...t-750-rx-9070-at-650-in-leaked-amazon-listing

Ich bekomme ein wenig das GefĂŒhl, die 7900xtx Tuf fĂŒr 839€ bei Alternate könnte ein sehr guter Deal gewesen sein :D
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Ituran und Unlimited1980
Tomsenq schrieb:
Aber was bringt einem das? Es ist doch nur Software emulation.
Naja definiere Software Emulation. Jeder Algorithmus benötigt Rechenleistung und abhĂ€ngig von der Funktion werden gemeinsam genutzte Hardwareeinheiten genutzt oder eben speziell fĂŒr Funktion X entworfene. DLSS/FSR/FG sind diesbezĂŒglich keine Exoten, denn es gibt auch außerhalb von diesen vieles, das ĂŒber die Softwareebene gesteuert wird, wenngleich sie letzten Endes auch auf der GPU-Hardware laufen, wie z.B. anisotropisches filtern (und deren Stufen) oder Anti-Aliasing samt ihren verschiedenen Methoden, Shadow Mapping, Ambient Occlusion. Sie alle zusammen ergeben ein modernes Featureset, was eine GPU-Hardware beherrscht und in ihrer Leistung gemessen wird. Dass man letztere mittestet und ersteres wiederum völlig ignorieren soll, ergibt halt wenig sinn, insbesondere weil auch die modernen Upscaler und Frame Generator immer mehr an QualitĂ€t und Verbreitung gewinnen. AA war frĂŒher(tm) auch ziemlich miserabel und teuer, Tesselation hat dazumal viele GPUs in die Knie gezwungen usw.

Der grĂ¶ĂŸte Mangel bei DLSS & Co. liegt noch in der Vergleichbarkeit zwischen den proprietĂ€ren Techniken bzw. den Herstellern und den GPU Generationen. Ein weiterer Aspekt ist, dass eben noch lĂ€ngst nicht jedes Spiel diese Featuresets unterstĂŒtzt oder auch vom Nutzer in Anspruch genommen werden möchte.

Benchmarks ausschließlich mit DLSS/FSR/FG durchzufĂŒhren wĂ€re somit falsch. Falsch wĂ€re aber auch, dass man es ausschließlich ohne diese Techniken durchfĂŒhrt und so tut, als gĂ€be es das alles gar nicht oder als wĂŒrde es nirgends etwas bringen. Man braucht halt beides. Gerade DLSS oder FSR mit Preset nativ bringt oftmals die bessere BildqualitĂ€t, weil auf dieser Stufe das bessere Anti-Aliasing zur Geltung kommt. Niedrigere Presets sind auch interessant fĂŒr alle, die einfach mehr fps wollen oder vielleicht erst dadurch ein Spiel ĂŒberhaupt spielbar wird. Frame Generation bringt den Vorteil, dass man trotz CPU-Limit höhere Bildraten erreichen kann, wenngleich die Grundvoraussetzung dafĂŒr ohnehin relativ hoch ist. All das sind Szenarien, die fĂŒr viele Anwender eben interessant sind und einen Nutzen bringen können.

TLDR; Benchmarks sollten mit und ohne Upscaling sowie Frame Generation durchgefĂŒhrt werden.
 
  • GefĂ€llt mir
Reaktionen: Unlimited1980 und Micha_80
ZurĂŒck
Oben