News Radeon RX 9070 XT: Vorstellung am 28. Februar, Tests am 5., Handel am 6. März

Humane Preise, die ich bereit wäre zu zahlen.
Danke AMD, Leistung wird passen.
Die scheiß Leaker müssen natürlich wieder für ihre nutzlosen 5 Klicks und möchtegern Ruhm rumspoilern.
Frage bleibt ja nur, obs genau so ein peinlicher Paperlaunch wird, wie bei Fail nVidia, oder ob genug Karten da sind zum Start.

Weiss man eigentlich schon was offizielles zum Stecker? Also 12vHPWR Schrott oder solide Molex Stecker?
Habs nur überflogen, weil ich mich von Leaker Schrott nicht spoilern möchte. Deshalb bitte Nachsicht, wenns im Artikel vorkommt.
 
  • Gefällt mir
Reaktionen: RaptorTP
Also entweder wird das laut dem Benchmark eine der besten GPUs seit langem von AMD oder das waren schlicht nicht die qualitativ besten Einstellungen neben FSR/FSR FG.^^

Das sie die GPU mit einer Intel CPU getestet haben ist auch etwas merkwürdig wie zuvor schon hier geschrieben wurde.^^
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich warte erstmal darauf, ob die AMD-GPU auch so eine kaputtgesparte Energieversorgung hat, wie die Nvidia-Karten.
Dann verzichte ich auf das Brandrisiko nämlich lieber vollständig.
 
  • Gefällt mir
Reaktionen: OSx86 und Mcr-King
Ob das so toll ist, dass diese Karten auf PCIe 5.0 setzen, hmm 🤔

Einerseits weil es den Karten kaum bis gar nicht helfen wird, gibt ja genug Tests diesbezüglich, wo selbst die deutlich schnellere 5090 nur ein Prozent mit 4.0 verliert.

Andererseits weil es wenig versierte, was die große Mehrheit bildet, verunsichert und tendenziell eher nicht kauft, zumindest keine Impulskäufe, sieht man ja schon an der Verunsicherung bei Nvidia Karten bezüglich den neuen Steckern/Kabeln, alles neue benötigt ihre Zeit.

Aufrüster älterer Systeme hemmt dies eher, man darf nicht vergessen, der Artikel kam erst vor kurzem, wo AMD mitteilte, dass AMDs CPU-Verkäufe heute noch fast 50% auf AM4 entfällt, wo es nicht nur Nutzer mit PCIe 4.0 gibt sondern auch viele mit PCIe 3.0, bei 3.0 bremst es nicht nur ein wenig messbar sondern auch gefühlt.
 
Hier mal zum Vergleich meine ASRock Taichi 7900XTX in 1920 x 1080 / FSR / FG / Ultra mit Max Boost ca 3030 Mhz

Screenshot 2025-02-14 001935.png
 
  • Gefällt mir
Reaktionen: Ituran, floTTes, CadillacFan77 und 9 andere
c4rD1g4n schrieb:
Was ist das für ein Deutsch, bitte?
Oder lese ich falsch?
Jedenfalls dann zumindest missverständlich.

Radeon RX 9070 XT: AMD liefert Termin, einen Screenshot, Eckdaten und Benchmark

Aber wie gesagt, vielleicht soll es ja auch bedeuten "Ein Screenshot Eckdaten", so wie z.B. "Eine Portion Pommes" oder "Eine Tüte Milch" :rolleyes:

Aber selbst dann sollte es doch heißen "einen Screenshot Eckdaten"
Es ist doch offensichtlich dass in dieser news zwei Dinge die nicht zusammengehören behandelt werden:
  1. David McAfee (AMD) nennt den Termin für die Vorstellung der RX9070XT und RX9070
  2. Und HKPEC (nicht AMD) liefert mit ein Screenshot liefert die Eckdaten zur 9070XT und einen nichts sagenden Benchmark
Die Überschrift ist richtig formuliert, aber ein Semikolon dazwischen wäre deutlicher gewesen.

usernamehere schrieb:
Ich denke, wer mit maximal 15-20% Leistungsvorsprung bei 10-15% mehr Geld gegenüber der 7800XT rechnet, wird gut dabei sein. Alles andere würde mich doch sehr überraschen, außer die Karte kostet auf einmal doch massiv mehr.
AMD wird hier die Karten einfach wieder an Nvidia ausrichten, kaum Marktanteile dazugewinnen, da sie keinen, oder nur einen Nischen-, Vorteil fürs selbe Geld bieten und repeat.
Kann sein muss aber nicht.
AMD hat alles getan um unnötige Kosten zu vermeiden. Das bringt Spielraum.
usernamehere schrieb:
Lasse mich gerne bei Release vom Gegenteil überzeugen, aber wenn sie sich auf den Folien schon mit RTX 4000 gemessen haben (und die gleichbedeutend sind mit RTX 5000), lässt das für mich einfach fast alle Hoffnungen zerplatzen.
AMD hat gar nichts zur Performance gesagt. Sie haben lediglich eine Folie gezeigt wie sie die Karten platzieren wollen gezeigt. Jetzt kann man weiter rätseln, hat AMD die Performance oder den Preis gemeint?

Sollte der Screenshot authentisch sein gab es in der einiges an Änderungen bei RDNA4:
Die RX7800XT hatte 240 TMU und 96 ROP bei 3840 Shader/60 CU
Die RX9070XT hat 256 TMU und 64 ROP bei 4096 Shader/64 CU

Das würde darauf hindeuten dass AMD die ROP deutlich umgebaut hat. Und da fällt mir immer wieder der Artikel von @DevPandi ein. Hier mutmaßt @DevPandi , das Problem von RDNA 3 könnte in den ROP liegen. Bei RDNA 3.5 hat AMD im übrigen die Anzahl der ROPs verdoppelt.
 
  • Gefällt mir
Reaktionen: mydayyy, Teeschlürfer, H1ldegunst und 7 andere
Und AMD wird trotzdem die Nachfrage, die nGreedia erzeugt nicht befriedigen können wetten?
Und dann sind wir wieder beim selben Verhältnis wie immer. Keiner kann liefern, KEINER zum an
sich angedachten Preis und dann laufen Sie wieder alle nGreedia hinterher weil deren fake Frames
ja so viel besser sind als AMDs fake Frames und dann halt lieber auf eine überteuerte nGreedia
Karte gewartet wird statt auf eine (hoffentlich) nicht ganz so sehr überteuerte AMD Karte zu warten.
 
  • Gefällt mir
Reaktionen: Ituran, modena.ch, OSx86 und 2 andere
Zu herrlich: Es wird keine 9070 XT mit 32GB VRAM geben:
https://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=2672042&pid=56684677

Spaß: die Karte heißt dann halt 9070 AI
:D :D
Ergänzung ()

Stahlseele schrieb:
Und AMD wird trotzdem die Nachfrage, die nGreedia erzeugt nicht befriedigen können wetten?
1000% Zustimmung, genauso wird es kommen!!
M.W. hat AMD doch zuletzt eh bissle Probleme gehabt das Produktionskontigent in den guten Prozessen bei TSMC zu buchen? Oder hab ich da was falsch in Erinnerung?
 
ETI1120 schrieb:
Es ist doch offensichtlich dass in dieser news zwei Dinge die nicht zusammengehören behandelt werden:
  1. David McAfee (AMD) nennt den Termin für die Vorstellung der RX9070XT und RX9070
  2. Und HKPEC (nicht AMD) liefert mit ein Screenshot liefert die Eckdaten zur 9070XT und einen nichts sagenden Benchmark
Die Überschrift ist richtig formuliert, aber ein Semikolon dazwischen wäre deutlicher gewesen.
Ahhh....jetzt dämmert's :D

"AMD liefert Termin"
"Ein Screenshot (die) Eckdaten und Benchmark"

Nuja....trotzdem etwas unglücklich...
 
  • Gefällt mir
Reaktionen: mydayyy und Kai85
Mit 700USD (bzw. über 800€) würde es also kein Kräftemessen über den Preis werden ich bin gespannt mit was AMD hier die 5070Ti anzugreifen versucht (außer besserer Verfügbarkeit am Anfang).
Eine überschaubar höhere Rasterleistung und dadurch vergleichbar hohe RT Leistung ist zwar gut wird aber bei einem vergleichbaren Preis imo nicht reichen um DLSS4 Auszugleichen - selbst dann nicht, wenn FSR4 nicht mehr in vielen Situationen wie ein Unfall aussieht...


Prinzipiell hatte ich Gehofft dass sie günstiger wird (nicht mal weil ich sie mir vermutlich geholt hätte wenn sie bei 600USD liegen würde, wenn dass das Hauptverkaufsargument wäre) sondern aus dem Perfiden Grund heraus, dass eine attraktive 9070XT die zu erwartende Knappheit bei der 5070Ti am Anfang deutlich verkürzen könnte.
 
Gravlens schrieb:
Das sie die GPU mit einer Intel CPU getestet haben ist auch etwas merkwürdig wie zuvor schon hier geschrieben wurde.^^

Der Screenshot stammt ja auch nicht von AMD.
 
Hmm, mit OC schneller als eine 5090...da gibt's dann in Kürze immerhin reichlich verfügbare 5090... ;)
 
pioneer3001 schrieb:
Wo kommt eigentlich der Bullshit her die Radeon RX 9070 XT würde es mit einer Geforce RTX 4080 Super aufnehmen wollen?

FP32-ALUsRT-KerneBoost Clock [MHz]
Geforce RTX 4080 Super10240802550
Geforce RTX 4070 Ti Super8448662610
Radeon RX 9070 XT4096*(1)64 *(2)3100 *(3)
*(1) = Gerücht laut Screenshot 4096, aber für GFlops zählt das bei Radeon RX 7000 wie 8192. Vermutlich also auch bei Radeon RX 9000er.
*(2) = Gerücht laut Computerbase
*(3) = Gerücht laut Screenshot


Die Konkurrenz der Radeon RX 9070 XT ist wohl eher Geforce RTX 4070 Ti Super. Die Frage ist nur ob die RT-Kerne nicht nur gleiche FPS in RT, sonder auch in PT liefern können. Denn bislang schaft selbst eine Radeon RX 7900 XTX lächerliche 10,6 FPS (1440p nativ) bei Cyberpunk 2077 mit PT geboten für derzeit 899 Euro im Preisvergleich (bei Mindfactory). Eine 4080 (nicht SUPER) schaft 32,1 FPS und eine 4070 Ti (nicht Super) schaft 24,7 FPS.

https://www.computerbase.de/artikel...2/#abschnitt_benchmarks_in_nativer_aufloesung

PS: Intels Arc-Geige A770 schaft nur 3,3 FPS.

PS2: Ich weiss jetzt wo ich den BS gelesen habe. Im Artikel von Tom's Hardware zu dem selben Screenshot (steht im letzten Abschnitt): https://www.tomshardware.com/pc-com...ram-3-1-ghz-boost-clocks-and-pcie-5-0-support
In dem von dir verlinkten Link steht, dass die 9070XT es in RASTERleistung mit der 4080/S aufnehmen kann/könnte. Da steht nix von PT oder sonstigem Gedöns.
 
Letztendlich entscheidet allein Preis/ Leistung. Ich will Mitte des Jahres ein neues System hinstellen. Ich hoffe bis dahin haben sich die Preise normalisiert und die Verfügbarkeit ist gegeben. Ansonsten läuft das alte System halt noch einmal ein Jahr. Etwas mehr Leistung - speziell bei der Grafikkarte - wäre aber schon nicht verkehrt...
 
  • Gefällt mir
Reaktionen: mydayyy
Die Einschätzung das die 9070XT der 4080super in Raster entspricht stammt von einem der allerersten Benchmark leaks Anfang Jänner von Chiphell (von dem User der dort die Reviews der Karten schreibt) wo für Black Myth die 4080s mit 33/77/99 fps bei 4k/2k/1k angegeben wurde, die 4070ti super mit 28/67/87 fps und AMD-XT mit 30/73/97 fps, mit dem Hinweis das es kein offizieller Treiber ist
 
  • Gefällt mir
Reaktionen: danyundsahne
Balikon schrieb:
worauf die Mär von AMDs "Fine Wine" basiert.
Ja. Eine Mär ist das. Früher(tm) war das auch zu treffend (z.B. Volcan Island) aber eine 7800xt reift erstaunlich schlecht im Vergleich zu einer 4070. hatte mich nach dem Release zwischen beiden entschieden müssen und es war denkbar knapp. Ich wollte AMD den Vorzug geben, aber die Leistungsaufnahme ging gar nicht für die Leistung. Damals war die 7800xt meist 1-3 % schneller, heute meist langsamer, teils deutlich. Eigentlich hätte ich gerne nach 7 Jahren wieder eine AMD gehabt, da ich die Lederjacke nicht mag. Die 4070 ist erst meine 3. Nvidia Karte in 30 Jahren.
 
  • Gefällt mir
Reaktionen: Balikon
Zurück
Oben