News Gerücht: AMD dementiert RX 9070 XT mit 32 GB, aber nicht 32 GB

@Abrexxes Dachte ich mir... Was macht ein "KI Filter" denn schlechter? Wo ist der Unterschied zu den klassischen Filter, die im Falle von MSAA halt zuerst das Bild deutlich in höherer Auflösung rendert und dann runterskaliert vs. dem Gegenteil?

Man muss sich das mal vor Augen führen:

Option A: ein Bild wird in einer nicht der Ausgabeauflösung entsprechenden Auflösung gerendert, dann mittels Algorithmen skaliert, damit es in der Ausgabeauflösung ausgegeben werden kann. Das ist MSAA

Option B: ein Bild wird in einer nicht der Ausgabeauflösung entsprechenden Auflösung gerendert, dann mittels Algorithmen skaliert, damit es in der Ausgabeauflösung ausgegeben werden kann. Das ist DLSS

Und jetzt kommst Du mit KI... ja, KI wurde verwendet, um die Algorithmen für DLSS zu "trainieren". Thats it. Du hast vermutlich absolut keine Ahnung, was hinter dem "non-KI Filter" steckt, oder? Was, wenn der auch über KI trainiert wurde? Teufelszeug...
 
  • Gefällt mir
Reaktionen: Sirhaubinger, aLanaMiau und prayhe
Habe mir zwar erst vor kurzem eine 9700XT geholt aber wenn die 9070 mit 32gb wirklich zu einem vernünftigen Preis kommt könnte ich schwach werden. Inzwischen verbringte ich fast so viel Zeit in SD wie in Spielen :)
Vorallem wird wohl auch der Stromverbrauch wesentlich niedriger sein als bei einer 5090 und die Linux Treiber sind sowieso angenehmer mit AMD.
 
Ich habe von KI keine Ahnung, deswegen die Frage: Braucht KI eher Speicher statt GPU Geschwindigkeit? Kommt zumindest so rüber.
 
@Pisaro Sie brauchen genug Speicher, und dann Geschwindigkeit. Ist das gleiche wie bei "klassischer" Grafik.

Für KI gilt: Das Modell muss komplett in den VRAM passen, sonst bremst PCIe die Karte aus.
Für Grafik gilt: Alle Texturen etc müssen komplett in den VRAM passen, sonst bremst PCIe die Karte aus.

Und auch hier gilt, höher aufgelöste Texturen sehen schöner aus, Modelle mit mehr Parametern liefern schönere Resultate. Die Grundprinzipien bleiben also erhalten, wie man sie schon immer kennt.
 
  • Gefällt mir
Reaktionen: Micha_80 und Pisaro
joel schrieb:
Naj, ganz so sehe ich das nicht.
Die für mich einzig interessante Graka wäre dann die 5070TI und die kostet jenseits von 800.- Euro.
Unter 16GB VRAM kaufe ich keine Graka mehr.

Alle Grakas unter 16GB VRAM werden (langfristig) Ladenhüter, und glaubt man den Interpretatoren des Elfenbeinturms wird FHD ganz aus der Empfehlung verschwinden.
(Wie ja bereits aus den Gametests ersichtlich.)

Die neue Einstiegsklasse für Gaming (mit der man geradeso vernünftig dabei ist) wird wohl die 9070 und die
5070(S) sein.

Nichts ist so beständig wie der Wandel, und der kommt gerade eben erst so richtig in fahrt!
Deine Meinungen und Behauptungen teile ich voll und ganz. Denn ich habe mittlerweile bei beiden Spielen, also Indiana Jones - The Golden Circle und Alan Wake 2, der VRAM von 16 GB meiner RTX 4080 S, fast vollständig belegt wird.

Mit dem Tool GPU-Z, konnte ich die peaks und die average Belegungen auslesen. Und beide zeigen mir über 13,8 GB peaks und im average über 11,4 GB VRAM an. Das ganze mit einer Auflösung UWQHD von 3440x1440 und vollen Details. Raytracing und Pathtracing ebenso aktiviert, auf Hoch oder Ultra.

Das Harrison Ford Game läuft butterweich und mit 100-135 FPS daher. Bei Alan Wake 2, sieht's aber schon ganz anders aus. Nur noch 60-120 FPS. Ohne irgendwelche technischen Helferlein, wie DLSS 3,5 oder FG, oder Ray Reconstruction. Aktiviere ich diese, bekomme die doppelten FPS.
Also 120-160. Teilweise aber auch wieder 60-70 FPS, die ich beim ersten Monster 💀 Boss bekam. Es war dunkel, im dichten Gestrüpp, mit allerlei Nebel und rotem Licht. Eine krasse Szene mit überladender grafischer Darstellung und schnellen Bewegungen, unter diesen Bedingungen, ist für die GPU Schwerstarbeit.
Ergänzung ()

joel schrieb:
Naj, ganz so sehe ich das nicht.
Die für mich einzig interessante Graka wäre dann die 5070TI und die kostet jenseits von 800.- Euro.
Unter 16GB VRAM kaufe ich keine Graka mehr.

Alle Grakas unter 16GB VRAM werden (langfristig) Ladenhüter, und glaubt man den Interpretatoren des Elfenbeinturms wird FHD ganz aus der Empfehlung verschwinden.
(Wie ja bereits aus den Gametests ersichtlich.)

Die neue Einstiegsklasse für Gaming (mit der man geradeso vernünftig dabei ist) wird wohl die 9070 und die
5070(S) sein.

Nichts ist so beständig wie der Wandel, und der kommt gerade eben erst so richtig in fahrt!
joel schrieb:
Naj, ganz so sehe ich das nicht.
Die für mich einzig interessante Graka wäre dann die 5070TI und die kostet jenseits von 800.- Euro.
Unter 16GB VRAM kaufe ich keine Graka mehr.

Alle Grakas unter 16GB VRAM werden (langfristig) Ladenhüter, und glaubt man den Interpretatoren des Elfenbeinturms wird FHD ganz aus der Empfehlung verschwinden.
(Wie ja bereits aus den Gametests ersichtlich.)

Die neue Einstiegsklasse für Gaming (mit der man geradeso vernünftig dabei ist) wird wohl die 9070 und die
5070(S) sein.

Nichts ist so beständig wie der Wandel, und der kommt gerade eben erst so richtig in fahrt!
Deine Meinungen und Behauptungen teile ich voll und ganz. Denn ich habe mittlerweile bei beiden Spielen, also Indiana Jones - The Golden Circle und Alan Wake 2, der VRAM von 16 GB meiner RTX 4080 S, fast vollständig belegt wird.

Mit dem Tool GPU-Z, konnte ich die peaks und die average Belegungen auslesen. Und beide zeigen mir über 13,8 GB peaks und im average über 11,4 GB VRAM an. Das ganze mit einer Auflösung UWQHD von 3440x1440 und vollen Details. Raytracing und Pathtracing ebenso aktiviert, auf Hoch oder Ultra.

Das Harrison Ford Game läuft butterweich und mit 100-135 FPS daher. Bei Alan Wake 2, sieht's aber schon ganz anders aus. Nur noch 60-120 FPS. Ohne irgendwelche technischen Helferlein, wie DLSS 3,5 oder FG, oder Ray Reconstruction. Aktiviere ich diese, bekomme die doppelten FPS.

Also 120-160. Teilweise aber auch wieder 60-70 FPS, die ich beim ersten Monster 💀 Boss bekam. Es war im dichten Gestrüpp, mit allerlei Nebel und rotem Licht. Eine krasse Szene mit überladender grafischer Darstellung und schnellen Bewegungen, unter diesen Bedingungen, ist für die GPU Schwerstarbeit. Der Verbrauch liegt bei 320-340 W bei AW2. Indi ist nicht so fordernd. Da nur 240-260 W.
 
Zuletzt bearbeitet:
Man kann es sich eigentlich relativ leicht selber ausrechnen, welchen preislichen Spielraum die 9070 AI/32GB nach oben hat vs 9070 XT:

GPU Hardware Requirements Guide for DeepSeek Models in 2025

Um das volle Deepseek Modell lokal betreiben zu können (ca. 1600GB VRAM), braucht man 50 GPUs mit 32GB VRAM.

in 9070 AI gerechnet sind das 1200 EUR (Preisschätzung des Leakers, inkl Scalping) x 50 = 60k EUR.
in 5090 gerechnet sind das schon im Bestcase (UVP) 2300 EUR x 50 = 115k EUR

Mit Profikarten wärs nochmal erheblich teuerer.

Aus Sicht VRAM = 32GB zieht die 9070 AI mit der 5090 gleich!
Das darf man nicht übersehen!
Und das rechtfertigt einen DEUTLICH höheren Preis für die 9070 AI.
Also,... wenn man wie in meinem Beispiel mit 1200 EUR rechnet, dann gibts da noch viiiel Spielraum nach oben, zumal meine Beispielrechnung davon ausgeht, dass man eine 5090 zum UVP bekommt, was für das komplette Jahr 2025 sehr unwahrscheinlich ist.

Also Straßenpreis der 9070 AI (oder wie auch immer sie genannt wird) kann sogar noch deutlich über 1200 EUR liegen.
Daher noch ein Argument mehr für die billigere 7900 XTX mit sogar mehr Leistung.

Ich denke, das ist auch der Grund, warum wir derzeit keine NVDA Karten in den Läden finden, die werden nämlich auf absehbare Zeit in 50er Paketen von Firmen vom Markt abgesaugt, bevor sie überhaupt für den Konsumenten erreichen können.


Mit der selben Rechnung kann man übrigends auch den "echten" Wert der 24 GB Karten (7900 XTX, 4090, 3090) aus Sicht des Betrieb einer AI grob ausrechnen:

Man braucht mindestens 67 24GB-Karten für den Betrieb des vollen Deepseek Modells (1600 GB RAM).

Also im Vergleich mit der 5090 zum UVP (und davon dann die Hälfte Abzug wegen schwächerer Leistung) hätte man dann folgende Rechnung

115000 EUR / 67 / 2 = 858 EUR

Sprich: würde man derzeit die 5090 zum UVP bekommen, wären die 24GB-Karten ca 858 EUR wert, wenn man damit ein halb so teueres System bauen würde.

Da die 5090 derzeit aber knapp 4000 EUR kostet, sieht die Rechnung derzeit so aus:

200000 EUR / 67 / 2 = 1492 EUR


Sprich der "Wert von 24 GB-Karten aus Sicht AI" ist ca 1500 EUR pro 24GB.
Somit ist die 7900 XTX tatsächlich ein Schnapper und der Preis wird sich vermutlich nach oben einpendeln.

Ist natürlich nur eine echt grobe grobe Schätzung.
Aber die Richtung des Preises für ALLE Karten mit 24GB VRAM ist damit eigentlich klar.

Man darf auch nicht vergessen, für viele Firmen/Programmierer ist die Performance erstmal gar nicht so wichtig!
In erster Linie ist es wichtig, dass Deekseep überhaupt erstmal läuft... wenn du z.B. eine mittelständige Softwarefirma hast und mit Deepseek deine Software bauen willst, dann machts kaum nen Unterschied, ob dein lokales Deepseek mit 1 Token / s läuft oder 100 token /s.
Du bist dann schon froh, wenn es überhaupt erstmal lokal und kostenlos läuft. Vielleicht bist du im Fall des Falles auch bereits dafür dann mehr die 50% des Preises zu zahlen, den das selbe System mit ner 5090 kosten würde, einfach weil die Personaleinsparungen alles wieder aufwiegen in kurzer Zeit.

Daher ist die Verfügbarkeit von ausreichend VRAM m.E. derzeit primäres Ziel und nicht unbedingt die Performance!

So gesehen ist die Strategie von AMD sogar extrem passend gewählt für Deepseek. Bzw. AMD hatte extremes Glück damit, dass mit Deepseek ein so effizientes Modell heraus kommt, dass ne relativ schwache Karte dafür absolut geeignet ist, so lang sie nur über viel VVRAM verfügt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SaoJoaoBatista und me@home
Unlimited1980 schrieb:
Um das volle Deepseek Modell lokal betreiben zu können (ca. 1600GB VRAM), braucht man 50 GPUs mit 32GB VRAM, in 9070 AI gerechnet sind das 1200 EUR x 50 = 60k EUR.
in 5090 gerechnet sind das schon im Bestcase (UVP) 2300 EUR x 50 = 115k EUR

Mit Profikarten wärs nochmal erheblich teuerer.
Tatsächlich nicht. Denn du musst die ganzen Karten ja auch irgendwo einbauen. Mit Profikarten brauchst du genau einen Server mit 8x MI300X. Der ist günstiger als einen Haufen Kisten mit schnellem Netzwerk hinzustellen, in die du Consumer-GPUs bauen kannst.

Die Idee deiner Überschlagsrechnung ist nicht verkehrt, aber das kannst du mit Modellen machen, die in 1-2 GPUs passen, nicht mit größeren. Denn mehr als das wirst du nicht sinnvoll auf dieser Basis skalieren können
 
  • Gefällt mir
Reaktionen: SaoJoaoBatista, Azdak, Apocalypse und eine weitere Person
stefan92x schrieb:
Die Idee deiner Überschlagsrechnung ist nicht verkehrt, aber das kannst du mit Modellen machen, die in 1-2 GPUs passen, nicht mit größeren. Denn mehr als das wirst du nicht sinnvoll auf dieser Basis skalieren können
Ja das ist halt die Frage... wie viele GPUs lassen sich sinnvoll in einem Consumer-System für AI betreiben... ;)
An dem Punkt ist das nur eine theor. Rechnung ohne echtes Praxiswissen.
Stimme dir zu!
Ergänzung ()

stefan92x schrieb:
Server mit 8x MI300X.
Also das mit den MI300X ist ein guter Punkt. Die sind ja sogar mit HBM extrem gut aufgestellt. 192GB Ram pro Stück, wenn ich das richtig sehe.
https://www.computerbase.de/news/gr...b-hbm3-und-153-milliarden-transistoren.84571/


Davon bräuchte man dann 9 Stück (das ist leider genau eins mehr, als in einem vollbestückten Instinct Plattform Server rein passt)!

Ein einzelner MI300X soll wohl 15k USD kosten.
Damit wäre man dann bei 135k USD ohne den Server.
Mh, ja hast recht, macht eigentlich so gesehen mehr Sinn als Alternative zu einem vergleichbaren System mit 5090... und v.A. auch wegen der krass besseren Leistung.
Interessant finde ich auch wie hier rein zufällig das Preisgefüge zwischen 5090 und MI300X grob passt!!


Schwer abzuwägen... sollte man etwas brauchbares mit Consumerhardware für 60-80k zusammenbauen können, wärs vielleicht doch für einige Mittelständler eine brauchbare Alternative!

FALLS man es sinnvoll betreiben kann mit 50 GPUs in einem System.

Safe ist es aber genau die rechnung, die wirklich kleine Mittelständler machen und dann 4 GPUs mit einem kleineren Deepseek modell betreiben.

Also 2-4 GPUs weiß ich safe, die laufen sehr sehr gut mit Deepseek!
 
Zuletzt bearbeitet:
Unlimited1980 schrieb:
Also das mit den MI300X ist ein guter Punkt. Die sind ja sogar mit HBM extrem gut aufgestellt. 192GB Ram pro Stück, wenn ich das richtig sehe.
Ich dachte tatsächlich schon an die neue MI325X mit 256GB. Da passt es dann wirklich und man braucht keine 9 Stück, mein Fehler.
Unlimited1980 schrieb:
Also 2-4 GPUs weiß ich safe, die laufen sehr sehr gut mit Deepseek!
Ja, das kann man sich noch in eine anständige große Workstation bauen. Bei allem darüber kommt man allein schon wegen des nötigen Netzwerks nicht an richtigen Servern vorbei.
 
  • Gefällt mir
Reaktionen: Unlimited1980
Also da hat AMD dann tatsächlich auf allen Ebenen der Wertschöpfungskette von der einzelnen GPU, bis zum Instict Server hoch ein jeweils perfekt passendes Produkt am Markt!!

Verrückt.

2025 könnte AMDs Jahr werden... ;)

Mal wieder.

Kennst du zufällig die Preise für so ein komplettes Instinct System?
Ich kann da leider absolut gar nichts dazu finden?
 
Artikel-Update: AMD hat in Person von Marketing-Direktor Frank Azor dementiert, dass es eine Radeon RX 9070 XT mit 32 GB Speicher geben wird. Das heißt nicht, dass RDNA 4 nicht mit 32 GB gekoppelt erscheinen wird, nur eben nicht unter diesem Namen. Azors Dementi lässt also weiterhin Raum für Spekulationen.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: BrollyLSSJ, DannyA4, MaverickM und eine weitere Person
Ich weiss wir lachen alle über AMDs Marketing, aber möglicherweise machen sie gerade etwas verdammt gut. Und wenn es nur versehendlich gut gemacht wurde, Ich bin wirklich auf ihre präsentation gespannt.
 
  • Gefällt mir
Reaktionen: DannyA4, fox40phil, Topflappen und eine weitere Person
Naja, ich hoffe mal, dass da was mit ordentlich VRAM kommt.

Das ist doch für viele das, wofür AMD bei den Grafikkarten so berühmt ist.

Für Leute die ihre Karte gerne länger nutzen möchten sind die 16 GB ein bischen knapp.
Meine 2080 Ti geht jetzt quasi ins 7te Jahr seit Release, und ich kann sie in 5120x1440 immer noch nutzen. Ohne ausreichend VRAM wäre schon früher Schluss gewesen.
Wenn man mal so überlegt, hat sich in der langen Zeit beim VRAM nicht allzu viel getan.

Naja, ich denke ja schon, dass man von AMD mehr an VRAM erwarten kann.
Zumal AMD ja auch in der Vergangenheit immer ein paar % mehr VRAM benötigte als Nvidia, auch wenn es nicht die Welt war.
 
Also ich fahr mit meienr 1070Ti 8gb problemlos WQHD. Ich denke Grundsätzlich reichen die 16 Gb wirklich. Ausnahemn wird es geben, aber nicht jeder will diese Ausnahmen auch Spielen. Aber ja, eine Karte mit 20 Gb wäre natürlich ein schmankerle extra für die zukunft, wenn man zu jenen gehört, die ihe Geräte lange halten.
 
  • Gefällt mir
Reaktionen: Monarch2 und Loopman
AMD hat in Person von Marketing-Direktor Frank Azor dementiert, dass es eine Radeon RX 9070 XT mit 32 GB Speicher geben wird.
Wäre richtig lustig wenn auf dem Event plötzlich kommt: "Wir haben gesagt eine 9070XT mit 32GB gibt es nicht, denn dafür haben wir die 9080XT mit echter 4090 Leistung für 999$".
 
  • Gefällt mir
Reaktionen: Raptor85, fox40phil, Unlimited1980 und eine weitere Person
MichaG schrieb:
Artikel-Update: AMD hat in Person von Marketing-Direktor Frank Azor dementiert, dass es eine Radeon RX 9070 XT mit 32 GB Speicher geben wird. Das heißt nicht, dass RDNA 4 nicht mit 32 GB gekoppelt erscheinen wird, nur eben nicht unter diesem Namen. Azors Dementi lässt also weiterhin Raum für Spekulationen.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]
Das ist ja mal ein verdammt überspezifisches Dementi...
 
  • Gefällt mir
Reaktionen: Captain Mumpitz, nato44, the_IT_Guy und eine weitere Person
@CDLABSRadonP... Allerdings. Ich gehe auch fest davon aus, dass die Radeon 9070XT die erwarteten 16GB bekommt. Und die Version mit 32GB halt anders heißen wird.
 
  • Gefällt mir
Reaktionen: DannyA4, fox40phil, Unlimited1980 und eine weitere Person
Zurück
Oben