Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gerücht: AMD dementiert RX 9070 XT mit 32 GB, aber nicht 32 GB
- Ersteller MichaG
- Erstellt am
- Zur News: Gerücht: AMD dementiert RX 9070 XT mit 32 GB, aber nicht 32 GB
@Abrexxes Dachte ich mir... Was macht ein "KI Filter" denn schlechter? Wo ist der Unterschied zu den klassischen Filter, die im Falle von MSAA halt zuerst das Bild deutlich in höherer Auflösung rendert und dann runterskaliert vs. dem Gegenteil?
Man muss sich das mal vor Augen führen:
Option A: ein Bild wird in einer nicht der Ausgabeauflösung entsprechenden Auflösung gerendert, dann mittels Algorithmen skaliert, damit es in der Ausgabeauflösung ausgegeben werden kann. Das ist MSAA
Option B: ein Bild wird in einer nicht der Ausgabeauflösung entsprechenden Auflösung gerendert, dann mittels Algorithmen skaliert, damit es in der Ausgabeauflösung ausgegeben werden kann. Das ist DLSS
Und jetzt kommst Du mit KI... ja, KI wurde verwendet, um die Algorithmen für DLSS zu "trainieren". Thats it. Du hast vermutlich absolut keine Ahnung, was hinter dem "non-KI Filter" steckt, oder? Was, wenn der auch über KI trainiert wurde? Teufelszeug...
Man muss sich das mal vor Augen führen:
Option A: ein Bild wird in einer nicht der Ausgabeauflösung entsprechenden Auflösung gerendert, dann mittels Algorithmen skaliert, damit es in der Ausgabeauflösung ausgegeben werden kann. Das ist MSAA
Option B: ein Bild wird in einer nicht der Ausgabeauflösung entsprechenden Auflösung gerendert, dann mittels Algorithmen skaliert, damit es in der Ausgabeauflösung ausgegeben werden kann. Das ist DLSS
Und jetzt kommst Du mit KI... ja, KI wurde verwendet, um die Algorithmen für DLSS zu "trainieren". Thats it. Du hast vermutlich absolut keine Ahnung, was hinter dem "non-KI Filter" steckt, oder? Was, wenn der auch über KI trainiert wurde? Teufelszeug...
Habe mir zwar erst vor kurzem eine 9700XT geholt aber wenn die 9070 mit 32gb wirklich zu einem vernünftigen Preis kommt könnte ich schwach werden. Inzwischen verbringte ich fast so viel Zeit in SD wie in Spielen 
Vorallem wird wohl auch der Stromverbrauch wesentlich niedriger sein als bei einer 5090 und die Linux Treiber sind sowieso angenehmer mit AMD.

Vorallem wird wohl auch der Stromverbrauch wesentlich niedriger sein als bei einer 5090 und die Linux Treiber sind sowieso angenehmer mit AMD.
@Pisaro Sie brauchen genug Speicher, und dann Geschwindigkeit. Ist das gleiche wie bei "klassischer" Grafik.
Für KI gilt: Das Modell muss komplett in den VRAM passen, sonst bremst PCIe die Karte aus.
Für Grafik gilt: Alle Texturen etc müssen komplett in den VRAM passen, sonst bremst PCIe die Karte aus.
Und auch hier gilt, höher aufgelöste Texturen sehen schöner aus, Modelle mit mehr Parametern liefern schönere Resultate. Die Grundprinzipien bleiben also erhalten, wie man sie schon immer kennt.
Für KI gilt: Das Modell muss komplett in den VRAM passen, sonst bremst PCIe die Karte aus.
Für Grafik gilt: Alle Texturen etc müssen komplett in den VRAM passen, sonst bremst PCIe die Karte aus.
Und auch hier gilt, höher aufgelöste Texturen sehen schöner aus, Modelle mit mehr Parametern liefern schönere Resultate. Die Grundprinzipien bleiben also erhalten, wie man sie schon immer kennt.
SaoJoaoBatista
Cadet 3rd Year
- Registriert
- Aug. 2018
- Beiträge
- 55
Deine Meinungen und Behauptungen teile ich voll und ganz. Denn ich habe mittlerweile bei beiden Spielen, also Indiana Jones - The Golden Circle und Alan Wake 2, der VRAM von 16 GB meiner RTX 4080 S, fast vollständig belegt wird.joel schrieb:Naj, ganz so sehe ich das nicht.
Die für mich einzig interessante Graka wäre dann die 5070TI und die kostet jenseits von 800.- Euro.
Unter 16GB VRAM kaufe ich keine Graka mehr.
Alle Grakas unter 16GB VRAM werden (langfristig) Ladenhüter, und glaubt man den Interpretatoren des Elfenbeinturms wird FHD ganz aus der Empfehlung verschwinden.
(Wie ja bereits aus den Gametests ersichtlich.)
Die neue Einstiegsklasse für Gaming (mit der man geradeso vernünftig dabei ist) wird wohl die 9070 und die
5070(S) sein.
Nichts ist so beständig wie der Wandel, und der kommt gerade eben erst so richtig in fahrt!
Mit dem Tool GPU-Z, konnte ich die peaks und die average Belegungen auslesen. Und beide zeigen mir über 13,8 GB peaks und im average über 11,4 GB VRAM an. Das ganze mit einer Auflösung UWQHD von 3440x1440 und vollen Details. Raytracing und Pathtracing ebenso aktiviert, auf Hoch oder Ultra.
Das Harrison Ford Game läuft butterweich und mit 100-135 FPS daher. Bei Alan Wake 2, sieht's aber schon ganz anders aus. Nur noch 60-120 FPS. Ohne irgendwelche technischen Helferlein, wie DLSS 3,5 oder FG, oder Ray Reconstruction. Aktiviere ich diese, bekomme die doppelten FPS.
Also 120-160. Teilweise aber auch wieder 60-70 FPS, die ich beim ersten Monster 💀 Boss bekam. Es war dunkel, im dichten Gestrüpp, mit allerlei Nebel und rotem Licht. Eine krasse Szene mit überladender grafischer Darstellung und schnellen Bewegungen, unter diesen Bedingungen, ist für die GPU Schwerstarbeit.
Ergänzung ()
joel schrieb:Naj, ganz so sehe ich das nicht.
Die für mich einzig interessante Graka wäre dann die 5070TI und die kostet jenseits von 800.- Euro.
Unter 16GB VRAM kaufe ich keine Graka mehr.
Alle Grakas unter 16GB VRAM werden (langfristig) Ladenhüter, und glaubt man den Interpretatoren des Elfenbeinturms wird FHD ganz aus der Empfehlung verschwinden.
(Wie ja bereits aus den Gametests ersichtlich.)
Die neue Einstiegsklasse für Gaming (mit der man geradeso vernünftig dabei ist) wird wohl die 9070 und die
5070(S) sein.
Nichts ist so beständig wie der Wandel, und der kommt gerade eben erst so richtig in fahrt!
Deine Meinungen und Behauptungen teile ich voll und ganz. Denn ich habe mittlerweile bei beiden Spielen, also Indiana Jones - The Golden Circle und Alan Wake 2, der VRAM von 16 GB meiner RTX 4080 S, fast vollständig belegt wird.joel schrieb:Naj, ganz so sehe ich das nicht.
Die für mich einzig interessante Graka wäre dann die 5070TI und die kostet jenseits von 800.- Euro.
Unter 16GB VRAM kaufe ich keine Graka mehr.
Alle Grakas unter 16GB VRAM werden (langfristig) Ladenhüter, und glaubt man den Interpretatoren des Elfenbeinturms wird FHD ganz aus der Empfehlung verschwinden.
(Wie ja bereits aus den Gametests ersichtlich.)
Die neue Einstiegsklasse für Gaming (mit der man geradeso vernünftig dabei ist) wird wohl die 9070 und die
5070(S) sein.
Nichts ist so beständig wie der Wandel, und der kommt gerade eben erst so richtig in fahrt!
Mit dem Tool GPU-Z, konnte ich die peaks und die average Belegungen auslesen. Und beide zeigen mir über 13,8 GB peaks und im average über 11,4 GB VRAM an. Das ganze mit einer Auflösung UWQHD von 3440x1440 und vollen Details. Raytracing und Pathtracing ebenso aktiviert, auf Hoch oder Ultra.
Das Harrison Ford Game läuft butterweich und mit 100-135 FPS daher. Bei Alan Wake 2, sieht's aber schon ganz anders aus. Nur noch 60-120 FPS. Ohne irgendwelche technischen Helferlein, wie DLSS 3,5 oder FG, oder Ray Reconstruction. Aktiviere ich diese, bekomme die doppelten FPS.
Also 120-160. Teilweise aber auch wieder 60-70 FPS, die ich beim ersten Monster 💀 Boss bekam. Es war im dichten Gestrüpp, mit allerlei Nebel und rotem Licht. Eine krasse Szene mit überladender grafischer Darstellung und schnellen Bewegungen, unter diesen Bedingungen, ist für die GPU Schwerstarbeit. Der Verbrauch liegt bei 320-340 W bei AW2. Indi ist nicht so fordernd. Da nur 240-260 W.
Zuletzt bearbeitet:
Unlimited1980
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 1.014
Man kann es sich eigentlich relativ leicht selber ausrechnen, welchen preislichen Spielraum die 9070 AI/32GB nach oben hat vs 9070 XT:
GPU Hardware Requirements Guide for DeepSeek Models in 2025
Um das volle Deepseek Modell lokal betreiben zu können (ca. 1600GB VRAM), braucht man 50 GPUs mit 32GB VRAM.
in 9070 AI gerechnet sind das 1200 EUR (Preisschätzung des Leakers, inkl Scalping) x 50 = 60k EUR.
in 5090 gerechnet sind das schon im Bestcase (UVP) 2300 EUR x 50 = 115k EUR
Mit Profikarten wärs nochmal erheblich teuerer.
Aus Sicht VRAM = 32GB zieht die 9070 AI mit der 5090 gleich!
Das darf man nicht übersehen!
Und das rechtfertigt einen DEUTLICH höheren Preis für die 9070 AI.
Also,... wenn man wie in meinem Beispiel mit 1200 EUR rechnet, dann gibts da noch viiiel Spielraum nach oben, zumal meine Beispielrechnung davon ausgeht, dass man eine 5090 zum UVP bekommt, was für das komplette Jahr 2025 sehr unwahrscheinlich ist.
Also Straßenpreis der 9070 AI (oder wie auch immer sie genannt wird) kann sogar noch deutlich über 1200 EUR liegen.
Daher noch ein Argument mehr für die billigere 7900 XTX mit sogar mehr Leistung.
Ich denke, das ist auch der Grund, warum wir derzeit keine NVDA Karten in den Läden finden, die werden nämlich auf absehbare Zeit in 50er Paketen von Firmen vom Markt abgesaugt, bevor sie überhaupt für den Konsumenten erreichen können.
Mit der selben Rechnung kann man übrigends auch den "echten" Wert der 24 GB Karten (7900 XTX, 4090, 3090) aus Sicht des Betrieb einer AI grob ausrechnen:
Man braucht mindestens 67 24GB-Karten für den Betrieb des vollen Deepseek Modells (1600 GB RAM).
Also im Vergleich mit der 5090 zum UVP (und davon dann die Hälfte Abzug wegen schwächerer Leistung) hätte man dann folgende Rechnung
115000 EUR / 67 / 2 = 858 EUR
Sprich: würde man derzeit die 5090 zum UVP bekommen, wären die 24GB-Karten ca 858 EUR wert, wenn man damit ein halb so teueres System bauen würde.
Da die 5090 derzeit aber knapp 4000 EUR kostet, sieht die Rechnung derzeit so aus:
200000 EUR / 67 / 2 = 1492 EUR
Sprich der "Wert von 24 GB-Karten aus Sicht AI" ist ca 1500 EUR pro 24GB.
Somit ist die 7900 XTX tatsächlich ein Schnapper und der Preis wird sich vermutlich nach oben einpendeln.
Ist natürlich nur eine echt grobe grobe Schätzung.
Aber die Richtung des Preises für ALLE Karten mit 24GB VRAM ist damit eigentlich klar.
Man darf auch nicht vergessen, für viele Firmen/Programmierer ist die Performance erstmal gar nicht so wichtig!
In erster Linie ist es wichtig, dass Deekseep überhaupt erstmal läuft... wenn du z.B. eine mittelständige Softwarefirma hast und mit Deepseek deine Software bauen willst, dann machts kaum nen Unterschied, ob dein lokales Deepseek mit 1 Token / s läuft oder 100 token /s.
Du bist dann schon froh, wenn es überhaupt erstmal lokal und kostenlos läuft. Vielleicht bist du im Fall des Falles auch bereits dafür dann mehr die 50% des Preises zu zahlen, den das selbe System mit ner 5090 kosten würde, einfach weil die Personaleinsparungen alles wieder aufwiegen in kurzer Zeit.
Daher ist die Verfügbarkeit von ausreichend VRAM m.E. derzeit primäres Ziel und nicht unbedingt die Performance!
So gesehen ist die Strategie von AMD sogar extrem passend gewählt für Deepseek. Bzw. AMD hatte extremes Glück damit, dass mit Deepseek ein so effizientes Modell heraus kommt, dass ne relativ schwache Karte dafür absolut geeignet ist, so lang sie nur über viel VVRAM verfügt.
GPU Hardware Requirements Guide for DeepSeek Models in 2025
Um das volle Deepseek Modell lokal betreiben zu können (ca. 1600GB VRAM), braucht man 50 GPUs mit 32GB VRAM.
in 9070 AI gerechnet sind das 1200 EUR (Preisschätzung des Leakers, inkl Scalping) x 50 = 60k EUR.
in 5090 gerechnet sind das schon im Bestcase (UVP) 2300 EUR x 50 = 115k EUR
Mit Profikarten wärs nochmal erheblich teuerer.
Aus Sicht VRAM = 32GB zieht die 9070 AI mit der 5090 gleich!
Das darf man nicht übersehen!
Und das rechtfertigt einen DEUTLICH höheren Preis für die 9070 AI.
Also,... wenn man wie in meinem Beispiel mit 1200 EUR rechnet, dann gibts da noch viiiel Spielraum nach oben, zumal meine Beispielrechnung davon ausgeht, dass man eine 5090 zum UVP bekommt, was für das komplette Jahr 2025 sehr unwahrscheinlich ist.
Also Straßenpreis der 9070 AI (oder wie auch immer sie genannt wird) kann sogar noch deutlich über 1200 EUR liegen.
Daher noch ein Argument mehr für die billigere 7900 XTX mit sogar mehr Leistung.
Ich denke, das ist auch der Grund, warum wir derzeit keine NVDA Karten in den Läden finden, die werden nämlich auf absehbare Zeit in 50er Paketen von Firmen vom Markt abgesaugt, bevor sie überhaupt für den Konsumenten erreichen können.
Mit der selben Rechnung kann man übrigends auch den "echten" Wert der 24 GB Karten (7900 XTX, 4090, 3090) aus Sicht des Betrieb einer AI grob ausrechnen:
Man braucht mindestens 67 24GB-Karten für den Betrieb des vollen Deepseek Modells (1600 GB RAM).
Also im Vergleich mit der 5090 zum UVP (und davon dann die Hälfte Abzug wegen schwächerer Leistung) hätte man dann folgende Rechnung
115000 EUR / 67 / 2 = 858 EUR
Sprich: würde man derzeit die 5090 zum UVP bekommen, wären die 24GB-Karten ca 858 EUR wert, wenn man damit ein halb so teueres System bauen würde.
Da die 5090 derzeit aber knapp 4000 EUR kostet, sieht die Rechnung derzeit so aus:
200000 EUR / 67 / 2 = 1492 EUR
Sprich der "Wert von 24 GB-Karten aus Sicht AI" ist ca 1500 EUR pro 24GB.
Somit ist die 7900 XTX tatsächlich ein Schnapper und der Preis wird sich vermutlich nach oben einpendeln.
Ist natürlich nur eine echt grobe grobe Schätzung.
Aber die Richtung des Preises für ALLE Karten mit 24GB VRAM ist damit eigentlich klar.
Man darf auch nicht vergessen, für viele Firmen/Programmierer ist die Performance erstmal gar nicht so wichtig!
In erster Linie ist es wichtig, dass Deekseep überhaupt erstmal läuft... wenn du z.B. eine mittelständige Softwarefirma hast und mit Deepseek deine Software bauen willst, dann machts kaum nen Unterschied, ob dein lokales Deepseek mit 1 Token / s läuft oder 100 token /s.
Du bist dann schon froh, wenn es überhaupt erstmal lokal und kostenlos läuft. Vielleicht bist du im Fall des Falles auch bereits dafür dann mehr die 50% des Preises zu zahlen, den das selbe System mit ner 5090 kosten würde, einfach weil die Personaleinsparungen alles wieder aufwiegen in kurzer Zeit.
Daher ist die Verfügbarkeit von ausreichend VRAM m.E. derzeit primäres Ziel und nicht unbedingt die Performance!
So gesehen ist die Strategie von AMD sogar extrem passend gewählt für Deepseek. Bzw. AMD hatte extremes Glück damit, dass mit Deepseek ein so effizientes Modell heraus kommt, dass ne relativ schwache Karte dafür absolut geeignet ist, so lang sie nur über viel VVRAM verfügt.
Zuletzt bearbeitet:
Tatsächlich nicht. Denn du musst die ganzen Karten ja auch irgendwo einbauen. Mit Profikarten brauchst du genau einen Server mit 8x MI300X. Der ist günstiger als einen Haufen Kisten mit schnellem Netzwerk hinzustellen, in die du Consumer-GPUs bauen kannst.Unlimited1980 schrieb:Um das volle Deepseek Modell lokal betreiben zu können (ca. 1600GB VRAM), braucht man 50 GPUs mit 32GB VRAM, in 9070 AI gerechnet sind das 1200 EUR x 50 = 60k EUR.
in 5090 gerechnet sind das schon im Bestcase (UVP) 2300 EUR x 50 = 115k EUR
Mit Profikarten wärs nochmal erheblich teuerer.
Die Idee deiner Überschlagsrechnung ist nicht verkehrt, aber das kannst du mit Modellen machen, die in 1-2 GPUs passen, nicht mit größeren. Denn mehr als das wirst du nicht sinnvoll auf dieser Basis skalieren können
Unlimited1980
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 1.014
Ja das ist halt die Frage... wie viele GPUs lassen sich sinnvoll in einem Consumer-System für AI betreiben...stefan92x schrieb:Die Idee deiner Überschlagsrechnung ist nicht verkehrt, aber das kannst du mit Modellen machen, die in 1-2 GPUs passen, nicht mit größeren. Denn mehr als das wirst du nicht sinnvoll auf dieser Basis skalieren können

An dem Punkt ist das nur eine theor. Rechnung ohne echtes Praxiswissen.
Stimme dir zu!
Ergänzung ()
Also das mit den MI300X ist ein guter Punkt. Die sind ja sogar mit HBM extrem gut aufgestellt. 192GB Ram pro Stück, wenn ich das richtig sehe.stefan92x schrieb:Server mit 8x MI300X.
https://www.computerbase.de/news/gr...b-hbm3-und-153-milliarden-transistoren.84571/
Davon bräuchte man dann 9 Stück (das ist leider genau eins mehr, als in einem vollbestückten Instinct Plattform Server rein passt)!
Ein einzelner MI300X soll wohl 15k USD kosten.
Damit wäre man dann bei 135k USD ohne den Server.
Mh, ja hast recht, macht eigentlich so gesehen mehr Sinn als Alternative zu einem vergleichbaren System mit 5090... und v.A. auch wegen der krass besseren Leistung.
Interessant finde ich auch wie hier rein zufällig das Preisgefüge zwischen 5090 und MI300X grob passt!!
Schwer abzuwägen... sollte man etwas brauchbares mit Consumerhardware für 60-80k zusammenbauen können, wärs vielleicht doch für einige Mittelständler eine brauchbare Alternative!
FALLS man es sinnvoll betreiben kann mit 50 GPUs in einem System.
Safe ist es aber genau die rechnung, die wirklich kleine Mittelständler machen und dann 4 GPUs mit einem kleineren Deepseek modell betreiben.
Also 2-4 GPUs weiß ich safe, die laufen sehr sehr gut mit Deepseek!
Zuletzt bearbeitet:
Ich dachte tatsächlich schon an die neue MI325X mit 256GB. Da passt es dann wirklich und man braucht keine 9 Stück, mein Fehler.Unlimited1980 schrieb:Also das mit den MI300X ist ein guter Punkt. Die sind ja sogar mit HBM extrem gut aufgestellt. 192GB Ram pro Stück, wenn ich das richtig sehe.
Ja, das kann man sich noch in eine anständige große Workstation bauen. Bei allem darüber kommt man allein schon wegen des nötigen Netzwerks nicht an richtigen Servern vorbei.Unlimited1980 schrieb:Also 2-4 GPUs weiß ich safe, die laufen sehr sehr gut mit Deepseek!
Unlimited1980
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 1.014
Also da hat AMD dann tatsächlich auf allen Ebenen der Wertschöpfungskette von der einzelnen GPU, bis zum Instict Server hoch ein jeweils perfekt passendes Produkt am Markt!!
Verrückt.
2025 könnte AMDs Jahr werden...
Mal wieder.
Kennst du zufällig die Preise für so ein komplettes Instinct System?
Ich kann da leider absolut gar nichts dazu finden?
Verrückt.
2025 könnte AMDs Jahr werden...

Mal wieder.
Kennst du zufällig die Preise für so ein komplettes Instinct System?
Ich kann da leider absolut gar nichts dazu finden?
- Registriert
- Juli 2010
- Beiträge
- 13.507
Artikel-Update: AMD hat in Person von Marketing-Direktor Frank Azor dementiert, dass es eine Radeon RX 9070 XT mit 32 GB Speicher geben wird. Das heißt nicht, dass RDNA 4 nicht mit 32 GB gekoppelt erscheinen wird, nur eben nicht unter diesem Namen. Azors Dementi lässt also weiterhin Raum für Spekulationen.
[Embed: Zum Betrachten bitte den Artikel aufrufen.]
GhostSniper4090
Lt. Junior Grade
- Registriert
- Sep. 2023
- Beiträge
- 265
Oh in Weiss, das gefällt mir
Sas87
Commander
- Registriert
- Juli 2013
- Beiträge
- 2.309
Naja, ich hoffe mal, dass da was mit ordentlich VRAM kommt.
Das ist doch für viele das, wofür AMD bei den Grafikkarten so berühmt ist.
Für Leute die ihre Karte gerne länger nutzen möchten sind die 16 GB ein bischen knapp.
Meine 2080 Ti geht jetzt quasi ins 7te Jahr seit Release, und ich kann sie in 5120x1440 immer noch nutzen. Ohne ausreichend VRAM wäre schon früher Schluss gewesen.
Wenn man mal so überlegt, hat sich in der langen Zeit beim VRAM nicht allzu viel getan.
Naja, ich denke ja schon, dass man von AMD mehr an VRAM erwarten kann.
Zumal AMD ja auch in der Vergangenheit immer ein paar % mehr VRAM benötigte als Nvidia, auch wenn es nicht die Welt war.
Das ist doch für viele das, wofür AMD bei den Grafikkarten so berühmt ist.
Für Leute die ihre Karte gerne länger nutzen möchten sind die 16 GB ein bischen knapp.
Meine 2080 Ti geht jetzt quasi ins 7te Jahr seit Release, und ich kann sie in 5120x1440 immer noch nutzen. Ohne ausreichend VRAM wäre schon früher Schluss gewesen.
Wenn man mal so überlegt, hat sich in der langen Zeit beim VRAM nicht allzu viel getan.
Naja, ich denke ja schon, dass man von AMD mehr an VRAM erwarten kann.
Zumal AMD ja auch in der Vergangenheit immer ein paar % mehr VRAM benötigte als Nvidia, auch wenn es nicht die Welt war.
Also ich fahr mit meienr 1070Ti 8gb problemlos WQHD. Ich denke Grundsätzlich reichen die 16 Gb wirklich. Ausnahemn wird es geben, aber nicht jeder will diese Ausnahmen auch Spielen. Aber ja, eine Karte mit 20 Gb wäre natürlich ein schmankerle extra für die zukunft, wenn man zu jenen gehört, die ihe Geräte lange halten.
Jethro
Commander
- Registriert
- Aug. 2010
- Beiträge
- 2.182
Wäre richtig lustig wenn auf dem Event plötzlich kommt: "Wir haben gesagt eine 9070XT mit 32GB gibt es nicht, denn dafür haben wir die 9080XT mit echter 4090 Leistung für 999$".AMD hat in Person von Marketing-Direktor Frank Azor dementiert, dass es eine Radeon RX 9070 XT mit 32 GB Speicher geben wird.
CDLABSRadonP...
Commodore
- Registriert
- Feb. 2021
- Beiträge
- 4.591
Das ist ja mal ein verdammt überspezifisches Dementi...MichaG schrieb:Artikel-Update: AMD hat in Person von Marketing-Direktor Frank Azor dementiert, dass es eine Radeon RX 9070 XT mit 32 GB Speicher geben wird. Das heißt nicht, dass RDNA 4 nicht mit 32 GB gekoppelt erscheinen wird, nur eben nicht unter diesem Namen. Azors Dementi lässt also weiterhin Raum für Spekulationen.
[Embed: Zum Betrachten bitte den Artikel aufrufen.]
@CDLABSRadonP... Allerdings. Ich gehe auch fest davon aus, dass die Radeon 9070XT die erwarteten 16GB bekommt. Und die Version mit 32GB halt anders heißen wird.
Ähnliche Themen
- Antworten
- 59
- Aufrufe
- 7.885
- Antworten
- 213
- Aufrufe
- 17.154
- Antworten
- 184
- Aufrufe
- 18.128
- Antworten
- 60
- Aufrufe
- 10.526