News AMD Radeon RX 9070 (XT): Frank Azor verspricht RDNA-4-Event und attraktive Preise

simosh schrieb:
Laut Wikipedia 22,7 Mrd Umsatz im Jahr 2023, klein...
Man bedenke aber, dass bei AMD alles unter einem Dach läuft.
Klar, die CPU Sparte hilft ihnen überhaupt erst, diese Umsätze zu erzielen - aber im Gegensatz zu Nvidia tanzen sie auf beiden Hochzeiten inkl. GPU-Sparte.

Bei Intel wird es ähnlich aussehen, nur dass deren GPU Sparte aktuell noch kleiner ist. Aber die wird kaum grösser werden als Team Radeon. Und Team Radeon ist im Vergleich zu Nvidia GPUs winzig.
 
@Taxxor
Dann bist du mehr im Bilde als ich, was die Preise angeht. Ich hatte das auch nur auf einem Artikel auf Chiphell mitbekommen. Die Preise klingen schon mal vernünftig, damit könnte man gut am Markt punkten, vorausgesetzt das Produkt überzeugt.
 
Crifty schrieb:
Die Preise klingen schon mal vernünftig, damit könnte man gut am Markt punkten, vorausgesetzt das Produkt überzeugt.
Wird auf jeden Fall interessant werden gegen die 5070 für 649€ UVP.

Auch die sollte, wieder laut Nvidias Folien, 20-25% über der 4070 landen, was sie ca auf 7900XT Niveau bringt und je nachdem wie sich die 9070XT einordnet, vmtl 5% drüber oder drunter liegen.
Da wird dann FSR4 wichtig
 
  • Gefällt mir
Reaktionen: floTTes und Apocalypse
BAR86 schrieb:
Ich liebe es, wenn Leute einfach irgendwas über mich behaupten, nur weil ich die Werbeaussage/Verdrehung als die hinstelle, die sie ist. Dass da manche gleich getriggered sind?
Dann kam das aber falsch herüber. Das war nicht auf dich bezogen sondern Allgemein gemeint.
 
  • Gefällt mir
Reaktionen: BAR86 und floTTes
Warum gibt man die Info nicht vorab raus.

Warum gibts dann doch schon während der CES Presse-Briefings, zwischen Tür und Angel (oder um genau zu sein in einem Hotel-Zimmer).

AMD's Marketing lässt einen mal wieder kopfschüttelnd zurück!
 
whyme schrieb:
Dann kam das aber falsch herüber. Das war nicht auf dich bezogen sondern Allgemein gemeint.
Ich verstehe schon, dass man das "kleine" AMD, also den Underdog im GPU Segment hier gern in Schutz nimmt, aber das tu' ich auch eher (und kaufe auch eher AMD).
Ich wollte hier nur auf offensichtliches Marketing-Blabla hinweisen. Es ist halt wie wenn ein Politiker was sabbert, dieses "blaue vom Himmel" reden und komplett verschweigen was Realität ist.
Natürlich kann man die GPUs günstig verkaufen, man wird sie aber nicht günstig verkaufen, weil man so NETT ist, sondern ganz einfach weil die Leistung nicht reicht einen höheren Preis zu rechtfertigen.
 
  • Gefällt mir
Reaktionen: Schumey, Quidproquo77 und Vigilant
Fighter1993 schrieb:
High End Mittelfristig kein Thema?
Wie teuer war die 7900XTX? 999$. Er hat ja gesagt nicht 1000$, 999$ ist einer darunter.
Einzig die RX7600 ist nicht im Preisspektrum den er genannt hat, ALLE anderen RDNA3 Karten schon.
 
relaxed_Guy schrieb:
im Preisbereich der 7800XT/7900GRE
Es wird weder im spanischen Original, noch in der englischen Übersetzung oder der Interpretation von CB vom Preisbereich dieser beiden Karten gesprochen.
Es geht lediglich um das Preis-/Leistungsverhältnis. Die Frage ist nun, ob damit das absolute P/L-Verhältnis der alten Generation gemeint wäre - denn das wäre ja dann kein Fortschritt und die Karten würden ziemlich teuer - oder ob nur gemeint sei, dass das ja "damals zur alten Gen" gut gewesen sei und sie daran anknüpfen wollen.
 
@Taxxor
Ja das stimmt, die Frage hier wird wohl sein wie gut das Multiframegeneration funktioniert und wie gut der Kunde darauf anspricht. Ein aktuelles Beispiel ist der Heldenshooter Marvel Rivals, die haben aktuell das Problem das um so höher die Frames sind, um so mehr Schaden machst du mit deinem Helden...klingt absolut absurd aber damit wären die Nvidia Karten schon stark bevorteilt (falls der Entwickler das nicht selbst hinbekommt).
 
Falsche Strategie.

Mit ihrem Chiplet Design haben sie den Übermächtigen Riesen Intel im CPU bereich geschlagen, wieso nicht auch nvidia mit chiplets schlagen.
Wenn ich es richtig sehe, fertigt Nvidia auch im besseren Prozess bei Tsmc..
 
Die AMD Karte die von den Speccs her von der Shaderanzahl am dichtesten an der 9070 XT dran ist ist entweder ne 6800 XT (4608 Shader) oder ne 7900 GRE (5120 Shader)
Jetzt rechnen wir mal bissel:
Die 9070 XT hat 4096 Shader, also Faktor:
4096 / 4608 = Faktor 0,88
bzw. 4096 / 5120 = Faktor 0,8

Von der reinen Shaderanzahl her müsste die also langsamer sein.
ABER es kommt ja noch der Takt hinzu, denn die 9070 XT wird wohl mit über 3000 MHz, vermutlich 3100 MHz laufen.
Boost Takt der 6800 XT und der 7900 GRE ist ungefähr bei 2300 MHz.
Daher 3100 / 2300 = Faktor 1,34

Und dann kommt noch hinzu dass es RDNA 4 ist, d.h. es wurde optimiert. Wie genau das in der Praxis aussieht weiss man nicht, daher setze ich das mal mit +10% an also mit Faktor 1,1.

Meine Spekulation daher:
Im Vergleich zu ner 6800 XT wird die 9070 XT ungefähr 0,88 * 1,34 * 1,1 = ca. 29-30% schneller sein.
Im Vergleich zu ner 7900 GRE wird die 9070 XT ungefähr 0,8 * 1,34 * 1,1 = 17-18% schneller sein.

Guckt man sich jetzt die Grafikkarten-Rangliste an:
https://www.computerbase.de/artikel/grafikkarten/rangliste.2487/
Dann landet man wenn man die 6800 XT als 100% auswählt bei 130% im Bereich der 4070ti Super bzw. der 7900XT.
Wählt man die 7900 GRE aus und guckt dann bei 118% landet man wiederum im Bereich der 4070ti Super bzw. der 7900XT.

Ist RDNA4 20% statt nur 10% schneller landet man im Bereich der RTX 4080.

Und das ist finde ich durchaus ein attraktives Angebot wenns für unter 600 Euro Leistung auf dem Niveau einer RTX 4070ti Super bzw. 4080 gibt. Denn eins muss man bedenken, die RTX 4070ti gibts erst so ab ca. 850 Euro. Viele sind nicht bereit soviel für ne Grafikkarte auszugeben.
 
  • Gefällt mir
Reaktionen: Zarlak, floTTes und TomBolo
Vigilant schrieb:
Bei den 4/5080ern kann man sich ein Update vermutlich klemmen.

Der Markt braucht dringend konkurrenzfähige Produkte zu Nvidia. Sieht so aus, als würde AMD noch mehr Zeit benötigen.

Als es diese gab, wurden sie nicht gekauft.
 
  • Gefällt mir
Reaktionen: Palomino2, eXe777, Atlan2101 und 3 andere
C4rp3di3m schrieb:
Wenn die jetzt auch einen flotteren BUS 384- oder 512bit gehabt hätten und auch 24 oder 32GB VRAM, hätte ich auch mit einem Oberemittelklasse GPU was anfangen können.
.

Wenn ich mir eine GPU selbst Zusammenstellen könnte, hätte ich leicht über 7900 niveau genommen mit 32GB HBM.
Hättest auch zu einer Radeon Pro greifen können dann hast deine 32 GB....
Und was eine Gamingkarte im Bereich einer 4070/80 mit 24 oder gar 32 GB VRAM für einen Sinn haben soll würd ich auch ganz leise hinterfragen.
Zudem breites Speicherinterface und massenweise Grafikspeicher auch anständig auf den Preis haut, den dann auch wieder keiner zahlen will weils nicht zur leistungstechnischen Einstufung der Karte passen würde.
 
  • Gefällt mir
Reaktionen: Zarlak
Auf meinem Gaming PC (sig) läuft Indiana Jones riesengroßer Kreis auf WQHD Max Settings incl. Pathtracing und DLSS ohne FG auf ca. 120 FPS in Innenräumen, der Grafik RAM ist mit ca. 14,3GB üppig belegt, mit FG sind es dann 155 FPS und um die 15GB. In beiden Szenarios fällt mir der Input Lag nicht auf, ebenso ist die Grafikqualität weiterhin top, auch wenn es nicht nativ ist. Vielmehr macht DLSS gegenüber TAA eine exzellente Figur, denn TAA ist verwaschen und unscharf, während DLSS mit einem kristallklaren Bild entzückt. Das ist eine meiner momentanen Messlatten fürs Gaming und basierend darauf käme definitiv eine Radeon 9070XT für meinen Zweitrechner in Frage, sollte sich die Leistung jener Karte ungefähr auf dem Level meiner RTX 4080 bewegen, von mir aus auch 5-10% langsamer. Nachdem dieser erste FSR4 Showcase ja sehr vielversprechend ausfiel, bin ich hier sehr gespannt auf dieses Feature. 330W TDP und 600 Euro wären für mich vertretbar. Ich freue mich sehr auf die anstehenden Tests von Radeon 9000.
 
  • Gefällt mir
Reaktionen: Zarlak und Vigilant
Captain Mumpitz schrieb:
Etwas um den Dreh von 500-600€ max. mit ~250w und Leistung welche etwa auf 7900XTX Niveau liegt, würde meinen Rechner prima ergänzen.
Meinen auch. Glaube aber, davon sind wir hier noch zu weit weg. 600€, 300 Watt 7900XT mit mehr RT und FSR4. Vielleicht eher 650€.
 
Piak schrieb:
Falsche Strategie.

Mit ihrem Chiplet Design haben sie den Übermächtigen Riesen Intel im CPU bereich geschlagen, wieso nicht auch nvidia mit chiplets schlagen.
Wäre das alles so einfach bei GPUs würden wir schon längst chiplets sehen, bei Nvidia und AMD. Keiner der beiden tut sich freiwillig >400mm² chips an.
 
ich hoffe das bei den 9070 xt oder non xt mal wieder ein 550watt netzteil reichen kann, dass wäre klasse.
 
  • Gefällt mir
Reaktionen: Captain Mumpitz
Taxxor schrieb:
Laut Nvidias eigenen Folien steigt in Plague Tale und FarCry 6 die Leistung um ca 25% und das ist jeweils ohne FG vs MFG.
Mit 25% mehr Transistoren, 25% höherer TDP, GDDR7 und einem Nodeshrink von 5 auf TSMC4.
 
Zurück
Oben