News AMD Radeon RX 9070 (XT): Mehr Details und Hersteller-Benchmarks durchgestochen

Raider_MXD schrieb:
Ich picke einen Titel, in dem RT tatsächlich stark eingesetzt wird. Bei Spielen mit nur wenig RT-Beimischung ist letztlich die Rasterleistung das Bottleneck, d h. an denen kann man den RT-Leistungszuwachs nicht ablesen.
Wobei jetzt zum Beispiel in Outlaws the RT Performance auch massive wirkt mit +48% und dort die 9070xt dann zumindest die 7900xtx und 4070 super bequem schlagen wollte. Für die 4070ti super reicht es dann wieder nicht.

Falls es halt mit Max RT war und nicht nur mit Ultra Settings wo die RT-Last nicht so hoch ist. Wobei letztes wiederum würde ja dann für ne gute Balance von Raster und RT sprechen wenn man dort dann an 4070ti super und 7900xtx bequem vorbei kommt. Das ist ja dann schon sehr knapp an der 5070ti.
Outlaws RTXDI.jpg
Star Wars Outlaws.jpg
 
Zuletzt bearbeitet:
Yumix schrieb:
Die GRE ist um die 600€ gestartet. Ich gehe mal davon aus, dass die 9070 im Bereich 550-600€ liegen wird und die 9070XT 700-750€.
Mit einer RT-Performance etwa auf dem Niveau der 4070 Super und unterlegenen Softwarestack darf die 9070XT eigentlich nicht mehr kosten als die 7900GRE wenn AMD gegen die 50x0 Serie von Nvidia aus den einstelligen Marktanteilen rauskommen will. Die 9070 müsste entsprechend darunter liegen.
 
iPat1337 schrieb:
Aber warum drucks AMD wieder so mit Details und allem rum... wirkt doch sehr verdaechtig.
Was genau an dem Satz "28. Februar: Vorstellung von AMD Radeon RX 9070 (XT)" hast du nicht verstanden ?
🤦‍♂️
 
  • Gefällt mir
Reaktionen: Michael vdMaas, Tharan, Orok91 und 4 andere
Chaz schrieb:
Da hast du ja ein sehr realistisches Beispiel gewählt, um unbedingt auf 250€ Mehrkosten zu kommen.🤣
Welcher Mensch betreibt seine GPU 8h an jedem einzelnen Wochentag auf Volllast und dann extra auf Jahre gerechnet? Rechne vllt. mal eher 15h pro Woche und dann schauen wir noch mal, wie viel Mehrkosten da in 5 Jahren auf der Uhr stehen…aber ne, da fällt die Zahl ja nicht mehr so ins Gewicht👍🏻
Dasselbe kindische Spiel spielt man doch auch bei den CPUs, da wird wegen 50W Differenz unter Last ein Fass aufgemacht, obwohl die dort dank GPU-Limit nur selten anliegen :lol:
 
Zuletzt bearbeitet:
Ganz ehrlich ich warte nun die Tests ab. Diese Benchmarks kann ich noch nicht glauben, wie zum teufel konnte sie die Transistor Dichte so krass steigern ? Ja vorher waren es Chiplets, jetzt nicht. Trotzdem wäre das beeindruckend.
 
  • Gefällt mir
Reaktionen: Micha_80
@IronAngel
in den MCD´s von RDNA3 waren die einzelnen L3 nur mit 7nm gefertigt
jetzt ist auch der L3 mit N4P dichter gepackt

Ob jetzt auf den alten MCD auch irgendwie viel mehr I/O@7nm saß, der jetzt kleiner ausfällt, who knows.
Da könnte man mit eingesparten Transistoren dann schon wieder bei N48 dichtgepackte Tensorcores+RT-Cores in N4P machen.
(kleine Tensorcores für die FSR4-Matrix)

Zusätzlich wurde die Videoengine neu gemacht, die sich vermutlich auch dicht packen lässt.
 
Zuletzt bearbeitet:
ThePlayer schrieb:
Heißt dass das RT bei AMD um 20% zugelegt hat. Das ist zwar gut aber nicht das was ich erwartet habe. Ich hatte da wenigstens 30% angenommen.
Aber mal sehen was jetzt wirklich am 28 Vorgestellt wird.

Wenn du es so vergleichst, ist es natürlich schade. Wenn wir aber bedenken das es nur eine Mittelklassen Karten ist und der vorgänger die 7800xt ist, dann sind knapp 60% zuwachs schon ordentlich. Das hat Nvidia selbst noch nicht gemacht in dieser klasse. Da waren es bislang 2generationen für so eine Leistungssteigerung.Wenn die ergebnisse zutreffen.
 
  • Gefällt mir
Reaktionen: Viper816
Ich sehe immer noch parallelen zu der hier allein von der Shaderkonfiguration :)


AMD Radeon RX Vega 64AMD Radeon RX Vega 56
Chip:
Vega 10
Transistoren:
ca. 12,5 Mrd.
Fertigung:
Globalfoundries 14 nm
Shader-Einheiten:
4.096
3.584
Basis-Chiptakt:
1.247 MHz
1.156 MHz
Maximaler Chiptakt:
1.580 MHz
1.525 MHz
TFLOPs (FP32):
12,9 TFLOPs
10,9 TFLOPs
TFLOPs (FP16):
25,8 TFLOPs
21,8 TFLOPs
KI-Kerne:
Keine
TFLOPs (FP16) mit KI:
Nein
Raytracing:
Nein
ROPs:
64
Pixelfüllrate:
101 GPix/s
98 GPix/s
TMUs:
256
224
Texelfüllrate:
405 GTex/s
342 GTex/s
DirectX (Feature-Level):
12_1
Speichergröße:
8 GB HBM2
Speichertakt:
945 MHz
800 MHz
Speicherinterface:
2.048 Bit
Speicherbandbreite:
484 GB/s
410 GB/s
Leistungsaufnahme Typisch/Maximal:
295 Watt/?
210 Watt/?
Quelle:
https://www.computerbase.de/artikel/grafikkarten/radeon-rx-vega-64-56-test.60541/

Die Vram Bandbreite ist im Vergleich zur Vega aber ein Witz für 8 Jahre später .
 
Wenn ich mich recht entsinne, hat Frank Azor im Januar im Interview gesagt, dass man ein P/L auf dem Niveau von u.a. 7900 GRE liefern will. Würde theoretisch bedeuten, sie müssten bei ~40% mehr Leistung (grob über den Daumen gepeilt) in Richtung 840€ gehen.
Gäb natürlich keinen Sinn, denn dann würde man ja mit jeder Generation den Leistungszuwachs auf den Preis rechnen müssen. Also sagen wir, 1% mehr Preis je 2% mehr Leistung, dann kommen wir bei 720€ raus.
Das wäre durchaus noch ein vernünftiger Preis, wenngleich ich glaube, nicht genug, um Leute davon abzuhalten, bis zum Sommer auf bessere Preise bei 5070 Ti zu warten.
 
Stefan9 schrieb:
Beispielsweise 50W Mehrverbrauch bei 8h/Tag ontime macht in 5 Jahren immerhin ~250€ Mehrkosten aus!
Entschuldige, aber hier wird an der Stelle durch den gewählten Faktor, eine Überdramatisierung erreicht.

Pro Tag kommen bei den Energiekosten 0,14 € zusammen, pro monatlichen Abschlag sind das 4,20 € oder pro Jahr 50,40 €.

Und dann gehen wir davon aus, das eine Person am Tag 8 Stunden spielt!

Dazu kommt, dass du hier einmal das mögliche Maximum gegen einen Schnitt setzt. Hier wird man sehen müssen was die 9070 XT am Ende im Schnitt meldet.

Im weitern Verlauf: Wer sich wegen den jährlichen Stromkosten Gedanken machen muss und hier am Ende wegen 50 € rechnen muss, sollte allgemein dann überlegen, ob man sich den Betrieb eines Computers leisten kann und will, erst recht von Hardware die über 500 € kostet oder ob dann eine Konsole die bessere Alternative wäre.
 
  • Gefällt mir
Reaktionen: Inxession, Quidproquo77 und Otsy
Ich würde auch sagen das wir den Hypetrain im Bahnhof lassen und entspannt erste Tests abwarten.
 
  • Gefällt mir
Reaktionen: Bitcoon und Shir-Khan
wie viel fps in 2160p pro euro sollte mehr beachtet werden.
da ist nvidia ja momentan völlig abgespaced ! 😂
 
Was hier gerne vergessen geht, falls die Gerüchte gestimmt haben:

Ursprünglich hatte AMD doch ein Chiplet geplant, das aus dem Zusammenspiel von 2x (vermutlich) genau dieser Chiplets bestandt.
Jetzt kann man errechnen. 2x diese Leistung kombiniert dürfte sogar die 5090 schlagen, zumindest aber die 5080.
Aber offenbar gab es große Probleme im Zusammenspiel der Chiplets, weswegen man diese gecancelt hat.

Ähnliche Probleme gibt's ja auch im CPU Bereich, wo z.b. der 3D-Cache von 2 3D-Chiplets keinen Performance-Zuwachs mehr im Vergleich zu 1x 3D-Chiplet mehr gibt. Es wird sogar eher langsamer durch den Delay zwischen den Chiplets. Es bleiben nur die Mehrkerne als Vorteil und die doppelten Herstellungskosten als zusätzlicher Nachteil.

Sehr wahrscheinlich war das auch der Grund, warum man das im Grafikbereich eingestellt hat und man will die Probleme dann vielleicht bis zur nächsten Generation zu lösen versuchen.

PS: Das Aufgeben der Top-Chips in dieser. Generation, war sogar von AMD offiziell mitgeteilt und nicht nur ein Gerücht, was man ja auch an den Chipnamen sieht (Navi 48 und nicht 41)
 
Zuletzt bearbeitet:
Stefan9 schrieb:
Mit angegebenen 300W scheint AMD immer noch nicht die Effizienz von NVidia zu erreichen.
Man sollte die Stromkosten nicht vergessen ... und nicht nur auf den Kaufpreis/Performance schauen!!!
Beispielsweise 50W Mehrverbrauch bei 8h/Tag ontime macht in 5 Jahren immerhin ~250€ Mehrkosten aus!
Wer betreibt denn seine Karte 5 Jahre lang 8h pro Tag unter Volllast?

Energieeffizienz ist wichtig, ja, aber die zusätzlichen Stromkosten bleiben für die meisten Menschen sehr überschaubar
 
DevPandi schrieb:
Entschuldige, aber hier wird an der Stelle durch den gewählten Faktor, eine Überdramatisierung erreicht.

Pro Tag kommen bei den Energiekosten 0,14 € zusammen, pro monatlichen Abschlag sind das 4,20 € oder pro Jahr 50,40 €.

Und dann gehen wir davon aus, das eine Person am Tag 8 Stunden spielt!

Dazu kommt, dass du hier einmal das mögliche Maximum gegen einen Schnitt setzt. Hier wird man sehen müssen was die 9070 XT am Ende im Schnitt meldet.

Im weitern Verlauf: Wer sich wegen den jährlichen Stromkosten Gedanken machen muss und hier am Ende wegen 50 € rechnen muss, sollte allgemein dann überlegen, ob man sich den Betrieb eines Computers leisten kann und will, erst recht von Hardware die über 500 € kostet oder ob dann eine Konsole die bessere Alternative wäre.
Unterm Strich wird eher anders herum ein Schuh draus: Wer acht Stunden am Tag zockt, sollte auf jeden Fall sicherstellen, dass die Hardware in jederlei Hinsicht (und eben auch in Punkto Effizienz --- sowohl von der Ausgangslage als auch in der Kalibrierung) über alle Zweifel erhaben ist. Kenne selbst jemanden, für den lange das Motto 24h bedeutet 8h Arbeiten + 8h Zocken + 8h Rest galt...

Back2Topic: Gerade die 9070 Non-XT sieht eher danach aus, als wäre sie ziemlich effizient ausgelegt.
 
  • Gefällt mir
Reaktionen: Viper816
Loopman schrieb:
879€ ☝️
Diverse Customs waren schon immer teurer, wird auch hier wieder sein.
Nope, https://www.dw.com/de/baerbock-an-der-westküste-afrikas-ohne-wirtschaft-keine-sicherheit/a-69689138.

nichts zu machen, die Karte kostet 1200 aufwärts. Fantasie UVP hin oder her. AMD wird 750€ UVP sagen und dann gibt es den Marktaufschlag. Sorry.
Ergänzung ()

blackiwid schrieb:
Sie wollen Client aka Notebook Markt rein kommen, mit nur minimal besserer PreisLeistung als Nvidia kauft weiterhin genau niemand ein Notebook mit AMD chip.
Doch ich. Notebook läuft über APUs hauptsächlich. Hier ist Intel gut gesetzt.
 
Stefan9 schrieb:
Beispielsweise 50W Mehrverbrauch bei 8h/Tag ontime macht in 5 Jahren immerhin ~250€ Mehrkosten aus!
8h am Tag. Mein erster Lacher des Tages. Vielen Dank dafür. 😂


Sun-Berg schrieb:
Ich kann froh sein, wenn neben Kinder/Arbeit/Soziales 8h/Woche übrigbleiben für Gaming.
Genauso siehts auch bei mir aus.
 
Bin ja mal auf die Pathtracing-Performance gespannt, spielbar wäre schön. Contrary to popular opinion ist normales RT völlig anständig bei AMD, ich kann auf meiner 7900 XT normalerweise alles auf Anschlag drehen.
 
Loopman schrieb:
879€ ☝️
Diverse Customs waren schon immer teurer, wird auch hier wieder sein.

mit der UVP bei einem Modell wo es keine FE Variante gibt, ist es ein wenig heikel.
Solange es für die Partner keine Auflage seitens nvidia gibt ein Modell mit UVP an zu bieten, hat dieser null Bedeutung, wird bei AMD mit der neuen Serie nicht anders laufen...
 
Zurück
Oben