News AMD Radeon RX 9070 (XT): Mehr Details und Hersteller-Benchmarks durchgestochen

Waelder schrieb:
wird bei AMD mit der neuen Serie nicht anders laufen...
Warum?, z.Bsp. Powercolor hat
Reaper = Referenz-PCB zum UVP
Hellhound
Devil
2970...3050...3100MHz

Würde mich stark wundern, wenn ne 9070xt Reaper auf einmal >>1k€ kostet.
(wie beim 5070Ti Desaster, ... weiss garnicht, was momentan die PRIME kostet,
bzw. die ist als nonOC Modell evtl. schon EOL)
 

Anhänge

  • PRIME nonOC nicht erhältlich.JPG
    PRIME nonOC nicht erhältlich.JPG
    33,2 KB · Aufrufe: 47
Zuletzt bearbeitet:
Viper816 schrieb:
Ähnliche Probleme gibt's ja auch im CPU Bereich, wo z.b. der 3D-Cache von 2 3D-Chiplets keinen Performance-Zuwachs mehr im Vergleich zu 1x 3D-Chiplet mehr gibt.
Nein, die Problemematik ist an dieser Stelle zwar ähnlich gelagert, hat an der Stelle jedoch nichts mit dem 3D-Cache zutun, sondern liegt schon im grundlegenden Aufbau der 2-CCD-CPUs. Es ist vollkommen unerheblich, ob ein CCD den 3D-Cache hat oder beide, das Problem, was den Preformance-Zuwachs verpuffen lässt, finden sich so schon beim 3900/3950 und deren Nachfolgern.

Das Problem besteht in dem Fall aus zwei Aspekten - wobei einer noch dazu kommt: 1. Logische Trennung. 2. Physische Trennung. Der L3-Cache der AMD-CPUs ist keine Einheit, sondern besteht aus 2 Blöcken zu je 32 MiB. 8 Kerne greifen auf je eine Partition zurück. Die anderen 32 MB sind "unsichtbar" für die Kerne. Wenn jetzt ein CCD die zusätzlichen 64 MB bekommt, bleibt es dennoch bei eben den zwei Partitionen: 96 MB + 32 MB. 8 Kerne sehen dann die 96 MB, 8 Kerne sehen die 32 MB. Selbst wenn man beiden CCD den Cache gibt, bleibt es immer noch dabei 96 MB + 96 MB. Das hat auch damit zutun, wie der Cache angesprochen wird: Victim-Cache. Hier werden also all die Daten abgelegt, die aus dem L2-Cache der Kerne fliegen, weil sie nicht mehr benötigt werden. Dadurch eignet sich der L3-Cache in dem Fall wunderbar dazu, dass er die Inter-Core-Kommunikation übernimmt. Die Cache-Lines sind fertig vom Kern, also können die anderen Kerne ggf. da ihre Daten herholen.

Ein 9950X mit 2 mal den 3D-Cache würde dieses Problem nicht beseitgen, müsste der Kern 9 auf Daten von Kern 1 zurückgreifen, dann findet Kern 9 diese Daten nicht in seinem L3-Cache und muss erst eine "Anfrage" an den anderen Cache senden und dann von dort die Daten holen und müsste entsprechend warten. Wären die Daten dort nicht, müsste man über den RAM gehen - wo die Daten ja auch stehen.

"Verschärfend" kommt an dieser Stelle hinzu, dass eine physkalische Trennung noch dazu kommt, die auch noch über den IOD geht. Beides zusammen, lässt den "Effekt" des 3D-Caches zum Teil verpuffen, wenn man beide CCDs damit ausstattet. Man löst zwar in dem Moment von beiden CCDs die Abhängigkeit von RAM, aber nur, solange die Aufgaben in einem CCD sind. Sobald die Aufgaben aber über beide CCDs verteilt werden, gewinnt der RAM wieder an Bedeutung und entsprechend verliert der 3D-Cache seine Effektvitität.

Und das Problem der "getrennten" Partionen - also die logische Trennung - ist das eigentliche Grundproblem. Bei der GPU gibt es dafür verschiedene Lösungsansätze - die auch bereits in entsprechenden Patenten beschrieben werden. So soll der L2-Cache - der das verbindende Element der Shader-Arrays ist - am Ende als eine "große" Partition angesehen. Man weiß hier, wie das logische Problem gelöst werden muss, hat aber immer noch das physische Problem und das der Datenaustausch zwischen den physischen L2-Paritionen mit einer entsprechenden Geschwindigkeit als auch eben einer entsprechenden Latenz statt finden muss.
 
  • Gefällt mir
Reaktionen: Toprallog, MiroPoch, mydayyy und 3 andere
Stefan9 schrieb:
Beispielsweise 50W Mehrverbrauch bei 8h/Tag ontime macht in 5 Jahren immerhin ~250€ Mehrkosten aus!
In 5 Jahren? Gut, also macht das dann rein gar nichts aus. 250€ in 5 Jahren.... sorry, aber wer denkt denn über sowas überhaupt nach?

Noch dazu zocken die wenigsten 8 Stunden JEDEN Tag.
 
  • Gefällt mir
Reaktionen: Benji21, Laphonso, DerToerke und 2 andere
Bessere RT-Leistung und ein gutes FSR4 klingt erstmal super. Hoffentlich bewahrheitet sich das so.
 
  • Gefällt mir
Reaktionen: DerToerke
Loopman schrieb:
Dazu klar schlechteres FSR.
Das ist denke ich nicht mehr aktuell. Habe mir letztens bei YouTube ein paar Videos zum Vergleich mit DLSS angeschaut. Da lieferte auch mal FSR die bessere Qualität, weil DLSS oft eine Art Grauschleier produziert.
 
  • Gefällt mir
Reaktionen: MiroPoch und mydayyy
Wenn Strompreis wirklich ein Problem ist, dann dürfte die 9070 wohl bald das beste Produkt am Markt sein.
Bei den bisher bekannten Daten wären das die beste Performance pro Watt von allen aktuellen und bald kommenden Karten.
 
  • Gefällt mir
Reaktionen: DerToerke
Boar ich bin so gehypt über diese Karte. Besitze zwar eine nv 4070 mit welcher ich mehr als zufrieden bin, aber es kribbelt irgendwie doch.
Ich werde mir euren Test genüsslich auf Maderia durchlesen 😎
 
  • Gefällt mir
Reaktionen: FrittiDeluxe
Am Ende sind mir (fast) alle Werte egal. Es zählt für mich die Leistung bei einer Obergrenze von max. 220Watt.
 
CDLABSRadonP... schrieb:
Wer acht Stunden am Tag zockt, sollte auf jeden Fall sicherstellen
..., dass man sich professionelle Hilfe holt.
 
  • Gefällt mir
Reaktionen: MiroPoch, Michael vdMaas, shai Halud und 2 andere
Man ich bin so zappelig gerade. War kuz davor ne 7800xt zu kaufen. Kann den Release kaum erwarten. Ich wollte meine 2060 in Rente schicken. Ich hoffe die Preise werden human und ich hoffe die 7000er werden im Preis fallen.
 
CDLABSRadonP... schrieb:
Unterm Strich wird eher anders herum ein Schuh draus: Wer acht Stunden am Tag zockt, sollte auf jeden Fall sicherstellen, dass die Hardware in jederlei Hinsicht (und eben auch in Punkto Effizienz --- sowohl von der Ausgangslage als auch in der Kalibrierung) über alle Zweifel erhaben ist.
Aktuell - und bereits da ist ein weitere Fehler der Ursprungsrechnung - steht für dier 5070 Ti im Schnitt im Test von Wolfgang 265 W - die RX 9070 XT soll 304 W TBP haben, also sind es "nur" 39 W und damit reduziert sich bei 8 Stunden Spielen pro Tag die "Kostenersparnis" auf 11 Cent, macht pro Monat 3,28 € und pro jahr 39,32 €. Die "Kostenersparnis" nach 5 Jahren sind das dann 196,56 €.

Der Punkt "Effizienz" ist an dieser Stelle weitgehend einfach nur eine Nebelkerze, denn wenn es wirklich um Effizienz geht und man will die Kosten für das eigene Hobby gering halten, stehen hier am Anfang ganz andere Fragen, die sich nach 5 Jahren weitgehend deutlich bemerkbarer machen. Der Eingangspost zu dem Thema hat es schon sehr geschickt gemacht, in dem man einen entsprechenden Zeitraum von 5 Jahren gewählt hat und die Gesamtkosten dann nennt, weil sich 255,- € "dratischer" ließt, als eben 50 € pro Jahr oder 4,20 € pro Monat oder 14 Cent pro Tag.

Dazu kommt ein entscheidender aber wichtiger Faktor, der immer und immer wieder vergessen wird, und der solche Aussagen wie 255 € in 5 Jahren, oder eben 14 Cent pro Tag, vollkommen jeden Boden entzieht:

Wir reden einmal von laufenden Kosten, die in der Regel - zumindest bei uns in Deutschland - über monatliche Abschläge gezahlt werden und im anderen Fall von Einmalzahlungen, die entsprechend auch ins Gewicht fallen können.

Wenn ich pro Monat, weil eine RX 9070 XT 50 Watt mehr verbraucht, 4 € mehr an Stromkosten habe, dann ist das ein überschaubarer Betrag, der mir in der Regel nicht wehtut, weil ich ihn planen kann. Wenn eine Grafikkarte am Ende aber - als Beispiel - 200 € mehr kostet, dann tut das in der Regel wesentlich mehr weh, weil der absolute Betrag hier um den Faktor 50 höher ist.

Genau das ist in weiten Teilen aber auch eine psychologische Masche, mit der viele Menschen für "Dumm" verkauft werden. Händler brechen einem gerne den Einmalpreis auf ein monatlichen oder täglichen Preis runter, damit ein teurer Betrag nicht so groß wirkt und man ja dann sich die "monatlichen" Ausgaben halt um den Betrag senkt, dann ist das ja wieder locker drin.

Und umgekerht genauso, wenn man ja die monatlichen kosten gegen den große Gesamtbetrag stellt und was man ja dann auch "gespart" hat.
CDLABSRadonP... schrieb:
Kenne selbst jemanden, für den lange das Motto 24h bedeutet 8h Arbeiten + 8h Zocken + 8h Rest galt...
Joar, kenne ich auch, nur das von den keiner am Ende Arm geworden ist, weil er am Tag 0,14 Cent mehr für Strom einplanen musste.
 
  • Gefällt mir
Reaktionen: Bmob2k und Casillas
CDLABSRadonP... schrieb:
Wer acht Stunden am Tag zockt, sollte auf jeden Fall sicherstellen,
BobHB schrieb:
..., dass man sich professionelle Hilfe holt.
:D

Wie gesagt, kenne selbst jemanden, für den das lange Ton angebend war. Tatsächlich war dort der wichtigerer Schritt, erst einmal den Gedanken aufzubauen, dass sich bei so einem Lebenswandel die Investition in möglichst gutes Equipment (auch in Punkto Ergonomie) lohnt. und sich danach um alle anderen Nebeneffekte zu kümmern. Von dort aus kann man weiter gehen und dann die Frage aufwerfen, ob nicht ein paar Stunden weniger Zocken sich unterm Strich mehr rechnen...
(aber erst einmal muss diese Rationalität im Kleinen gelernt werden)
 
Simanova schrieb:
Die 9070 non-XT wird die bessere Mid-Range Karte werden, nur 220W schlägt auch Nvidia in dem Bereich.
Bei all dem Fokus auf due 9070 XT, sollte man die 9070 non XT und auch die 9060 (XT) und eventuell noch weiter darunter nicht vergessen. Ich denke, diese Karten werden für Leute mit dem entsprechenden Geldbeutel nicht weniger Interessant. Gerade weil Nvidias Karten hier ja auch nicht sonderlich attraktiv sind.
 
  • Gefällt mir
Reaktionen: Rockstar85, Micha_80 und DerToerke
DevPandi schrieb:
Der Punkt "Effizienz" ist an dieser Stelle weitgehend einfach nur eine Nebelkerze,
Sehe ich persönlich nicht so,,,wie auch jeder andere wohl da seine eigenen Vorstellungen hat.
Persönlich will ich eine Karte die mit max 200W möglichst viel Leistung bringt. Da bin ich gerne bereit bis 1000€ mitzugehen.
 
OpenSystemFan schrieb:
Waelder schrieb:
nicht anders laufen...
Gibt genügend Leute, auch hier, die die Karte zu dem Preis kaufen konnten.
Die Erstwochen-Preise zählen nicht ☝️

Clonedrone schrieb:
Da lieferte auch mal FSR die bessere Qualität
Das mag in 5% der Fällen vielleicht gestimmt haben. Aber schon mit DLSS 3 lag AMD weit zurück, gegen das 4er ist der große Abstand noch mal stark angewachsen.

Da müsste AMD nächste Woche schon Zaubern können, um hier halbwegs gleichzuziehen. Und davon wird wohl niemand ernsthaft ausgehen, sorry.
 
Bin gespannt, wer der Erste sein wird, der diese tatsächlich zählt :D.
1740381734662.png
 
Stefan9 schrieb:
Mit angegebenen 300W scheint AMD immer noch nicht die Effizienz von NVidia zu erreichen.
Man sollte die Stromkosten nicht vergessen ... und nicht nur auf den Kaufpreis/Performance schauen!!!
Beispielsweise 50W Mehrverbrauch bei 8h/Tag ontime macht in 5 Jahren immerhin ~250€ Mehrkosten aus!
Auf 8h Volllast muss man erstmal kommen.

Da hat man ja kaum noch ein normales Leben... :D
 
  • Gefällt mir
Reaktionen: DerToerke
Der Leistungsvergleich mit der GRE würde die XT auf Höhe einer 4080 Super in Raster und 4070TI mit aktivem Raytracing einordnen.

Wenn der Preis stimmt dann eine wirklich solide Karte!
 
  • Gefällt mir
Reaktionen: danyundsahne und DerToerke
BobHB schrieb:
..., dass man sich professionelle Hilfe holt.
Ich finde das niedlich. 8h zocken sind ein gefährliches Verhalten mit Sucht, sozialen Problemen, körperlich gefährlich, da muss sofort Hilfe her... Die gesunde Alternative sind durchschnittlich 8 Stunden malochen plus 2h hin und her. Das ist gesund, fördert die Gesellschaft, sorgt für Kontakte bla bla bla. Wer ist hier wirklich kaputt? :freak:
 
  • Gefällt mir
Reaktionen: mydayyy und Laphonso
DevPandi schrieb:
Der Eingangspost zu dem Thema hat es schon sehr geschickt gemacht, in dem man einen entsprechenden Zeitraum von 5 Jahren gewählt hat und die Gesamtkosten dann nennt, weil sich 255,- € "dratischer" ließt, als eben 50 € pro Jahr oder 4,20 € pro Monat oder 14 Cent pro Tag
5 Jahre ist insofern ein guter Zeitraum als das eben auch der Zeitraum eines Hardware Updates wäre.
Also wenn man jede Generation neue Komponenten kauft juckt einen der Strompreis eh nicht, bei jeder 3. Generation kann das schon ein Argument sein, vor allem wenn es da entsprechende Sprünge gibt.

Bei 2 gleichwertigen Produkten mit dem gleichen Preis gewinnt halt über die angedachte Lebensdauer das mit weniger Verbrauch, wenn man vor hat diese länger zu behalten (also eben die 5 Jahre damit es überhaupt ins Gewicht fällt)

Bei unterschiedlichen Preisen kann es sich schon auszahlen zu rechnen ob die Differenz den Verbrauch kompensiert.
Aber das setzt eben auch wirklich voraus das man auch plant die Hardware entsprechend lange zu behalten, sonst macht es keinen sinn.
 
Zurück
Oben