Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Radeon RX 9070 (XT): Mehr Details und Hersteller-Benchmarks durchgestochen
Joa, da hab ich mich mittendrin entschieden, das anders zu formatieren, es dann aber wieso auch immer nicht durchgezogen. Ergab so natürlich keinen Sinn, ist jetzt aber angepasst. Die Werte haben durchaus gestimmt (sofern der Leak stimmt ...), aber ja, das + war da (leider) zu viel des Guten.
Grundsätzlich richtig. Aber wie viel mehr die GPU tatsächlich braucht beim gleichen Spiel muss man erst mal sehen.
Und wer zur Hölle spielt jeden Tag 8h? Daher ist deine Preisrechnung ohne Realitätsbezug. Für Idlen werden die 50Watt Unterschied, die du ansetzt nicht gelten.
Mit angegebenen 300W scheint AMD immer noch nicht die Effizienz von NVidia zu erreichen.
Man sollte die Stromkosten nicht vergessen ... und nicht nur auf den Kaufpreis/Performance schauen!!!
Beispielsweise 50W Mehrverbrauch bei 8h/Tag ontime macht in 5 Jahren immerhin ~250€ Mehrkosten aus!
Da hast du ja ein sehr realistisches Beispiel gewählt, um unbedingt auf 250€ Mehrkosten zu kommen.🤣
Welcher Mensch betreibt seine GPU 8h an jedem einzelnen Wochentag auf Volllast und dann extra auf Jahre gerechnet? Rechne vllt. mal eher 15h pro Woche und dann schauen wir noch mal, wie viel Mehrkosten da in 5 Jahren auf der Uhr stehen…aber ne, da fällt die Zahl ja nicht mehr so ins Gewicht👍🏻
Circa 150-160% auf eine RX 7900GRE wäre ziemliches Wunschdenken/Träumerei für eine RX 9070XT, denn damit würde man auch locker eine RTX 4090 und RTX 5090 ganz nass machen von der Leistung her.
Der Schnitt (um die 40%) kann evt. hinkommen, die ganzen 30 rosinengepickten Spiele Wunder-Leistungszuwächse bestimmt nicht (denn dann würde ich für unter 1000 Euro evt. auch aufrüsten bei locker über 150% Leistungszuwachs innerhalb einer Generation).
Per Schnitt läge man ganz knapp unterhalb einer RX 7900XTX (in 4K/UHD Rasterizerleistung), aber das wäre natürlich auch titelabhängig (ob ein Spiel besser der RDNA3 oder RDNA4 Architektur liegt).
Von den Werten kommt man an eine 5070 Ti nicht heran. Man sollte auch bedenken, dass Herstellerwerte gerne etwas geschönt sind. Ich rechne mal damit, dass 10% im Raster auf die 5070 Ti fehlen und 15-20% bei RT bzw. 30-40% bei Pathtracing bei gleicher TDP. Bei der Effizienz wird es folglich auch nicht reichen. "Erbärmlicher Totalausfall", wie? Wohl kein MFG und wahrscheinlich auch weiterhin unterlegenes Upscaling, bzw. kein/kaum Vram Vorteil mehr.
Die Karte muss folglich deutlich günstiger sein als die RTX 5070 Ti. Also wahrscheinlich 599-649 vs 749 Dollar.
Ich wüsste gerne wer dieses szenario wirklich Absolviert. Wobei 13cent mehr kosten auch mir sparfuchs absolut egal währen.
Die 5070ti ist allerdings auch mit 300watt angegeben. Ich glaube nicht das sich die beiden Karten viel nehmen. Besonders da es sich je nach spiel anders verhält.
was aber interessant sein wird, ist wie sich die 9070xt mit Fps limit verhält gegenüber der 5070ti.
Die Ergebnisse machen Hoffnung. Sollte der GRE Vergleich ein Indiz für die Preisgestaltung sein, dann wird die Karte gekauft (sofern AMD nicht verkackt wie Nvidia)
Bin dabei vor allem auf FSR 4 gespannt, ob die das wirklich noch gut optimieren konnten zum Schluss hin und nicht unfertig rausbringen. Das und die deutlich gesteigerte RT Performance, wird sie zu einem sehr guten Gesamtpaket für Gamer machen. Und ne 9070 XT könnte mit den Features dabei auch ne sehr potente 4K GPU werden für hoffentlich um die 700€ UVP.
mit dem powerlimiter sind es 10-15%, du kamnst aber auch UV betreiben, da geht schon einiges. meine 7800xt verbraucht mit UV ~40watt weniger als das referenz design bei gleicher leistung in bezug auf den CB . wenn leistungsverluste inkaufnahme genommen werden dann einfach UV mit Frequenz begrenzung
Der GRE Vergleich ist, sofern die Daten offiziell sind - der Indikator für die Preise. Sonst würde dieser Vergleich 0 Sinn machen. Dann hätte man 7900XT / XTX genommen wenn man in die Preisregion gehen würde.
Wäre nett, aber viel schöner wäre endlich echte Konkurrenz zur 5080. Hoffentlich fängt sich AMD nochmal, andererseits haben sie es auch einfach nicht leicht gegen die eingefleischten Grünen Fanboys anzustinken. Ich kaufe schon immer das für mich passende Produkt, egal ob NVIDIA oder AMD. Mit der letzten AMD war ich sehr zufrieden
Puh, sieht vielversprechend aus. Aber warum drucks AMD wieder so mit Details und allem rum... wirkt doch sehr verdaechtig. Oder sie denken wirklich da geht noch 100€ mehr drauf dank nvidia scam :d
zum einen können werte von über +100% nicht stimmen, denn dann wäre die karte mehr als doppelt so schnell wie die vergleichskarte und zum anderen passt das nicht zum durchschnitt.
Die RT Einheiten sollen so einiges eben tatsächlich 2x so schnell berechnen können wie die alten. Dazu dedizierte Kerne für Matrizen Berechnungen die sowohl FSR4 ermöglichen sehr schnell zu laufen als auch den Denoiser für RT beschleunigen sollten.
Man erinnere sich wie alte RDNA Karten leichte RT Lasten zwar ganz gut stemmen, aber bei PT komplett abstürzen weil bisher Raster und RT Berechnungen auf den gleichen Kernen lief und dort dann bei viel RT Last, so wie eben zum Beispiel bei Path Tracing in Cyberpunk die RDNA 3 Karten komplett eingebrochen sind.
Also kann schon stimmen das Cyberpunk jetzt halt 2,2x so schnell läuft. Das wäre jetzt aber immer noch nicht so der riesen bringen ... schauen wir mal auf alte Benchmarks hier auf CB.
Dementsprechend fast schade das es nur +66% laut Videocards sind. Da geht jetzt gar nicht soviel.