News Radeon RX 9070 XT: Vorstellung am 28. Februar, Tests am 5., Handel am 6. März

KodosDerHenker schrieb:
wäre mit denselben Einstellungen wie diese Benchmark einer 4090 mit 220fps
Dabei sollte man aber immer bedenken, dass die 4090 und auch die 5090 in FHD einfach nicht gut skalieren. Diese Karten ziehen erst in hohen Auflösungen deutlicher davon, sieht man immer wieder.
 
  • Gefällt mir
Reaktionen: iron_monkey und Buggs001
Joker* schrieb:
"liefert (einen) Termin, (einen) Screenshot, Eckdaten und (einen) Benchmark"
"Ein Screenshot" ist schon richtig so, denn AMD liefert nur den Termin.
Der Screenshot liefert die Eckdaten und den Benchmark. Deshalb ist hinter dem Screenshot ja auch kein Komma.

Davon ab ist es üblich, in Überschriften Stichpunktartig zu schreiben
 
  • Gefällt mir
Reaktionen: iron_monkey und MichaG
me@home schrieb:
Klingt gut, aber die 16GB mit nur 256bit und 640GB/sek klingen eher nach 7800er "update", ohne die beiden 7900er zu erreichen.
Schade.
Das ist und bleibt die 70er Serie.
Was soll man da großartig anheben, dann wäre es ne 80er - mit den Preisen auch.
 
Keine Verbesserung der Grafikleistung zur 7800XT ?
Da war wohl FG eingeschaltet?

Sehr enttäuschend!

MHW_2.jpg
 
Iconoclast schrieb:
Irgendwie wird das alles von Tag zu Tag merkwürdiger um diese Karten. Das stinkt alles immer mehr nach Flop.
Wann bitte schön ist es denn ein Flop?
Soweit ich weiß hat AMD nie von einer High- End- Karte gesprochen, also wo soll da der Flop sein?
Flop ist wohl mehr die FE- Edition von Nvidia, wo mal der Stromstecker abfackelt.
Aber hey, Grün ist immer super und Rot hat sauschlechte Treiber.
Seht mal über den Tellerrand hinaus, nicht Jeder braucht eine 5090.
 
  • Gefällt mir
Reaktionen: Ituran, BacShea, eXe777 und eine weitere Person
Taxxor schrieb:
Also ich hab für meine 6800XT 1200€ gezahlt und die 3080er waren genau so teuer. Da wäre die 3080 auf Sicht von 2020-2025 die bessere Wahl gewesen

Wo wird heute noch eine 3080 10 GB gebecht? Zu der Zeit gab es noch die 12 GB nicht.

Wer damals die 10 GB Version gekauft hat, muss heute mit ziemlicher Sicherheit öfter die Regler bedienen als die 6800xt Käufer. Dazu kommt noch, dass viele moderne Spiele bei den Nvidia Karten die Grafikqualität von selbst limitieren und viele Nutzer merken gar nicht, dass sie nicht mit dem maximal möglichen Settings unterwegs sind. Eines der Ausnahmen ist z. B. Stalker 2, wo selbst die 3080 12 GB in den Perzentil-FPS untergeht, weil das Spiel nicht gesondert auf die Speicherkrüppel acht gibt.

Wenn es um V-ram geht, darf man nicht nur auf die FPS Balken schauen. Perzentil-FPS, Frametimes und die Darstellung im Spiel (z. B. Pop ins/ Nicht ladende Texturen/ Qualitätsverlust/ Fehler im Spiel) ist da wichtiger.
 
  • Gefällt mir
Reaktionen: halbtuer2, iron_monkey und Casillas
c4rD1g4n schrieb:
Jedenfalls dann zumindest missverständlich.

Radeon RX 9070 XT: AMD liefert Termin, einen Screenshot, Eckdaten und Benchmark

c4rD1g4n schrieb:
Ahhh....jetzt dämmert's :D

"AMD liefert Termin"
"Ein Screenshot (die) Eckdaten und Benchmark"

Ja der Titel ist ziemlich unglücklich formuliert.

Wenn man schnell drüberliest, liest es sich so als ob AMD den Termin, den Screenshot, Eckdaten und den Benchmark liefert. Aber AMD liefert ja nur den Termin, der Rest kommt aus dem Screenshot, welcher irgendwo geteilt wurde.

Und hier im Thread haben das wohl schon ein paar falsch verstanden. Daher wird auch so eine Frage kommen, warum da eine Intel CPU verwendet wurde.
 
  • Gefällt mir
Reaktionen: mydayyy
MiroPoch schrieb:
Wo wird heute noch eine 3080 10 GB gebecht?
Hier auf CB ständig
Ergänzung ()

MiroPoch schrieb:
Wer damals die 10 GB Version gekauft hat, muss heute mit ziemlicher Sicherheit öfter die Regler bedienen als die 6800xt Käufer.
Da würde ich lieber den Textureregler von Ultra auf Hoch zurück stellen, als auf der anderen Seite RT Settings reduzieren zu müssen
 
Capthowdy schrieb:
Dabei sollte man aber immer bedenken, dass die 4090 und auch die 5090 in FHD einfach nicht gut skalieren. Diese Karten ziehen erst in hohen Auflösungen deutlicher davon, sieht man immer wieder.
Vor allem die 4090 wird erst gut wenn sie auch viel Strom zieht, die 5090 soll das Problem ja gelöst haben
Dennoch wichtig weil es eben die selben Einstellungen sind, anders als bei vielen anderen Beispielen
joel schrieb:
Keine Verbesserung der Grafikleistung zur 7800XT ?
Da war wohl FG eingeschaltet?

Sehr enttäuschend!

Anhang anzeigen 1583916
Was heißt "da war wohl" steht ja ganz groß im Screenshot und den Artikeln das es mit FG ist

Aber wenn du schon ohne FG auf Mittel hast, kannst du das selbe mit FG und Ultra zeigen?
 
me@home schrieb:
@Tzk

Klingt gut, aber die 16GB mit nur 256bit und 640GB/sek klingen eher nach 7800er "update", ohne die beiden 7900er zu erreichen.
Schade.

Die gelekten Benches und da gibt es genug, zeigen eher über 7900XT, in Richtung 7900XTX/4080(S).
Und gerade die neuen 5000er NV zeigen ja auch das deutlich mehr Bandbreite als die 4000er in den Chipklassen genau gar nix bringt.
 
BxBender schrieb:
Generell ist ein Bench in FullHD nur Rotz, da 4090 und vor allem 5090 voll ausgebremst werden können, wenn das Spiel und das Setting es ermöglichen, weil die CPU bremst, insbesondere bei Intel Prozessoren, die viel langsamer sind als ein X3D.
Das Problem mit FullHD ist für die RTX 4090 und RTX 5090, dass diese sich quasi auch selbst ausbremen. Die RTX 4090 ist in FullHD "gerade" mal 5 - 10 % schneller, als die RTX 4080 oder die 7900 XTX. Da sind einfach viel zu viele Warps, die benötigt werdne, damit die Karte überhaupt im Ansatz ihre Rohleistung auf die Straße bringen kann.

In FullHD und sogar teilweise noch ion WQHD haben Grafikkarten wie die RTX 4090 und RTX 5090 ein massives Auslastungsproblem. Selbst wenn dann eine CPU noch mehr Bilder liefern könnte, bringt die GPU nicht alle Rechenwerke auf die Straße.

FullHD spielt in so einem Fall eher Grafikkarten in die Hände, die einen hohen Takt und eine hohe IPC haben. Am Ende kann man hier halt nur ablesen, dass, wer in FullHD spielt, eben keine RTX 5090 oder RTX 4090 sich kaufen muss. In 4K werden die beiden Grafikkarten aber die RX 9070 XT "verhauen".

joel schrieb:
Keine Verbesserung der Grafikleistung zur 7800XT ?
Da war wohl FG eingeschaltet?
Der Screenshot soll wohl mit der Einstellung "Hoch" statt "Mittel" erstellt worden sein. Es ist nur bekannt das FG und FSR, mehr allerdings darüber hinaus nicht, daher kann man hier von der Leistung überhaupt keine Aussage treffen.
 
Na da darf man gespannt sein, die GRE war ja in Last-Gen in Pre-Builds die P/L attraktivste Karte.
Besser als dass müsste es hier dann schon werden, sonst macht "Next-Gen" ja überhaupt keinen Sinn.
 
  • Gefällt mir
Reaktionen: mydayyy
Langweilig eine Karte die man jetzt schon mehrfach von beiden (Amd-Nvidia) Herstellern kaufen kann was Leistung angeht.:kotz: und die paar FPS.mehr bei raytracing ändern daran auch nichts.:pcangry:
 
me@home schrieb:
Klingt gut, aber die 16GB mit nur 256bit und 640GB/sek klingen eher nach 7800er "update", ohne die beiden 7900er zu erreichen.
Schade.
Das greif ich gleich mqal mit auf:
Schließt von der Bandbreite nicht auf die am Ende wirklich erbrachte Leistung. Ja, die RX 9070 XT wird "nur" 640 GB/s haben und damit weniger als die 7900 XT und XTX.

Dazu kommt, dass die 7700/7800/7900 XT/XTX auf ein Mutli-Chiplet-Design zurückgreifen. AMD gab hier bereits selbst an, dass hier die Latenzen und Co zum Teil um 10 % steigen. Um das zu kompensieren, muss der Fabric und einige andere Sachen entsprechend höher takten.

Man kann an der Stelle also die Bandbreite der 7800 XT und der 7900 XT nicht gegen die der RX 9070 XT stellen und daraus schließen, dass die RX 9070 XT zu wenig Bandbreite haben wird.

Sieh dir mal die RTX 4080 und die RTX 5080 an. Die RTX 5080 hat deutlich mehr Bandbreite als die RTX 4080, ist aber nur 10 % schneller, weil hier der Takt der GPU "niedriger" ist. Die Bandbreite des Speichers muss am Ende zum Chip passen.

Speicher-Übrtaktung bei der 7900 XT und 7900 XTX laufen im weiten nicht so gut.
 
  • Gefällt mir
Reaktionen: me@home und danyundsahne
Taxxor schrieb:
Hier auf CB ständig
Zeig mal.
Taxxor schrieb:
Da würde ich lieber den Textureregler von Ultra auf Hoch zurück stellen, als auf der anderen Seite RT Settings reduzieren zu müssen
Ansichtssache. Ich denke hübschere Texturen, mehr Details in der Ferne und weniger Pop-in tragen mehr zu Immersion bei, als RT.
 
  • Gefällt mir
Reaktionen: mydayyy, eXe777, iron_monkey und eine weitere Person
KodosDerHenker schrieb:
Vor allem die 4090 wird erst gut wenn sie auch viel Strom zieht, die 5090 soll das Problem ja gelöst haben
Wie kommst du zu dieser Aussage? Ich habe noch keinen Performance/Watt-Test gesehen, bei dem eine 5090 vor einer 4090 liegt.
1739527500571.png

1739527521182.png

1739527552478.png

1739527573713.png


Es ist sogar genau andersrum: wenn du bei der 5090 die Leistungsaufnahme begrenzt, verliert sie deutlich mehr Leistung als eine 4090.
 
  • Gefällt mir
Reaktionen: uberLemu, Teeschlürfer, iron_monkey und 3 andere
DevPandi schrieb:
Der Screenshot soll wohl mit der Einstellung "Hoch" statt "Mittel" erstellt worden sein. Es ist nur bekannt das FG und FSR, mehr allerdings darüber hinaus nicht, daher kann man hier von der Leistung überhaupt keine Aussage treffen.
Google Lens sagt, die Einstellung im Screenshot ist "Extem Hoch".

Edit:

Habs eben gecheckt. "Extrem Hoch" im traditionellen Chinesisch ist bei uns die "Ultra" Einstellung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Teeschlürfer, Unlimited1980, Icke-ffm und 5 andere
Zurück
Oben