News Radeon RX 9070 XT: Spiele-Benchmarks und neuer Hinweis auf 3 GHz

pinacolada schrieb:
Die 12GB Karten von nvidia sind ein Witz und reichen nixht mal mehr auf full hd. Bei indiana jones ist das game tot und die 12gb werden gesprengt
Das ist Quatsch. Jeder, der in der Lage ist, die Regler im Grafikmenü zu bedienen kann das sogar in 1440p oder 4K mit 10 GB spielen, ohne groß an Qualität zu verlieren. Alle anderen, für die das Game nur auf Anschlag läuft, müssen halt draufzahlen.
 
  • Gefällt mir
Reaktionen: TheHille, Teeschlürfer, Lord B. und eine weitere Person
Bei all den Preisparität etc Spekulanten. Selbst wenn AMD im Preis niedriger ansetzen wird, wäre es wirtschaftlich gesehen wohl die schlechtere Entscheidung. NVIDIA würde durch ihre Kapitalreserven etc einfach nachziehen und die Karte wieder kanabilisieren. Wir müssten also Verkaufszahlen haben um eine wirtschaftliche Prognose aufzustellen bei der AMD nach Möglichkeit verlässlichen Gewinn macht. Vielleicht kommt es amd billiger wirklich zum gleichen Preis wie die 5070 anzubieten und Kenner schätzen FSR 4.0 und 16GB mehr.
 
  • Gefällt mir
Reaktionen: edenjung
Tornavida schrieb:
Ne wäre es nicht. Die Karte hat mir ein Freund vor fast einem Jahr ganz normal im Laden geholt!
Erwartest du in Zeiten von Ressourcenknappheit, Rezession und Inflation etwa, dass Luxusartikel an Wert verlieren und die Preise in den Keller gehen? Die Entwicklung der letzten fünf Jahre hat da leider etwas ganz gegensätzliches gezeigt, und von einer Umkehrung dieses Marktverhaltens ist leider nicht auszugehen.
 
  • Gefällt mir
Reaktionen: SweetOhm, Fallout667 und Benji21
Caramelito schrieb:
Wenn sie so kommt, also quasi 4070ti Super, wird sie halt auch gute 700eur kosten.
Keine Ahnung, ob das dann ein Erfolg wird..

Die 5070 wird wohl auch etwa auf dem Niveau der 4070ti Super liegen und soll mit einer UVP von $549 kommen. Davon muss AMD einen ordentlichen Abstand halten, wenn sich die 9070XT verkaufen soll.

 

Anhänge

  • Screenshot 2025-01-13 140234.png
    Screenshot 2025-01-13 140234.png
    213,2 KB · Aufrufe: 22
  • Gefällt mir
Reaktionen: Caramelito
coxon schrieb:
Ist eigentlich schon seit Jahren gängig. 4k60, 1440p60 oder 2k60, oder halt FHD/1080p60. Die 60 steht dabei für die fps. ^^
"Gängig" würde ich nicht sagen. Keine der Quellen, die ich beziehe, verwendet diese Bezeichnung.
 
  • Gefällt mir
Reaktionen: chaser767
Ferax schrieb:
NVIDIA würde durch ihre Kapitalreserven etc einfach nachziehen und die Karte wieder kanabilisieren.
Sehe ich ganz anders. Nvidia hat das die letzten Jahre nicht getan, und das werden sie in Zukunft auch nicht. ;)
 
  • Gefällt mir
Reaktionen: SweetOhm
coxon schrieb:
nur beschwert sich da kaum einer ... hach ...
Nur bezog ich mich dabei nicht auf die RTX 4080 Super, sondern wie folgt auf das kleinere Modell (entschuldige, da war ich dir nicht deutlich genug?)
TheManneken schrieb:
dass man bei 4070TiS+ Leistung ankommen wird, "darf" das Ding eigentlich nicht mehr als 300 W ziehen
Punkt.

Gruß Fred.
 
FR3DI schrieb:
entschuldige, da war ich dir nicht deutlich genug?
Genau. Da hat die deutsche Gründlichkeit gefehlt! :evillol: :bussi:
 
  • Gefällt mir
Reaktionen: FR3DI
sweber schrieb:
Kann nochmal jemand erklären, was "2K" Auflösung sein soll, wenn nicht Full HD?
Wenn 3.840 x 2.160 als "4K" bezeichnet wird (weil 3.840 fast 4.000 ist), dann müsste "2K" nach dergleichen Logik 1.920 x 1.080 sein.

Cerebral_Amoebe schrieb:
WQHD

halb so breit, halb so hoch wie 4K (ungefähr)

Halb so breit und halb so hoch wie 4K, und zwar nicht nur ungefähr, wären 1920x1080.


2K ist 2048x1080 und alle Auflösungen, die sich in diesem Bereich bewegen, so auch 1920x1080
https://en.wikipedia.org/wiki/2K_resolution

Genau so ist 4K 4096x2160 und alle Auflösungen, die sich in diesem Bereich bewegen, so auch 3840x2160
https://en.wikipedia.org/wiki/4K_resolution

2K und 4K beschreiben nur die horizontale Pixelanzahl.

WQHD wäre 2,5K

Hier auch ein schöner Post dazu
https://linustechtips.com/topic/691408-2k-does-not-mean-2560×1440/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kha'ak, Lord B., Ghostfacekalle und 6 andere
Limonadenmann schrieb:
Ich hab mir als Budget 600€ gesetzt für die 9070XT, falls die da rüber geht wirds für mich wieder eine grüne.

Für eine neue wird es aber schwierig, wenn das günstigste Modell erst bei 649€ startet bei Nvidia.
 
  • Gefällt mir
Reaktionen: SweetOhm, Captain Mumpitz, Araska und eine weitere Person
sweber schrieb:
Kann nochmal jemand erklären, was "2K" Auflösung sein soll, wenn nicht Full HD?
Wenn 3.840 x 2.160 als "4K" bezeichnet wird (weil 3.840 fast 4.000 ist), dann müsste "2K" nach dergleichen Logik 1.920 x 1.080 sein.

So oder so, ich finde diese Bezeichnung überflüssig und unverständlich.
Ja, 2K ist 2048x1080, 1920x1080 und alles dergleichen. 2,5K ist 2560x1440, 2560x1600 usw., genau wie 4K sowohl 4096x2160, 3840x2160, 3840x1800 ist. Wird einfach schlicht und ergreifend falsch, entgegengesetzt der eigentlichen Logik, verwendet.
 
  • Gefällt mir
Reaktionen: Kha'ak und Lord B.
Knobi Wahn schrieb:
Gehen wir mal von 5070 = 4070Ti Super aus und der Preis von 549$ bzw. 650 € aus, wäre das schon etwas teuer.

Annahme: Die 9070XT liegt auf 4070Ti Super Leistungsniveau.

Sowohl die 5070 als auch die 9070XT werden derzeit in der Tat etwa auf dem Niveau der 4070Ti Super verortet. Man wird sehen, ob sich das so bestätigt.
 

Anhänge

  • Screenshot 2025-01-13 140234.png
    Screenshot 2025-01-13 140234.png
    213,2 KB · Aufrufe: 39
  • Screenshot 2025-01-13 143704.png
    Screenshot 2025-01-13 143704.png
    284 KB · Aufrufe: 38
Ich tippe mal die XT landet preislich zwischen 5070/Ti, die non XT knapp unterhalb der 5070.
 
  • Gefällt mir
Reaktionen: Kuestennebel79
Obvision schrieb:
Inoffizielle Zahlen spachen von 479 - 549 $, was dann so 570 - 650 € sind.
Das wäre ein fairer Preis, der immernoch P/L weit vorne liegen würde
Also leistungsmäßig da wo man bereits seit 2 Jahren eine 7900XT stehen hat die mit 20GB aufwarten kann.
Ebenfalls steht da noch eine 7900GRE die man schon mal vorsorglich aus dem Programm nimmt und darunter lauert die 7800XT die noch lange kein altes Eisen ist bzw. der 9070 nonXT gefährlich wird.
Ebenso der Vor-Vorgänger 6800XT / 6900XT / 6950XT muss sich abseits von FSR4 nicht fürchten.
Auf der grünen Seite muss man sich der 4070 Super und der kommenden 5070 stellen, welche beide mit ~100W weniger TDP aufwarten können. Siehe Gerücht 330W, also auch genau da wo bereits jetzt schon eine 7900XT steht.
Da fragt man sich wozu die ganze Entwicklungsarbeit in einen monolithischen 4nm Chip gesteckt wurde.

Ganz grundsätzlich hat Radeon auch das Problem, dass Nvidia nicht nur das eine Halo Produkt stellt, sondern absehbar 4-5 Modelle (~4080, 4090, 5070Ti, 5080, 5090) hat die über dem AMD Lineup rangieren.
Selbst wenn AMD in den Preiskampf gehen würde, wäre Nvidia ganz bequem dazu in der Lage preislich nachzuziehen, schließlich wirft das Server-GPU Geschäft ja genug ab.
Dazu kommt noch, dass man zurückgehaltene Features wie DLSS 3/4 auch nachträglich der Vorgänger-Generation verfügbar machen könnte.
Auch andere Incentives wie Spiele Bundles wären möglich und auch da sehe ich die Wahrscheinlichkeit bei Nvidia viel höher an, sich begehrte AAA Blockbuster zu ködern.

Das Kräfteverhältnis ist mittlerweile so dermaßen zu Ungunsten AMDs verschoben, dass ich sie nicht mehr aus eigener Kraft aus ihrem Loch rauskommen sehe, außer Nvidia verpatzt auch 2-3 Generationen so wie Intel.
 
  • Gefällt mir
Reaktionen: TheHille, Kha'ak, Fallout667 und eine weitere Person
Benji21 schrieb:
Ich tippe mal die XT landet preislich zwischen 5070/Ti, die non XT knapp unterhalb der 5070.
Dann werden die wie Blei in den Regalen liegen falls sich die jüngsten Performanceleaks bestätigen.
 

Anhänge

  • Screenshot 2025-01-13 143704.png
    Screenshot 2025-01-13 143704.png
    284 KB · Aufrufe: 45
  • Screenshot 2025-01-13 144457.png
    Screenshot 2025-01-13 144457.png
    228,7 KB · Aufrufe: 42
schkai schrieb:
Das ist Quatsch. Jeder, der in der Lage ist, die Regler im Grafikmenü zu bedienen kann das sogar in 1440p oder 4K mit 10 GB spielen
Klingt logisch ich gebe 600+ euro für ne GPU aus die eigentlich schnell genug ist aber manges Speicher muss ich dann am Regler drehen.
 
  • Gefällt mir
Reaktionen: SweetOhm, Tommy64, modena.ch und eine weitere Person
  • Gefällt mir
Reaktionen: coxon
coxon schrieb:
Wann haben die Grünen die Karte denn gebracht? ^^
Schon längst korrigiert aber was kann ich für wenn Nvidia dieses idiotische Super Namen benutzt die man ständig mit sagen muss obwohl es nur idiotisches Marketing ist besonders bei der 4080 die ja eh fast ne 1:1 kopie ist nur billiger.
 
  • Gefällt mir
Reaktionen: coxon
DaysShadow schrieb:
Ebenfalls für @Zenx_ @TempeltonPeck @mike2105
Mein Kommentar bezieht sich auf die Konkurrenz zwischen AMD und Nvidia bzgl. Leistungskrone, da gabs mal ein hin und her, aber AMD läuft da nur noch hinterher. Ich vermisse da irgendwie etwas den Willen für „ganz oben“.

Andererseits eben, bis auf die teuerste Karte der Konkurrenz können sie ja mitspielen und liefern jede Generation seit der 6000er Reihe äquivalente Leistung, nur eben „intern“ immer eine Stufe drüber, 6900 entsprach ca. 3080 etc. pp.

Ich hab selbst ne AMD Karte, und hatte vor meinem temporären Laptopausflug auch eine 6900 XT, weil ich für die Mehrleistung den Mehrpreis der 4090 nicht eingesehen hab. Meine 7900 XTX hat 891 CHF gekostet, insofern Big Bang for the buck, angesichts heutiger Preise.

Weiß daher auch nicht was der aggressive Ton teilweise soll.

Und noch explizit @TempeltonPeck Toxisch? 😂 geh mal an die frische Luft.

Keine Ahnung was für dich daran Aggessiv ist oder was du lustig findest aber Foren und Solziale Medien haben nun mal den Hang zur Toxizität. Ja und auch dein Beitrag. Nach den Likes meines Beitrags scheinen das auch viele andere so zu sehen.

Der Punkt ist das immer nach High End geschrien wird und alles andere ignoriert wird. Muss es den immer High End sein? Das Narrativ das auf Tec und Games Seiten gepflegt wird das alles unter 4K in 144HZ bei allen Regler auf max unspielbar ist wirkt.

Auch Sätze wie "der Wille nach ganz oben" ist einfach Quatsch. Wer sagten das AMD das nicht will. Natürlich wollen die das. Schon allein aus Maketing Gründen. Nur wenn sich AMD eingesteht lieber jetzt diesen Schritt aus zu lassen dann haben die Gründe. Bestes Beispiel sind die ersten Ryzen. AMD wusste das die erst einmal nicht Intel das Wasser riechen können aber ein guter wieder Einstieg sind und mit jeder Generation wurde der Abstand zu Intel kleiner.

Außerdem. Eine Leistungsstarke und günstige Mittelklasse GPU kann viel mehr Käufer ansprechen. Daraus ein Abgesang auf ADM GPU zu orakeln ist halt nichts anderes wie das ständige schlecht reden von Radeons hier auch wenn du selbst eine besitzt.
 
  • Gefällt mir
Reaktionen: SweetOhm, Captain Mumpitz, Corpus Delicti und 2 andere
Zurück
Oben