News Radeon RX 7900 XTX: Erste Benchmarks sind mit Vorsicht zu genießen

S.Kara schrieb:
Na das zeigt doch immerhin dass sich die 7900 XTX zwischen 4080 und 4090 platzieren kann.
Wenn man bedenkt dass die 4080 40-50% mehr kostet ist das ganz ordentlich.
Na darauf würde ich jetzt noch nicht wetten... :D
 
danyundsahne schrieb:
Könnte man auch zur RT Leistung sagen....zwingend nötig ist die auch nicht.
Zwingend nicht, aber ich habe heute schon was davon, kann es nutzen.

Vom neuen DP Standard habe ich erst einmal nichts, sehe keinen Unterschied auf meinen aktuellen Monitoren.
 
Poati schrieb:
Klar, das stimmt alles. Aber mit dem Verweis auf genau die Preisregion, wo dann 300€ keine Rolle mehr spielen , ist es eben gerade nicht mehr dieses rationale Abwägen, wie viel % Mehrleistung es für Summe X gibt. Ich habe nicht zitiert, dass jemand gesagt "okay aber bei dem Preis kann man schon überlegen, ob man lieber noch in den sauren Apfel beißt und die 4090 nimmt für einen zur Mehrleistung legitimem Aufpreis." Die Aussage war: Ob ich nun 1500€ oder 1800€ ausgebe ist dann auch egal und das sehe ich nicht so, das sollte sich schon (wie von der beschrieben) lohnen.

Das richtige Verhalten wäre, die Preise nicht anzunehmen, sodass sie wieder runter gehen.
 
  • Gefällt mir
Reaktionen: Inelouki, JohnDonson, Benji18 und eine weitere Person
CrustiCroc schrieb:
Die 4080 gibt es immer mal wieder um 1400EUR, da wird die Wahl dank FG und RT wieder schwierig und man muss sich fragen was dann noch für die XTX spricht.
Daher Tests abwarten, keiner weiß bisher was die 7900XTX wirklich kann und welche Features bei AMD kommen werden.
CrustiCroc schrieb:
Laut DEINEN Berichten ! Und einer ominösen Seite mit dem Namen "Appuals".
Okay....
Die Daten sind doch in der offiziellen Geekbench Datenbank erschienen. Da ist doch die Seite völlig wurschd, wo das schlussendlich veröffentlicht wird.
 
anthony274 schrieb:
Das richtige Verhalten wäre, die Preise nicht anzunehmen, sodass sie wieder runter gehen.
Da kann ich teilweise zustimmen. Ist zumindest definitiv ein besserer Ansatz als jeden Aufpreis einfach hinzunehmen. Wenn man aber wirklich eine Karte braucht, dann bringt das nichts. Okay wirklich brauchen und es ging um 4080/90 naja. Wobei der geneigte Enthusiast die 4090 bestimmt auch nicht weniger braucht, als ich meine 6800.

Also ja diese Preise nicht mitzutragen und dann einfach entweder gar nicht zocken oder auf der alten Hardware, ist eine Option, aber ich kann verstehen, wenn man das nicht möchte.
 
Ich weiß ehrlich gesagt nicht, was diese synthetischen Benchmarks jedes Mal sollen, die sind absolut nicht aussagefähig. Eigentlich muss man sich nur die Benchmarks der Präsentation von AMD anschauen und ein bisschen den Dreisatz bemühen, dann weiß man ziemlich genau wo die landen werden:
Beim Rasterizer etwa auch 4080 Niveau, je nach Spiel mal mehr, mal weniger und Beim Raytracing auf 3090 Niveau, wenns gut läuft 3090TI
 
  • Gefällt mir
Reaktionen: Illithide
LamaMitHut schrieb:
Was wäre denn dein Vorschlag? AMD sollte es im Gegensatz zu Nvidia verboten werden Gewinne zu erzielen?
.
Ach wo das war nicht die Nachricht.
Das Wort fair ist in dem Zusammenhang nun mal deplatziert.
Ich gönne AMD auch jeden Gewinn, da sie nach wie vor schlechter als Intel dastehen.

Was ich nicht unterstütze ist die allgemeine Preispolitik, die ich mit meiner Nachfrage beeinflusse.
 
Hurricane.de schrieb:
Ist das so? Es ist noch nicht soooo lange her, dass die Topmodelle vielleicht 700€ gekostet haben.
Definiere lange...
Für ne Titan X hat man 2016 schon 1299€ bezahlt.

Allein mit der Inflation wären das heute schon über 1500.
Wenn wir dann noch nen wesentlich schwächeren Euro, zwei jahre Corona, Ressourcenknappheit, nen Handelskrieg und nen echten Krieg in die Rechnung mit rein rechnen, dann sind 1859 für ne 4090 FE eigentlich gar nicht so weit weg... und das immerhin 8 Jahre später... 🤷‍♂️
 
  • Gefällt mir
Reaktionen: ThirdLife und Neubauten
Schade ist es, dass der Drang des "Sofort-haben-wollens" bei vielen viel zu groß ist. Selbst wenn bis gestern die alte GPU noch gereicht hat, wenn auch mit Einschränkungen, muss an dem Release-Tag sofort die Neue her, weil ohne, kann man ja nicht leben.
Für die Hersteller ein leichtes Spiel, da die aufgerufenen Preise einfach mitgenommen werden, zwar ohne Begeisterung, aber meist mit der Rechtfertigung, dass so viel Leistung einfach so viel kostet.
Würde dieses Phänomen nicht bestehen und genug Geduld vorhanden sein, auf Konkurrenz zu warten und erst dann objektiv abzuwägen, welche GPU das beste für einen ist, wären die Hersteller häufiger im Zwang, ihre Preise anzupassen und die Konsumenten hätten mehr Auswahl zu adequateren Preisen.

Leider nur Wunschdenken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gotex, pinacolada, Inelouki und 3 andere
Also die Preisdiskussion hier ist ein bisschen müßig. Da schreiben jetzt doch schon wieder einige, dass die AMD-Karten ja auch 1300-1500€ kosten werden oder gar vielleicht noch mehr, kommen im gleichen Atemzug aber mit den FEs von NVidia, welche auch nicht so eine tolle Verfügbarkeit haben, dass ich einfach in den Laden gehen könnte um sie zu kaufen.
Also entweder vergleiche ich die Referenz Radeon mit der FE Geforce oder Customs mit Customs. Und da bleibt die Preisdifferenz am Ende vermutlich gleich. (Was natürlich auch bedeutet, dass es sich bei steigendem Preis relativ nähert).
Da AMD die Preise in ihrem Webshop ja oft nach aktuellem Dollar-Kurs anpasst, kann es sogar sein, dass der Euro-Dollar-Aufpreis wirklich im Rahmen der Mehrwertsteuer liegt. Aktuell sieht das ja so aus, dass 999$ für die 7900XTX 953,3€ entspricht mit Mehrwertsteuer kommen wir hier auf 1134,43€. Von daher ist es realistisch, dass die Karte am Ende für zwischen 1149€ und 1199€ auf den Markt kommt.
Wenn wir jetzt von den 1399€ für die RTX4080 FE ausgehen, dann liegt der Preisunterschied noch immer bei mindestens 200€ bis max 250€. Das ist schon noch ein bisschen was. Von der RTX 4090 brauchen wir da gar nicht reden, weil das halt doch 1859€ sind und damit 660€ bis 710€ sein können. Für die Differenz kann man sich auch CPU und Board ggf. sogar noch RAM kaufen.

Am Ende kommt es aber dann doch drauf an, ob AMD bei der Leistung abliefert oder nicht. Sollte die 7900XTX wirklich schneller als die RTX4080 sein und in Raytracing nicht zu weit hinten liegen, könnte sie klar das bessere Angebot sein. Liefert AMD nicht ab und enttäuscht bei der Leistung, dann wird der Winter noch frostiger.
Und ich sage bewusst das bessere Angebot und nicht ein gutes. Denn ganz ehrlich, die Preise für die aktuelle Generation finde ich überall zu hoch bisher.
Gilt für mich aber bei beiden Herstellern gerade für die jeweils zweitschnellste Karte. Da ist der Preisunterschied gemessen zum (bei AMD zu erwartenden und bei NVidia zum gemessenen) Leistungsunterschied ggü. den Topmodellen einfach zu gering. Eine 7900XT mit voraussichtlich 20% weniger Leistung nur 10% günstiger anzubieten scheint kein guter Deal zu werden. Und bei der RTX4080 kennen wir das ja bereits.

Überzeugen tun mich also leider beide nicht wirklich. (Okay bei der Leistung schon bei der Preis-Leistung aber eben nicht).
 
  • Gefällt mir
Reaktionen: Rockstar85, ThePlayer, Orok91 und eine weitere Person
Wurde schon angekündigt, wo die 7900er zu kaufen sein werden? Die FE ist nur im AMD-Shop verfügbar oder war die damals auch mal von einem Händler vertrieben worden?

Ich will eine FE und mir vorab die Shops aufm Handy öffnen. Muss leider arbeiten zu der Zeit :D
 
Onkel Föhn schrieb:
Also das schnellste AMD Modell (69x0 XT) war/ist in RT (laut CB Benches) so schnell wie NV´s zweitschnellste Karte 3080. Die 7900 XTX soll auf 3090(Ti) Niveau in RT kommen, was bis vor kurzem noch die Speerspitze dargestellt hat.
Da von "abkaggen" zu reden finde ich jetzt schon ein bischen "Banane" ... :freak:
Dass das "light RT" Workloads sind, wurde dir mit Sicherheit doch auch schon öfter gesagt?
Ampere ist bei der reinen RT Leistung doppelt so schnell wie RDNA2, also ja, in RT kackt RDNA2 ab.
Siehe z.B.:
https://www.guru3d.com/news-story/r...o-rtx-3080-in-vulkan-ray-tracing-tests,3.html
https://www.pcgameshardware.de/Rayt...cials/ART-Mark-Raytracing-Benchmarks-1371125/

Screenshot 2022-12-06 090332.png


Das Problem ist, dass AMD nur mit der letzten Arch. aufschließen konnte, obwohl sie die Möglichkeit hatten, mehr zu machen und die Konkurrenz schläft nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ragnarök88
Ich traue nur Benchmarks von CB und anderen seriösen Seiten.
 
  • Gefällt mir
Reaktionen: MiroPoch und Benji18
CrustiCroc schrieb:
Das ist Quatsch ! Wird auch in jedem Test so gesagt, das diese Gen. in ihrer kompletten Lebensdauer VIEL zu langsam für die DP2.1 Möglichkeiten sein wird. Ist eher Marketing.
Ergänzung ()
Da muss ich Dir zustimmen. Für Leute mit wenig Licht am Frahrrad, die alles nur auf Gaming beziehen ist die aktuell verfügbare Hardware die DisplayPort 2.1 unterstützt natürlich zu langsam, um alles in einer maximalen Auflösung zu rendern.
Meine Aussage bezog sich auch darauf, dass man mit solcher Hardware eher arbeitet und dafür ist DisplayPort 2.1 bereits erforderlich.

Bei deinen nächsten Kommentar berücksichtige doch bitte, dass es mehr Anwendungsfälle gibt, als nur stupide am Bildschirm zu daddeln!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiroPoch, ThePlayer und Balikon
MrHeisenberg schrieb:
Dass das "light RT" Workloads sind, wurde dir mit Sicherheit doch auch schon öfter gesagt?
Ampere ist bei der reinen RT Leistung doppelt so schnell wie RDNA2, also ja, in RT kackt RDNA2 ab.
Siehe z.B.:
https://www.guru3d.com/news-story/r...o-rtx-3080-in-vulkan-ray-tracing-tests,3.html
https://www.pcgameshardware.de/Rayt...cials/ART-Mark-Raytracing-Benchmarks-1371125/

Anhang anzeigen 1292971

Das Problem ist, dass AMD nur mit der letzten Arch. aufschließen konnte, obwohl sie die Möglichkeit hatten, mehr zu machen und die Konkurrenz schläft nicht.
Dass Cherry-Picking inhaltlich keinen Wert hat und schlechter Stil ist, wurde Dir mit Sicherheit doch auch schon öfter gesagt?

Wenn auch offenbar noch nicht oft genug. Kleiner Tipp: Schau Dir auch mal die letzte Umfrage hier zur praktischen Bedeutung von RT an. „Light RT Workloads“ mimimi! wtf! 🤣
 
  • Gefällt mir
Reaktionen: Gotex, MiroPoch, Rockstar85 und 4 andere
tstorm schrieb:
und die Karten an Weihnachten verschenkt werden sollen an User, die einen Kamin besitzen.
Gut zu wissen, rufe schnell noch den Schornsteinfeger an, und werde die Heizung am 24. aus lassen. Soll ja nicht verbrennen, das gute Stück.
th3o schrieb:
AMD erhöht einfach nur im Schatten NVIDIAS ebenfalls seine Preise nach und nach und bekommt trotzdem Applaus nur weil sie günstiger sind.
So ist das nunmal in einem Duo- bzw. jetzt Oligopol. Der mit der größten Marktmacht diktiert die Preise, die anderen passen die ihren mit entsprechendem Abstand an. Keine Sorge, das wird mit Intel nicht viel besser, selbst wenn die nächste Gen deutlich aufholt.

Wenn sich die 7900XTX tatsächlich zwischen 4080 und 4090 einordnet (Rasterizer) und - sagen wir mal - es RT-technisch auf 3090(Ti)-Niveau schafft, dann kann man den reinen Dollarpreis vor Steuern schon als Kampfpreis ansehen.
 
Zuletzt bearbeitet:
MrHeisenberg schrieb:
Ampere ist bei der reinen RT Leistung doppelt so schnell wie RDNA2, also ja, in RT kackt RDNA2 ab.
bin mir jetzt ja nicht soooo sicher... aber... meinst du wirklich, dass die 7900xtx mit einem RDNA2 chip daher kommt? (schließlich sprachen die beiden über diese GPU und deren zu erwartende RT Performance)
 
catch 22 schrieb:
bin mir jetzt ja nicht soooo sicher... aber... meinst du wirklich, dass die 7900xtx mit einem RDNA2 chip daher kommt?
Nein, aber was hat das mit meiner Aussage oder dem zitierten Post zutun?

Illithide schrieb:
Dass Cherry-Picking inhaltlich keinen Wert hat und schlechter Stil ist, wurde Dir mit Sicherheit doch auch schon öfter gesagt?
Sein Post ist Cherry-Picking. Er redet von RT Leistung und postet Screenshots eines Parkours, in welchem fast nur Raster-Games mit ein klein bisschen RT zu sehen sind. Seine Fazit ist dann, dass die 6900XT in RT genau so schnell wie eine 3080 ist und das ist nicht korrekt.
Die 6900XT ist in RT nicht so schnell wie eine 3080. Sie ist in Games, die ein bisschen RT nutzen fast so schnell.
Was die reine RT Leistung anbelangt, liegt AMD meilenweit hinten.

Illithide schrieb:
Wenn auch offenbar noch nicht oft genug. Kleiner Tipp: Schau Dir auch mal die letzte Umfrage hier zur praktischen Bedeutung von RT an. „Light RT Workloads“ mimimi! wtf! 🤣
Was hat das eine mit dem anderen zutun?
RT ist die Zukunft und wird nicht mehr verschwinden. Im Gegenteil, die Nutzung wird ansteigen.

Du solltest CB nicht als Maßstab für irgendwas nehmen. Wenn ich nach den User hier gehen würde, hätte AMD einen Marktanteil von mehr als 80%. Auf Steam ist das genaue Gegenteil der Fall und außerhalb der CB Bubble interessieren sich viele für RT und neue Features.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: I N X S
MrHeisenberg schrieb:
Sein Post ist Cherry-Picking. Er redet von RT Leistung und postet Screenshots eines Parkours, in welchem fast nur Raster-Games mit ein klein bisschen RT zu sehen sind. Seine Fazit ist dann, dass die 6900XT in RT genau so schnell wie eine 3080 ist und das ist nicht korrekt.
Die 6900XT ist in RT nicht so schnell wie eine 3080. Sie ist in Games, die ein bisschen RT nutzen fast so schnell.
Was die reine RT Leistung anbelangt, liegt AMD meilenweit hinten.

Was hat das eine mit dem anderen zutun?
RT ist die Zukunft und wird nicht mehr verschwinden. Im Gegenteil, die Nutzung wird ansteigen.
zum ersten Punkt, vergleichst du RT Core Gen1 mit RT Cores Gen2 .... warten wir ab welchen Sprung die Gen2 bei AMD macht.

Ja ist durchaus die Zukunft, ob das aber wirklich durchschlägt od. nur für ein paar Enthusiasten interessante Spielerei bleibt liegt daran wie dieses Feature in die breite Mainstream maße bringt und da wird der Preis durchaus eine happige rolle spielen. Bis das dann so weit ist werden wohl noch 3-4 Generation ins Land ziehen.
Man beachte Steam HW Statistik da ist die 1650 ganz vorne dicht gefolgt von der 1060ig

1670317239714.png
 
  • Gefällt mir
Reaktionen: danyundsahne, konkretor und Inxession
Taxxor schrieb:
Und dann kann man, wenn man schon bereit wäre 1500€ für ne 7900XTX Custom hinzulegen, tatächlich überlegen, ob das noch so ein gutes Angebot ist, schließlich ist die 4090 in jeder Disziplin schneller, bei Raster um ~15-20%, bei RT um ~60-100% und man bekommt Nvidia-proprietäre Features, die ebenfalls den Kauf beeinflussen können.
Naja, du darfst dann aber auch nicht die Leistungsdaten der Referenz 7900XTX mit wohl 350W Board Power nehmen. Ich kann mir durchaus vorstellen, dass die Custom Modelle im Verbrauch deutlich hoch gehen, aber damit auch die Leistung wohl merklich nach oben gehen könnte. Klar, in RT wird man nicht in die Nähe der 4090 kommen, aber in Raster Leistung könnte man da vielleicht schon in die Region der 4090 kommen. Ob man damit dann ein ähnlich gutes Angebot schafft, ist natürlich nicht gesagt. Aber dein Vergleich hinkt da halt, weil du nur den Preis aber nicht die Leistung der Custom Karten nimmst.
Taxxor schrieb:
Siehe z.B. erst vor kurzem Callisto Protocol. Als AMD Sponsored Titel gibt es hier zum Start kein DLSS sondern nur FSR. Als 4090 Nutzer egal, denn man kann FSR ja auch nutzen, genau wie man es als 7900XTX Nutzer kann.
Genau das ist aber ein Problem für NVidia. Denn früher mussten die Spielehersteller zwingend DLSS nehmen, weil es keine Alternative gab. Jetzt kann man als Spielehersteller entweder DLSS nehmen, und damit einen von drei GPU Herstellern unterstützen (Intel ist zwar noch klein, dürfte aber in Zukunft auch eine gewisse Größe erreichen). Oder man nimmt FSR oder XESS und deckt alle ab. Klar, über Plugins und co kann man auch DLSS und FSR mit wenig Aufwand gleichzeitig unterstützen, aber das ist trotzdem ein gewisser Mehraufwand (zumindest beim Testen). NVidia läuft hier also Gefahr, dass DLSS an Bedeutung verliert und die Spielehersteller mehr auf andere Lösungen gehen. NVidia muss daher immer noch etwas drauf setzen (jetzt DLSS 3), um ihr Feature für die Spielehersteller attraktiver zu halten. Das wird aber mit der Zeit immer schwieriger (irgendwann ist es halt mal ausgereizt).
Und letztendlich hast du es ja oben schon gesagt: Mit der 4090 bekommt man neben deutlich mehr Leistung eben NV exklusive Features. Wenn das aber immer weniger Features werden, weil die Konkurrenten mit offenen Lösungen nachziehen, dann fällt hier irgendwann mal ein Argument für NVidia weg. Entsprechend ist NVidia sicher nicht begeistert über solche Entwicklungen.
 
Zurück
Oben