News Radeon RX 7900 XTX: AMDs Topmodell fällt im MindStar auf 899 Euro

shaboo schrieb:
Genau das. Man sollte sich immer vor Augen halten, dass der Teil des Geldes, den man gegenüber einem Konkurrenzmodell in zusätzliche RT-Leistung investiert, eine extrem kurzlebige Investition ist. Das gilt selbst für eine 4090; da muss man sich überhaupt keine Illusionen machen.

Von daher mag RT wichtig sein und immer wichtiger werden, die Entscheidung (noch) keine größeren Summen hierfür auszugeben aber trotzdem eine wohlüberlegte sein.
Also wenn man schon einigermaßen in "Zukunftsfähigkeit" investieren möchte, ist es fast immer ratsam relativ früh (ein paar Monate nach Release, nachdem sich ggf. überhöhte Release-Preise auf einem stabilen Niveau gefangen haben) eine High-End-Karte zu holen und ein Upgrade genau dann zu machen, wenn wieder eine großer Sprung an roher Leistung in einer aktuellen Generation zu bekommen ist.

Bzgl. RT bin ich da völlig bei dir: Rein auf Feature-Ebene sich "zukunftssicher" mit Mid-Tier-Karten am Ende einer Generation aufzustellen, geht fast immer noch hinten los. Kein Feature ist derart entscheidend und einmalig, dass es irgendwie eine Mittelklasse-Karte noch ewig über Wasser hält, wenn die Anforderungen der Spiele steigen. Sprich unterhalb von High-End-Karten schaut man einfach nach optimalen P/L bzgl. der rohen Leistung.

Und ganz ehrlich: RT ist halt nach wie vor einfach ein Gimmick, auf das man verzichten kann. Ich hatte es, seit ich meine 2080ti ersetzt hab, eigentlich nie wieder dauerhaft an. Jedes Mal, wenn ich es mal testweise anwerfe, ist das eher ein "Finde den Unterschied"-Spiel und die Entscheidung fällt quasi immer für mehr FPS (und weniger Latenz) aus. Bei Reflektionen sieht man es halt, während die Unterschiede in der Beleuchtung recht beliebig sind (mitunter sehen die kontrastarmen Ausleuchtungen und softeren Schatten sogar schlechter aus; da ist mir auch egal, ob das dann "realistischer" ist).
 
  • Gefällt mir
Reaktionen: SweetOhm, CadillacFan77, Apocalypse und 3 andere
Nvidia hat sich schon weit vor 2018 auf den AI-Zug vorbereitet sieht man auch an der Architektur. Pascal war eine reine Gaming Arch. Turing nicht mehr und seit Ampere was ich gerne als Nvidias Vega bezeichne gerade deswegen und ADA nichts anderes ist als Ampere 2.0. Sie haben genau ins Schwarze getroffen. :)

Wäre ADA wie Pascal gestrickt wären die Karten viel schneller und effizienter. Nvidia Gaming Karten sind nur abfall aus dem Profi Segment mehr nicht.

Aber Nvidia hat zur richtigen Zeit den Markt korrekt gelesen und sind ein unglaubliches Risiko eingegangen mit unglaublichem Erfolg.
 
  • Gefällt mir
Reaktionen: SweetOhm und shaboo
MelbarKasom schrieb:
Geht es hier im Artikel um die Konkurrenzkarte? Nein. Wenn es für Dich keinen Grund gibt ist das ja schön, der absolute Stromverbrauch spielt aber für immer mehr Menschen, nicht nur aus Kostengründen, eine wesentliche Rolle. Wenn die Konsumenten diese Entwicklung so weiter mitmachen, haben wir in 15 Jahren 1 KW Grafikkarten. Das ist eine Fehlentwicklung und auch dann wird jemand kommen der sagt:" Aber ich brauch das für meine 16K, das benötigt ja Leistung". Einfach mal hinterfragen, ob dieses von der Industrie uns auferlegte Hamsterrad eine erstrebenswerte Entwicklung ist, oder ob man nicht auch mit weniger zufrieden sein kann.
Klar kann man, aber kritisierst du den Trend zu 4K oder diese Karte? Deine Argumente zeigen ja eher dahin, dass DU ungeduldig bist, dass nicht bereits noch mehr Effizienz-Fortschritt erreicht wurde.

Ich bin ganz bei dir, dass man den Sweetspot aus Kosten und Qualität suchen sollte, aber diese Karte ist da mMn schon recht nah dran.

Und man könnte provokativ sagen, was sind auch schon 50W mehr oder weniger? Wenn du einmal die Woche (k)einen Kuchen backst... Selbst an so einem Januar-Tag kommen noch 200W vom Himmel runter. Pro Quadratmeter! Bereits die 780 ti von 2013 hatte übrigens 250W TDP.
 
  • Gefällt mir
Reaktionen: SweetOhm
DLSS Ist für mich mittlerweile kein gutes Argument mehr, zumindest bei den letzten Spielen die ich gespielt habe ist entweder die Implementierung richtig schlecht oder es werden neuere Versionen genutzt und es kommt deshalb zu immer mehr Problemen.^^

Letztes Beispiel dafür war bei mir das neue Like a Dragon, Artefakte und Ghosting, werde DLSS deshalb auch da deaktivieren.^^

DLSS war für mich mal eines der besten Features überhaupt, aber das ändert sich mittlerweile leider immer mehr.^^
 
schnufflon84 schrieb:
dann zahlt man für 100 Stunden Vollgas Spielen 3 Euro drauf.. das ist meiner bescheidenen Meinung nach völlig vernachlässigbar wenn man bereit ist über sagen wir mal 800 Euro für eine Grafikkarte auszugeben.
Naja das ist aber auch viel zu viel, Beispiel Metro Exodus liegen in UHD nur 60W zwischen den Karten natürlich mit mehr FPS also ähnliche Effizienz, bei Doom Eternal 144FPS-Limit sinds sogar nur 40 Watt. Also kannst das ganze auf 1,5 Euro reduzieren und das dann halt auch mit mehr FPS also ein Äpfel / Birnen Vergleich. Wie wenn sagst mein 4k TV Verbraucht mehr Strom als der 2k, ja aber es sind 2 verschiedene Gerätearten.
 
  • Gefällt mir
Reaktionen: schnufflon84
Xul schrieb:
Und ganz ehrlich: RT ist halt nach wie vor einfach ein Gimmick
Ich würde eher sagen, dass die Anzahl Games, in denen es tatsächlich einen sichtbaren Unterschied macht, noch zu gering ist, um das für eine breitere Anwendergruppe signifikant werden zu lassen. Wird nicht so bleiben, aber der Change ist hier eher von langsamer Natur.
 
  • Gefällt mir
Reaktionen: Xul, Melmoth und ShowOff
blackiwid schrieb:
Um meine Aussage zum Frame-Cap überspitzt herunterzubrechen:

Mit Alan Wake II "sparst" du Energie und hast Leistungsoverhead.
Mit Alan Wake III klebst du mit 350w auf 50 Frames.

Die RTX4090 war im CB-Test die effizienteste Karte in Full-HD inklusive Frame-Cap. Technisch ist das völlig klar.
Doch für Solitär und Moorhuhn benötige ich keine bis zu 350w und 900€ schwere Karte; wie es bspw. die aktuelle XTX ist.




Ferner müssen Kühlung und Netzteil stets den Worst-Case abführen können. Wenngleich Nutzer unterschiedliche Ansprüche an einen leisen Rechner (bzw. kühleres Zimmer) haben, so kostet dies Ressourcen.

Ich wünschte, es wäre anders. Dann hätte ich mir ggf. eine XTX gekauft. Da es für mich nicht infrage kommt. Es sollte besser Grenzen des absoluten Verbrauchs geben. Womöglich kommt das ja noch, gegen den Willen der Enthusiasten, wie wir es als zahnloser Tiger bereits bei Glotzen erlebt haben.


Vigilant schrieb:
Wird nicht so bleiben, aber der Change ist hier eher von langsamer Natur.
Noch eine persönliche Meinung: Raytracing ist noch lange nicht in der Breite marktreif.
Macht es höllisch Laune, mit einer 2000€ Karte an einem 1000€ OLED? Absolut.
 
  • Gefällt mir
Reaktionen: ShowOff
Hab die 7900XTX als nachfolger der 6900XT gekauft unter anderen weil ich viel VRchat spiele und das Game nach Vram giert. Ich hatte in den 2 Monaten nicht einmal einen Treibercrash etc. Ich kann diese Karte nur empfehlen. Und auch der Idle verbrauch ist mit teilweise 3 watt um einiges Besser als viele seiten und tests zeigen. Das Problem ist einfach Windows 11, da hat MS ordentlich was verkackt was den Idle angeht, weil da sehe ich die Karte nämlich nie unter 8 Watt.
 
  • Gefällt mir
Reaktionen: Derenei, SweetOhm, Sun-Berg und eine weitere Person
MrHeisenberg schrieb:
Gaming ja, aber verblümt sagen die ja selbst das Desktop nicht sonderlich stark ist sondern Laptop, hier gehts um Desktop-GPUs nicht um Notebook, Es geht um den Marketshare, ob man mehr % vom vermutlich groesseren Kuchen hat, nicht ob der Kuchen insgesamt gewachsen ist und damit das eigene Stück auch groesser ist.

Und nochmal die Zahlen sagen nur Gewinn nicht Stückzahlen wenn Nvidia mit der 4xxx Gen die Karten 50% teurer gemacht hat. Beispiel die 4070 ist ja ein lowend Chip (Speicheranbindung), wurde für 600 UVP verkauft, die 3070 mit teurem 256bit Bus wurde nur für 500 UVP Verkauft (Dollar), nur mal als Beispiel, das heißt die Marge wird massiv angestiegen sein, damit wirbt ja Nvidia auch immer wieder wie sie jedes Jahr die Zocker noch mehr abzocken (Gewinn pro Karte), also der Gewinn / Umsatz kann steigen bei gleicher Stückzahl.

Die Switch z.B. die ja auch sehr erfolgreich ist ist sicher auch in den Gamingzahlen drin... also ne das ist wenig konkretes außer die Aussage das sie auch mehr Karten verkauft haben. Es könnte sogar sein das sie einfach mit ihrem Upselling mehr % 4070 statt 4060 verkaufen wie damals 3070 3060 oder eben mit dem Lineup.

Aber hab grad nochmal geschaut sie sagen nicht mal das sie mehr Desktop Karten verkaufen nur das dort auch ein Umsatzplus da ist, es koennte also sogar sein laut dieser Seite das Nvidia weniger Grafikkarten verkauft hat (Desktop) wie das Jahr zuvor.

Sie betonen sogar zig mal in dem Artikel wie Notebook deutlich besser laeuft wie Desktop, also in anderen Worten der Desktop schwaechelt bei ihnen.
MrHeisenberg schrieb:
Die Steamstatistik ist Aussagekräftig.
Die Statistik die mir letztens jemand zeigte mit glaub 0 7800 xt verkaeufen in den letzten Zahlen... die wo wenn du 5 Steam accounts auf deinem PC hast (chinesische Internetcafees) den PC / Karte 5x zaehlt statt 1x... ja den Zahlen glaub ich sofort.
 
  • Gefällt mir
Reaktionen: SweetOhm
Xenon2k schrieb:
. Mein Grund für den Aufpreise zum B650 ist PCe5. Wenn hier Karten kommen werden die um Welten besser sein als aktuelle. Aber wer weiß.
Wenn du PCIe 4.0 X16 die halben Lanes nimmst oder für das Gleiche auf PCIe 3.0 X16 runter schaltest, verlierst selbst mit ner 4090 nur 1-3%. Sprich auch 4.0 X16 hat noch maaasssseeenhaft Reserven. Bis da ne GPU 5.0 tatsächlich braucht, wirst noch 2-4 Gen warten müssen.
Bis dahin hast das Board längst nicht mehr in Benutzung oder im Hauptrechner.

Die kommende Intelgen hat gerade mal einen Slot mit PCIe 5.0 vom Proz für die Graka und das wars.

Also Mainstream ist das noch lange nicht und nötig für ne Graka schon gar nicht.
 
  • Gefällt mir
Reaktionen: Xul
Vigilant schrieb:
Change ist hier eher von langsamer Natur.
Wir reden hier von weit über 10 Jahren bis RT, Raster komplett ersetzt. Eher sogar 20 wenn nicht mehr.

Weil selbst die 10 fache performance einer 4090 nicht ausreichen würde dann noch Mainstream Gpus leistbar bis sie es können. Puh.

Die Leute haben keine ahnung wie viel Leistung echtes Rt wirklich braucht. Es macht eine 4090 zu einer gt 710 buchstäblich.

Nvidia wird eher mit Ki mal aus einem Frame 10 generieren. Das ist die Zukunft die Nvidia sich vorstellt. Dann könnte es schneller gehen aber da spielen extrem viele Faktoren eine Rolle die niemand vorhersagen kann.

Spannend bleibt es :)

Mir wäre zwar gute Spiele lieber als Technik denn die Grafik ist bereits auf einem unglaublichem niveau. Oder aber NPC KI und Physik in spielen ist auf dem stand von vor 20 Jahren das wäre doch auch mal was....

Das ist Nintendo vorreiter mit Zelda totk auf der Switch :daumen: . Unglaublich eigentlich welche technische Errungenschaft auf dieser Hardware. Leider merken das Gamer nicht :)
Ergänzung ()

So wichtig ist Rt in der Realwelt um mal ein paar auf den Boden der Tatsachen zurückzuholen

https://steamcharts.com/
 
  • Gefällt mir
Reaktionen: SweetOhm
Zwirbelkatz schrieb:
Doch für Solitär und Moorhuhn benötige ich keine bis zu [...] 900€ schwere Karte; wie es bspw. die aktuelle XTX ist.
Ja das ist dann aber auch für die 4070 ti super richtig und hier gehts ja um den Vergleich dieser 2 Karten, das nicht jeder das Budget hat sich solch teure Karten leisten zu können / wollen, steht auf nem anderen Blatt, ich hab auch nicht so viel Geld über, und für Mohrhuhn ist selbst ne rx 480 zu viel...

Netzteil halte ich für ein geringes Argument da die ja alle normalerweise gleich gross sind, selbst wenn jetzt ein Altersschwaches Netzteil hast sollte sowas easy reichen:
https://geizhals.de/inter-tech-energon-sl-700w-plus-700w-atx-2-2-88882141-a1405893.html?hloc=de

33 euro, das macht den Hasen bei den Preisen auch nimmer Fett dein altes kannst sicher dann easy auch noch für 10-15 Euro verkaufen da die meisten aber eh sicher irgendwelche Luxus Netzteile haben gerade auch die Kundschaft solcher Karten, verschiebt sich die Preise natürlich und man kriegt für die Luxusdinger höhere Preise im an und Abverkauf aber sind halt Beispieldaten, und Nvidia Karten sind ja auch nicht dafür bekannt sehr klein zu sein im Vergleich zu AMD.
Wieso sollte die Schwere bei ner Karte so wichtig sein, gehst regelmäßig auf Lanparties?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
DonDonat schrieb:
Preislich tatsächlich ganz interessant, gerade im Vergleich zur 70 Ti die genau so viel kostet.
Lässt sich die XTX denn einigermaßen gut undervolten? Bräuchte nicht die letzten Paar %, würde aber ein paar weniger Watt gerne nehmen^^
der einfachste Weg in 2 Sek.: Powertarget nach links ziehen. Dann verbraucht die Karte 10% weniger Strom und verliert 2% Leistung (--> ausführlichere Tests, Einstellungen, Werte, etc. gibt´s in PCGH 11/2023)
 
  • Gefällt mir
Reaktionen: SweetOhm
Creeping.Death schrieb:
Es ist nicht so arg lange her, da gab es die GPU-Topmodelle (damals noch GTX1080) für um die 600 EUR (Straßenpreis).

Dumm nur, dass nicht die 1080 sondern die 1080 Ti das Topmodell war mit gutem Abstand ( 15-30% je nach Game ) und da wurden 850€+ abgerufen.
 
Scheinen einigevergessenzu haben das bei release die 1080 über 800€ gekostet hat und extrem vergriffen war. :daumen:

Erst mit release der 1080ti sank der preis gewaltig. aber die wurde auch um 900€ gehandelt wer kein Glück hatte bei eine zu erwischen bei release und war ebenfalls vergriffen.

Pascal war erst Monate später gut kaufbar.
 
  • Gefällt mir
Reaktionen: SweetOhm
neofelis schrieb:
Ergo - Rasterizer-Performance ist allem Anschein nach ein zweitrangiges Kriterium für die Käufermasse.
Was zählt sind die Strahlen.
Dann setze mal die Anzahl der guten RT-Spiele ins Verhältnis zu guten Rasterizerspielen ...

RT ist imho als Kauf für eine Grafikkarte Stand jetzt total überhypt und ein Scheinargument. Hier in der Cb-Bubble und natürlich auch anderswo sind in meinen Augen nach viele, die sich im wahrsten Sinne des Wortes haben blenden lassen :D .

Falls natürlich das Lieblingsspiel gute RT-Unterstützung bietet, kann RT-Leistung das entscheidende Kriterium sein.

Das alles mag in 3-5 Jahren anders aussehen, aber dann gibt es eh eine neue Gen oder vielleicht auch zwei ...

justmy2cents
 
  • Gefällt mir
Reaktionen: mRcL und SweetOhm
frames p. joule schrieb:
Klar kann man, aber kritisierst du den Trend zu 4K oder diese Karte? Deine Argumente zeigen ja eher dahin, dass DU ungeduldig bist, dass nicht bereits noch mehr Effizienz-Fortschritt erreicht wurde.

Ich bin ganz bei dir, dass man den Sweetspot aus Kosten und Qualität suchen sollte, aber diese Karte ist da mMn schon recht nah dran.

Und man könnte provokativ sagen, was sind auch schon 50W mehr oder weniger? Wenn du einmal die Woche (k)einen Kuchen backst... Selbst an so einem Januar-Tag kommen noch 200W vom Himmel runter. Pro Quadratmeter! Bereits die 780 ti von 2013 hatte übrigens 250W TDP.
Ich kritisiere die Karte, schließlich war von der Karte in Artikel auch die Rede. Ich kritisiere aus dem Bereich "höher, schneller, weiter" noch viel mehr, aber das sollte hier keine Rollte spielen und führt am Thema vorbei. Im Grunde kritisiere ich auch die ganze Generation der diese Karte angehört, Stichwort Idle-Stromvebrauch, da war gerade die letzte AMD Generation einfach besser und das empfinde ich dann als Fehlentwicklung die man nicht auch noch mit "Kauf" belohnen sollte, sonst ensteht nie der Druck den es braucht, dass es zu einem Umdenken kommt. Getoppt wird das dann noch durch Modelle, die auch unter Last einfach viel aus der Steckdose saugen.

Zu Zeiten der 780 ti hatte ich schon die gleiche Meinung und habe damals wie heute nie mehr als Mittelklasse Grafikkarten gekauft 🙃
 
E1M1:Hangar schrieb:
Dumm nur, dass nicht die 1080 sondern die 1080 Ti das Topmodell war mit gutem Abstand ( 15-30% je nach Game ) und da wurden 850€+ abgerufen.
Kam die TI nicht viel später?
Moment.
May 27th, 2016
March 10th, 2017

Für 10 Monate war dann wohl die 1080 das Top Model bis die 1080ti kam und man wahrscheinlich die 1080 und 1080ti beide kaum kaufen konnte, weil gerade mal Uralte R9 290 Karten noch für 2x die UVP Verkauft wurden für Mining?

Edit: Aber natürlich hat die Titan der Vorgänger Generation eh schon über 1000 USD gekostet, nicht? ;-)
 
  • Gefällt mir
Reaktionen: SweetOhm
blackiwid schrieb:
Gaming ja, aber verblümt sagen die ja selbst das Desktop nicht sonderlich stark ist sondern Laptop, hier gehts um Desktop-GPUs nicht um Notebook, Es geht um den Marketshare, ob man mehr % vom vermutlich groesseren Kuchen hat, nicht ob der Kuchen insgesamt gewachsen ist und damit das eigene Stück auch groesser ist.
Aber Laptop ist doch OEM und das ist separat aufgeführt?

blackiwid schrieb:
Die Statistik die mir letztens jemand zeigte mit glaub 0 7800 xt verkaeufen in den letzten Zahlen...
Die fiel zu dem Zeitpunkt unter "other". Karten werden erst explizit aufgeführt, wenn sie eine gewisse Prozentzahl erreicht haben.

blackiwid schrieb:
die wo wenn du 5 Steam accounts auf deinem PC hast (chinesische Internetcafees) den PC / Karte 5x zaehlt statt 1x... ja den Zahlen glaub ich sofort.
Ja und? Das gilt doch für AMD und Nvidia gleichermaßen und genau dadurch gleicht es sich wieder aus.
Meinste nicht, dass Steam die Hardware ID kennt und einen PC nicht 5x aufführt, sondern nur 1x? ;)
 
Zurück
Oben