News Radeon RX 7900 XTX: AMDs Topmodell fällt im MindStar auf 899 Euro

Also ganz ehrlich, wenn man jetzt eine neue GK in diesem Preisbereich kaufen wöllte....führt doch kein Weg an einer XTX vorbei. Natürlich verbraucht sie Unmengen (Achtung Sarkasmus)mehr an Strom aber sie ist einfach mal über 200€ günstiger als ihr Mitbewerber. Das ist nun mal die 4080 und nicht die 4070 Ti Super GTI 16V, auch wenn das für manche schmerzhaft ist.
Aber irgendein Argument muss man ja bringen, dann isses halt RT...dessen Mehrwert eher zweifelhafter Natur ist.
Wie konnten wir die letzten 30 Jahre nur ohne leben, geschweige denn spielen?

Zum Glück muss ich nicht mehr jedes aktuelle Spiel haben...meine 6800XT wird wohl noch ein bisschen tun. Momentan läuft sie nicht mal auf 50% ( um 100 Watt beim spielen), da ich meine paar regelmäßigen Spiele einfach gut eingestellt hab und trotzdem 120 - 144 FPS habe. Es geht schon, man muss nur wollen.
 
  • Gefällt mir
Reaktionen: Bänki0815, SweetOhm, daknoll und 2 andere
blackiwid schrieb:
Und wieso soll das von einer extrem beliebten Karten nicht erreicht sein? Wirft viele Fragen auf.
Weil das anscheinend von den Käufern nicht so gesehen wird?

blackiwid schrieb:
Damals soweit ich weis ohne Links ich glaub nicht einfach Blind irgendwelche Aussagen aber ja um CB zu zitieren und mein Argument zu unterstreichen:
Ist doch eine Standardformulierung, die überall steht. Natürlich muss man alles hinterfragen. Aber es gibt nichts besseres aktuell. Du kannst natürlich eine Quelle nennen, die automatisiert weltweit Daten zu der Verteilung aller GPUs erhebt. Und bitte nenne jetzt nicht Mindfactory (nur DE und DIY), Amazon Topseller oder PCGH Umfrage, wo jeder ankreuzt was er vielleicht hat oder angeblich gerne hätte.

blackiwid schrieb:
Ein weiterer Beweis das die Zahlen falsch sein müssen, es ist bekannt das billigere Karten sind zig mal mehr verkaufen wie teurere.
Nur weil eine Karte etwas günstiger ist, als eine andere, verkauft sie sich nicht zig mal mehr. Die 7900 XT lag zu nah an der XTX dran. CB konnte auch nicht wirklich eine Empfehlung für die XT geben. Das Topmodell war 16 % schneller, aber nur 9 % teurer. Und wenn das weltweit erstmal so kommuniziert wird, haben Käufer eh erstmal das Interesse verloren oder direkt zur XTX gegriffen.

blackiwid schrieb:
Eine Vermutung könnte sein das die Zahlen extrem veraltet sind, das würde sowohl die 7800xt Problematik als auch die XTX Problematik erklären.
Der Survey, den ich verlinkt hatte, war von Dezember 2023. Neuer geht es nicht. Karten die erst später released werden, tauchen natürlich auch erst später dort auf, sobald sie den Grenzwert überschreiten. Es kann auch sein, dass die 0,14 % haben, aber noch unter "Others" zu finden ist.

blackiwid schrieb:
Und selbst deine Zahlen hier mit 4080 vs 7900xtx wäre ein massiver Gewinn für AMD, in den gängigen Umfragen wird ja Nvidia gerne irgendwas um die 85 teils 90% zugeschrieben und immer mehr % ansteigend:
https://de.statista.com/statistik/d...rafikkarten-weltweit-seit-dem-3-quartal-2010/
Du unterstellst einfach, dass wenn Nvidia 90 % Marktanteil hat, dass das über alle GPU Preisklassen gleichverteilt ist. Es reicht beispielsweise aus, wenn man eine RTX 3060 millionenfach mit 95 % Anteil gegenüber einer 6600(XT) verkauft, aber in den restlichen Preissegmenten immer 50:50 Gleichstand hat mit Stückzahlen im dreistelligen Bereich. Im Durchschnitt hat Nvidia immer noch 90 % Marktanteil und du lobst dann die 100x AMD Karten im 1000 Euro Bereich, die sich gleich gut verkaufen.

blackiwid schrieb:
Jeder weiss das im Bereich 200-400 Euro mehr verkauft wird.
Ja genau. Siehe oben. Eine 3060 Desktop + Laptop ist auf Steam vermutlich öfter vertreten, als alle AMD Karten aller Generationen zusammen inkl. APUs. Habe gerade keine Lust bei AMD die vielen kleinen 0,15 % und 0,2 % Anteile zusammen zu rechnen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
blackiwid schrieb:
Jeder weiss das im Bereich 200-400 Euro mehr verkauft wird.
Und in dem Bereich hatte AMD im RDNA 3 Lineup genau was? Die RX7600, eine wirklich fürchterlich schlechte Karte. Die 7700xt und 7800xt liegen oberhalb und das Segment hat bisher bei AMD eigentlich komplett der RDNA 2 abverkauf gemacht. Und wie lange ist die RDNA2 nicht mehr in Produktion? Ein Jahr? Und die Bestände sind immer noch nicht aus.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Xul und MrHeisenberg
Wenn man für 900Euro die 4070 Ti Super wählt, ist man selber Schuld. Raytracing hin oder her...
 
  • Gefällt mir
Reaktionen: SweetOhm, schnufflon84 und coxon
projectneo schrieb:
Na die XTX ist für 900€ schon ziemlichg gut, wenn auch sehr Stromhungrig, eine 70 TI Super ist dann für den gleichen Preispunkt doch deutlich zu langsam.
Kommt halt auf die Prioritäten an, das ist eigentlich immer der gleiche Senf und die Preise pendeln sich zwischen AMD und Nvidia ein, so wie die Kunden kaufen.

Will ich RT benutzen, was in neueren Spielen auf der Hand liegt, dann sieht es etwa so aus.


Screenshot 2024-01-26 160422.png

4060 Ti 16GB >7800XT 16GB
4070 Super ~ 7900XT
4070 Ti Super > 7900XTX

Nehme ich ausschließlich die Rasterleistung sieht es so aus.
Screenshot 2024-01-26 160928.png

DLSS Balanced ist nach aktuellem Stand mindestens mit FSR Qualität zu vergleichen
Das ist also inkl. Features, Stromverbrauch und DLSS und V-ram kein eindeutiger Sieg für Unternehmen A oder B, da die Preise der Radeon erst mal nur ein Angebot sind und Mindfactory AMD Partner ist und auch Karten der Konkurrenz ab und zu dort günstig zu haben sind. Siehe 4080 gestern.

Darüber kann man ewig philosophieren. Was man letztendlich kauft, ist eigentlich völlig egal, da beide Angebote recht gleichwertig sind.
Mr. Vega schrieb:
Undervolting und FPS Cap.
Damit steigt der Nvidia Vorsprung ja an. Diese Ausreden sind immer "gold".
Ich muss doch Vorteile des einen oder anderen Herstellers nicht immer schönreden.
Entscheidend ist auch der Verbrauch an der Steckdose und nicht nur die Grafikkarte und da fällt häufig auf, dass der Unterschied deutlich größer ist.
Screenshot 2024-01-26 161748.png

Möchte ich mehr als 100 Watt mehr Strom mit der 7800XT gegenüber der 4060TI 16GB verbraten, obwohl die Radeon in RT nicht schneller ist, dafür in Raster aber deutlich vorne? Kann man so oder so entscheiden.
Mr. Vega schrieb:
Ja, die 7900XTX verbraucht mehr als die 4080. Kann man aber relativ einfach eindämmen.
Dafür spart man halt Geld in der Anschaffung.
Kann man auch bei der 4080 eindämmen, meines Erachtens sogar besser, damit ist dein Argument mMn nichts wert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse und Pamoli
Zwirbelkatz schrieb:
Bei einem FPS-Cap schwingt für mich immer mit, dass man nicht die volle Leistung nutzen braucht oder möchte.
Wozu sollte ich die volle Leistung abrufen wollen, wenn ich mit weniger bereits ein technisch und/oder für mich persönlich gefühltes, flüssiges Spielerlebnis habe? Zudem sind FPS Caps beim Einsatz von Freesync/Gsync empfehlenswert. ValidebBegründungen für FPS Caps gibt es halt Einige.
 
  • Gefällt mir
Reaktionen: shaboo
Shoryuken94 schrieb:
Kommt wohl darauf wie man rechnet.
Wenn man Undervolting betreibt kann man man durchaus auf Jahr gerechnet Geld sparen. Auf das Gesamtsystem sind 200-250 Watt drinnen.
Rechnen wir mal mit 0,2 kw/h bei 2h zocken täglich aufs Jahr gerechnet bei einem Strompreis von 40 Cent / kwh.
0,2 kw/ x 2h x 365 x 0,4 €/kWh = 58,40€

Bedeutet durch undervolting alleine lässt sich bei 2h täglichem zocken ohne große Einschränkungen im Jahr knapp 60 Euro sparen. Zockt man länger dementsprechend natürlich mehr.
Ob sich das jetzt lohnt oder nicht muss jeder selbst entscheiden. Ich nehme das aber gerne mit.
 
Zuletzt bearbeitet von einem Moderator:
PhantomGamingYT schrieb:
Wer ist wir? Kannst du dich nicht allein selbst darstellen bist do so unsicher?
Das hier ist ein Forum und keine Privatunterhaltung. Es lesen somit wir alle.
Ich schreibe - aber wir lesen - was du schreibst..
Ist eigentlich ganz einfach zu merken.

Ich hoffe, dass macht dich jetzt nicht selbst unsicher.
 
  • Gefällt mir
Reaktionen: Kenzo2019
Gemäss CB Test liegt die 7900XTX rund 17% vor der 4070TiS bei Raster, und 15% hinter der 4070TiS in Raytracing Percentile (AVG "nur" 12%).

Entsprechend sind die Karten gleichschnell. Ob jetzt 15% mehr oder weniger macht nix aus, insbesondere bei RT nicht: Da sind die Framerates sowieso schon so tief, dass 15% nix ausmachen (ob jetzt 30 fps oder 34fps spielt kaum ne Rolle). Selbst bei AW:2, DEM RT Benchmark sind beide Karten weit weg von den 60 fps. Rechnerisch ist die 4070TiS rund 27% vor der 7900XTX in den Percentile bei 4k RT (bei CB). Reell sind das 23 vs. 29fps. Beides Crap -> Ergo die RT Stärke von nVidia kommt in dem Kartensegment kaum zu tragen.

Dazu kommt, dass es deutlich mehr Raster Spiele gibt als RT Spiele. Entsprechend ist logischerweise die Raster Performance wichtiger.

Daher spricht aktuell Einiges für die 7900XTX.

Die etwas schlechtere Effizienz ist ein Nachteil, der aber kaum ins Gewicht fallen dürfte bei dem kleinen Unterschied. Weder in € bei den Stromkosten, noch bei der Lautstärke / den Temps im Gehäuse.

Beim Featureset sehe ich auf nVidia's Seite nur noch CUDA als Selling Point. Für Alles andere gibt es Alternativen von AMD (DLSS/FSR, FG/FMF, Reflex/AntiLag+). Aktuell mit AFMF hat AMD sogar einen leichten Vorteil was Gaming betrifft.

Betreffend Graka Verkäufen wird ja mal wieder lustig gestritten.
So als Tipp: AMD verzeichnet im Q3/23 (letzte verfügbaren Zahlen) einen höheren Gewinn bei den dGPUs als noch im Q3/22. Entsprechend verkaufen sich die GPUs besser als noch vor einem Jahr. Und sie haben ja sogar die Preise gesenkt, entsprechend müssen noch mehr dGPUs verkauft worden sein.
Sie schreiben das sogar, dass die dGPU Verkäufe den Rückgang der SoC (PS, XBox) teilweise kompensiert haben:
Gaming segment revenue was $1.5 billion, down 8% year-over-year, primarily due to a decline in semi-custom revenue, partially offset by an increase in AMD Radeon™ GPU sales.
 
  • Gefällt mir
Reaktionen: SweetOhm, daknoll, danyundsahne und 2 andere
GOOFY71 schrieb:
Wenn man für 900Euro die 4070 Ti Super wählt, ist man selber Schuld. Raytracing hin oder her...
Aber siehst du nicht man spart WATT!!!1111 Ganz wichitg für das Spielerlebnis. Mir kommt es vor das hier Leute weit über ihr Budget einkaufen und sich das dann schön reden wollen mit ein paar € Strom. :)

Ziemlich amüsant aber auch nervig in jedem thread . WATT Watt WATT.

Niemanden hat das interessiert früher. Nicht 1.

Wahrschinlich wurde den Leuten das Gehirn gewaschen mit Klima Propaganda. Als könnte wir etwas dagegen tun als das normale Fußvolk.:lol::evillol:

Geht den Chefs auf den Sack die den Regenwald abholzen lassen für Profit ohne rücksicht auf Umwelt, Tier und Mensch. die können etwas ändern wir nicht. Wir könne sparen aber sicher nicht bei gpus. eher waschmaschine, keine alten glühbirnen usw. Tv vielleicht nicht auf 100% Helligkeit das macht alles viel mehr aus als eine Gpu.

el_zoido schrieb:
Kommt wohl darauf wie man rechnet.
Wenn man Undervolting betreibt kann man man durchaus auf Jahr gerechnet Geld sparen. Auf das Gesamtsystem sind 200-250 Watt drinnen.
Rechnen wir mal mit 0,2 kw/h bei 2h zocken täglich aufs Jahr gerechnet bei einem Strompreis von 40 Cent / kwh.
0,2 kw/ x 2h x 365 x 0,4 €/kWh = 58,40€

Bedeutet durch undervolting alleine lässt sich bei 2h täglichem zocken ohne große Einschränkungen im Jahr knapp 60 Euro sparen. Zockt man länger dementsprechend natürlich mehr.
Ob sich das jetzt lohnt oder nicht muss jeder selbst entscheiden. Ich nehme das aber gerne mit.

Witzige Rechnung. Das ginge aber nur auf wenn du Tatsächlich JEDEN Tag 2 Stunden zockst und pass auf jetzt kommt es die Gpu Tatsächlich zu 99% ausgelastet ist und ihr TBP voll ausschöpft in dieser besagten Zeit. Was ja auch von Spiel zu Spiel unterschiedlich sein kann.

Dann bleiben von deinen 60€ mit der Annahme das du bestimmt nicht jeden Tag zocken wirst vielleicht 20€ über. Deswegn ein Fass aufmachen. Wegen 1h Stunde Arbeitslohn IM JAHR. :daumen:


Da bringt es mehr wenn du den kühlschrank nicht 5 mal am Tag öffnest im Sommer.

Da ist mir das Raytracing Argument noch viel lieber oder DLSS das FSR tatsächlich voraus ist.
 
  • Gefällt mir
Reaktionen: schnufflon84 und coxon
CadillacFan77 schrieb:
Dazu kommt, dass es deutlich mehr Raster Spiele gibt als RT Spiele. Entsprechend ist logischerweise die Raster Performance wichtiger.
Sag das nicht zu laut. Wenn dich die RT Jünger hören wirst du mit Fackeln und Mistgabeln gejagt und der Ketzerei bezichtigt. ;)
 
  • Gefällt mir
Reaktionen: Bänki0815, SweetOhm, daknoll und eine weitere Person
DefconDev schrieb:
Achso und bei einer 4080 kann man selbiges nicht tun? Beim simplen YouTube schauen ist der Verbrauch trotzdem zu hoch.
Man hat da wohl etwas missverstanden. Absichtlich oder Unabsichtlich. Ich wollte damit keine vs. 4080 Diskussion starten. Verstehe auch nicht warum das immer wieder Einige als Aufforderung sehen. Ich wollte nur aufzeigen und auf die Frage antworten das man Verbrauchswerte relativ einfach ein/begrenzen kann, auch bei einer 7900XTX.
Ich habe nicht gesagt das der Idle Verbrauch bei YT Top ist oder sie mit den genannten Maßnahmen weniger verbraucht als die 4080.

Fakt ist die bessere Effizienz muss sich durch die höheren Anschaffungskosten über Zeit erstmal amortisieren. Hier muss jeder für sich wissen wie bei den anderen Pros und Contras was für einen selbst wichtig ist bei der Kaufentscheidung. Ich denke damit ist die Vs Debatte auch gleich wieder beendet.

Im übrigen wäre mir neu das Nvidias Software, Treiber, Experience oder auch der Afterburner eine Auto Undervolting Option bietet oder ein 1.Klick ECO Profil.
 
  • Gefällt mir
Reaktionen: SweetOhm
SweetOhm schrieb:
Nicht nur ich bin der Meinung, dass RT (FPS Halbierer) nicht von Nöten ist bei einem Game Spaß zu haben.
RT macht ein Game evtl. (nicht immer, bzgl. hochglanz polierte Welt) "schöner" (Ansichtssache) aber nicht besser.
Das liegt aber auch nur daran, weil es dich persönlich stört, dass AMD dort nicht so gut abschneidet.
Grafik hat die Spiele rein von der Mechanik noch nie besser gemacht. Selbst das schönste Spiel inkl. RT taugt nichts, wenn das Spiel schlecht ist. Diese Themenfelder gehören gar nicht zusammen. Dass RT besser aussieht, bestreitet idR. auch niemand mehr, sowas wurde 2018 oder 2019 vielleicht behauptet, weil der Leistungsverlust in den ersten Builds hoch war.

Und polemisch von "FPS Halbierer" zu sprechen ergibt schon 2x keinen Sinn, da die RT Qualität mit Rastermethoden gar nicht erreichbar wäre und viel mehr Leistung kosten würde, davon abgesehen halbiert sich die Leistung in den wenigsten Spielen mit Radeon GPU und sogut wie gar keinem mit Nvidia GPU.

Du kannst auch gerne weiter für Kohlekraftwerke, Diesel und Benziner sein. Andere steigen auf die effizienteren Techniken um.
SweetOhm schrieb:
Offensichtlich verstehst Du es nicht ! Der Aktienkurs hat wenig bis nix mit der Gaming Sparte zu tun ! :rolleyes:
Merkst was ? Anscheinend nicht ...
Dafür gibt es separate Zahlen (Steam), wie auch Quartalszahlen der Gaming Sparte.
Es ist also gar nicht notwendig so zu tun, als würde Nvidia zu wenig Gaming GPUs absetzen, da die Realität eine andere ist, darüber täuscht auch nicht ein kurzfristiges Angebot hinweg, denn der günstigste Preis auf Geizhals liegt immer noch bei 949 Euro, was 70 Euro teurer ist als die 4070 Ti Super.

Es gibt immer mal wieder Angebote bei MF, auch im Schnäppchenshop oder im Alternate Outlet, das ist aber nicht die generelle Grundlage für Preisvergleiche. Ne 4070 OC ist da gerade für 549 im Angebot, auch kein schlechter Deal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
coxon schrieb:
Sag das nicht zu laut. Wenn dich die RT Jünger hören wirst du mit Fackeln und Mistgabeln gejagt und der Ketzerei bezichtigt. ;)
:lol: Da musste ich jetzt lachen.

Nvidia hat es tatsächlich geschafft den Leuten Software statt Gpu Leistung zu verkaufen auf einer GRAFIKKARTE und gleichzeitig die Karten so zu beschneiden das sie wenn sie nicht in der angepeilten Auflösung benutzt werden deutlich an performance verlieren. Immerhin sagten sie die 70er sind nur 1440p Karten kein Wunder mit dem 192 bit bus für 900€ damals. Nein Nvidia will dir auch noch die Auflösung aufzwingen weil in 4k liegt die 4070ti oft genug auf 3080ti level oder gar darunter. Während in Full HD die 3090TI geschlagen wird. 900€!! 192 bit bus:freak:. 4080 1200+€ 256 bit bus:lol:.

Weist was mit der 7900XT(320 bit bus!) kann ich Cyberpunk in 4k Nativ zocken auf Hoch und bin immer über 60 Fps. Oder Raytracing/Pathtracing dafür mit DLSS Performance was tatsächlich einen guten Job macht aber von 4k Bild weit weg ist. Es ist beides ein Kompromiss.

Denn 4k Nativ ist weit knackiger dafür fehlt das RT. Anders herum warum habe ich mit einen 4k Schirm gekauft wenn ich dann von 1080p raufrechnen lassen muss das einem 1440p Nativ bild gleicht? Fragen über fragen auf die es keine pauschale antwort gibt.

Aber eines ist Sicher von der Raster Performance also die eigentliche Gpu Leistung profitiert man IMMER. Das ist Fakt, weil es seit jeher so war. Warum sollte ich mehr zahlen um weniger Leistung zu bekommen um dann wenn der Zeitpunkt kommt auf die paar Rt Titel schneller zu sein? Während die Raster Performance immer etwas bringt egal wann.
Ergänzung ()

el_zoido schrieb:
Vielleicht zocken ich ja nur jeden zweiten Tag dafür dann aber 4 Stunden ;)
Du weißt was ich meine ;). Es ist ein blödes Argument überhaupt im high end bereich.:schluck:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm und Xul
Die Saufmöhre. Goil.
Die Strompreise gehen ja nach unten... statt nach oben.

Ach Moment.
Oder war es andersrum? MMmhh.

No Problem.
Mami & Papi zahlen den Strom schon.
Fällt nicht auf.
 
Quidproquo77 schrieb:
Das liegt aber auch nur daran, weil es dich persönlich stört, dass AMD dort nicht so gut abschneidet.
Grafik hat die Spiele rein von der Mechanik noch nie besser gemacht. Selbst das schönste Spiel inkl. RT taugt nichts, wenn das Spiel schlecht ist. Diese Themenfelder gehören gar nicht zusammen. Dass RT besser aussieht, bestreitet idR. auch niemand mehr, sowas wurde 2018 oder 2019 vielleicht behauptet.
Es könnte auch einfach daran liegen, dass dem Großteil RT völlig am Arsch vorbeigeht, egal wie sehr man das auch versucht seit 5 Jahren krampfhaft groß zu reden.

Sieht man einen Unterschied? Ja, aber meist nur, wenn man eben nicht wirklich spielt, sondern gezielt auf Kleinigkeiten achtet. Sieht es "besser" aus? Tendenziell ja, aber nicht zwangsläufig, da es oftmals einfach nur anders, aber nicht besser oder schlechter aussieht und somit ein völlig beliebiges, subjektives Empfinden ist. Sehr viel hängt da vom generellen Game Design ab (wer sagt denn, dass ein diffus ausgeleuchteter Raum oder ein weicher Schatten in nem Spiel einem stärkeren Kontrast vorzuziehen ist? In nem Spiel hat man meist überhaupt nicht die Zeit, sich erstmal auf dezentere Lichtstimmungen "einzulassen"). Und im worst case hat man eben FPS-Einbrüche (inkl. Latenz) und/oder Bugs wie Ghosting.

Das immer nur auf "Das sagen ja nur die AMD-Nutzer" zu schieben, ist albern. RT überzeugt einfach generell nicht in dem Maß als dass es der entscheidende Faktor bei Kaufentscheidungen ist. Im Gegenteil: Bei mir war die weitgehende Enttäuschung über RT sogar einer der Gründe zu AMD zu wechseln.
DLSS ist/war schon eher ein Faktor, aber auch da schwindet der Vorsprung von Nvidia. Intel hat ja sogar sehr positiv überrascht mit XeSS.
 
  • Gefällt mir
Reaktionen: Hardwarious, Bänki0815, SweetOhm und eine weitere Person
Zurück
Oben