Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc für September

Taxxor schrieb:
Und es passte an der Stelle halt einfach gut, weil immer Mindfactory genommen wird, wenn das Thema aufkommt, dass AMD bei GPUs aktuell im Weltmarkt weiter und weiter abstürzt.
Das kann man auch einfach mal ganz neutral hinnehmen, dass es eben aktuell nicht gut läuft
Weltweit soll ja Nvidias Anteil an Gaming GPUs bei dieser Generation bei 75% liegen. Das schätze ich schon realistisch ein. Die Karten sind bei AMD in der gleich Rasterizerklasse, wie 7800 XT und 4070, 50€ billiger. Wenn man ohnehin 500€ auf den Tisch legen muss, legen die meisten direkt die 50€ drauf und nehmen die unbezweifelten Vorteile von Nvidia mit.
Ich bin auch nur an eine 7800 XT gelangt, weil das Ding als Rückläufer für 450€ im Regal lag. Zu der Zeit hätte die billigste 4070 550€ gekostet. Der Preisunterschied war mir zu hoch. Und auch Monate später ist die sogar etwas langsamere 4070 (Raytracing ausgeklammert) immer noch teurer und sinkt quasi nicht im Preis.
 
Zuletzt bearbeitet:
Also mit dem Verweis auf "fps pro Euro" https://www.computerbase.de/2024-02...gs-verhaeltnis/#abschnitt_fps_pro_euro_in_fhd

Mein Sohn hat ne RX 6650XT für FullHD Gaming (hauptsächlich Minecraft). Ich hätte hier auch gerne mal zu einer Intel Arc gegriffen - aber was der Bauer nicht kennt, frisst er nicht. :D Sonst spielt er aber meist sowieso auf seiner Series X.

Ich habe die 7800 XT für WQHD. Beide sind im angesprochenen Artikel auf Platz 2 der entsprechenden Auflösung. Viel mehr brauch ich gar nicht wissen. Persönlich bin ich seit Kindheitstagen ein AMD und AMD/ATI-Anhänger. Die einzige nVidia-"Karte" die ich mal hatte war eine GeForce 4MX, also ein abgespeckter onboard-Chip auf dem Mainboard. :D Mal abgesehen von Raytracing sehe ich keinen Grund mehr für nVidia zu bezahlen.

Wenn man sich z.B. die Valve Hardwar-Charts anschaut, frage ich mich sowieso woher immer dieser Grafikwahn herkommt. Fast 60% zocken in FullHD, 70% haben 8GB VRAM oder weniger.
 
AbualSony schrieb:
Fast 60% zocken in FullHD, 70% haben 8GB VRAM oder weniger.
ist aber auch nicht wirklich repräsentativ die Steam Hardware Survey, aufgrund weil die gesamte Welt dort gelistet wird und es klar ist dass in Schwellenländern die Menschen wenn überhaupt nur Kohle für FullHD gaming übrig haben

aber ja, der weltweite GPU Marktanteil liegt bei etwa 90% für Nvidia und deshalb kann Nvidia dahingehend auch die Preise diktieren und sich auch bei so proprietären Dingen wie G-Sync, DLSS oder auch ihrem begrenzten Speicherausbau, einiges erlauben, würde wohl sicher anders aussehen wenn AMD annähernd einen Marktanteil von 50% hätte, von den Preisen mal ganz abgesehen

man kann aber noch so viel darüber diskutieren wie scheiße doch AMD im Vergleich zu Nvidia ist, solang man nicht die Verhältnisse im Entwicklungs-, Marketing- und generell dem Umsatzbudget miteinander vergleicht,

vom tanzen auf zwei Hochzeiten was CPU und GPU Markt betrifft mal ganz abgesehen, wir im Grunde froh sein können überhaupt noch nen zweiten GPU Hersteller zu haben der im Rasterizing noch auf Augenhöhe im High-End Bereich mit dem Marktführer mithalten kann

aber das wird sich auch nicht wirklich ändern solang alle weiterhin zu Nvidia greifen und AMD sich irgendwann dazu entschließt keine GPU's für den dedizierten Hardware Markt zu produzieren und sich nur noch auf Notebook und Konsolenchips zu fokussieren, weil es sich für den dGPU Markt einfach nicht mehr lohnt zu produzieren

und für was das alles ? für die vermeintlich bessere RT Leistung die beim Großteil der Games bisher grottenschlecht (im Vergleich zu Cyberpunk) oder gar teils überhaupt nicht umgesetzt wird und wir als Ergebnis dessen bald für ein xx60 Modell 700€ und mehr hinlegen dürfen
Ergänzung ()

bin aufgrund der GPU Preise ehrlich gesagt sogar schon am überlegen auf nen 25" 240Hz FullHD Monitor für 200€ downzugraden, um so noch länger mit meiner 6800XT aushalten zu können und in Zukunft nicht mehr als 500€ für eine Karte hinlegen zu müssen,

denn die nächsten xx70 sowie x800XT Karten werden sicher bei 700-800€ zum Release landen und wenn nicht bei der nächsten Generation, dann sicherlich bei der übernächsten

edit
wobei ich wohl eher nen 32" 4K 144Hz holen und dann auf FullHD runterskalieren würde und die Games in 4K zocken die leistungstechnisch möglich sind
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwirbelkatz, AbualSony und SP-937-215
AbualSony schrieb:
70% haben 8GB VRAM oder weniger.
Und über 62% haben 8GB VRAM oder mehr. Selbe Daten, unterschiedlich dargestellt. ;-)

8 GB VRAM war halt für fast alle Multiplattform-Spiele bis Ende 2020 vollkommen ausreichend, da die PS4 (und Xbox One) mit ihren 8 GB Unified RAM "Lead-Plattformen" war, auf dem alles laufen musste. Eigentlich sogar bis 2022/2023 durch eine ungewöhnlich lange "CrossGen-Phase" im Konsolenbereich.

Wer im PC-Bereich nicht immer die allerneuesten AAA-Spiele zocken muss, kommt auch heute noch mit ein paar Kompromissen mit 8 GB VRAM aus. Wenn man dann doch eine Handvoll Titel auf der persönlichen Wunschliste hat, die mehr VRAM (oder GPU-Performance) benötigen, kann man ja schnell und unkompliziert aufrüsten. Denn im Gegensatz zu den Konsolen ist man nicht an lange Hardware-Zyklen (6 - 8 Jahre) gebunden.
 
Für alle die sich für den budget-freundlichsten Einstieg in PC Desktop-Grafikkarten - also Intel Arc Alchemist Grafikkarten - interessieren, dürfte das relativ aktuelle Video dazu von Hardware Unboxed mit 250 getesteten Spielen mit einer Intel Arc A770 16 GB (bzgl. Kompromissen bei der Lauffähigkeit) relevant sein:

 
Verak Drezzt schrieb:
ist aber auch nicht wirklich repräsentativ die Steam Hardware Survey, aufgrund weil die gesamte Welt dort gelistet wird und es klar ist dass in Schwellenländern die Menschen wenn überhaupt nur Kohle für FullHD gaming übrig haben
Das Argument wird immer gebracht und ist nach wie vor nicht nachvollziehbar. PC Spiele werden nunal auf der ganzen Welt verkauft. Insofern ist eher eine Statistik für Deutschland oder Europa belanglos.
Ergänzung ()

Verak Drezzt schrieb:
und für was das alles ? für die vermeintlich bessere RT Leistung die beim Großteil der Games bisher grottenschlecht (im Vergleich zu Cyberpunk) oder gar teils überhaupt nicht umgesetzt wird und wir als Ergebnis dessen bald für ein xx60 Modell 700€ und mehr hinlegen dürfen
Raytracing ist mir persönlich auch völlig egal. Denn selbst bei Nvidia kostet es massiv Performance.
Mit meiner damaligen 6700XT in Cyberpunk war es natürlich noch katastrophaler. Selbst in FullHD hatte ich 15 bis 25 fps. Ohne Raytracing 3 bis 4 mal so viel fps.

Bei AMD hat man meiner Erfahrung nach in den Spielen hier und da mehr Probleme. Das aktuelle Problemkind bei mir ist WRC 2023 von EA. Antialiasing unter "hoch" führt zu einem extremen Verpixeln. FSR funktioniert unter "Quality" nicht. Das Bild verpixelt auch dann extrem.
FSR und "dynamische Auflösung" funktioniert dementsprechend auch nicht, weil der ja auch unter "Quality" geht.
Die fps sind in dem Spiel zwischen 25 und 140. Bei manchen Stages wie Schweden machen Nacht und Tag den Unterschied zwischen top fps und völlig unspielbar aus.
Kann natürlich auch an EA/Codemasters mit ihrer verkackten Unreal Engine 4 liegen. Aber es ärgert mich maßlos.
 
Zuletzt bearbeitet:
Cohen schrieb:
Wer im PC-Bereich nicht immer die allerneuesten AAA-Spiele zocken muss, kommt auch heute noch mit ein paar Kompromissen mit 8 GB VRAM aus. Wenn man dann doch eine Handvoll Titel auf der persönlichen Wunschliste hat, die mehr VRAM (oder GPU-Performance) benötigen, kann man ja schnell und unkompliziert aufrüsten. Denn im Gegensatz zu den Konsolen ist man nicht an lange Hardware-Zyklen (6 - 8 Jahre) gebunden.

Ich bin einer von diesen Leuten. Habe eine GTX 1070 und komme auch heute noch in Full-HD ganz gut zurecht. Ich spiele Games wie Dota 2, CS2 oder Baldurs Gate 3. Ja, muss die Einstellungen runter stellen aber der Clou bei der Sache ist: Die Spiele machen trotzdem Spaß. Ich habe das Gefühl dass manche Leute mehr Spaß daran haben die Einstellungen auf "Ultra" zu setzen als das eigentliche Spiel zu spielen.
 
  • Gefällt mir
Reaktionen: KadmosIII und BeowulfAgate
2080ti läuft und läuft bei mir. Ich hätte schon Lust auf eine Grafikkarte aber da ich immer noch mit 1080p unterwegs bin gibt es einfach gar keinen Grund dafür. Dazu kommt, dass die wirklich Highlights im hungrigen Grafikbereich für mich fehlen.
 
@Insebtion
Puh, 1250€ zu Release. Für eine RTX 2080 Ti. An einem Full-HD-Monitor. In der Tat eine äußerst langfristige Investition. Bei der (subjektiv) zunehmend nicht vorhandenen Qualität großer Titel stimme ich zu.


Die "Problematik" welche Full-HD zunehmend hat, ist, dass DLSS und Co. mäßige Ergebnisse erzielen, weil die als Grundlage verwendete, überschaubare Anzahl an Pixeln für eine Hochberechnung kaum ausreichend ist.

Der Stream-Statistik stehe ich übrigens ebenfalls eher skeptisch gegenüber. Wohl wissend, dass die Wahrnehmung aus der Blase "deutsche Technikforen" ebenfalls nicht repräsentativ ist.


Verak Drezzt schrieb:
25" 240Hz FullHD Monitor für 200€
Schade, dass der AOC Q24G2A/BK, also 24-Zoll mit WQHD, in Videos so einen schlechten Eindruck hinsichtlich IPS-Glow und Backlight-Bleeding hinterlässt.
32-Zoll sind gleich wieder so riesig und UHD einfach absurd anspruchsvoll.

Ebenfalls neu auf dem Markt wäre ein Dell P2425, mit 16:10 Full-HD auf 24-Zoll und 100 Hertz.
Aber will man das 2024 noch anschaffen ...
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Ich bin nach wie vor erstaunt/enttäuscht, dass aus den ca. 70% MEHR Shadern, RT Cores etc. der 4090 gegenüber der 4080 nur 33% mehr Leistung entstehen sollen. Bei ALLEN Generationen davor skalierte das immer fast 1:1. Aber es scheint Niemanden sonst zu jucken, erst recht nicht die Fachredaktionen.
 
  • Gefällt mir
Reaktionen: Fresh-D
Heute gab es einen neuen Treiber (24.8.1) Jetzt verbraucht meine 7900GRE nurnoch 34W-40W im normalen Desktopbetrieb und 50-60 bei 4KVideo statt vorher 50 im Desktopbetrieb und 80-90 bei Videos. Vielleicht auch mal erwähnensert das sich da zumindest noch was getan hat.
 
@mildmr
Gemessen an der Steckdose?
 
Woody17 schrieb:
Bei ALLEN Generationen davor skalierte das immer fast 1:1. Aber es scheint Niemanden sonst zu jucken, erst recht nicht die Fachredaktionen.
Ist das so? Dann gehen wir doch mal ein paar Generationen durch:

980 = 16SM
980Ti = 22SM
37,5% mehr Shader resultieren in ~25% mehr Performance -> Faktor x0,66

1080 = 20SM
1080Ti = 28SM
40% mehr Shader resultieren in ~30% mehr Performance -> Faktor x0,75

2080 = 46SM
2080Ti = 68SM
47% mehr Shader resultieren in ~25-30% mehr Performance -> Faktor x0,57

3070 = 46SM
3090 = 82SM
78% mehr Shader resultieren in ~40-45% mehr Performance -> Faktor x0,54

4080 = 76SM
4090 = 128SM
68% mehr Shader resultieren in ~30-35% mehr Performance -> Faktor x0,47


Es war im High-End noch nie 1:1, auch nicht fast.
Dass ein Mehr an Shadern in immer weniger Mehrleistung in Spielen umgesetzt werden kann, je höher man mit der Anzahl geht, ist doch allseits bekannt, was sollen die Redaktionen dazu noch sagen?
 
Zuletzt bearbeitet:
Zurück
Oben