Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc für Juli

Replay86 schrieb:
8GB sind definitiv zu wenig für einige Spiele ab WQHD. Selbst Titel, die schon paar Jahre alt sind.
Assassins Creed zum Beispiel bei Origins und Odyssey ab WQHD und "Extrem Preset" sind 8GB zu wenig.
Kann ich nicht bestätigen, ich habe wie Storm maximal 7GB in Benutzung.
 
KempA schrieb:
dass es noch nichts greifbares bezüglich einer neuen Karte unterhalb der 7900XT gibt? Favorisiere aktuell die 6800XT, aber die ist inzwischen auch nicht mehr das neuste.
Nun, ich rechne mit Navi 32 Karten erst in der zweiten Jahreshaelfte, nachdem die Geruechte um einen RTX 4070 Marktstart auch in diese Richtung gehen.

Ob man sich so lange noch gedulden will fuer voraussichtlich wohl maximal RX 6950XT Leistung fuer vermutlich mindestens 700 Euro ist dann die Frage? Eventuell kommt dann noch etwa ein Jahr spaeter schon der gemutmasste Refresh (vielleicht sogar frueher).

Ich faende es nicht lohnend und habe wegen des verzoegerten Navi32 Starts und dem geringen RDNA3 Leistungs- und Featurezuwachs auch letzten November zu einer RX 6800XT gegriffen ;).
Ergänzung ()

Vendetta schrieb:
3080 Preis, von 739 auf 899 hoch. Wer soll die noch kaufen, wenn die 4070Ti gleich teuer zu haben ist
Das duerfte ja auch bewusst so in die Wege geleitet worden sein (die Haendler moechten bestimmt ungerne auf der alten Ware sitzen bleiben), "Upselling" ist doch die neue Masche der Grafikkartenentwickler, insbesondere nVidia sind dahin gehend zunehmend ausgerichtet ;).
 
Zuletzt bearbeitet:
Wäre schön wenn Nvidia die 3080er bereits ausgegangen sind, dann steht einem baldigen Abverkauf der 40er nicht mehr viel im Weg.

Oder einem Launch der 4080Ti für 1399 :)
Ergänzung ()

yamiimax schrieb:
Hol doch die 4070 ti die ist besser als die 3090 und kostet fast das gleiche 😂
Wieso sollte ich das mit ner 3080 im Rechner? Höchstens für Witcher 3 wegen dlss3 und der miesen RT-CPU-Performance interessant.
 
Mein Senf, die Empfehlungen für WQHD sind falsch.
Ich habe wqhd und besitze bereits drei Spiele welche 9-10 GB Vram brauchen, ohne mods.
Ich sehe das, weil ich seit kurzem Besitzer einer 6800 mit den 16 GB Vram bin.
Die 6700 mit 12 GB wird schon knapp heute. Denn ab 11 GB Vram-Belegung wird die Karte anfangen Nachladeruckler zu bekommen. Wenn man eine Lebensdauer von 4 Jahren sieht, ist es auf Kante heute eine 12 GB Version zu nehmen.

Eine nvidiakarte mit 10 GB ist zu wenig. Die 8 GB noch für wqhd heranzuziehen ist komplett falsch.
ich sage es nochmal, 4 Jahre Nutzungsdauer sind zu berücksichtigen!
Meine vor kurzem ersetzte GTX1070 hat über 6 Jahre durchgehalten. Aber nur weil ich damals auf 8 GB gesprungen bin. Und so wird es heute wieder sein. Die 12 GB Vram werden 2 Jahre mehr Nutzungsdauer Unterschied machen zur 8 GB Version.
 
  • Gefällt mir
Reaktionen: Chismon, Öcher Tivoli, Kai85 und eine weitere Person
Für uhd braucht man keine 6800xt, da auch die none xt Variante da sehr gut klar kommt.
Das einzige manko, man muss dann vielleicht von ultra oder sehr hoch auf nur hoch stellen. Schatten stelle ich generell bei shootern oder Actionn auf mittel/hoch, reicht.
Trotzdem habe ich in division 2 oder wows mit 2160p (settings hoch/sehr hoch, bei wows alles auf maximum)meist 120+fps....mit einer 6800 none xt.
 
Caramelito schrieb:
Wenn es eine gute Custom XTX um 1200 gäbe wäre das sicher eine gute Wahl.
Ich würde ihr dann auf jeden Fall eine Chance geben.
Ich habe für die 7900 XTX Referenz im AMD Shop 1.108€ bezahlt... Aber gut, wenn es nach Verfügbarkeit geht...

Trotz allem sehe ich ja die 4080 RTX sicher auch im Vorteil, wenn man denn so einen Brotkasten im Rechner haben will. Weiß gar nicht, ob die in mein Fractal Nord gepasst hätte (auf dem Weg war mal eine Manli, die ich wieder storniert hatte).

Meine Frage ging aber eher dahin, warum die XT im Test abgtestraft wurde und die XTX hier im Vergleich. Das widerspricht sich mMn erheblich.
 
Vendetta schrieb:
Höchstens für Witcher 3 wegen dlss3 und der miesen RT-CPU-Performance interessant.

Man muss aber sagen, die CPU performance ist in den meisten RT Spielen ziemlich mies. Erstrecht mit Open World. Da ist Witcher 3 zwar ein extremes Beispiel, aber sicher nicht die Ausnahme.

FG ist wohl wirklich Nvidias Antwort darauf. Also nicht nur hinsichtlich verdoppelung der GPU Leistung, sondern in erster Linie wohl auch, um das nervige CPU Limit, das vor allem mit Raytracing richtig reinhaut, irgendwie umgehen zu können.

Meiner Meinung nach ein mittelfristig enorm wichtiges Feature. Denn wenn Konsolen mit ihrer ZEN2 CPU auf 30 FPS limitiert und auch ausgelastet sind, dann wird es selbst mit künftigen High End CPUs gar nicht so einfach, auch nur 60 FPS zu erreichen... Sieht man z.B. jetzt schon am CPU Limit von Calisto Protocol.

Und ja, es sind natürlich keine echten Frames und die Latenz bleibt auf dem Niveau der Ursprungsframerate. Aber es ist das beste, was man aus so einer Situation machen kann.

Ich bin gespannt, ob es AMD gelingt, das Feature mit FSR3 auch wirklich zu bringen. Ich denke, wenn die GPU deutlich schneller rendern kann, als die CPU, dann sollte FG mit FSR3 kein Problem sein, da genug Rechenleistung auf der GPU frei ist.
Interessant wirds aber im GPU Limit. Da stellt sich dann tatsächlich die Frage nach dem Kosten/Nutzen Faktor. Denn selbst auf Nvidia GPUs, die eine dedizierte Einheit für teile der FG berechnung haben, ist FG im GPU limit ja keineswegs kostenlos. Das kostet Rechenzeit, was bedeutet, dass sich effektiv die Framerate von der aus verdoppelt wird, verringert. Und das sieht man auch an den absoluten Zugewinnen, die im GPU Limit meist unter 100% gegenüber deaktiviertem FG liegen.
Das könnte noch sehr interessant auf AMD Seite werden.
 
  • Gefällt mir
Reaktionen: Fighter1993
Damals die 3080 FE Ende 2020 für 800€ gekauft, letztens für 700€ verkauft, somit waren es laut meiner Milchmädchenrechnung "nur" 1300€ für die 4090 🙄🤷‍ 😂
 
duskstalker schrieb:
@Jan
Wieso ist Intel Arc nicht mit drin? Die werden einmal in der Preistabelle erwähnt, aber weder bei der Performance noch bei den Shoplinks ist Arc vertreten. finde ich nicht gut - hier entsteht der Eindruck, als würde arc nicht existieren und wäre keine kaufbare Option.
Nun, um ehrlich zu sein finde ich auch nicht, dass Arc eine sinnvoll kaufbare Option ist.
Das ist aber gar nicht der Grund, warum die Intel-GPUs nur in der Preis-Tabelle drin sind. Hier sind die Grafikarten einfach aktuell das Opfer von den geteilten Test mit alten und neuen GPUs...und die Arcs fallen dann leider bis zu einer Vereinheitlichung unten durch.
conglom-o schrieb:
* Bitte anpassen *
In der Preisliste steht die 3060 (lagernd) für 329 EUR drin. Im Bericht wird dann von 12 GB VRAM als Vorteil gegenüber AMD gesprochen. Das passt nicht zusammen. Für 329 EUR gibt es nur das "Krüppelmodell" mit 8 GB - die 12 GB Variante kostet 30 EUR mehr.
Stimmt, da hast du völlig recht! Die 8-GB-Karte habe ich völlig vergessen und daher den Filter bei Geizhals falsch gesetzt - sorry dafür! :)
 
  • Gefällt mir
Reaktionen: JonaHH und conglom-o
CastorTransport schrieb:
Meine Frage ging aber eher dahin, warum die XT im Test abgtestraft wurde und die XTX hier im Vergleich. Das widerspricht sich mMn erheblich.

Wenn es nach der UVP geht ist die XT echt "useless".

Für 100eur mehr bekäme man eine XTX und damit 20% mehr Leistung und 4GB mehr Vram (denke zwar nicht, dass die 4GB je relevant sein werden, aber besser haben als brauchen^^).

Jetzt sollte evtl. eine neue Bewertung her, denn die XT Custom kostet dann doch ca. 250eur weniger als die XTX Custom bzw. ist auch gut verfügbar etc..
 
Das mir der Artikel nicht früher aufgefallen ist?

bei FHD Stimme ich zu rtx3060 und rx6600xt. (2020 bis 2024 ps5 area)
Und weil FHD so ziemlich die Auflösung ist wo die meisten spielen ist wqhd eher Nische und UHD das eigentliche problem.
Aktuell käme da nur die rtx3080i rtx3090, rtx3090ti, rtx4080 und rtx4090 infrage.
Oder anders
27tf 28tf 29tf 37tf 63tf
ja der gap zwischen 4090 und 4080 ist groß was mich vermuten lässt das ne rtx4080tk kommen wird mit 110sm
das problem der rtx3080 und rtx3080 12gb haben liegt am SI und die Anforderung ab 2160p wo min 850gb/s nötig werden
Das ist aber streng spielabhängig nehme ich allein 2022 spiele trifft das zu.
Da ist die Speichergröße weniger ein problem. als die Bandbreite des vrams.

Das problem ab 2024 wird sein min 30tf wären nötig um mit etwa 50fps in UHD spielen zu könnend a UHD die vierfache Leistung benötigt vs FHD
und die kommende rtx4060 etwa 16tf 8gb gddr6 20gbps =288gb/s wird nur mehr fps in fhd bringen und das nur bedingt vs dem Vorgänger rtx3060 12gb 360gb/s
Amd Gegenargument wird die rx 7600xtx 2048 etwa 13 bis 17tf unklar 8gb 352gb/s
Zwar das bessere Angebot als upgrade aber kaum mehrleistung in dxr.
aber immer noch viel zu wenig um UHD zu bedienen.
also ab 2024 und mit lovelace refresh wird es einige Änderungen geben mehr vram mehr bandbreiote aer immer noch nicht genug tf für dann aufkommende UHD standard
Der Grund ist miniled und OLED displays wer nen monitor kauft ab 2024 bzw tv wird kaum herum kommen was dann nativ 3840-2160p wird.
Und ab 2025 hat man keine Wahl da man kaum noch 1080p monitore bekommen wird. Bzw so klein das diese als Micki Maus Auflösung entspricht (17er 19er).
Das liegt primär an die panel Hersteller die Produktion einstellen werden und nur noch laptop displays geben wird mit diesen kleinen Auflösungen.
Das wird zum Problem da abzusehen ist das ab 2024 min eine rtx5070 (~34tf) nötig wird um in UHD min 60fps zu erreichen.
Also quasi ein einstige beim gaming ab 700€
Solange man seinen monitor hat mit entweder 1440p oder 1080p kein thema oder low end TV wird ne option in 6bit panels aber die bildqualität spricht dagegen.
Die alternative wäre upscaling was auch viele tun werden. quasi nvidia nis und amd fidelity res fx
Da führt kein Weg herum, somit ist fsr und dlss essentiell auch ohne dxr
ich versuche das abzufedern solange ich noch 1080p 24 oder 27 1440p 10bit gsync monitor zu bekommen.
Danach wird gezwungenermaßen UHD zum standard.

Die erste gpu wo UHD in Erwägung ziehe wäre 2026 vermutlich blackwell refresh (rtx60) oder erster release der kleinste chip wird gb106 mit 64 bis 68sm je nach chipgüte also ~100mm²
Nicht wundern die gpu wird mit 12gb gddr7 etwa 450€ kosten. und etwa 33tf haben bei etwa 768gb/s
ich hoffe auf min 36gbps vram (864gb/s) aber die ram specs sprechen nur von gddr7 32gbps (q2 2023)
Die Bandbreite wird zum problem ab 2160p und da das SI kaum skaliert mit der Fertigung muss nvidia irgendwann zu mcm wechseln zumindest beim I/O
Das sehe ich frühestens ab n2 mit 3d stacking und das kommt erst 2026
auch möglich das das I/O mit cache auf 6nm unter dem chip gelegt wird da sind auch 384bit machbar.
Die 3d Bauweise wird einiges billiger machen insbesondere chipgrößen
 
  • Gefällt mir
Reaktionen: hurcos
Zitat aus dem artikel:"So gut wie alle Grafikkarten sind gut verfügbar, anhaltend hohe Preise der neuen Generation GeForce RTX 4000 und Radeon RX 7000 sind primär durch eine hohe UVP der Hersteller vorgegeben, nicht mehr aber durch eine kaum bis nicht vorhandene Verfügbarkeit, die Preise anheben lässt.

Die hersteller wären blöd, die uvp nicht so hoch anzusetzen. Sie haben ja davor gesehen, daß die Ware trotzdem weggeht(wenn verfugbar). Also warum dann eine "niedriger" uvp setzen wenn die Kundschaft auch das doppelte bezahlt.
 
W0dan schrieb:
Man muss aber sagen, die CPU performance ist in den meisten RT Spielen ziemlich mies. Erstrecht mit Open World. Da ist Witcher 3 zwar ein extremes Beispiel, aber sicher nicht die Ausnahme.
Also CP2077 ist auch open world und läuft problemlos mit 60fps 1440p mit meinem 5 Jahre alten 4,9ghz i7. Auf 4k mit performance dlss auch mit 50-60 bei hohen bis sehr hohen Settings und auch Mittel bis hohen RT settings jeweils.

Beim Witcher hab ich nichtmal auf 720p stabile 60 :lol:
Ergänzung ()

feidl74 schrieb:
Die hersteller wären blöd, die uvp nicht so hoch anzusetzen. Sie haben ja davor gesehen, daß die Ware trotzdem weggeht(wenn verfugbar). Also warum dann eine "niedriger" uvp setzen wenn die Kundschaft auch das doppelte bezahlt.
Die UVP macht Nvidia und die lässt den Boardpartnern kaum einen Spielraum. So ein großer Kühler kostet mittlerweile auch 100+ Euro. Viel Spielraum nach unten bleibt bei den Preisen nicht da muss Nvidia schon Rabatte vergeben.

Sieht bei AMD nicht viel besser aus. Die 7900xtx wäre für 700 ganz ok als Update zur 6900XT.
 
Zuletzt bearbeitet:
Chismon schrieb:
Nun, ich rechne mit Navi 32 Karten erst in der zweiten Jahreshaelfte, nachdem die Geruechte um einen RTX 4070 Marktstart auch in diese Richtung gehen.

Ob man sich so lange noch gedulden will fuer voraussichtlich wohl maximal RX 6950XT Leistung fuer vermutlich mindestens 700 Euro ist dann die Frage? Eventuell kommt dann noch etwa ein Jahr spaeter schon der gemutmasste Refresh (vielleicht sogar frueher).
Ich schau mal. Bei mir ist es kein Problem etwas länger zu warten, da ich nur alle 7,8 Jahre aufrüste. Da kommt es meist nicht auf ein paar Monate an :)
 
Kann mir jemand erklären, warum es ein Performancerating ohne Raytracing gibt?
Man macht ja auch kein Performancerating ohne TAA oder MSAA.

Gerade bei einer High end GPU im >1000€ Bereich möchte ich doch jedes erdenkliche Feature das Spiele schöner aussehen lässt nutzen oder?
 
hubertus1990 schrieb:
Kann mir jemand erklären, warum es ein Performancerating ohne Raytracing gibt?
Man macht ja auch kein Performancerating ohne TAA oder MSAA.

Gerade bei einer High end GPU im >1000€ Bereich möchte ich doch jedes erdenkliche Feature das Spiele schöner aussehen lässt nutzen oder?
Weil eben nicht nur High End GPUs aufgeführt sind - und das ist auch gut so!
 
  • Gefällt mir
Reaktionen: McTheRipper und daknoll
Zurück
Oben