Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc (Dezember)

@Wolfgang :
Denke hier sollte "Stand 08.09.2023" stehen.
1694176033114.png
 
  • Gefällt mir
Reaktionen: Wolfgang
@Americanguy was jetzt genau? Clip?.. die Karte ist ihm zu leicht und fühlt sich wie eine Plastikattrappe im IKEA an. Größe und Gewicht passen nicht zusammen, da halt wenig Kühler unter der großzügigen Plastikverkleidung.

Meine Aussage? Gab es eigentlich eine 1080ti (250W), die größer war als diese 4060 (115W)?

Zum Thema: Interessant dass eine 8GB Karte wirklich nicht mehr empfohlen werden kann... xD Erst dieses Jahr habe ich einmal zur 6700XT und einmal zur 6800XT statt 3070 geraten... Es wurde natürlich NVIDIA. Fast so gut, billiger und 50% mehr VRAM kam nicht gut an. Deutlich schneller, gleicher Preis und doppelt soviel VRAM war auch kein Argument... 🥲

Jetzt habe ich selber aus SFF Gründen die 4070 und hoffe dass die 12GB reichen.
 
Zuletzt bearbeitet:
Naja, das ist halt der Generationensprung. Bei der 7700 XT fällt der relativ hoch aus (30 % mehr als der namentliche Vorgänger 6700 XT).

Bei dem großen Sprung setzt sie sich halt zwischen der 6800 und der 6800 XT.
 
Americanguy schrieb:
schwachsinnige vram panik so ein quatsch.
Ja. Das stimmt. So wichtig ist das eh nicht ob eine Karte jetzt ein wenig schneller oder ein wenig langsamer ist oder ob das Game jetzt ein bisserl besser oder ein bisserl schlechter aussieht. VOLLKOMMEN LATTE im Grunde.

Aber natürlich muss man eingestehen, das die Leute die damals bei der 3070 über den RAM gemeckert haben, durchaus jetzt das ganze auch mit Benchmarks belegen können. Also heute würde niemand ne 3070 statt einer 6800 empfehlen oder? Mit 12 vs 16 sieht das aber schon deutlich besser aus, schon alleine weil die Konsolen nur 16GB haben und das Spiel und OS ja auch noch in die 16GB rein müssen. 16 wären mir trotzdem lieber, zumindest auf der Karte fürs Hauptsystem.


8GB vs 16GB.jpg


 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dogbrothers, baizer und Verak Drezzt
Bei den Notebook-Grafikkarten ist auch immer noch ein Blick auf die VRAM-Daten angebracht. Denn viele Anbieter sparen ebenfalls beim VRAM und halbieren mal kurz den Speicher im Gegensatz zu PC-Grafikkarten.
 
Ich muss sagen die Empfehlungen von CB für FullHD kann ich in keiner Weise nachvollziehen. Es scheint als hat man sich hier auf den VRAM eingeschossen und irgnoriert alle anderen Aspekte wie. z.B. das eigene Performancerating.

Zwischen der RX 6700 und der RTX 3080 liegen fast 50% Leistungsunderschied. D.h. entweder ist die RX 6700 zu schwach für FullHD oder die RTX Overkill. Je nachdem ist die eine oder andere Karte eben keine Empfehlung!

Die nächste Frage ist, was die RTX 3080 überhaupt noch in der Full HD Liste macht und warum da nicht die 4070 aufgeführt ist. Die Performance ist gleich, die 4070 hat 2GB mehr VRAM, das bessere VRAM Management, niedrigeren Stromverbrauch und ist im Preisvergleich inzwischen günstiger. D.h. ein nicht versierter Nutzer würde Stand September 2023 lesen das die RTX 3080 für FullHD ein guter Kauf wäre. Das stimmt definitiv nicht.
 
  • Gefällt mir
Reaktionen: maxi_rodriges und cypeak
TeHaR schrieb:
Ich muss sagen die Empfehlungen von CB für FullHD kann ich in keiner Weise nachvollziehen. Es scheint als hat man sich hier auf den VRAM eingeschossen und irgnoriert alle anderen Aspekte wie. z.B. das eigene Performancerating.
das sehe ich ähnlich - dazu bin ich selber ein user mit einer 3080 12gb variante - auch wenn die karte nicht in stückzahlen einer "normalen" 3080 über die theke ging, würde ich mir hier eine differenzierung wünschen.

ansonsten muss man jetzt fragen: haben die kritiker der 10gb 3080 damals recht gehabt dass dies schlich zuwenig an vram ist? es mag inzwischen die nachfolgegeneration zu den 3000er karten geben, aber denoch finder ich das ein starkes stück wenn eine 3080 quasi "nur" noch für fhd "empfehlenswert" ist.
wie mein vorredner schrieb: selbst die performance ratings sprechen eine andere sprache...
 
cypeak schrieb:
denoch finder ich das ein starkes stück wenn eine 3080 quasi "nur" noch für fhd "empfehlenswert" ist.
Diese Empfehlungen für eine bestimmte Auflösungen. sind und waren schon immer Blödsinn. Zwischen 1080p/60FPS und 1080p/120FPS+/RT liegen Welten, für letzteres wäre eigentlich eine 4090 empfehlenswert. Die Auflösung ist heutzutage nur eines der vielen Faktoren, die eine benötigte Leistung voraussetzen, trotzdem hält man an solchen unsinnigen 1080p/1440p/2160p Empfehlungen fest.
 
  • Gefällt mir
Reaktionen: cypeak
Mir ist nicht ganz klar ob in den Benchmarks jetzt die 8GB oder die 16GB version der 4060 Ti benutzt wurde, vor allem da ich hier auf Computerbase keinen eigenständigen Test finde zur 16GB version. Suche ich an der falschen Stelle?
 
reygok schrieb:
Suche ich an der falschen Stelle?
nein tust du nicht, wird wohl die 8GB Version sein und haben wohl kein 16GB Sample bekommen, aber nimmt sich auch nix gegenüber der 8GB Variante, außer das du halt entsprechend länger den Texturenregler auf ultra ziehen kannst, ist aber nicht wirklich den Aufpreis wert und würde dann eher zur 35% schnelleren 4070 greifen, bzw. zur 7700XT/7800XT

https://www.pcgameshardware.de/Gefo...Test-Benchmark-Release-8GB-vs-16GB-1424743/2/

https://www.computerbase.de/2023-09...chmarks_mit_und_ohne_raytracing_in_2560__1440
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: reygok
Wie oft wird die 4090 fe eigentlich in letzter Zeit gedroppt? Ich bin seit Mitte letzten Jahres aus allen Telegram Gruppen ausgetreten und finde die nicht wieder. 😎
 
Was mir heute positiv aufgefallen ist, ist, dass der Unterschied von z.B. 4080 zu 4090 (in UHD) mittlerweile geringer ist als gedacht.
Das liegt wohl daran, dass mittlerweile oftmals Upsampling zur Verfügung steht und auch gerne (inkl. von mir) genutzt wird. Je nach Profil wird dann eben meistens QHD oder FHD genutzt.
Und in nativem UHD hebt sich die 4090 nun mal am meisten ab.

Laut diesem Artikel hier ist die 4080 in UHD 24% langsamer als die 4090 (74,4 statt 100 avg-fps). Ich habe mir aber mal fünf aktuelle Spiele-Tests (ebenfalls auf Computerbase zu finden) mit Upsampling angeschaut: Hier sind es nur noch 19% Unterschied (statt wie gesagt 24%). Ja, fünf Spiele sind jetzt nicht total repräsentativ, aber immerhin.

Gleichzeitig verbraucht die 4080 (ohne fps-limiter) ca. 28% weniger Energie als die 4090, was mit den Original-TDP Angaben relativ übereinstimmt (450 zu 320 W sind 29% Unterschied).

Aber: Das soll die 4090 jetzt nicht schlecht(er) dastehen lassen: Sie ist und bleibt die absolute Enthusiasten-Karte, die noch mal mit Abstand einiges mehr an fps abliefert. Auch 19% sind noch eine Ansage. Der Sweet-Spot ist hier zwar schlechter, aber so ist das ja stets mit absoluter Highend-Hardware.
 
Zuletzt bearbeitet:
Warum wird die 7700XT für WQHD ohne RT nicht empfohlen, sondern nur für FUll-HD?

Im Test stand nichts von Einschränkungen in der WQHD-Auflösung:
@Wolfgang "Die Radeon RX 7700 XT eignet sich mit der Rohleistung und den 12 GB Speicher letztendlich gut für das Spielen in Full HD und WQHD bei hohen bis maximalen Grafikdetails"

https://www.computerbase.de/2023-09/amd-radeon-rx-7700-xt-rx-7800-xt-test/4/

Und ich hab auch keine Einschränkungen bei den FPS Zahlen ohne RT gesehen. In Full-HD sagt man noch, man braucht so viel Leistung gar nicht für FUll-HD, sondern empfiehlt sie wegen dem Speicher.

Wolfgang schrieb:
Die genannten Modelle von AMD und Nvidia sind zweifelsohne bereits schnelle Grafikkarten, die für 1.920 × 1.080 eigentlich gar nicht unbedingt notwendig sind, doch erst ab diesen gibt es mehr als 8 GB VRAM

Wenn das aber schon für die RTX 4060TI und RX6700 gilt, dass man gar nicht so viel Leistung für Full-HD braucht und die wegen dem Speicher empfiehlt, warum empfiehlt man dann die RX7700, die 30 Prozent schneller als die RX6700 ist, nicht für WQHD? Warum empfiehlt man die sogar explizit für FULL-HD, wo die doch eigentlich zu viel Leistung für diese Auflösung hat und mit 12GB RAM auch genug Speicher für WQHD hat?

Von der Einstufung abgesehen, ist die Tabelle nicht ganz plausibel aufgebaut. Bei Full-HD wird RX6700 und RX7700 genannt. Bei Full-HD mit Raytracing dann wiederrum nur die RX6700. Warum?

1696232866861.png
 
Zuletzt bearbeitet:
Da die rx7700xt gerade so schnell wie ne rtx3060 in dxr ist
Dxr Maßstab ist dabei cyberpunk 2077 (pathptracing update) oder das lego builders journey ohne upscaler
 
Zurück
Oben