Test Gaming-Grafikkarten 2025 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours

HWU (oder wars THG?) hat ja die These aufgestellt, dass bei VRAM Mangel schlechtere Texturen geladen werden. Was die Leistung nicht einbrechen lässt ( und sogar ein wenig steigern kann durch weniger GPU Last).
 
Wolfgang schrieb:
neue Auflösung hinzu gekommen ist, die es vorher nicht gegeben hat und die bei der CB-Leserschaft mittlerweile häufiger genutzt wird als Full HD. Insgesamt werden mit dem neuen Testparcours mehr Inhalte getestet als zuvor, die AI-Benchmarks haben ja nichts ersetzt, sondern sind noch oben drauf gekommen.
Ja gut, eine neue Auflösung die seit vielen Jahren wegen des 21:9 Formats nicht durchgehend in Spielen unterstützt wird und die meist mit gekrümmten Monitoren daherkommt (die immer noch nachteilig für produktive Anwendungen sind) und sich für mich (und vermutlich auch andere) bisher nicht wirklich angeboten haben zum Kauf.

Ich bin mittlerweile günstig direkt auf 4K/UHD bzw. 2160p gewechselt, wenn auch nur mit 60Hz, was mir noch eine Weile reichen dürfte angesichts der Leistung die Grafikkarten in der Auflösung bisher an fps in der Auflösung abliefern können und weil Ego-Shooter nicht mein bevorzugtes Spielgenre sind (Rennspiele dann schon eher, aber auch nicht vorwiegend).

Zudem dürfte die UWQHD Auflösung halbwegs akkurat interpolierbar sein (da zwischen WQHD und 4K/UHD liegend) anders als Full HD, aber die Entscheidung ist hier lange gefallen und Du äußerst Dich dahingehend ja nicht zum ersten Mal und die überproportional enthusiastisch geprägte CB Community scheint wichtiger als der/die Gesamtmarkt/-leserschaft (etwa gemäß Steam Umfrage vom November 2024, bei der UWQHD gerade einmal 2.5% der User angegeben haben, selbst 768p scheint noch mehr Nutzer zu haben) bzw. diese/n halbwegs realistisch abzubilden.

Untitled.jpg


K.I. Benchmarks passen zwar zum aktuellen K.I. Hype, aber dass großartig jetzt K.I. Anwendungen genutzt werden im Privatbereich bzw. diese etabliert wären, sehe ich bisher nicht, auch wenn man das hier und anderweitig wohl glaubt medial puschen zu müssen, was ja okay ist, aber eben nicht relevant bisher (siehe auch CoPilot+, den wohl wenigstens eher Leute dann nutzen dürften als die hier getesteten Benchmarks).

Viel Spaß in der UWQHD und K.I. Blase wünsche ich jedenfalls noch und vielleicht könnt Ihr ja andere mit der Argumentation überzeugen, mich leider nicht.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Testsequenzen können sich unterscheiden. Dazu kann es auch noch unterschiede bei den Windows-Einstellungen und Co zum tragen kommen.
Habt ihr den internen Benchmark genommen oder eine andere Sequenz?
 
@Wolfgang Danke für die Antwort. Mit weniger Relevant meinte ich eher Empire of the Ants. Cyberpunk 24h Peak waren 50k Leute, Empire of the Ants All time Peak ist bei ca. 1200, 24h Peak bei 91. Stalker 2 kam bei mir in die Kategorie unoptimierte Grütze.
 
Viele der neusten Änderungen bei den CB Grafikkartentests sehe ich sehr positiv. Allen voran die Einführung der UWQHD-Auflösung und die gleichzeitige Beschränkung von Full-HD-Benchmarks auf Einsteiger-Grafikkarten.
 
  • Gefällt mir
Reaktionen: chaser767
Nachdem Abendessen mal kurz aufs Sofa
Und was muss ich sehen:

UWQHD Test bei Computerbase.de !!!!!

Mega.
Danke. U Made my Day


Ist denn heute schon Weihnachten?!? 🎄
 
Pisaro schrieb:
Die 4090 ist mehr als DOPPELT so schnell wie deine 3070. Ich bin von einer 3080 auf eine 4090 umgestiegen, RIESIGER Unterschied. Kann natürlich sein das dein 5800X zu lahm für die 4090 war. Mein 5900X ist es.
Ja klar, hatte 3x mehr FPS, aber ich brauche nicht mehr als 45.
 
  • Gefällt mir
Reaktionen: Pisaro
Schade, dass Full-HD meistens mit DLSS/FSR getestet wird. Da wäre es besser gewesen, die Spiele in deren Einstellungen so weit runter zu schrauben, dass die Einsteiger-Grafikkarten spielbare FPS liefern.

Der "gemeinsame Nenner" ist ja eh WQHD, da hätte man bei FUll-HD, dass man eh nur mit schwachen Grafikkarten testet, eben auf niedrige Gaming-Einstellung umstellen können und sollen.

Dann wird das Ganze noch mit der Umfrage gerechtfertigt: "Wie oft nutzt ihr DLSS/FSR". Die richtige Umfrage gibt es dazu aber noch gar nicht. Die müsstet ihr noch machen und die würde lauten: "Wie oft nutzt ihr DLSS/FSR in Full-HD"

UHD mit FSR/DLSS ist halt nicht das selbe wie Full-HD mit FSR/DLSS...
 
Convert schrieb:
Da wäre es besser gewesen, die Spiele in deren Einstellungen so weit runter zu schrauben, dass die Einsteiger-Grafikkarten spielbare FPS liefern.
Sehe ich anders, denn so verfälscht du die Benchmark Ergebnisse eigentlich nur.

Um mal irgendein Beispiel mit ausgedachten Zahlen zu nehmen:

GPU 1 ist eigentlich 100% schneller als GPU 2. Jetzt stellst du aber für GPU 2 die Settings runter und verringerst so den Abstand zwischen GPU 1 und GPU 2.

Das könnte dazu führen das Leute denken: Gut, kaufe ich GPU 2. Ist ja eh nur 50% langsamer, kostet um Verhältnis aber deutlich weniger!
 
Pisaro schrieb:
GPU 1 ist eigentlich 100% schneller als GPU 2. Jetzt stellst du aber für GPU 2 die Settings runter und verringerst so den Abstand zwischen GPU 1 und GPU 2.
Natürlich stellst du die settings nicht pro GPU runter, sondern nur für diese Full-HD Auflösung für alle Karten, die du in dieser Auflösung testet. und damit sind alle Karten nach wie vor vergleichbar. Verwendung von FSR und DLSS ist ja auch nichts anderes als Settings runter stellen, nämlich auf eine kleinere Auflösung mit upscalling. Bei Full-HD lohnt sich aber eher an anderen Settings zu sparen, als an Auflösung.
 
  • Gefällt mir
Reaktionen: Pisaro
Gullveig schrieb:
Wenn der Benchmark Parcour so auf NICHT-RT geändert wurde, dann hab ich die Vermutung dass die neuen AMD Karten ja wirklich fette RT Monster werden, bzw Nvidia hier nicht wirklich mehr zulegen werden^^
Der Benchmark wurde nicht auf "nicht RT" geändert, das haben die in den letzten 12 Monaten erschienenen Spiele schlicht so vorgegeben.
Gullveig schrieb:
HWU (oder wars THG?) hat ja die These aufgestellt, dass bei VRAM Mangel schlechtere Texturen geladen werden. Was die Leistung nicht einbrechen lässt ( und sogar ein wenig steigern kann durch weniger GPU Last).
Das ist vom Spiel abhängig bzw. wie der Entwickler dies macht. Es gibt Spiele, die laufen möglichst lange mit normaler Performance weiter, laden dann aber einige Texturen nicht. Andere wiederum laden die Texturen, ruckeln sich dann aber einen Ast ab.
Chismon schrieb:
K.I. Benchmarks passen zwar zum aktuellen K.I. Hype, aber dass großartig jetzt K.I. Anwendungen genutzt werden im Privatbereich bzw. diese etabliert wären, sehe ich bisher nicht, auch wenn man das hier und anderweitig wohl glaubt medial puschen zu müssen, was ja okay ist, aber eben nicht relevant bisher (siehe auch CoPilot+, den wohl wenigstens eher Leute dann nutzen dürften als die hier getesteten Benchmarks).

Viel Spaß in der UWQHD und K.I. Blase wünsche ich jedenfalls noch und vielleicht könnt Ihr ja andere mit der Argumentation überzeugen, mich leider nicht.
Wir sehen ja auch nicht, dass aktuell schon groß AI-Anwendungen genutzt werden, verschließen wollen wir uns vor dem Thema aber nicht, denn das wäre ein Fehler. Davon abgesehen fühlen wir uns in unserer Blase, und in nichts anderen lebt ComputerBase ohnehin, ziemlich wohl :)
Blumentopf1989 schrieb:
Habt ihr den internen Benchmark genommen oder eine andere Sequenz?
Ich weiß zwar nicht worauf du dich genau beziehst, aber wir nehmen immer separate Benchmarksequenzen abseits integrierter Benchmarks.
 
Ich möchte mich an dieser Stelle noch einmal dafür bedanken, dass sich 3440x1440 als fester Bestandteil in euren Tests etabliert hat.

Bin schon auf eure Tests der RTX 5000 gespannt :D

Edit: Ich kann mich einigen meiner Vorredner anschließen, dass es schön wäre, wenn auch ältere Grafikkarten in solchen Tests berücksichtigt werden würden. Insb. da doch noch ziemlich viele mit einer 1080(Ti) unterwegs sind.
Man kann sich ja auf jeweils einen repräsentativen Vertreter aus jeder Generation von Nvidia und AMD beschränken. Anhand dessen kann man i.d.R. den Unterschied zur eigenen Graka ableiten.
 
Zuletzt bearbeitet:
Zurück
Oben