• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Helldivers 2 im Test: 28 Grafikkarten von Nvidia, AMD & Intel im Benchmark

Die Trainingsmission ist irgendwo vergleichbarer, aber auch nicht sehr praxisrelevant.

AMD muss sich aufgrund des kleineren Teams manchmal entscheiden, welche Spiele zuerst optimiert werden. Wirkliche Nachteile haben sich deshalb für mich noch nie ergeben, aber mit dem neusten Treiber ist AMD in den praxisrelevanten Szenarien ein gutes Stück vor den preislichen Gegenstücken von Nvidia. Also kann ich damit gut leben. Hab den Text überflogen, aber den Teil mit dem neusten Treiber wohl übersehen. Ich konnte bei mir auf jeden Fall bessere Performance feststellen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Czk666 und flynn9
Wolfgang schrieb:
Das ist generell richtig, bei kleineren Spielen und Early-Access-Titeln tut sich AMD traditionell schwerer als Nvidia. Nicht immer, aber da gibt es schon ein System.
Gibt es die Möglichkeit vielleicht Gray Zone Warfare zu testen?
 
Wolfgang schrieb:
...

In der Kurzform: Async Compute aus weil sinnlos bzw. kontraproduktiv und der 24.4.1 ist in der Testszene keinen Millimeter schneller als der 24.3.1

oh das hat mein quick scan verpasst. im internet gab es nur vage aussagen, dass es nichts bringt. vor ein paar jahren konnten einige spiele davon stark profitieren, deshalb das Interesse.

Verbesserungsvorschlag: färbt doch evtl. wichtige Stichworte / Kernbegriffe im Text farblich ein. schlichtes blau vll. dann kann man beim überfliegen schnell erkennen, um was es geht.

update: hab den artikel jetzt nochmal schnellgelesen und den async compute verweis immernoch nicht gefunden ...
 
Zuletzt bearbeitet:
t3chn0 schrieb:
Ich spiele in 4K mit Ultra Quality und Ultra Preset. Mir war der Hardware Hunger gar nicht so bewusst. Ich habe immer durchgehend 120FPS, egal was passiert.

Ich hatte mal auf Nativ gestellt und mich gewundert, dass es dort zwischen 105 und 120 FPS schwankt. Dann einfach wieder auf Ultra Quality gestellt, keinen gravierenden Unterschied festgestellt, aber die deutlich bessere Steuerung dank konstanter 120FPS.

Ich bin noch immer heilfroh (aus Zocker Sicht) bei Release die 4090 bestellt zu haben. Gerade in 4K Ultra sieht das Spiel auf dem OLED mit HRD ziemlich nice aus.
Geht mir auch so, der GPU Hardware Hunger war mir so auch nicht bewusst, daher Dank für den ausführlichen Test.

Habe auch um die 115-140 FPS aber beim Nativ Ultra Preset 3440x1440p, dümpel jedoch ständig im CPU Limit rum.
Daher auch der Rückschluss das die GPU nicht soooo wichtig ist.
 
Nighteye schrieb:
Es ist nicht Intelligent eine Geforce RTX 4090 für 2000€ zu kaufen, wenn eine RX7900XTX nur 6fps weniger Perzentil bringt, und dabei weniger als die hälfte kostet.
Die 4090 kostet derzeit 79% mehr als die 7900 XTX. Weiß nicht wie Du darauf kommst, die 7900 XTX würde weniger als die Hälfte kosten.

Die 4090 ist in 4K, was die gängige Zielauflösung für eine solche Karte ist, auch in den Percentil-FPS, 42% schneller (in diesem Spiel). Wenn Du Dir Werte im CPU-Limit rauspickst (1080p), dann ist erwartbar, dass die Karten ähnlich performen. Ein Ferrari ist in der 30er Zone auch nicht schneller als ein Golf.

Wenn man anderer Leute Intelligenz in Frage stellt und ihnen Probleme im Kopf unterstellt, sollte man wenigstens mit den richtigen Werten hantieren und rechnen können.
 
Zuletzt bearbeitet:
Dittsche schrieb:
update: hab den artikel jetzt nochmal schnellgelesen und den async compute verweis immernoch nicht gefunden ...
Async Compute bleibt dabei stets abgeschaltet, denn mit dem eigentlich FPS-steigernden Feature fällt die Framerate durchweg schlechter aus – auf einer GeForce minimal, auf einer Radeon massiv.
 
  • Gefällt mir
Reaktionen: Dittsche
ripa schrieb:
Auf dem Handy Display vielleicht, aber schon dein erster Point macht das komplette Bild in FullHD auf 24" unruhig (sämtlich Schatten poppen 5m vor einem auf).
Auf höherer Auflösung hat es jeder in unserem Team getestet und ist zu der Meinung gekommen, das es in FHD anders aussehen könnte daran hatte ich nicht gedacht, sorry, haben keinen FHD Spieler dabei.
 
MoinWoll schrieb:
Die 4090 kostet derzeit 79% mehr als die 7900 XTX. Weiß nicht wie Du darauf kommst, die 7900 XTX würde weniger als die Hälfte kosten.

Hab nur kurz bei Mindfactory geguckt was grad den Roten Blitz hat.
Da gabs 24GB ASRock Radeon RX 7900 XTX Phantom Gaming OC für 958€ und 24GB Palit GeForce RTX 4090 GameRock OC für 2121€
 
Naja, das "Upsampling" in dem Game ist ... Gelinde gesagt nicht nur ein nowtendiges Übel, sondern auch noch das schlechteste überhaupt, selbst FSR 1 war besser.
Auf 4k mit Upsacaling Quality siehts schlimmer aus als mit FHD nativ vom TV (LG C3) Hochskaliert. Und das will schon was heißen.....
 
Nighteye schrieb:
Hab nur kurz bei Mindfactory geguckt was grad den Roten Blitz hat.
Da gabs 24GB ASRock Radeon RX 7900 XTX Phantom Gaming OC für 958€ und 24GB Palit GeForce RTX 4090 GameRock OC für 2121€
OK, Du hast Dir also den günstigsten Preis für die 7900 XTX rausgesucht und dann irgendeinen x-beliebigen für die 4090?

Bitteschön:
https://geizhals.de/?cat=gra16_512&pg=1&v=e&hloc=at&hloc=de&sort=p&xf=9816_03+05+17+-+RTX+4090

Ab 1719,99€ (eBay-Neuware) bzw. 1739€ (Mindfactory) geht's los.
 
coxon schrieb:
Sorry! My bad!
Ich verstehe es nicht wirklich. Bei mir brachte 24.4.1 deutlich mehr Leistung. o_O'
Nunja, das kann ja verschiedene Gründe haben - es ist nicht selten, dass Treiberverbesserungen nur auf verschiedenen Systemen, Grafikkarten oder Spielszenen greifen.

Wie schon jemand im Forum-Thread richtig erwähnt hat kann es sein, dass AMD die CPU-Last mit dem neuen Treiber reduziert hat. Limitiert nun bei dir nur die GPU, würde dir das absolut gar nichts bringen. Limitiert dagegen deine CPU, dann schon.
Uthleber schrieb:
Es ist nirgends zu finden, ob es sich um die 3080 mit 10 oder 12 GB handelt.
Es ist immer das Standard-Modell bei uns, in dem Fall also die RTX 3080 10 GB.
 
  • Gefällt mir
Reaktionen: coxon
MrHeisenberg schrieb:
Mal ne Frage in die Runde:
Habt ihr auch das Problem, dass eure CPU im Ladebildschirm ins Thermal Throttling läuft?
Bei mir dreht der Lüfter dort auf 100% und HWINFO zeigt "Thermal Throttling" an. Das habe ich bei keinem anderen Spiel oder Anwendung. Selbst bei Prime95 mit AVX nicht.
kannst ja mal die framerate begrenzen... ich lobe mir mein radeon chill 👌
 
  • Gefällt mir
Reaktionen: Czk666
Wolfgang schrieb:
es ist nicht selten, dass Treiberverbesserungen nur auf verschiedenen Systemen, Grafikkarten oder Spielszenen greifen.
Da ich mit dem 5800X3D bei 3440x1440 öfter mal ins CPU Limit laufe und bei euch der 7950X3D verwendet wird, denke ich, wie bereits oben geschrieben, dass es meinen Prozessor mehr bringt als eurem Testsystem.
 
RX6900XTXH mit Threadripper AVG 116FPS die GPU ist UV auf 96% Takt und 95% Strom.
(WQHD/ULTRA)
 
"Hierbei muss allerdings bedacht werden, dass die Trainingsmission die FPS etwas weniger belastet als eine richtige Mission. Letztere kann die Framerate noch mal um weitere 10 bis 15 Prozent drücken."

Mit ~15% haut es hin bei mir.
Auf UWQHD und Ultra Preset ~90 FPS wenn es ordentlich zur Sache geht.
 
Selbst wenn es so sein würde, dass der neue Adrenalin Treiber keine Verbesserung bringen würde, warum sollte man dann die Benchmarks expliziet mit dem alten Treiber durchführen ?
Warum nicht auch gleich das Bios auf Werkseinstellung setzen, wenn die FPS gleich bleiben ? /s

warum wird nicht ein 7800X3D verwendet oder vom 7950X3D der non X3D Die deaktiviert ?

Es ergibt alles so keinen Sinn.
 
Schlumpfbert schrieb:
In 2024 sollte sich kein AAA Spiel mehr ohne Upsampling auf den Markt trauen, das ist einfach (richtigerweise) die Zukunft.
Egal in welchem Spiel....
Immer wenn ich dlss an hab sehe ich entweder verschwindende Details und/oder eine art halos um sich bewegende objekte.

Das nervt gewaltig.

Welche Graka ich habe? Eine RTX4070S.
 
@Wolfgang - Geil! GEIL, GEIL, GEIL!!!
Wolfgang schrieb:
Benchmarks in Full HD („Mittel“)
Meine Gebete wurden erhört :)

Ich bin begeistert und beeindruckt zugleich, dass eine GTX 1660 Super (praktisch eine GTX 1070 mit weniger VRAM und kleinerem Speicherinterface) in diesem Szenario ein derart gutes Bild hinlegt und offensichtlich perfekt für Full HD 60 Hz geeignet ist (da die von euch angepeilten ~70 FPS im Benchmark erreicht werden). Die GTX 1070 ist mittlerweile immerhin acht, ich wiederhole: ACHT JAHRE alt! Wann gab es das bitte zuletzt (oder überhaupt schon einmal), dass man ein grafisch derart hübsches Spiel mit einer acht Jahre alten Grafikkarte flüssig und visuell ansehlich mit angemessener Auflösung spielen konnte?

Worum genau handelt es sich eigentlich bei der "Upsampling Ultra Quality"? Du schreibst ja, dass es keine bekannten Upscaler a la FSR, DLSS und XeSS gibt. Handelt es sich hierbei um eine rein softwarebasierte Engine-Lösung des Spiels, also klassische, reduzierte Renderauflösung ohne echtes Upscaling?

Ich weiß, es nervt dich sicherlich tierisch, dass ich hier wieder einmal einen Wunsch äußere, aber:

Ein Screenshot-Vergleich (oder gar zwei Videos derselben Sequenz) zwischen dem in den übrigen Benchmarks getesteten Ultra-Preset und dem anschließend getesteten "Full HD Mittel" wäre echt spannend :)

Selbstverständlich an dieser Stelle schon einmal ein iiiiiiiiiiiiirrsinniges, dickes, fettes Danke an dich und deine Redaktionsgenossen und Genossinnen ^^ Ich freue mich auf die noch anstehenden Tests und vieleicht setzt ihr da ja schon den Screenshot/Video-Vergleichswunsch um :)
 
  • Gefällt mir
Reaktionen: coxon
Zurück
Oben