• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Fortnite-Benchmarks (2024): 28 GPUs von AMD, Intel & Nvidia in FHD, WQHD & UHD im Test

Mein Neffe spielt Fortnite auf nem 10er i5 und ner GTX 560 Ti. Wenn man will läuft das Game sogar auf nem Toaster. ^^

Aber krass das AMD hier so stark abschneidet, hätte ich nicht erwartet.
 
  • Gefällt mir
Reaktionen: Kazuja
Montag Morgen, frisch gestärkt und auf die Freigabe der Datenbank wartend:
Taxxor schrieb:
Man könnte natürlich sagen, wenn alle GPUs mit FSR verglichen werden, bekommt man ein faireres Ergebnis, weil dann die Optik auch identisch ist.
Man kann an dieser Stelle unendlich viel sagen und am Ende kann jeder dazu eine Meinung haben, das macht die anderen Meinungen an der Stelle nur weder weniger richtig noch weniger falsch.

Ich persönlich sehe das Thema mit FSR, TSR und DLSS an der Stelle anders als du und denke eben nicht, dass man hier FSR Quality gegen DLSS Balanced antreten lassen sollte, weil FSR Quality "pauschal" von der Qualität nur DLSS Balanced entsprechen würde.
Taxxor schrieb:
Zumindest wäre es aber schon mal etwas besser, als FSR Quality gegen DLSS Quality antreten zu lassen
Das wäre es in diesem Fall in deinen Augen. Problemematisch ist nur, dass in 4K FSR Quality je nach Titel mit DLSS Quality mithalten kann und man dann entscheiden müsste, ob jetzt DLSS wirklich die bessere Bildqualität liefert.

Und da fängt das Problem an: Definiere Bessere. Und bitte kommt jetzt nicht damit, dass man ein Bild Pixel für Pixel vergleichen soll. Da kann man Farbunterschiede erkenne, das war es dann schon. Und was nimmt man als Referenz? Nativ, dass je nach Spiel bereits nachweißlich schlechter aussehen kann als FSR und DLSS?

An dieser Stelle kann man - und auch das ist legitim - einen pragmatischeren Ansatz wählen und sagen, dass die Upscaling-Einstellung wählt, die das gleiche Rendertarget und damit die "best mögliche" Bildqualität gewährleistet wird, auch wenn diese dann zwischen den Karten unterschiedlich ist.

Es ist alles eine Frage des Standpunktes und jede Meinung ist hier valide. Es gibt hier kein wirklich "besser" oder "schlechter", sondern nur ein: anders.
Taxxor schrieb:
[...] ein CPU Limit haben, was dann mit DLSS von der 4090 erreicht wird
Wobei man bei Fortnite auch bei 1080p weitgehend ein CPU-Limit hier ausschließen kann, wenn ich mir die Einstellungen in "Mittel" ansehe und hier plötzlich über 200 fps möglich sind.

Es zeigt sich ja in vielen Spielen, dass gerade in 1080p die RTX 4090 starke Probleme hat ihre Shader auszulasten - zu viele Warps die benötigt werden. Ab 1440p - gerade mit RT - tritt da Besserung ein, in der Regel benötigt es aber 4K, damit die RTX 4090 überhaupt die geballte Rechenleistung irgendwie auf den Bildschirm bringt.

Daher verliert man ja in 1440p kaum fps, selbst wenn man die RTX 4090 von 450 W auf 300 - 320 W einbremst.
PeacemakerAT schrieb:
Und was bringt es Spiele nur nativ und nur in Ultra zu benchen, wenn dann oftmals nur die 4090 sinnvolle Bildraten schafft?
So, jetzt muss ich auch mal die andere Seite einnehmen, weil ich "neutral" bin.

Ich kann es durchaus verstehen, dass manche den Ansatz, den wir hier fahren, nicht perfekt finden, was RT angeht oder eben in 4K nun FSR/DLSS/XeSS "Quality" zu aktivieren. Es geht hier um ein Ranking und in dem kann es manchmal durchaus auch relevant sein, einfach mit maximierten Settings die Benches laufen zu lassen, um die Unterschiede zwischen den Grafikkarten deutlicher zu machen. Ähnlich verhält es sich ja auch mit der CPU.

Das ist auch in dem Fall eine valide Sichtweise, die ohne jedes Wenn und Aber, auch ihre Berechtigung hat.
PeacemakerAT schrieb:
Da finde ich den Ansatz den CB gewählt hat viel schlauer, das sind Settings wie viel hier sie auch in Realität anwenden werden.
Genau, du findest es an der Stelle schlauer. Andere finden es weniger schlau und ich mag das Wort Schlau an der Stelle nicht, weil es direkt wertend ist.

Ich zitiere meine Professorin: "Es kommt darauf an."
Taxxor schrieb:
Alles andere ist rein akademischer Natur, das kann man in gezielten groß angelegten GPU Testartikeln machen, wo es wirklich gar nicht so sehr um die einzelnen Spiele sondern ums Ranking generell geht, aber es ist nicht sinvoll für einzelne Spiele-Tests.
Genau, man kann, muss aber nicht.

Im Endeffekt ist das, was wir hier machen, auch nur ein Blickwinkel auf die Leistung der Grafikkarten. Es gibt allerdings viele andere Zeitschriften, Techseiten, YouTuber und Co, die die Grafikkarten vermessen und die auch andere Schwerpunkt dabei wählen.

Wir alle wählen unterschiedliche Testszenarien mit unterschiedlicher Länge, wir haben alle unterschiedliche Systeme. Mal "Standard", mal "Optimiert". Mal ist die Testsequenz 30 Sekunden, mal 60 Sekunden. Manche testen im absoluten Worst-Case, andere wählen eher Durchschnitt und so weiter.

Das ist auch gut so, weil man so über verschiedene Medien ein möglichst bereits Bild von den Grafikkarten bekommt oder eben der CPU.

Genauso sollte man Themen wie Serienstreuung - was Lüfter angeht und Co - nicht unterschätzen und kann auch so sehen, ob vielleicht Probleme bestehen.
MoinWoll schrieb:
Das Problem ist allerdings, dass CB mittlerweile auch die großen Grafikkartentestartikel, in denen es wirklich darum geht, die tatsächliche Leistung von Grafikkarten relativ zueinander über eine große Anzahl Spiele zu bestimmen, mit reduzierten Settings durchführt.
Was wiederum nicht schlecht sein muss, es kommt halt darauf an, worum es dabei geht.

Wenn alleine die RTX 4090 im Stande wäre in 4K knapp 30 fps zu erreichen, dann nutzt es fast nichts, wenn die 4080 und 7900 XTX bei 24 - 25 fps sind und alle anderen Grafikkarten noch darunter.

In so einem Fall kann es durchaus sinnvoll sein, auch bei einem großen Test, die Settings so zu wählen, dass alle Grafikkarten halbwegs über 30 fps kommen. In der den meisten Fällen bilden sich nämlich auch in anderen Einstellungen die üblichen Abstände ein. Wenn dann die 4080 und 7900 XTX auf 50 fps kommen, landet die RTX 4090 in der Regel bei 60 - 70 fps.
HAse_ONE schrieb:
Evtl sollte man aber wirklich, wenn vorhanden, auf allen Karten den gleichen Upscaler nutzen für die Vergleichbarkeit.
Darüber kann man nachdenken, wäre am Ende aber dann FSR und würde auch wieder Kritik hervorbringen.
Taxxor schrieb:
Dann muss ich für den Leistungsvergleich auch DLSS Balanced gegen TSR Quality stellen oder im Fazit erwähnen dass AMD zwar schneller ist, aber dabei schlechter aussieht
Muss es schlechter aussehen? Genauso: Fällt es beim Spielen auf?

Es ist immer ein zweischneidiges Schwert. Das ganze Thema ist weit aus komplexer, als einfach nur ein Summenspiel.

Wichtig ist - und das ist der Knackpunkt - dass offen darüber gesprochen wird und transparent die Umstände der Benchmarks erläutert werden.

Es sind alle Informationen dafür vorhanden.
 
  • Gefällt mir
Reaktionen: Kazuja
DevPandi schrieb:
Muss es schlechter aussehen? Genauso: Fällt es beim Spielen auf?
Nein, muss es nicht, das muss eben von Spiel zu Spiel betrachtet werden.
Hier ist es z.B. gleichwertig, woanders dann nicht mehr.
Und wenn ich in einem Spieletest die Dicke Überschrift lese „Upscaler X klar besser als Upscaler Z“(was man hier durchaus öfter mal liest), dann gehört der Umstand auch beim Leistungsvergleich mit rein.

Wenn wir nun mit dem Argument kommen, der Unterschied fällt beim Spielen eh nicht auf, dann können wir das professionelle Testen auch gleich sein lassen und zur Gamestar gehen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg
DevPandi schrieb:
Genau, du findest es an der Stelle schlauer. Andere finden es weniger schlau und ich mag das Wort Schlau an der Stelle nicht, weil es direkt wertend ist.
Ja das mag wohl nicht das passendste Wort gewesen sein, was ich damit meinte war aber ziemlich das selbe was du selbst unten aufgeführt hast. Es bringt einfach nicht viel die Settings so hoch zu schrauben, um dann nur noch einen 4090 mit spielbaren FPS zu haben.
Gibt sicher auch Leute die das interessant finden würden, aber es ist halt weit entfernt davon wie dann in Wirklichkeit gespielt wird.

Die Diskussion mit den Upscalern finde ich ehrlich gesagt ziemlich müßig, die Technik ist definitiv gekommen um zu bleiben und hat je nach Umsetzung und Auflösung sogar das schönere Bild als nativ gerendert.
Wenn man jetzt bei den Benchmarks dann auch noch die Upscaling Qualität mitbetrachten würde, dann würde der Aufwand dies zu Ermitteln die Benchmarks noch viel zeitintensiver machen und wäre am Schluss trotzdem nur eine subjektive Bewertung.
Wer sagt denn, dass sich bei einem Updates des Spiels/Upscalers nicht wieder alles ändert? Da finde ich die Wahl über den Skalierungsfaktor noch am praktikabelsten, auch wenn da FSR vielleicht nicht ganz das selben Qualitätsniveau erreicht bei kleinen Auflösungen.
 
H6-Mobs schrieb:
Hört doch mal bitte auf so einen Quatsch zu erzählen. Nicht nur das es wehtut, so etwas zu lesen, nein, viel schlimmer noch, jemand anderes liest das und glaubt das noch.
Entschuldige bitte das ich den Fakten von Computerbase glaub. Deine Alternativen Fakten scheinen da wohl etwas genauer muhahaha
 
  • Gefällt mir
Reaktionen: Kazuja
@Wolfgang

Finde es klasse, dass „meine" 6500 XT mitgetestet wurde, obwohl die unter CBlern ja wohl nur eine Handvoll haben dürften, wenn überhaupt. Danke dafür!

Fortnite & Co sind zwar nicht meins, dennoch bietet mir der Vergleich einen guten Orientierungspunkt. Bisher musste ich bei dem, was ich zocke – z. Z. RDR2 vom PC über die Wii U auf den Fernseher gestreamt – noch nichts links von der Mitte einstellen. Abwechselnd dann noch Zelda: Twilight Princess HD von der Wii U, bin also in beiden Welten unterwegs, aber anscheinend bin ich verglichen mit der Mehrheit sowieso genügsam was Grafikpower betrifft :D Solange die Karte abliefert, denke ich tatsächlich nicht ans Aufrüsten.
 
hennich schrieb:
Entschuldige bitte das ich den Fakten von Computerbase glaub. Deine Alternativen Fakten scheinen da wohl etwas genauer muhahaha
Die einzigen Fakten, die CB hier zeigt, sind Benchmarks eines einzelnen Spiels, wie leitest du daraus irgend einen Treiberfortschritt oder einen generellen Fortschritt ab?

Dazu passen heute die nächsten Fakten von CB. Schon krass, wie weit AMD mittlerweile zurückgefallen ist, müsstest du ja nun eigentlich sagen, oder?
https://www.computerbase.de/2024-04/pubg-battlegrounds-benchmark-test-2024/

1713867407744.png
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Weißt, ich hab immer noch die 5700XT in meinem Rehcner den ich mir 2020 zusammengebaut hab.

Schon komisch das nVidia hier so ein Vorteil hat. Auch die nVidia Aktie einfach nur ganz weit weg von der REalität. Die Fanboys und ihre Interessen. WAS ERDREISSTE ICH MICH HIER SOETWAS KUND ZU TUN! Fehlt noch, Taxxor. :)
Ergänzung ()

Melmoth schrieb:
@Wolfgang

Finde es klasse, dass „meine" 6500 XT mitgetestet wurde, obwohl die unter CBlern ja wohl nur eine Handvoll haben dürften, wenn überhaupt. Danke dafür!

Fortnite & Co sind zwar nicht meins, dennoch bietet mir der Vergleich einen guten Orientierungspunkt. Bisher musste ich bei dem, was ich zocke – z. Z. RDR2 vom PC über die Wii U auf den Fernseher gestreamt – noch nichts links von der Mitte einstellen. Abwechselnd dann noch Zelda: Twilight Princess HD von der Wii U, bin also in beiden Welten unterwegs, aber anscheinend bin ich verglichen mit der Mehrheit sowieso genügsam was Grafikpower betrifft :D Solange die Karte abliefert, denke ich tatsächlich nicht ans Aufrüsten.
So siehts aus. :)

Die Preise - es gehören immer zwei dazu. Einer der es anbietet und einer der es kauft. Dann noch den der seine über 1000 euro GFX Karte im Forum als Schnäppchen anpreist - oh lol. Oder den der nVidia Aktien gekauft hat und JA WOHL KLAR IST DAS NVIDIA HIER PESTE IST EINZ ELF!!1

Das Erinnert mich an meinen Nachbarn aus der Türkei. Kein Geld. Mit 5 Leuten in 3 Zimmer wohnen aber der AMG steht vor der Tür. Inklusive nicht wissen was AMG heißt. Es ist so einfach Verrückte aber auch unheimlich Lustige Zeit :)
 
  • Gefällt mir
Reaktionen: Kazuja
Danke für den Test, haben wir gerne gelesen.
Wir? Ja, wir spielen Fortnite im Team.
Alter: 25 - 40 - 55 - 65

Macht immer wieder Spaß, so ein Game mit verschiedenen:
Charakteren / Hardware / Ansprüchen
zu spielen.
Performance bzw, FPS interessiert nicht jeden, aber wir spielen 2 x AMD und 2 x nvidia
 
  • Gefällt mir
Reaktionen: hennich und Kazuja
Hab Fortnite am ersten Tag wo es Released wurde gezockt. Ohgott wie furchtbar, ein PUBG Clone von EA. Die Jahre vergingen. Das Kind wünschte sich seit 4 Monaten das wir zusammen Fortnite spielen. Jetzt hab ich mein Geschäftskollegen gesagt er soll jetzt einfach die Klappe halten was ich sag und einfach TUN was ich sag. Installiers und halt die Klappe wir spielen das jetzt. Unser Fortnite Team 45 - 45 - 12 :lol:
Verdammt, es macht echt laune! :D
 
hennich schrieb:
Entschuldige bitte das ich den Fakten von Computerbase glaub. Deine Alternativen Fakten scheinen da wohl etwas genauer muhahaha
Er hat aber schon recht, dass die 7900 XTX in einzelnen Spielen mithält, ist nichts neues. Das ist insbesondere dann der Fall, wenn die RTX 4090 ihre Leistung nicht auf die Straße bringt. Dass es sich um zwei Grafikkarten in völlig anderen Leistungsdimensionen handelt, weiß auch AMD, ansonsten hätte man sein Flaggschiff nicht gegen die RTX 4080 positioniert. Insofern ist es in der Tat nicht sonderlich haltbar, aus einem Ergebnis in Fortnite massiven Treiberfortschritt abzuleiten. Und das sage ich als Besitzer der 7900 XTX. Man muss schließlich wissen, was man kauft :)
hennich schrieb:
Weißt, ich hab immer noch die 5700XT in meinem Rehcner den ich mir 2020 zusammengebaut hab.
War doch damals auch eine solide Karte, sofern man vom Blackscreen-Problem verschont blieb. Mein Bruder war auch hochzufrieden, bis er kürzlich gewechselt ist.
hennich schrieb:
Schon komisch das nVidia hier so ein Vorteil hat.
Und mit "hier" meinst du in der Verbreitung im Forum, der allgemeinen Marktdurchdringung, der Leistung im Top-End-Bereich? Komisch ist daran eigentlich nichts. Man hat produktpolitisch über die Jahre einfach viel richtig gemacht, konnte in Sachen Qualität einigermaßen kontinuierlich abliefern, hatte eigentlich immer die alleinige, mindestens aber geteilte Leistungsführerschaft inne, gleichzeitig passte das Marketing. In der Konsequenz ist man heute im Bereich der Consumer-GPUs in einer Apple-artigen Position, wodurch viele Kunden Nvidia als den Grafikkartenhersteller schlechthin betrachten. AMD konnte sich über die Jahre einfach nicht als gleichwertiger Konkurrent etablieren und der erneute Abstecher in die Mittelklasse für RDNA 4 zeigt dir auch ziemlich genau, warum dem so ist.
hennich schrieb:
Auch die nVidia Aktie einfach nur ganz weit weg von der REalität.
Tech-Werte werden an der Wallstreet alle in ganz anderen Sphären gehandelt, das ist eben einfach so. Inwiefern das einen relevanten Bezug zur Leistung einer Geforce in Fortnite hat, sei dahingestellt.
hennich schrieb:
Die Fanboys und ihre Interessen. WAS ERDREISSTE ICH MICH HIER SOETWAS KUND ZU TUN! Fehlt noch, Taxxor. :)
Ergänzung ()
Fanboymäßig bist doch eher du mit deinem Beitrag unterwegs, oder täusche ich mich? Wie gesagt, ein einzelnes Spiel kann für die durchschnittliche Leistungsfähigkeit einer Grafikkarte schlicht nicht als aussagekräftig betrachtet werden. Es gibt immer Spiele, die einem der Hersteller besser liegen als dem anderen. Solche Ausreißer würden in einem repräsentativen Benchmark-Parcours aber eingehegt, schau' dir dazu ruhig jeden halbwegs aktuellen Test an.
hennich schrieb:
So siehts aus. :)
Die Preise - es gehören immer zwei dazu. Einer der es anbietet und einer der es kauft. Dann noch den der seine über 1000 euro GFX Karte im Forum als Schnäppchen anpreist - oh lol.
Ansprüche sind unterschiedlich, ebenso wie Preisvorstellungen und finanzielle Leistungsfähigkeiten.
Weder mit 5700 XT noch mit 6500 XT kannst du sinnvoll 4K-Gaming betreiben, 1080p ist dagegen in vielen Spielen überhaupt kein Problem - wenn es dann nicht zwingend Hunderte von Frames sein sollen. Wenn ich einen 4K-OLED-Monitor kaufe und erwarte, dass meine Spiele immer und durchgängig mit 60 fps oder mehr laufen, können 1000 € für eine Grafikkarte im Marktumfeld durchaus günstig sein - oder würdest du Budget für ein Anzeigegeräte im vierstelligen Bereich einplanen, es dann aber an einen PC anschließen, der insgesamt weniger gekostet hat? Die meisten werden das wohl kaum so machen.
hennich schrieb:
Oder den der nVidia Aktien gekauft hat und JA WOHL KLAR IST DAS NVIDIA HIER PESTE IST EINZ ELF!!1
Wer vor einigen Jahren Nvidia-Aktien gekauft hat, dürfte damit einiges richtig gemacht haben - mit dem Thema hat das aber nach wie vor nichts zu tun. Ein vernünftiger Investor ist nicht gleich ein Fanboy.
hennich schrieb:
Das Erinnert mich an meinen Nachbarn aus der Türkei. Kein Geld. Mit 5 Leuten in 3 Zimmer wohnen aber der AMG steht vor der Tür. Inklusive nicht wissen was AMG heißt. Es ist so einfach Verrückte aber auch unheimlich Lustige Zeit :)
Ein ziemlich polemischer Vergleich, da ich bezweifle, dass die meisten Besitzer teurer Grafikkarten diese auf Kosten von Annehmlichkeiten wie ausreichendem Wohnraum anschaffen - aber dabei kann ich natürlich nur von mir selbst sprechen ;)
 
  • Gefällt mir
Reaktionen: hennich
heroesgaming schrieb:
Er hat aber schon recht, dass die 7900 XTX in einzelnen Spielen mithält, ist nichts neues. Das ist insbesondere dann der Fall, wenn die RTX 4090 ihre Leistung nicht auf die Straße bringt. Dass es sich um zwei Grafikkarten in völlig anderen Leistungsdimensionen handelt, weiß auch AMD, ansonsten hätte man sein Flaggschiff nicht gegen die RTX 4080 positioniert. Insofern ist es in der Tat nicht sonderlich haltbar, aus einem Ergebnis in Fortnite massiven Treiberfortschritt abzuleiten. Und das sage ich als Besitzer der 7900 XTX. Man muss schließlich wissen, was man kauft :)
Klar, wer weiß schon das Gewisse Produkte Design Fehler haben und es auch der Treiber nicht mehr richten kann. Oder bei nVidia die Steckerverbindungen die mit der Last die grätsche gemacht haben.

heroesgaming schrieb:
War doch damals auch eine solide Karte, sofern man vom Blackscreen-Problem verschont blieb. Mein Bruder war auch hochzufrieden, bis er kürzlich gewechselt ist.
Hab nichts gegenteiliges behauptet. Hab sie immer noch :)
heroesgaming schrieb:
Und mit "hier" meinst du in der Verbreitung im Forum, der allgemeinen Marktdurchdringung, der Leistung im Top-End-Bereich? Komisch ist daran eigentlich nichts
Nein, damit meine ich die Benchmarks. Computerbase hat nicht direkt was mit nVidia zu tun ? Ähh hä ? :D
heroesgaming schrieb:
Tech-Werte werden an der Wallstreet alle in ganz anderen Sphären gehandelt, das ist eben einfach so. Inwiefern das einen relevanten Bezug zur Leistung einer Geforce in Fortnite hat, sei dahingestellt.
Richtig, an der Börse wird gehandelt. Absolut richtig. Da gibt es unheimlich viele von ;) Zu den Games. Warzone läuft auf AMD Karten vielschneller als auf nVidia. Das wars aber auch schon. Warum ? Wurde hier Monetär nachgeholfen ?
heroesgaming schrieb:
Fanboymäßig bist doch eher du mit deinem Beitrag unterwegs, oder täusche ich mich? Wie gesagt, ein einzelnes Spiel kann für die durchschnittliche Leistungsfähigkeit einer Grafikkarte schlicht nicht als aussagekräftig betrachtet werden. Es gibt immer Spiele, die einem der Hersteller besser liegen als dem anderen. Solche Ausreißer würden in einem repräsentativen Benchmark-Parcours aber eingehegt, schau' dir dazu ruhig jeden halbwegs aktuellen Test an.
Es kommt darauf an wieviel man Investiert. Da kann man schon mal Privat zum Fanboy werden ( siehe Musk ) um den ganzen Monetären Nachdruck zu verleihen. Falls du im Tagesgeschäft dabei bist, hat Musk soviel Macht das er Börsen hoch und runter jagen kann. Zumindest bei allen Anlegern Verunsicherung bringen kann. Bissi mehr Interesse am Tagesgeschäft würde dieses Defizit hier glätten fyi.
heroesgaming schrieb:
Ansprüche sind unterschiedlich, ebenso wie Preisvorstellungen und finanzielle Leistungsfähigkeiten.
Weder mit 5700 XT noch mit 6500 XT kannst du sinnvoll 4K-Gaming betreiben, 1080p ist dagegen in vielen Spielen überhaupt kein Problem - wenn es dann nicht zwingend Hunderte von Frames sein sollen. Wenn ich einen 4K-OLED-Monitor kaufe und erwarte, dass meine Spiele immer und durchgängig mit 60 fps oder mehr laufen, können 1000 € für eine Grafikkarte im Marktumfeld durchaus günstig sein - oder würdest du Budget für ein Anzeigegeräte im vierstelligen Bereich einplanen, es dann aber an einen PC anschließen, der insgesamt weniger gekostet hat? Die meisten werden das wohl kaum so machen.
Hoffen wir es! Gut die Wirtschaft lebt auch von dummen Menschen. Soz. die Leistungsträger ;)
heroesgaming schrieb:
Wer vor einigen Jahren Nvidia-Aktien gekauft hat, dürfte damit einiges richtig gemacht haben - mit dem Thema hat das aber nach wie vor nichts zu tun. Ein vernünftiger Investor ist nicht gleich ein Fanboy.

Ein ziemlich polemischer Vergleich, da ich bezweifle, dass die meisten Besitzer teurer Grafikkarten diese auf Kosten von Annehmlichkeiten wie ausreichendem Wohnraum anschaffen - aber dabei kann ich natürlich nur von mir selbst sprechen ;)
Meine Lebenserfahrung ist hier eine andere. So scheinen Menschen aus anderen Kulturen die Priorität auf das Automobil zu legen. Das ist in diesen Ländern so. Besonders Deutsche ohne Lebenserfahrung und Kenntnisse aus dem Ausland tun sich mit dieser Erkenntnis unheimlich schwer!

Danke für deine Ausführliche Antwort. Hat mir sehr gefallen :) LG
 
Hallo, weil viele hier über den Test meckern, warum wieso weshalb mit oder ohne dlss, tsr, hoch , balanced usw.
hab hier zwei Test gefunden wo Nativ und alles auf max. inklusive Raytracing getestet wir
Screenshot_20240427_125343_Gallery.jpg
Screenshot_20240427_125219_Gallery.jpg

Ergänzung ()

Wie man sieht, schaffen selbst die Top GPU's ohne DLLS und TSR auf max Settings, nur lächerlich geringe FPS.Die meisten Menschen haben Mittelklasse GPU's.Deswegen finde ich den Test Realitätstreu und gut.Im Test wurde oft darauf eingegangen das man möglichst 90 FPS haben sollte bei diesem shooter.btw hab mein setting so eingestellt, das ich mein 5120x1440 240hz monitor mit konstant 240fps befeuer.Diese vereinzelte Kritik am Test kann ich nicht nachvollziehen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: heroesgaming
Sind doch bestimmt viele Spieler hier: welche Einstellungen gehen mehr auf die CPU und welche belasten mehr die GPU?
Wenn ich spiele läuft die CPU bei rund 90-98%, das schwankt natürlich etwas je nach Spielstand.
Wenn meine CPU also auf 98% fährt und ich somit im CPU-Limit bin, da meine GPU nur 80% anzeigt, habe ich für die GPU noch etwas Luft für schönere Einstellungen, oder?
Welche Regler (z.B. Betrachtungsdistanz, Texturen, Schatten, gibt ja noch mehr) sind dann eher GPU-lastig?
 
Zuletzt bearbeitet:
"Für Competetive Games reichen 60 FPS nicht" - blablabla. Dann ist es wohl Einbildung, dass ich mit 60 FPS einen Epischen nach dem anderen hole. Oh, jetzt weiß ich's: Meine Gegner haben nur 30 FPS - sischa datt! Echt, bei manchen Phrasen wundert man sich, warum sie von angeblich Sachkundigen seit Jahr und Tag geradezu mantraartig wiederholt werden.
 
Welche CPU braucht man eingeltich um 144FPS zu erreichen.
Irgendwie finde ich im Net keinen CPU benchmark.
Wäre z. B. ein Ryzen 7700 für 144FPS aureichend oder ein 13600K besser?
 
Es sollte ein r7 5700x3d völlig ausreichend sein. Es ist aber die gpu mehr im Fokus min sollte das eine rtx4070 sein um konstant 144fps zu haben.
 
Zurück
Oben