Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc für Juli

Wolfgang schrieb:
... Für mich gehört der Speicherausbau auch zur "Leistung" hinzu. Für mich ist eine Grafikkarte ein Gesamtpaket, was stimmen muss. Dies ist für mich die "Leistung". Und wenn der Speicherausbau nicht stimmt, gibt es ein Problem bei der "Leistung".
Was man nicht vergessen darf ist, dass der Parcours sich an aktuelle und zukünftige Grafikkarte richtet. Und dass ist die R9 Fury (X) eben nicht. Zumal - um mal ganz ehrlich und offen zu sein - die 4GB auf der Fury X einfach nur total bescheuert waren.

Naja gut, ich sehe Extremeinstellungen - welche außer von einer geringen Anzahl von Enthusiasten (die natürlich im CB Forum sehr überproportional vertreten sind und die scheinbar bei Euch oberste Priorität genießen) sowieso kaum genutzt werden und zudem kaum einen sichtbaren Mehrwert bieten - nur um GPU mit dem verbauten Speicher an die Wand zu fahren als wenig realistisch und zielführend an.

Ja, ich bleibe dabei, dass diese Vorgehensweise einem Gesamtranking - welches vorwiegend zur Kaufempfehlung dient - nicht dienlich ist, da dadurch verzerrte/verfälschte Daten/Relationen in die Bewertung einfließen und somit das Ranking weniger aussagekräftig wird.

Richtig wäre m.E. eine getrennte Bewertung von Leistung und Speicherausbau (wodurch die Fiji-GPUs trotzdem in einigen Szenarien, bspw. für primär auf Ego-Shooter fokussierte Spieler - so ein Genre-Empfehlungsansatz hätte übrigens auch etwas, denn damit würdet Ihr Euch von der Masse der anderen Testseiten wohl sehr positiv absetzen - nicht mehr empfehlenswert wären), zumal Mangel an letzterem immer noch relativ überschaubar ist bei dem ca. halben Dutzend an Spielen, welche mehr als 4GB in Maximaleinstellungen benötigen um nicht unkalkulierbar (multifaktoriell bedingt) einzubrechen, und welche in Eurem Benchmark-Parcours auch überproportional vertreten sind.

Letzteres kann ich aber verstehen, denn schließlich benötigt Ihr ja etwas wo Unterschiede auftreten und Ihr darüber berichten könnt (dafür eignen sich fordernde Titel/Extrembeispiele natürlich besser), nur wundert es mich dann, dass Ihr immer noch keine Benchmark-Szene aus mit einer großen Spielerschaft ausgestatteten Star Citizen - nicht dem in Entwicklung befindendem Hauptspiel, welches natürlich nicht kurz- bis mittelfristig stabil "gebencht" werden kann, sondern dem fertig gestellten Arena Commander - mit aufgenommen habt, schade, aber das ist ein anderes Thema.

Natürlich war das Speicherlimit von 4GB bei Bestückung von Fiji-GPUs (egal ob Nano, Fury oder Fury X) mit HBM1 unglücklich, aber die GPU wurde vorausschauend über einen (laut AMD) 5-Jahres Zeitraum entwickelt (wie lange HBM1 entwickelt wurde ist mir nicht bekannt, aber da es fester Bestandteil der Architektur ist/war, würde ich von mindestens 3-4 Jahren Entwicklungszeit ausgehen) und ob man nun AMD oder SK Hynix den "Schwarzen Peter" dafür gibt, ist eigentlich egal.

Aus meiner Sicht hat man sich bei der HBM1 Entwicklung einfach etwas verkalkuliert bzw. zu niedrig dimensioniert was die Speicheranforderungen nach geschätzt 3-4 jähriger Entwicklungszeit und dem Nutzungszeitraum darüber hinaus angeht, das kann passieren bei einer komplett neuen Technologie und aber ob das im Hinblick auf den Entwicklungs- und Nutzungszeitraum als "total" bescheuert" zu bewerten ist?

Denn genauso könnte man dann das aktuelle GPU-Gesamtrating hier auf CB "total bescheuert" finden, da ähnlich derzeit dort einiges im argen liegt bzw. in die Hose gegangen ist ;).

Wolfgang schrieb:
Das geht schon (beides) alleine deswegen nicht, da es die Diagramme und das Diagramm-Design sprengen würde. Das sind Sachen, die einem als Enthusiasten (und ehrlich, auch mir persöhnlich) egal sind, aber ich schreibe nunmal nicht nur für uns, sondern für alle Leser ... Alleine aus Übersichts- und Design-Gründen.

Naja, gehen dürfte das schon (wenn der Wille da ist), aber es macht natürlich zusätzliche Arbeit, keine Frage, und Übersichts- und Designgründe klingt ein wenig vorgeschoben/ fadenscheinig, aber nun gut, Eure Entscheidung.

Eigentlich sehe ich den CB Gesamtrating-Artikel nicht vornehmlich als Anlaufstelle für die Enthusiasten hier - die sowieso jeden Artikel zu GPUs, CPUs, etc. lesen und grob die Daten im Kopf haben - sondern als an externe Laien gerichtet, die hier vorbei schauen um sich Rat zu holen ohne sich großartig in die Materie einarbeiten zu müssen und genau für diese wären die Zusatzinfos hilfreich und diese stellen auch eine deutlich größere Käuferschaft und neues Potential an CB Lesern/Abonnenten dar, aber wie gesagt, das müsst Ihr wissen wen Ihr damit ansprechen wollt.
 
Zuletzt bearbeitet:
psYcho-edgE schrieb:
Ja, ich konnte es nur irgendwie nicht richtig im Kopf einem Benchmark-Balken zuordnen.

Kann man sich das dann so vorstellen?

[...]

Hab's mal versucht zu illustrieren:

099quantilo1usr.png


Am Ende eines 100-sekündigen Benchmarks, bei dem Laufend die Bildrate (Bilder/s) gespeichert wird, hast du 100 Messwerte. Im Diagramm oben sind diese der Grösse nach sortiert. Hab hier eine Normalverteilung genommen, was zwar nicht ganz der Realität entspricht, aber zur Veranschaulichung sollte es genügen.

Das 99. Prozentil (0.99-Quantil) ist hier Rot eingefärbt und entspricht dem untersten Prozent aller Messwerte und damit ungefähr der minimalen Bildrate.
 
Timberwolf90 schrieb:
Könnte bei zukünftigen Grafikkarten Tests die Kompatibilität der getesteten Karten zu älteren Mainboards (evtl. 2-3 Referenz Boards) ohne UEFI BIOS überprüft werden.

Leider liefern immer mehr Bordpartner ihre Grafikkarten mit inkompatibler Firmware zu nicht UEFI BIOS Boards aus. Auf den Produktseiten der Hersteller ist zumeist nicht ersichtlich ob die Firmware der Grafikkarte einen Legacy Modus bietet.

Für den Endanwender ist die aktuelle Situation sehr undurchsichtig, da somit nicht mehr automatisch auf die Abwärtskompatibilität, welcher der PCI Express Standards normalerweise suggeriert, vertraut werden kann.

Für etliche User mit nicht mehr so ganz taufrischen Systemen hätte dies einen enormen Mehrwehr wenn sich CB dieser Thematik in zukünftigen Testberichten annehmen würde.
Ganz so jung ist UEFI jetzt auch nicht. Mein 6 Jahre altes Asrock Z68 Extreme4 Gen3 hat UEFI und das war damals schon Stand der Dinge. Es sollte also auch die Masse an Systemen ohne UEFI, die heute noch laufen und noch mit aktuellen GPUs aufgerüstet werden sollen, sehr überschaubar bleiben. Das kann eigentlich fast ausschließlich nich alte Core 2 Duo/Quad und Phenom I/II-Systeme betreffen. Und was will man in diesen Kisten noch mit einer aktuellen GPU? Ich denke mal, die sind einfach nicht relevant.
 
@TheManneken

Mit der Sandybridge Generation kam die UEFI Stein bei den Mainboardherstellern erst richtig ins rollen. Viele Systeme der der ersten Core Generation oder auf Basis des Phenom II halten sich übertaktet immer noch wacker und sind durchaus noch zum Spielen aktueller AAA Titel geeignet. Natürlich unter der Voraussetzung dass ihnen eine halbwegs potente GPU zur Seite gestellt wird.

Aber auch für Inhaber deren Grafikkarte sich aufgrund eines Defektes verabschiedet hat, aber mit deren Leistung zu Frieden waren, oder für solche die sich einfach neue Features wie z.B. Hardware beschleunigte HEVC Decodierung wünschen ist diese Information äußerst hilfreich. Deshalb wäre es gerade für die kommenden Modelle der Einsteiger Klasse interessant zu wissen ob diese auch mit non UEFI BIOS Mainboards zu recht kommen.
 
Chismon schrieb:
Naja gut, ich sehe Extremeinstellungen - welche außer von einer geringen Anzahl von Enthusiasten (die natürlich im CB Forum sehr überproportional vertreten sind und die scheinbar bei Euch oberste Priorität genießen) sowieso kaum genutzt werden und zudem kaum einen sichtbaren Mehrwert bieten - nur um GPU mit dem verbauten Speicher an die Wand zu fahren als wenig realistisch und zielführend an.

das geht aber in dieselbe Liga wie zu sagen dass beim CPU Test >12 Threads gar nicht beachtet werden müssen. Ein winzig kleiner Teil da draußen nutzt überhaupt SW die damit umgehen kann. Und dennoch muss ich sie mit einbeziehen um auch für Differenzierung zu sorgen.

Heute ist es Doom + vllt noch 1-2 andere Titel (und sei es vielleicht grottige Textmonster wie COD). Jedenfalls ist es kein Einzelfall (Setting mit Belegung >4Gb), 4GB Vram wackeln ja nicht umsonst. Wer hier meint "unnötig hohes Setting" kann wohl im selben Atemzug sagen "die RX 580 hat zu viel Ram" oder auch "4Gb würden Vega auch reichen".

Sicher kommt es auch sehr auf die Engine an. Ich meine auch mal gelesen zu haben dass sich Vulkan und DX12 gern mehr Ram gönnen. Auch von Engine zu Engine unterschiedet es sich sehr wie zb bei 5GB VRam Bedarf die Karten mit 4 GB drauf reagieren. Schon GTA V hatte ein VRam Limit dass sich aber bewusst übergehen lies. Und ich denke die meisten haben das auch und tun es noch heute.

@Jenergy

wobei man wohl eher von mehr als 100s ausgehen müsste oder Messungen in Intervallen deutlich kleiner 1s (zb einfach über Frametimes, also Delta zwischen Frame A und B).

Also eher zb 100s und etwa 6000 Frames - Average FPS von also 60. Man würde aber wie in deinem Beispiel alle Frame zu Frame Deltas (also 6000 Zeitwerte im ms Bereich) sortieren und den Intervall bei 99% /an Stelle 5940 auf einen FPS Wert hochrechnen, das wäre unser Quantil ;) - oder?

Wären dass dann zb statt den durchschnittlichen 16,6ms (bei 60PFS) zb 20ms wäre der FPS wert 50FPS.

Die eigentlichen "Min Frames" können darunter liegen, aber da reicht eben ein ungünstiger Messwert um das Ergebnis zu versauen.
 
Zuletzt bearbeitet:
Die RX 580 gefällt mir sehr gut .
 
Krautmaster schrieb:
[...] Man würde aber wie in deinem Beispiel alle Frame zu Frame Deltas (also 6000 Zeitwerte im ms Bereich) sortieren und den Intervall bei 99% /an Stelle 5940 auf einen FPS Wert hochrechnen, das wäre unser Quantil ;) - oder? [...] Die eigentlichen "Min Frames" können darunter liegen, aber da reicht eben ein ungünstiger Messwert um das Ergebnis zu versauen.
Ja, das stimmt. Um einzelne Ausreisser zu lokalisieren, müssen die Frametimes gemessen werden. Dass die minimale Bildrate aufgrund eines einzelnen Ausreissers deutlich unter dem 0.99-Quantil liegen kann, ist ebenfalls korrekt.
 
Krautmaster schrieb:
Heute ist es Doom + vllt noch 1-2 andere Titel (und sei es vielleicht grottige Textmonster wie COD). Jedenfalls ist es kein Einzelfall (Setting mit Belegung >4Gb), 4GB Vram wackeln ja nicht umsonst. Wer hier meint "unnötig hohes Setting" kann wohl im selben Atemzug sagen "die RX 580 hat zu viel Ram" oder auch "4Gb würden Vega auch reichen"

Mal aus Sicht von jemandem mit einer Fiji Karte. Ich bin mir der 4GB Problematik bewusst und habe mich dem bewusst ausgesetzt. Mit dem Wissen das Texturen quasi keine Leistung kosten und ich die höhere Rohleistung im Vergleich mit anderen AMD Karten je nach Spiel eben mit schlechter aufgelösten Texturen erkaufen muss.

Jetzt guck ich aber im Jahr 2017 keine Benchmarks an um die Leistung meiner Fury zu beurteilen, sondern um sie mit potentiellen Nachfolgern vergleichen zu können. Im Preisvergleich kostet ne Fury ~380€, ne Fury X ~430€, kaufen tut die doch eh keiner. Die einzigen, welche mit den Fury (X) Ergebnissen etwas anfangen können sind die Besitzer einer solchen Karte. Und Benchmarks in dieser Form erschweren es uns erheblich, einschätzen zu können wie viel uns das Upgrade auf eine schnellere Karte bringen wird.

Es wird ein größerer Leistungsvorteil suggeriert als sich dann tatsächlich einstellen würde. Je mehr Titel sich aufgrund der VRAM Problematik einen abruckeln um so stärker wird das Ergebnis verzerrt. Für die Info "unspielbar mit Alptraum Texturen/Schatten" braucht es keinen Balken.

Ich stelle mir grad das Vega Launch Review vor. Gerade DOOM ist doch aufgrund von Vulkan der allererste Titel den ich als Fury Nutzer anklicke, ist schließlich die Paradedisziplin von AMD. Als begeisterter Spieler von Bethesda Games habe ich aufgrund der neuen Partnerschaft sogar die Hoffnung in Zukunft deutlich öfter von Vulkan profitieren zu können.

Ich schaue mir also DOOM an und wähle UHD aus, schließlich kriegt Tante Fiji nur in hohen Auflösungen den Arsch hoch. Wenn ich dort jetzt einen absurd kurzen Balken mit nem * und der Ergänzung "*Der VRAM geht aus, daher die niedrigen Frameraten." sehe; Was hab ich davon?

Um zu erfahren wie das Leistungsplus ausfällt muss ich mir dann trotzdem ne andere Quelle suchen.
Find ich doof.
 
Krautmaster schrieb:
Wo hört man auf? Was ist mit 2 GB Karten und noch kleineren Presets in - zB Doom. Nehm ich dann "Medium" nur weil ich damit alle 2-12 GB Karten im Testfeld abfackeln kann?


Alternativ kann man natürlich die Fury X zusammen mit der GTX 1060 3GB, RX 480 4GB in ein "low VRam" Rating packen und darin generell nur noch "medium" Presets bis 1440p testen. Besser find ich das allerdings nicht ;)

Edit: wieso sollte sowas das Rating verfälschen? Das is nunmal die Performance die im VRam Limit rauskommt. Deswegen gibts die Möglichkeiten Auflösungen und Gameauswahl anzupassen (dann nimmste dein VRam Ausreißer halt weg). Darüber hinaus gibts bei CB immer noch ein Spiele Review mit eigenen Benchmarks der Presets + Auflösungen + in abh. zur CPU.
Das sollte reichen.

Meine Güte das ist doch keine Raketenwissenschaft hier und ist sicher kein immenser Aufwand die VRAM Porblematik in einem kleinen Nachtest mit erzwungenen Details zu verdeutlichen, anstatt so das Performance Rating zu verfälschen. Eine 1060 18% schneller als eine 970 oder RX 580 fast so schnell wie die Fury X ja ne ist klar.
 
Krautmaster schrieb:
das geht aber in dieselbe Liga wie zu sagen dass beim CPU Test >12 Threads gar nicht beachtet werden müssen. Ein winzig kleiner Teil da draußen nutzt überhaupt SW die damit umgehen kann. Und dennoch muss ich sie mit einbeziehen um auch für Differenzierung zu sorgen.
Heute ist es Doom + vllt noch 1-2 andere Titel (und sei es vielleicht grottige Textmonster wie COD). Jedenfalls ist es kein Einzelfall (Setting mit Belegung >4Gb), 4GB Vram wackeln ja nicht umsonst ... oder auch "4Gb würden Vega auch reichen".
Sicher kommt es auch sehr auf die Engine an. Ich meine auch mal gelesen zu haben dass sich Vulkan und DX12 gern mehr Ram gönnen. Auch von Engine zu Engine unterschiedet es sich sehr wie zb bei 5GB VRam Bedarf die Karten mit 4 GB drauf reagieren.

Bei den Prozessoren hat sich das aber auch gewandelt durch (Ry-)Zen und R5-1600X und darunter sind (schon preislich) gewiss keine Enthusiastenklasse CPUs (sondern Oberklasse, Mittelklasse, usw.), R7 CPUs gelten vielleicht noch als Einstieg in die Enthusiastenklasse (trotz Mainstream-Boardausstattung) und natürlich sprechen die 8-, 10- und 12-Kern-Pendants von Intel auf dem Enthusiasten-Sockel Hobby-Enthusiasten und Early Adopter an, zu denen Du Dich ja auch zählen dürftest ;).

Es sind aber alles 3D-/Ego-Shooter-Spiele (selbst Rise of the Tomb Raider, auch wenn es für mich primär immer noch ein Action-Adventure ist), kein einziges RPG, Echtzeit- oder Runden-Strategiespiel, Rennspiel, klassisches (Point'n'Click)Adventurespiel, Jump'n'Run-/Plattform-Spiel, Beat'em Up-Spiel, o.ä.

Wenn Leute keine Shooter mögen sondern diese anderen Genres sind diese derzeit immer noch bestens mit einer Fiji-GPU bedient, egal welcher, das sollte auch zu denken geben wie einseitig diese "Allgemein-Empfehlung" hier nur ausgelegt werden kann, eben für Hobby-Enthusiasten und Early Adopter die (vorwiegend) Spiele mit Ego-Shooter-Einlagen spielen.

Da ist es genauso realitätsfern/fraglich mit CPU-720p-Benchmarks großartig zu argumentieren, dass man bei 4K 8T CPUs oder darunter, außer bei Skylake und Kaby Lake CPUs, jetzt (unbedingt) umsteigen/aufrüsten soll, weil außer ein paar HardCore-Ego-Shooter-Spielern und Laptopspielern keiner mehr diese Auflösung fährt.

Andererseits besorgt man aber extra eine Titan XP Karte (hurra, 720p plus Titan XP) dafür, die aber sonst nicht mehr "gebencht" wird mit der Begründung, dass es ja eigentlich keine Gamer-GPU mehr sei und nicht weil es diese (ehrlicher Weise) das Budget unnötig strapazieren würde, genauso wie keine SLI- und CF-Verbünde und deren Skalierung mehr mitgetestet werden, weil scheinbar Nische und zu viel Aufwand, auch wenn letzteres einem Fokus auf den Enthusiasten dann doch irgendwie nicht mehr so richtig gerecht wird ;).

Was ich damit nur anmerken will, ist, dass man derzeit auf CB eher inkonsequent handelt und man sich nicht wundern muss, wenn das "hü und hott" im Forum/von Teilen der "Community" (breit) kritisiert wird.

Das könnte im konkreten Beispiel dazu führen, dass Interessenten den Empfehlungen des Gesamt-Rankings folgen und für eine GPU deutlich mehr berappen als sie eigentlich brauchen und im Endeffekt ausreizen werden, so dass der Ärger über diese Empfehlung im nachhinein da ist.

Natürlich spielen da viele Faktoren hinein, bei Spielen die höhere Anforderungen an die Hardware stellen wie Engine, Kompetenz der Entwickler, usw.

Mit Sicherheit werde ich für mies/unterirdisch programmierte Spiele mit hohen Anforderungen zu deren Erscheinungsdaten da nicht einen der letzten Call of Duty (CoD) Teile mit der vorbildlich umgesetzten Multi-GPU Skalierung und auch sonst noch überdurchschnittlichen Programmierung (wenn auch grafisch nicht auf Battlefield 1/Star Wars Battlefront 1 Niveau) nennen - nur weil das Bashing der CoD Reihe aktuell so hip ist, zumal WW2 auch richtig gut werden könnte (evt. das erste CoD Spiel, was ich mir überlegen könnte zu kaufen).

Da gibt es m.E. bessere Beispiele für Nieten mit AAA Budget wie die "Assassin's Grütze" Reihe oder Ghost Recon Wildlands aus dem Hause Ubisoft, Deus Ex - Mankind Divided von Square Enix oder den letzten Teil der Batman-Reihe von WB.

Anscheinend sollen sich die Hyper-Detail Einstellungen in Mirror's Edge Catalyst auch nicht wirklich lohnen ... da muss man sich dann schon fragen, was das eigentlich seitens Dice/EA soll?

Wenn optisch ein Meilenstein gesetzt wird, den selbst aktuelle Enthusiasten-Hardware nicht ansatzweise stemmen kann, wie es etwa zu Zeiten von Quake 1, Crysis 1 o.ä. war, sagt auch keiner 'was, nur, da wird man wohl lange darauf warten müssen bis die fähigsten Programmierer im Business (die genannten idSoftware oder CryTek bspw., wobei letztere das womöglich durch die Schrumpfkur nicht mehr (finanziell und personell) auf dem Kasten haben) wieder so etwas schaffen bzw. die sich Mühe machen.

Vielleicht gelingt es ja bei Cyberpunk 2077, auch wenn CD Projekt Red eher ressourcenschonend agieren und bisher eine möglichst große Spielerschaft und nicht einen technischen Meilenstein erreichen wollen ... ich denke Star Citizen könnte da derzeit mit Abstand noch am anspruchvollsten sein/werden und dürfte Vorzeigecharakter für die Branche haben.

Wenn eine 4GB HBM2 Variante von RX Vega kommen sollte - was ich für gar nicht unwahrscheinlich oder deplatziert halte falls HBCC daraus wirklich ca. 8GB bei min. fps machen kann - reicht diese natürlich für die Leistungsklasse/-ansprüche bzw. den damit einhergehendem, deutlich geringerem Verkaufspreis durch den halbierten Speicher vollkommen aus bzw. wäre bei stärkerer Rohleistung und etwas geringerem Preis definitiv für viele auch einer GTX 1070 vor zu ziehen ;).

Ja, wenn HBCC sich wirklich so gut implementieren lässt und selbst wenn es anfänglich nur min. fps auf 6 GB Niveau werden sollten (also nVidia-exklusives GTX 1060/GTX 980Ti Speicherausbau-Niveau), wäre das immer noch beachtlich und eine Überlegung für viele Nicht-Enthusiasten/-Early Adopter wert bei passendem Preis-Leistungsverhältnis oder Ansprüchen (wenn man etwa nichts mit 3D-/Ego-Shooter-Einlagen spielen will), wieso auch nicht?

Diese brauchen auch die passende GPU, nicht jeder schmeißt so viel Geld heraus für GTX 1080(Ti) oder RX Vega Vollausbau GPUs heraus nur die gleichen Spielchen leicht höher aufgelöst und/oder detailliert spielen zu können, nich'?

Mracpad schrieb:
Jetzt guck ich aber im Jahr 2017 keine Benchmarks an um die Leistung meiner Fury zu beurteilen, sondern um sie mit potentiellen Nachfolgern vergleichen zu können. Im Preisvergleich kostet ne Fury ~380€, ne Fury X ~430€, kaufen tut die doch eh keiner. Die einzigen, welche mit den Fury (X) Ergebnissen etwas anfangen können sind die Besitzer einer solchen Karte. Und Benchmarks in dieser Form erschweren es uns erheblich, einschätzen zu können wie viel uns das Upgrade auf eine schnellere Karte bringen wird.

Stimme Dir im großen und ganzen zu, nur gibt es jetzt und evt. auch noch für ein paar weitere Jahre Gebrauchtkäufer für Fiji-Karten und die R9 Fury war zeitweise in diesem Jahr neu unter 300 Euro zu haben und damit sicherlich nicht in jedem Fall eine schlechtere Alternative zu aktuellen GTX 1060 und RX 480/580 GPUs, sondern in einigen Fälle die bessere Alternative ;).
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Auch wenn es nicht mein Gebiet ist, gehe ich davon aus, dass auf der zukünftige CPU-Parcours dokumentiert wird, wenn er fertig ist.
Bezüglich Ausrichtung etc.. Meinst du die Sache mit den Auflösungen? Oder was genau meinst du?
.......
Ich meine die Auswahl der Testszenen....Wenn man sich die Szenen aus dem alten Parcour anguckt:
https://www.computerbase.de/2015-10/prozessoren-benchmarks-testsystem-amd-intel-2015/3/
Dann ist das ein Integrierter Benchmark in F1 2015....OK kann ich nix zu sagen....mag in ordnung sein und ist vermutlich auch kaum anders möglich weil Rennspiele und dann noch mit KI Gegnern drumrum nie gut wiederholt werden können.
Auch gegen den Test von AC Unity habe ich nichts einzuwenden.....Lauf durch einen belebten Teil der Stadt...sicherlich recht CPU lastig.
Aber dann kommen CoD: AW, GTA V TW: Attila und The Witcher 3...und da fangen meine Bedenken an.
-In COD wird hinter einem Soldaten hergelaufen...irgendwie wird geskriptet Panik verbreitet und das die Holzhütte kaputt geht mag etwas auf die CPU gehen...aber es gibt keine KI Gegner oder viele Gegner oder sowas....lasse ich aber noch halb gelten.
-In GTA V wird kurz hinter einem Auto hergefahren....das wars...keine Polizei, keine Unfälle....mag alles schwer zu reproduzieren sein weil solch fordernde Szenen immer anders ablaufen...aber dann könnte man doch wenigstens ein, zwei Laternen umnieten und aus dem Auto ballern....irgendwas anderes halt als pures fahren.
-TW: Attila...2 große Armeen marschieren auf....ganz ok, aber es gibt keine Befehl...keinen Kampf.....Auch hier sehe ich ein, dass es schwer wird reproduzierbare Dinge zu veranstalten...man könnte es aber versuchen.
-Und Witcher 3 ist der eigentliche Grund warum mich die Tests gestört haben.....Gerald planscht ein paar Meter durch einen Fluss und springt noch über einen Zaun....ja am Ende ist ein Soldat und ein Bauer im Bild aber abgesehen davon ist diese Szene das CPU langweiligste, das Volker im Spiel finden konnte...kein Gegner, keine Ansammlung von NPCs....diese Szene ist wie fast alles in Witcher 3 komplett GPU limitiert.....aber das Spiel kann auch anders! Mit meinem alten i5 3570K hatte ich mit und ohne OC unter Win 7 massives stottern, immer wenn viele NPCs in der Nähe waren...um Dorfzentren rum oder in Novigrad z.B. ....CPU Auslastung ca.70-95%+ Einbrüche in der GPU Auslastung. Der Wechsel auf Win 10 verbessert dies enorm....praktisch kein Stottern aber an manchen Stellen in Novigrad ist die CPU zu 100% ausgelastet. Warum macht man dann den CPU Test an Stellen, die so CPU langweilig wie möglich sind um begleitend im Test zu schreiben: "In The Witcher 3 liegen alle CPUs sehr dicht beisammen, die Wahl der CPU ist praktisch irrelevant." Andere Seiten testen in Novigrad und da zeigen sich deutliche Unterschiede durch schnellen Speicher, modernere i5 oder HT:
http://www.eurogamer.net/articles/d...it-finally-time-to-upgrade-your-core-i5-2500k

Was ich also anstoßen möchte ist ein Umdenken bei der Auswahl der Testszenen! Sich eben nicht nur das reproduzierbarste und langweiligste rauszusuchen, sondern in den Spielen nach worst case Szenarien zu suchen...den CPUs mehr zu tun zu geben als pures fps rauspumpen. Das ist keine einfache Aufgabe und sicherlich unbequem...aber ihr habt doch eine aktive Community, die sicherlich Erfahrungen zu den verschiedensten Spielen hat und besonders fordernde Szenen benennen kann...eventuell auch savegames parat hat, damit ihr nicht das halbe Spiel durchspielen müsst. Wenn man sich am Ende nicht auf eine Szene einigen kann, diese gar nicht reproduzierbar ist oder ähnliches, dann kann man immer noch auf langweilige Szenen ausweichen.... aber dann hat man wenigstens drüber gesprochen.
Es wäre auch legitim wenn ihr von CB begründet, warum ihr hinter den Testszenen steht....nur so wie manch eine von denen ausgelegt ist, sehen sie nach GPU-Testszenen aus.....meine Meinung ;)

Edit: Wer jetzt verwirrt ist was das hier soll.....Es geht hier off topic um die CPU- Spieletests und nicht um die Verwirrung bezüglich der GPU Testergebnisse ;)
 
Zuletzt bearbeitet:
Wann darf man denn mit dem Test der RX 550 und RX560 rechnen,es gibt ja schon Karten zu kaufen?
Die RX 560 kann man noch nicht kaufen. Ein Test der RX 550 kommt wahrscheinlich nächste Woche.

Naja gut, ich sehe Extremeinstellungen - welche außer von einer geringen Anzahl von Enthusiasten (die natürlich im CB Forum sehr überproportional vertreten sind und die scheinbar bei Euch oberste Priorität genießen) sowieso kaum genutzt werden und zudem kaum einen sichtbaren Mehrwert bieten - nur um GPU mit dem verbauten Speicher an die Wand zu fahren als wenig realistisch und zielführend an.
Wenn du nach den kaum genutzt gehst, müssten wir aber alle Spiele ab sofort auf den Einstellungen benchen, die das Spiel aussucht. Und die unterscheiden sich je nach Grafikkarte. Das wäre aber ein Spaß^^

Was ich damit sagen will: Ab den Augenblick, wo du die Details änderst, wirst du ein "Exot". Finde ich aber nicht schlimm. Zumal unsere Leser halt auch deutlich "exotischer" sind als die Allgemeinheit.

Aus meiner Sicht hat man sich bei der HBM1 Entwicklung einfach etwas verkalkuliert bzw. zu niedrig dimensioniert was die Speicheranforderungen nach geschätzt 3-4 jähriger Entwicklungszeit und dem Nutzungszeitraum darüber hinaus angeht, das kann passieren bei einer komplett neuen Technologie und aber ob das im Hinblick auf den Entwicklungs- und Nutzungszeitraum als "total" bescheuert" zu bewerten ist?

Denn genauso könnte man dann das aktuelle GPU-Gesamtrating hier auf CB "total bescheuert" finden, da ähnlich derzeit dort einiges im argen liegt bzw. in die Hose gegangen ist .
Es ist ziemlich Off Topic, aber ich finde das Thema generell interessant.
Um ganz ehrlich zu sein, finde ich die gesamte Fiji-GPU "bescheuert". Ich weiß nicht, ob es jemals von irgendwem eine GPU gab, die so unausgegoren ist.

Ich meine, du hast total schnellen Speicher, aber zu wenig davon. Du hast eine riesige theoretische Rechenleistung, aber die GPU aber nie auf den Boden bekommt, weil die Architektur damit offensichtlich völlig überfordert ist. Zumal passt das Kühlkonzept bei der Fury X von vorne bis hinten nicht. Optional eine Wakü (dann aber bitte ohne Fiepen), da spricht nix gegen. Aber nur Wakü hat sich irgendwie nicht als wirklicher Vorteil gezeigt.

Für mich wirkt Fiji einfach wie ein HBM-Lernprojekt. In die GPU selbst, abgesehen vom Speicher, ist gefühlt quasi null Entwicklungszeit geflossen. Ist im Endeffekt ja auch gut so, dass AMD die Ressourcen voll in Vega gesteckt ist. Aber bis Vega da ist (was er ja immer noch nicht ist) muss AMD halt mit dem unausgegorenen Design leben. Ich meine, Fiji ist quasi die einzige GPU von AMD seit Ewigkeiten, die schlechter als das Nvidia-Pendant gealtert ist.

Eigentlich sehe ich den CB Gesamtrating-Artikel nicht vornehmlich als Anlaufstelle für die Enthusiasten hier - die sowieso jeden Artikel zu GPUs, CPUs, etc. lesen und grob die Daten im Kopf haben - sondern als an externe Laien gerichtet, die hier vorbei schauen um sich Rat zu holen ohne sich großartig in die Materie einarbeiten zu müssen und genau für diese wären die Zusatzinfos hilfreich und diese stellen auch eine deutlich größere Käuferschaft und neues Potential an CB Lesern/Abonnenten dar, aber wie gesagt, das müsst Ihr wissen wen Ihr damit ansprechen wollt.
Da hast du völlig recht. Die Rangliste ist primär für den Laien gedacht. Der Profi holt sich die Infos aus den einzelnen Artikeln. Aber dem Laien wird es auch egal sein, ob da DX11/DX12 gebencht worden ist oder nicht. Der wird erstmal gar nicht wissen wie das ist. Und für den Profi gibt es dann den separaten "Wie Benchen wir" Artikel - der aber eben leider noch fehlt...

Jetzt guck ich aber im Jahr 2017 keine Benchmarks an um die Leistung meiner Fury zu beurteilen, sondern um sie mit potentiellen Nachfolgern vergleichen zu können. Im Preisvergleich kostet ne Fury ~380€, ne Fury X ~430€, kaufen tut die doch eh keiner. Die einzigen, welche mit den Fury (X) Ergebnissen etwas anfangen können sind die Besitzer einer solchen Karte. Und Benchmarks in dieser Form erschweren es uns erheblich, einschätzen zu können wie viel uns das Upgrade auf eine schnellere Karte bringen wird.
Das ist natürlich ein reguläres Argument. Aber es gibt ja auch einzelne Spiele, wo der Speicherverbrauch keine Rolle spielt. Da ich das Argument aber wie gesagt verstehe, werde ich dazu vielleicht (wenn die Zeit da ist!) beim Launch-Review zu Vega einen eigenen Abschnitt drauß bauen. Da dürfen die Texturdetails von mir aus dann auch mal ganz aus sein. Da gehts dann rein um Rohleistung.

Andererseits besorgt man aber extra eine Titan XP Karte (hurra, 720p plus Titan XP) dafür, die aber sonst nicht mehr "gebencht" wird mit der Begründung, dass es ja eigentlich keine Gamer-GPU mehr sei und nicht weil es diese (ehrlicher Weise) das Budget unnötig strapazieren würde, genauso wie keine SLI- und CF-Verbünde und deren Skalierung mehr mitgetestet werden, weil scheinbar Nische und zu viel Aufwand, auch wenn letzteres einem Fokus auf den Enthusiasten dann doch irgendwie nicht mehr so richtig gerecht wird .

Was ich damit nur anmerken will, ist, dass man derzeit auf CB eher inkonsequent handelt und man sich nicht wundern muss, wenn das "hü und hott" im Forum/von Teilen der "Community" (breit) kritisiert wird.
Das stimmt nun ja auch wieder nicht. Wir benchen die Titan X (Pascal) nicht mehr, weil sie wieder bei Nvidia ist. Es war nur eine begrenzte Leihgabe. Was anderes haben wir imo auch nie geschrieben.

Wir werden auch weiterhin CF und SLI testen. Aber, da das nunmal eine eine Nische wird (und imo es auch immer weniger nutzer gibt) beschränken wir uns auf (ganz) wenige Einzelartikel. Vega bietet sich da doch wieder an ;)

Was ich also anstoßen möchte ist ein Umdenken bei der Auswahl der Testszenen! Sich eben nicht nur das reproduzierbarste und langweiligste rauszusuchen, sondern in den Spielen nach worst case Szenarien zu suchen...den CPUs mehr zu tun zu geben als pures fps rauspumpen. Das ist keine einfache Aufgabe und sicherlich unbequem...aber ihr habt doch eine aktive Community, die sicherlich Erfahrungen zu den verschiedensten Spielen hat und besonders fordernde Szenen benennen kann...eventuell auch savegames parat hat, damit ihr nicht das halbe Spiel durchspielen müsst. Wenn man sich am Ende nicht auf eine Szene einigen kann, diese gar nicht reproduzierbar ist oder ähnliches, dann kann man immer noch auf langweilige Szenen ausweichen.... aber dann hat man wenigstens drüber gesprochen.
Es wäre auch legitim wenn ihr von CB begründet, warum ihr hinter den Testszenen steht....nur so wie manch eine von denen ausgelegt ist, sehen sie nach GPU-Testszenen aus.....meine Meinung
Das ist halt alles nicht so ganz einfach. Ich will dir da gar nicht groß widersprechen. Was auch daher kommt, da die Testszene eigentlich aus der GPU (meiner) Ecke kommen. Man kann sicher je nach Spiel ein Szenario basteln, was mehr auf die CPU geht. Aber das wird auch ganz, ganz schnell überhaupt nicht mehr reproduzierbar (zum Beispiel Crash in GTA V). Spätestens nach dem Crash passiert halt jedes Mal etwas völlig anderes. Aber ja, vielleicht müssen wir die Szenarien (GPU und CPU) mehr voneinander trennen.
 
mit Sicherheit.
Ergänzung ()

zeedy schrieb:
Meine Güte das ist doch keine Raketenwissenschaft hier und ist sicher kein immenser Aufwand die VRAM Porblematik in einem kleinen Nachtest mit erzwungenen Details zu verdeutlichen, anstatt so das Performance Rating zu verfälschen. Eine 1060 18% schneller als eine 970 oder RX 580 fast so schnell wie die Fury X ja ne ist klar.

Dazu brauchts kein Nachtest sondern schlicht den Test zu Doom, den gibts ja auch.

Außerdem ist das ein Game von vielen. Quasi mit das einige Setting bei dem 4 GB Karten vor die Bretter gehen. Sowas darfs ja auch geben. Wärs nur die GTX 970 wüsst ich jetzt scho dass du der letzte wärst der einen Nachtest mit Setting kleiner Albtraum verlangen würde ^^

Edit: Sehs doch mal so
https://www.computerbase.de/2017-05/geforce-gtx-1060-1080-speicher-test/2/#diagramm-doom-2560-1440

im Test profitiert auch die RX 580 massiv von ihren 8 GB und kann sich zb von der Konkurrenz, der GTX 1060 gut absetzen (+22%bei stock). Genau genommen kann jede 8 GB Karte, egal ob R9 390, RX 480 / 580 hier massiv Punkte gegenüber der direkten Konkurrenz sammeln. Da beschwere ich mich ja auch nicht dass das das Rating "verfälscht".
 
Zuletzt bearbeitet:
Man kann die Fury von mir aus zerreißen wie man will, und von mir aus kann sie im Rating auch unter ner 3GB GTX 1060 landen, ist mir schnuppe. Ich würde sie trotzdem gerne mit schnelleren Karten vergleichen können um die Mehrleistung eines Upgrades ermitteln zu können.

Wolfgang schrieb:
Das ist natürlich ein reguläres Argument. Aber es gibt ja auch einzelne Spiele, wo der Speicherverbrauch keine Rolle spielt. Da ich das Argument aber wie gesagt verstehe, werde ich dazu vielleicht (wenn die Zeit da ist!) beim Launch-Review zu Vega einen eigenen Abschnitt drauß bauen. Da dürfen die Texturdetails von mir aus dann auch mal ganz aus sein. Da gehts dann rein um Rohleistung.

Daumen rauf!

Wär schon cool wenns klappt. Falls nicht würde ich mich natürlich trotzdem sehr über DOOM Balken ohne VRAM-Schrauben freuen, die müssen auch gar nicht ins Rating einfließen oder standardmäßig eingeblendet sein. Hauptsache sie sind da! :D
 
Zuletzt bearbeitet:
Doom Vulcan is ja schon recht gut was Rohleistung angeht. Zumindest dann wenn der VRam eben nicht limitiert.
Ergänzung ()

Mracpad schrieb:
Mal aus Sicht von jemandem mit einer Fiji Karte. Ich bin mir der 4GB Problematik bewusst und habe mich dem bewusst ausgesetzt. Mit dem Wissen das Texturen quasi keine Leistung kosten und ich die höhere Rohleistung im Vergleich mit anderen AMD Karten je nach Spiel eben mit schlechter aufgelösten Texturen erkaufen muss.

Jetzt guck ich aber im Jahr 2017 keine Benchmarks an um die Leistung meiner Fury zu beurteilen, sondern um sie mit potentiellen Nachfolgern vergleichen zu können. Im Preisvergleich kostet ne Fury ~380€, ne Fury X ~430€, kaufen tut die doch eh keiner. Die einzigen, welche mit den Fury (X) Ergebnissen etwas anfangen können sind die Besitzer einer solchen Karte. Und Benchmarks in dieser Form erschweren es uns erheblich, einschätzen zu können wie viel uns das Upgrade auf eine schnellere Karte bringen wird.

Es wird ein größerer Leistungsvorteil suggeriert als sich dann tatsächlich einstellen würde. Je mehr Titel sich aufgrund der VRAM Problematik einen abruckeln um so stärker wird das Ergebnis verzerrt. Für die Info "unspielbar mit Alptraum Texturen/Schatten" braucht es keinen Balken.

versteh ich absolut. Über weite Strecken auch nachvollziehbar. Aber meiner Ansicht nach wäre es weit tragischer allen 8 GB Karten einen potentiellen Vorteil zu rauben. Ab wann macht dieses (kleinere) Setting Sinn, ab wann nicht? Was ist mit 2 / 3 GB GPUs wie der GTX 1060 3GB?

Viel eher muss doch der Ansatz sein dann als Fiji Besitzer kurz das Rating anzupassen oder im einzelnen Spieletest zu schauen wie seine Karte mit Presets skaliert.

Meine Erfahrung mit der 2GB HD6970 war dass das Rating irgendwann eh fast unbrauchbar war da zum einen zwar die Karte oft noch mit 30 FPS gefühlt und gebenched wurde - am Schirm aber gefühlt 10 FPS ankamen (da Ram voll) - und, dass gerade beim VRam, nach 3-4 Jahren im Besitz der Karte auch die kleinen Presets den VRam Konsum kaum reduzierten - während die Rohleistung hoch genug war um spielbare Frameraten zu liefern.
So oder so kam man eigentlich nicht drum rum dann bei einzelnen Titeln nachzuschauen oder eben das Rating anzupassen.

Schlimmer wärs doch eher in Titeln die dann vielleicht wirklich einen deutlich Unterschied in Weitsicht / Textur haben alle 8 GB Karten langsamer aussehen zu lassen als sie sind. (zb mit dem Ergebnis dass eine RX580 kaum schneller is als ne RX 480 4GB)
 
Zuletzt bearbeitet:
Krautmaster schrieb:
versteh ich absolut. Über weite Strecken auch nachvollziehbar. Aber meiner Ansicht nach wäre es weit tragischer allen 8 GB Karten einen potentiellen Vorteil zu rauben. Ab wann macht dieses (kleinere) Setting Sinn, ab wann nicht? Was ist mit 2 / 3 GB GPUs wie der GTX 1060 3GB?

Welchen Vorteil, die werden dadurch doch nicht langsamer? Ich möchte einfach nur einen benutzbaren Benchmarkwert haben. Statt dem VRAM-limitierten Wert oder zusätzlich kann da ja ruhig "VRAM zu niedrig für das Preset" o.ä stehen. Wichtig wäre halt den unlimitierten Benchmarkwert zumindest optional einblenden zu können.

Wenn der VRAM limitiert ist quasi kein Balken notwendig, ob da 3 FPS oder 43 FPS steht ist ja vollkommen egal, der Wert besitzt im Prinzip nur den einen mickrigen Infogehalt: "VRAM zu klein."
Ergänzung ()

Krautmaster schrieb:
Viel eher muss doch der Ansatz sein dann als Fiji Besitzer kurz das Rating anzupassen[...]

Genau das möchte ich ja! :D

Aufgrund sich ändernder Testsysteme und Benchmarkszenen ist das Vergleichen mit alten Spieletests keine Option.

Natürlich gehören Leistung und VRAM zum Gesamtpaket einer Grafikkarte und sollte also auch entsprechend in die Wertung und in ein Rating einfließen. Allerdings ist EIN Benchmarkwert für ZWEI Variablen eine schlechtere Lösung als ZWEI Benchmarkwerte. Die beiden sollten dann selbstverständlich gemeinsam ins Rating einfließen, aber es wäre eben extrem nützlich auch beide Werte einzeln betrachten zu können. Niemand erleidet dadurch Nachteile, dem Rating passiert nix. "Es müssten lediglich" die 2-3 Karten bei denen der VRAM überläuft ein zusätzliches Mal durchlaufen. ;)
Ergänzung ()

Krautmaster schrieb:
https://www.computerbase.de/2017-05/geforce-gtx-1060-1080-speicher-test/2/#diagramm-doom-2560-1440

im Test profitiert auch die RX 580 massiv von ihren 8 GB und kann sich zb von der Konkurrenz, der GTX 1060 gut absetzen (+22%bei stock). Genau genommen kann jede 8 GB Karte, egal ob R9 390, RX 480 / 580 hier massiv Punkte gegenüber der direkten Konkurrenz sammeln. Da beschwere ich mich ja auch nicht dass das das Rating "verfälscht".

Dieser Kommentar ist ein wunderbares Beispiel dafür warum es nicht sinnvoll ist Rohleistung und VRAM im gleichen Balken zu präsentieren. :) Du interpretierst grade Dinge in den von dir selbst verlinkten Benchmark die schlichtweg nicht dort sind. Die RX 580 profitiert dort nicht massiv gegenüber der GTX 1060 weil sie 8GB VRAM hat, sondern einzig und allein von Vulkan. Der VRAM hat auf diesen Vergleich nichtmal den Hauch einer Wirkung. Du schreibst "massiv", in Wirklichkeit ist das Gegenteil der Fall.

Wenn Rohleistung und VRAM getrennt verglichen würden, wär dir dieser Fehler nicht passiert.
 
Zuletzt bearbeitet:
Zurück
Oben