Test Fortnite, LOL, PUBG & Co.: Mittelklasse-GPUs von AMD und Nvidia im Benchmark

Krautmaster schrieb:
sowas kann man ja schlecht behaupten ohne es wirklich ausgiebig getestet zu haben.

Ist OK- Krauti. Ich hab "scherzhaft" übertrieben.
Man könnte es testen - nur WIE ohne Treibersetting ?
 
Krautmaster schrieb:
sowas gibts immer, aber wohl kaum weil man irgendwas schlecht aussehen lassen will. Selbes AA? Selbes System oder zufällig selbst 4000 Mhz Ram verbaut? Selbe Testszene?

Schon allein letzteres macht in vielen Titeln gut -+20% FPS aus.

Wenn ich nun jedes Game rauskramen würde wo meine 980 TI mehr FPS als hier in den Benches hat wär ich wohl 2020 noch nicht fertig. Bei sowas vertrau ich also einfach mal den Redakteuren die die Tests durchführen. Tu ich das nicht müsst ich woanders lesen, und das tut man ja ohnehin als Crossvergleich.
.
ich habe nur 3200er RAM. Trotzdem sollte mein 470 ( =570?) In höherer Auflösung nicht schneller sein. Einzige Angabe im Test sagt Maximale Qualität. Das hab ich auch.
 
Klar oc Model von der RX570 grade dass von ASUS wo jeder weis dass gibt's nicht mehr und die verbraten recht viel Strom.

Nimm mal die Sapphire Pulse ITX Radeon RX570 vers. Da bist du bei 136 watt des weiteren gibt's die auch als 8GB Variante. Auch bei der GTX1050ti gibt's Varianten die mehr verbraten, also kommt immer auf dass Modell an.

So zurzeit ist es sowieso wurst es gibt keine Grafikkarten zu kaufen zumindest für vernünftige Preise und ich werde mich hüten den Händlern Geld in den gierigen Rachen zu werfen.

So des weiteren hast du bei AMD jetzt dann sowieso ein Vorteil Asus, Gigabyte, MSI fallen weck als Anbieter somit wird es übersichtlicher. Also bleit XFX, ASROCK, Sapphire und Powercoler übrig für AMD.
 
Was ist denn ein guter Tessellationswert auf den man "global gesehen" begrenzen kann, Optik/Leistung bezogen?
x16 ?
 
Kann man jetzt nicht direkt sagen es gibt Games da reicht 8x, aber alles über 16x ist meistens nicht wirklich besser was das Ergebnis angeht.
 
Stev010881 schrieb:
Low-End = GP106 (GTX 1050 Ti & GTX 1060)
Midrange = GP104 (GTX 1070 & GTX 1080)
High-End = GP102 (1080 Ti, Titan X)

Weiß nicht, ob das von NV so angegeben ist, aber bisher war (X)X60 immer Mittelklasse.

Ich sehe es eher so:

Einsteiger: 1030, 1050
Mittelklasse: 1050ti, 1060
Gehobene Mittelklasse: 1070, 1070ti
Spitzenklasse: 1080, 1080ti
und alles drüber Enthusiast

Oder jeweils das erste Model der Klasse nach hinten verschoben.
 
Zuletzt bearbeitet von einem Moderator:
Naja die GTX basiert auf GP106 obwohl es auch vereinzelt Modelle mit GP104 gibt. Die GTX 1050/Ti basieren auf GP107 und die GT1030 auf dem GP108 also hier nochmal eine übersicht

GT1030 = GP108
GTX1050/Ti = GP107
GTX1060 3/6GB = GP106
GTX1070/Ti/80 = GP104
GTX1080Ti & Titan = GP102

Titan V = GV100

So ungefähr sieht es zurzeit aus.
 
1080 und 1080Ti würde ich definitiv nicht in die gleiche Klasse stecken, nicht nur wegen dem Chip. Immerhin klaffen da je nach Auflösung 25-35% zwischen den beiden.
 
Schön, dass diese Karten getestet werden, auch wenn man sagen muss momentan ist ein PL-Vergleich ziemlich für die Katz. Wer auf PL guckt, sollte momentan nicht kaufen. :cool_alt:

Wie kommt die RX 560D bei WoW auf einen Rückstand von 30% auf die 560 ohne D? Wenn es sonst meistens unter 10% aber zumindest unter 15% bleibt?

Ryzen 2200&/oder2400 wären noch sehr gut in dem Test. Hoffentlich wird das nachgereicht, wenn es einen aktuellen Treiber gibt. Die können zwar dann nur ausser Konkurrenz laufen, da andere Plattform aber zur Einordnung wäre das super.

Ansonsten würde ich so einen Test anders anlegen:
1.)
Sämtliche Tests wurden auf einem über alle Kerne auf 4,7 GHz übertakteten Intel Core i7-8700K durchgeführt. Bei dem Z370-Mainboard handelt es sich um ein Asus ROG Maximus X Hero, das mit zwei 16-GB-Modulen von G.Skill ausgestattet ist. Der TridentZ-Speicher ist als Dual-Rank-Speicher gefertigt und wird mit DDR4-3200 sowie den Timings 16-16-16-38-1T angesteuert.
Was kostet dieses System, warum testet man Grafikkarten die eigentlich im Bereich bis 300€ liegen mit einem High-End-System, das ist m.E. Realitätsfern.

2.) Wen interessiert der Performance-Schnitt bei diesem Spiele-Parcours.
Ob man 120 oder 220 FPS bei CS-Go hat in einem System mit begrenztem Budget ist vernachlässigbar. Kein Gamer kombiniert diese Karten mit einem deutlich teureren Monitor, der eine solch hohe Frequenz bietet.
Ob man PUBG aber mit einem Mittel- oder Höher-Preset spielen kann ist da schon wesentlich stärker von Bedeutung.
Das in Kombination mit
Je nach Spiel können die Unterschiede deutlich größer ausfallen oder sich das Gesamtbild auch einmal völlig umdrehen.
finde ich Problematisch. Sinnvoller wäre eine Abschluss-Tabelle, an der man erkennen kann, welche Karten in welchem Spiel welches Setting gut verkraftet. In Kombination mit dem Anfang der 3ten Seite, was ich bei solchen Systemen wirklich wichtig finde, wäre der Leser sehr gut informiert.

2b)
Um im Testfeld spielbare Frameraten zu erreichen, wird die Grafikqualität in jedem Spiel manuell angepasst. Die Grafikoptionen wurden auf Basis einer Radeon RX 560 ausgewählt. Das Ziel war es, dass diese Grafikkarte mindestens 60 FPS erreicht.
Wenn das "untere" Testfeld schon vom Test-Ansatz alle Spiele Flüssig darstellen kann, ist die Aussagekraft des Testes sehr begrenzt. Den Käufer interessiert doch gerade welche Spiele er möglichst gut optisch+Ruckelfrei spielen kann.
 
Krautmaster schrieb:
@aivazi

Wie wäre es denn einfach mal was konstruktiv beizutragen, zb einfach mal Links zu Tests die deiner Meinung nach besser / realistischer sind bringen oder selbst Vorschläge machen wie was deiner Meinung zu testen sein sollte?

Die ganzen Posts von dir driften doch, eigentlich vollkommen egal wie CB testet, eh immer in die gleiche Ecke ab. Alles kacke, vorallem Nvidia und das von Nvidia gekaufte CB. Und das tust du dann auch wirklich zu Genüge mit diversen wenig verwertbaren Posts Kund.

Mir geht es prinzipiell um die Kommunikation.
Wenn man schreibt, dass man den Tesselations Faktor auf "Anwendungsgesteuert" stellt und so tut, als wäre das das Normalste auf der Welt, dann ist das zumindest auf einer AMD Karte eine ziemlich große Lüge.

Es wäre schon Erwähnenswert, dass viel Leistung für sinnlose Tessellationsfaktoren flöten geht.

Hier werden in den Tests " Fakten" als gesetzt gegeben als ob diese Normale Einstellungen wären.


Das war exakt dasselbe mit den Nightmare Settings von Doom und der Fury, bis die Redaktion darauf eingegangen ist und erläutert hat, dass das an der .INI Datei vom Spiel diverse Änderungen vorgenommen wurden, hat man nicht Verstanden, warum die GTX 980Ti vor der Fury X in Vulkan liegen kann...


Schließlich muss man bedenken, dass diese Tessellations Einstellung im AMD Treiber nur entstanden ist, weil Nvidia bei den Gameworks Titel, quasi die "Nvidia Treibereinstellung" ins Spiel integriert und als " Anwendungsgesteuert" ausgibt.

Das AMD dort die Anwendungsgesteuerte Einstellung, welche von NVIDIA vorgegeben wird mit der
"AMD optimierten Einstellung" überschreibt ist doch da mehr als nachvollziehbar und sollte eigentlich keiner weiteren Erläuterung bedürfen.


Das ist doch grob dasselbe wie bei der HD 6XXX Generation. Nur ohne Visuellen Qualitätsverlust.

Dort hat AMD doch auch "gecheatet" und im Treiber ab Werk die Anisotrope Filterungs Quälität gesenkt.
Als Konsequenz wurde das im Test selbst erläutert und im Fazit noch einmal auf die verminderte Bildqualität verwiesen.

Genau, weil die Karte so an den Kunden ausgeliefert wurde mit GENAU den Treiber Einstellungen.



Würde man das mit den Tesselationsfaktoren näher beleuchten, würde mit Sicherheit ein anders Bild als in dem Test hier rauskommen, hätte man dazu noch WQHD getestet, wäre die RX 580 in ein noch besseres Licht gerückt, aber so hat das einen Faden Beigeschmack.
 
Ja gut wie viel Leistung geht denn flöten? Zb bei Anwendungsgesteuert vs 8x. So wie ich sehe gibt's einen einzigen Game Test dazu bei MEA von CB und keiner weiß wie weit Nvidia da bei Tess off zulegen kann.

Wies scheint bist du ja meiner Meinung dass man mal untersuchen könnte in wie fern sich bei Titeln wo sich Tess abschalten lässt schaut was es ausmacht. Als Bonus noch die AMD Limitierung zb auf 8 oder 16 x Tess.

Zu dem Rest hab ich ja schon gesagt wir ich das sehe. Nightmare Doom (fürs Rating) geht absolut in Ordnung, im Doom Test gibt's dazu mehr.
Aber naja, manchen hier fehlt ja gar das Verständnis dafür dass man bei GPU Tests hier das CPU Limit möglichst vermeidet. Gern könnte man die GPUs hier auch mit 18 Kerner bei LN2 und 6 GHz testen. Es wäre kein Fehler.

P. S.: um zu sehen wie schnell oder langsam seine CPU ist schaut man aktuelle CPU Ratings an und filtert diese je nach Titel, oder man schaut im jeweiligen Game Test nach. Da sieht man dann wie schnell welche CPU ist, wann der Fury der Vram ausgeht oder was das Limit von Tess bringt.
 
Zuletzt bearbeitet:
doom @nightmare ist nur dazu da, die karten mit <4gb ram absaufen zu lassen, da, laut redaktion, "nightmare keine gpu leistung sondern nur vram kostet".

wieviele karten mit 4gb gibts im (wqhd) ranking? eine. effekt für alle anderen gpus, ums mit den worten der redaktion zu sagen, null. es gibt praktisch nur eine gpu, die die änderung wirklich hart trifft, und das ist die fury. alle anderen karten sind gimped (hallo @ 3,5gb ram) oder generell mid/low end. vega gabs zu dem zeitpunkt der umstellung noch garnicht - und die umstellung kam aus heiterem himmel. auf einmal war halt die fury scheiße in doom, während man im doom vulkan benchmark mit 25% abstand noch locker die 1070 in die tasche gesteckt hat - um sich nicht die blöße zu geben, hat man hier extra die 1080 nicht mitgebencht, die wäre nämlich bei dem abstand auch noch fällig gewesen.
https://www.computerbase.de/2016-07...md-nvidia/#diagramm-doom-mit-vulkan-2560-1440

dazu muss man sagen, dass nvidia zum testzeitpunkt ihre treiber noch nicht auf die reihe bekommen hat - die performance in doom hat sich dann noch verbessert:

https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/2/

aber auch hier ist die fury x @1080 niveau.

wohl lange genug, weil man nicht viel später es auf einmal für nötig gehalten hat doom @nightmare zu testen. das plötzliche umstellen von einem benchmark ist doch bei CB eher ungewöhnlich, oder wie hält man das hier mit der vergleichbarkeit?

oder sollen wir noch drüber diskutieren, wie sinnhaft es ist, auf low oder mid gpus, die doom in high oder ultra auf full hd eigentlich ordentlich darstellen könnten, mit einem über config oder startkommando freigeschaltenen nightmare modus, der sich so sonst überhaupt nicht aktivieren lässt, einfach nur ins vram limit zu prügeln, um so das vram limit geruckel zu benchen?

eine rx570 4gb wäre eine top budget karte für doom - nur leider kann man das dem benchmark von CB einfach nicht entnehmen, weil man sich aus nicht nachvollziehbaren gründen dazu entschieden hat, dieses sehr performante spiel mit gimmick settings für alles mit 4gb oder weniger videospeicher in eine ruckelorgie zu verwandeln.

man könnte einfach die gpus, die mit ihrem vram "nur" ultra darstellen können, doom mit dem hinweis (ultra) benchen und das thema ist für alle fair abgehakt. unterschiedliche APIs für unterschiedliche hersteller benchen ist auf CB kein novum, dann sollte das doch auch kein problem sein - kostet ja schließlich "nur vram" und wirkt sich damit "nicht" auf die fps aus.

die höchste qualitätsstufe in doom ist "ultra" - beide nightmare settings muss man explizit einzeln auswählen - wenn es die menge an vram überhaupt zulässt.

da könnte man genau so fallout mit texture pack oder GTA5 mit der naturalvision remastered mod oder mit extra eingestellten vollen tessellationsleveln im amd treiber benchen. oh wait.

die möglichkeit der begrenzung von tessellation im amd treiber ist kein bug, sondern ein feature, das nvidia nicht bietet und bei amd standardmäßig aktiviert ist (wie nightmare settings in doom DEaktiviert sind).

alles auf stock betreiben, aber bei den amd-schädlichen features dann extra hand anlegen, ist etwas, das mir hier immer wieder sauer aufstößt. genauso die offensichtliche lustlosigkeit vega mal mit funktionierendem undervolting zu testen. kann doch nicht sein, dass ein hardware redakteur daran scheitert eine gpu im treiber richtig einzustellen - mit den tessellationsleveln klappts doch auch.

hier noch sniper elite vs the witcher - selbst programmierte tessellation vs gameworks tessellation:

tessellationsniper.jpgtessellationwitcher.jpg

und ob das gpu-performance-rating unbedingt mit prozentueller angabe auf einer 1080ti strixx basieren muss und nicht, wie sonst üblich, in FPS angegeben wird, ist auch nochmal so eine sache. letztendlich ist die narrative klar: gpu X liefert "nur" 60% von einer shiny ASUS ROG STRIXX GTX 1080 TI (TM). damit abstrahiert man den ganzen schmu auf einen level, der mit der realität garnichts zu tun hat - "ohhh die 1080 rasiert mit 10% abstand delta-1080ti grafikkarte X" und in realen FPS sind 3 oder 4 - ein unterschied nahe der messtoleranz.

es ist imho sehr viel wertvoller absolute FPS zu sehen - etwa "GPU X schafft im benchmark einen schnitt von 72 fps in FHD" - oder "erreicht in meinen 3 wichtigsten spielen nur 40 fps".

was fange ich mit der info an, dass eine rx 570 40% einer 1080 ti in dem spiel leistet, das mich interessiert? die einzige relevante angabe sind FPS - alles andere fällt unter die kategorie "wer viel misst misst mist" oder "kauf dir ne 1080 ti, erst dann hast du 100% gaming".

wer erinnert sich noch an den sog. "wolfenstein worst case" - ein grafikfehler - der im internet aber die runde als "vega 64 = gtx 1070" gemacht hat? komplett unnötige negativ pr, die ganz allein auf eine fehlerhafte szene im spiel zurückzuführen ist, die später von den entwicklern gepatcht wurde und NIEMALS in einem benchmark auftauchen dürfte? fällt sowas nicht auf?
vega liegt permanent nur wenige % hinter einer 1080 ti, aber eine szene in der vega "durch zauberhand" auf 1070 niveau einbricht ist ein valides testergebnis und braucht ein eigenes balkendiagramm? fehlersuche? artikel korrigieren?

https://www.computerbase.de/2017-10...nstein-2-2560-1440-anspruchsvolle-testsequenz

computerbase berichtet soger selbst drüber:

https://www.computerbase.de/2017-11/wolfenstein-2-vega-benchmark/

und wieso man im vergleich zu toms hardware bei einer nvidia gpu 19 watt zu wenig misst, und bei vega 15 watt zu viel, ist und bleibt wohl auch ein ungelöstes rätsel. die "messungenauigkeit" addiert sich so auf ein delta von 34w - mancherorts schon ausreichend um amd gpus als "unkaufbare heizlüfter" zu bezeichnen.

stromverbrauch.jpg

und wo ist die coverage zu nvidia GPP? :rolleyes: das ding gehört als sticky ganz oben auf die seite - hatte pcgh auch.

beim vega benchmark wurde der thread mit 4000 ausführungen von "vega suckt" zugespammt, und der artikel zu nvidia gpp erreicht gerade so 200 kommentare?

ich gebe dazu mal keine wertung ab, kann sich jeder selber was zusammenreimen.

das war der rant zum sonntag - hab euch lieb!
 
Zuletzt bearbeitet:
is doch vollkommen egal welche Karten bei sowas wie Doom Nightmare absaufen. Da wirds welche von AMD geben, da wirds welche von Nvidia geben. Man testet im GPU Limit, dazu gehört es auch Karten über den VRAM absaufen zu lassen. Wenn das für dich "nicht nachvollziehbar ist" dann hast du wohl den Sinn der Differenzierung nicht verstanden.

Ist dein Anspruch etwa der, dass alle Karten gleich schnell unterwegs sind und im Rating ein Setting genutzt wird das allen Karten liegt? Dazu ist ein Rating nicht da. Das findest du wie gesagt genauso gut im SpieleTest zu Doom raus, das deinen Wünschen weit gerechter werden sollte. Auflösungen, Presets, usw. Da gehört sowas auch rein.

die möglichkeit der begrenzung von tessellation im amd treiber ist kein bug, sondern ein feature, das nvidia nicht bietet und bei amd standardmäßig aktiviert ist (wie nightmare settings in doom DEaktiviert sind).

alles auf stock betreiben, aber bei den amd-schädlichen features dann extra hand anlegen, ist etwas, das mir hier immer wieder sauer aufstößt. genauso die offensichtliche lustlosigkeit vega mal mit funktionierendem undervolting zu testen. kann doch nicht sein, dass ein hardware redakteur daran scheitert eine gpu im treiber richtig einzustellen - mit den tessellationsleveln klappts doch auch.

Das is genau das was ich meine. Was denn nun?
Auf der einen Seite will man das im Standard getestet wird - auf der anderen soll man Hand anlegen und "uV" testen?

-> die Argumentation und Forderung dahingehend ist eben wenig in sich geschlossen.

Jetzt ist in Doom wegen wir Ultra Texturen auch standardmäßig deaktiviert bei ner GTX 1060 da sie kleine 3Gb VRam hat. Teste ich nun alle Karten mit "Medium" Texturen nur um der 3 Gb Karte recht zu machen? Wo differenziere ich dann zum 6 GB Modell...??

Über Tess hat man ja schon viele Worte verloren, es wäre durchaus interessant zu sehen was die Begrenzung Tess hier kostet. Allerdings verstehe ich nicht genau was du mit den Screenshots sagen willst.

Dass bei irrsinnig hoher Tess wie 64 die aktuellen AMD Karten etwa gleich schnell wie die Counter Parts sind hat Anandtech ja schon gezeigt. Das mag bei deinem uralt Beispiel "Kepler" noch anders gewesen sein. Also willst du wohl drauf hinaus dass es nicht die Tessellation sondern was anderes innerhalb des Hairworks / Gameworks ist was hier ausbremst?

Oder gehts doch um Tess und du wiederholst eigentlich nur das was ich schon gesagt hatte - dass es schön wäre mal über einige Titel zu sehen was die default Tess Limitierung von AMD bringt?

@ Verbrauchswerte.

Das sind doch lächerlich kleine Unterschiede, da dürfte die ASIC und Temperatur im Case schnell 50W ausmachen. Reicht wenn eine von beiden Karten 100 Mhz mehr oder weniger taktet. Schwankungen um +-30W wirst du so gut wie bei jedem Review zu ner Karte finden, die schnell 250-300W frisst. Was kann CB da wohl beim Testen mit ihrem Modell viel falsch machen? Oder stellst du in den Raum CB macht hier bei Nvidia in ihrer Excel -15W und bei AMD + 15W?

http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-vega
2018-03-26 07_15_49-Launch-Analyse AMD Radeon RX Vega _ 3DCenter.org.jpg

Edit: Versteh mich nicht falsch, ich bin absolut bei dir dass sowas wie Vega UV, Vega auf Ryzen Plattform, Tess Limitierung usw untersucht werden kann und sollte, aber sowas gehört in den einsprechenden Test zum Spiel oder in einen Extra Test Artikel. Das vermisse ich auch etwas bei CB der letzten paar Jahre, denn gerade über Tests die sonst kaum eine Seite sich vornimmt grenzt man sich ja vom Einheitsbrei ab.
Die Art wie man aber das GPU Rating bestimmt halte ich für nachvollziehbar. Dazu gehört auch das Abschalten der Tess Optimierung, Doom Nightmare und das Testen mit Top End OC CPU.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
is doch vollkommen egal welche Karten bei sowas wie Doom Nightmare absaufen. Da wirds welche von AMD geben, da wirds welche von Nvidia geben. Man testet im GPU Limit, dazu gehört es auch Karten über den VRAM absaufen zu lassen. Wenn das für dich "nicht nachvollziehbar ist" dann hast du wohl den Sinn der Differenzierung nicht verstanden.

Mich interessiert aber nicht was die Karten im GPU-Limit theoretisch leisten, sondern ob ich damit flüssig spielen kann. Also hauptsächlich die 99th Percentile FPS bei sinnvollen Einstellungen unter realen Bedingungen, bei Spielen, die ich gerne spielen möchte.

Sonst könnte man ja auch nur 3D Mark benchen oder nach TFLOPS ordnen und fertig. Ist dasselbe Argument warum mich keine 720p Benchmarks bei CPUs interessieren: Bringt mir dann auch nichts, wenn meine CPU dort abgeht. Und dass das der realen Leistung in zukünftigen Spielen entspricht, ist auch nur eine Vermutung.
 
Krautmaster schrieb:
@ Verbrauchswerte.

Das sind doch lächerlich kleine Unterschiede, da dürfte die ASIC und Temperatur im Case schnell 50W ausmachen. Reicht wenn eine von beiden Karten 100 Mhz mehr oder weniger taktet. Schwankungen um +-30W wirst du so gut wie bei jedem Review zu ner Karte finden, die schnell 250-300W frisst. Was kann CB da wohl beim Testen mit ihrem Modell viel falsch machen? Oder stellst du in den Raum CB macht hier bei Nvidia in ihrer Excel -15W und bei AMD + 15W?

http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-vega
Anhang anzeigen 672658

Hmm jetzt wo du das so in den Raum gestellt hast - mal schnell die 3DC -Datenstatistik analysiert. Gemessene Werte relativ zum Mittelwert. Anschließend die Streuung der Messwerte als Standarabweichung berechnet.
Ist schon auffällig wie signifikant höher hier bei CB-Standardabweichung ihrer eigenen Messwerte ist - AUCH im Vergleich mit den anderen Seiten.

CB +-7% - nur LesNum hat ebenfalls 7%, Heise hat 5% Streuung und alle anderen Seiten liegen bei (EDIT: 1-3% Streuung. /EDIT

Zumal CB die einzige Seite ist bei der diese Messwerte systematisch rot/grün streuen und auch in ihrer Gesamtabweichung vom Mittelwert mit am höchsten ausfallen.

Das ist jetzt erstmal ohne jegliche Wertung nur ein Befund.GPU_Verbrauchswerte_Statistik.png
 
Zuletzt bearbeitet: (Werte mit THG ergänzt)
klar aber schau dir den Takt an, der is zb bei CB bei Vega auch höher als bei den anderen Seiten die den Takt angeben.
2018-03-26 09_50_05-Launch-Analyse AMD Radeon RX Vega _ 3DCenter.org.jpg
Wie gesagt, ich halte da 10% oder selbst 15-20% Abweichung beim Verbrauch für lächerlich wenig. Würde mich nicht wundern wenn die Karten derselben Serie zb alle Vega 56er selbst schon um 20% streuen, je nach Voltage und ASIC. Jeder weiß doch wie nur etwas mehr Spannung den Verbrauch treiben kann, genauso wird ja UV immer gefordert da auch hier die Einsparung teils groß ist.

Gut, ich bin auch jemand den Verbrauch nicht wirklich interessiert, aber die Tendenz zwischen den Karten ist ja dennoch klar erkennbar und es verwundert bei den auf Gaming getrimmten Pascal Karten auch wenig.

@joomoo

es geht aber nicht darum was du oder ein Besitzer eines i5 2500K will. Jedes Game verlangt nach anderer CPU Performance. Man kann es nur vergleichbar gestalten wenn man die CPU als Komponente im GPU Rating als bremsenden Faktor möglichst eliminiert.

Je nach dem wie viel Luft man beim Test hat testet CB ja auch die CPU Skalierung in Games. Da hast du dann deine Antwort darauf ob und in wie fern eine GPU durch die CPU gebremst wird, bzw ob deine CPU noch ausreicht.

Klar, das wäre jetzt bei diesen MP Titeln wie im Test hier auch noch schön zu sehen, aber jede getestete CPU da multipliziert den Testaufwand für vergleichsweise wenig Wertschöpfung (deswegen verzichtet CB wohl auch öfters auf CPU Benches in Spiele Tests). Der eine hätte gern nen i5 2500K getestet, der nächste selben auf 4 Ghz OC, dann wieder einer nen i3, der nächste nen Ryzen. Letztendlich landet man dann wieder beim CPU Test.
https://www.computerbase.de/artikel...sor_mit_der_besten_integrierten_grafikeinheit
 
Zuletzt bearbeitet:
Man kann es nur vergleichbar gestalten wenn man die CPU als Komponente im GPU Rating als bremsenden Faktor möglichst eliminiert.

Da setzt du dann aber voraus, dass alle GPUs sich bei einem CPU-Limit gleich verhalten.
 
und genau deswegen gibts diesen Test an dieser Stelle (der eigentlich nur besagt dass die AMD GPU hier eher im CPU Limit ist als die Nvidia Karte). Fakt ist ja dass die Fury X hier also profitiert.

Aber du kannst nicht in jedem Test erwarten dass man nun alle möglichen Taktraten oder Kernzahlen durchtestet.

Das GPU Rating soll ja angeben was die GPU zu Leisten im Stande ist - nicht das was sie bei zb durchschnittlichen 4 Ghz leistet. Auch im Hinblick auf schnelle CPU wie nem i7 6700K.
 
Zurück
Oben