Krautmaster schrieb:sowas kann man ja schlecht behaupten ohne es wirklich ausgiebig getestet zu haben.
Ist OK- Krauti. Ich hab "scherzhaft" übertrieben.
Man könnte es testen - nur WIE ohne Treibersetting ?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Krautmaster schrieb:sowas kann man ja schlecht behaupten ohne es wirklich ausgiebig getestet zu haben.
ich habe nur 3200er RAM. Trotzdem sollte mein 470 ( =570?) In höherer Auflösung nicht schneller sein. Einzige Angabe im Test sagt Maximale Qualität. Das hab ich auch.Krautmaster schrieb:sowas gibts immer, aber wohl kaum weil man irgendwas schlecht aussehen lassen will. Selbes AA? Selbes System oder zufällig selbst 4000 Mhz Ram verbaut? Selbe Testszene?
Schon allein letzteres macht in vielen Titeln gut -+20% FPS aus.
Wenn ich nun jedes Game rauskramen würde wo meine 980 TI mehr FPS als hier in den Benches hat wär ich wohl 2020 noch nicht fertig. Bei sowas vertrau ich also einfach mal den Redakteuren die die Tests durchführen. Tu ich das nicht müsst ich woanders lesen, und das tut man ja ohnehin als Crossvergleich.
.
Stev010881 schrieb:Low-End = GP106 (GTX 1050 Ti & GTX 1060)
Midrange = GP104 (GTX 1070 & GTX 1080)
High-End = GP102 (1080 Ti, Titan X)
Was kostet dieses System, warum testet man Grafikkarten die eigentlich im Bereich bis 300€ liegen mit einem High-End-System, das ist m.E. Realitätsfern.Sämtliche Tests wurden auf einem über alle Kerne auf 4,7 GHz übertakteten Intel Core i7-8700K durchgeführt. Bei dem Z370-Mainboard handelt es sich um ein Asus ROG Maximus X Hero, das mit zwei 16-GB-Modulen von G.Skill ausgestattet ist. Der TridentZ-Speicher ist als Dual-Rank-Speicher gefertigt und wird mit DDR4-3200 sowie den Timings 16-16-16-38-1T angesteuert.
finde ich Problematisch. Sinnvoller wäre eine Abschluss-Tabelle, an der man erkennen kann, welche Karten in welchem Spiel welches Setting gut verkraftet. In Kombination mit dem Anfang der 3ten Seite, was ich bei solchen Systemen wirklich wichtig finde, wäre der Leser sehr gut informiert.Je nach Spiel können die Unterschiede deutlich größer ausfallen oder sich das Gesamtbild auch einmal völlig umdrehen.
Wenn das "untere" Testfeld schon vom Test-Ansatz alle Spiele Flüssig darstellen kann, ist die Aussagekraft des Testes sehr begrenzt. Den Käufer interessiert doch gerade welche Spiele er möglichst gut optisch+Ruckelfrei spielen kann.Um im Testfeld spielbare Frameraten zu erreichen, wird die Grafikqualität in jedem Spiel manuell angepasst. Die Grafikoptionen wurden auf Basis einer Radeon RX 560 ausgewählt. Das Ziel war es, dass diese Grafikkarte mindestens 60 FPS erreicht.
Krautmaster schrieb:@aivazi
Wie wäre es denn einfach mal was konstruktiv beizutragen, zb einfach mal Links zu Tests die deiner Meinung nach besser / realistischer sind bringen oder selbst Vorschläge machen wie was deiner Meinung zu testen sein sollte?
Die ganzen Posts von dir driften doch, eigentlich vollkommen egal wie CB testet, eh immer in die gleiche Ecke ab. Alles kacke, vorallem Nvidia und das von Nvidia gekaufte CB. Und das tust du dann auch wirklich zu Genüge mit diversen wenig verwertbaren Posts Kund.
die möglichkeit der begrenzung von tessellation im amd treiber ist kein bug, sondern ein feature, das nvidia nicht bietet und bei amd standardmäßig aktiviert ist (wie nightmare settings in doom DEaktiviert sind).
alles auf stock betreiben, aber bei den amd-schädlichen features dann extra hand anlegen, ist etwas, das mir hier immer wieder sauer aufstößt. genauso die offensichtliche lustlosigkeit vega mal mit funktionierendem undervolting zu testen. kann doch nicht sein, dass ein hardware redakteur daran scheitert eine gpu im treiber richtig einzustellen - mit den tessellationsleveln klappts doch auch.
Krautmaster schrieb:is doch vollkommen egal welche Karten bei sowas wie Doom Nightmare absaufen. Da wirds welche von AMD geben, da wirds welche von Nvidia geben. Man testet im GPU Limit, dazu gehört es auch Karten über den VRAM absaufen zu lassen. Wenn das für dich "nicht nachvollziehbar ist" dann hast du wohl den Sinn der Differenzierung nicht verstanden.
Krautmaster schrieb:@ Verbrauchswerte.
Das sind doch lächerlich kleine Unterschiede, da dürfte die ASIC und Temperatur im Case schnell 50W ausmachen. Reicht wenn eine von beiden Karten 100 Mhz mehr oder weniger taktet. Schwankungen um +-30W wirst du so gut wie bei jedem Review zu ner Karte finden, die schnell 250-300W frisst. Was kann CB da wohl beim Testen mit ihrem Modell viel falsch machen? Oder stellst du in den Raum CB macht hier bei Nvidia in ihrer Excel -15W und bei AMD + 15W?
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-rx-vega
Anhang anzeigen 672658
Man kann es nur vergleichbar gestalten wenn man die CPU als Komponente im GPU Rating als bremsenden Faktor möglichst eliminiert.