Zu dem Performancerating: Dort ist uns tatsächlich ein kleiner (blöder) Fehler unterlaufen, weswegen die Werte zwar prozentual untereinander stimmten (sprich, an der Reihenfolge hat sich nach dem Fix nichts veränert), jedoch die Prozentangaben der Karten nicht richtig waren.
Und zwar ging unsere Crysis-3-Vorbereitung etwas zu weit: Die Diagramme hatten wir schon alle erstellt und auch schon in die Ratings mit ein fließen lassen. Da dort nun alle Karten auf eben Null Prozent gekommen sind, haben diese Werte das Endergebnis stark beeinflusst. Wie aber bereits gesagt: Die prozentualen Unterschiede zwischen den Karten sind gleich geblieben!
Einen dritten Teil von "GPU braucht CPU" hätte ich interessanter gefunden!
Der steht auf der To-Do-Liste!
Aber derzeit noch unter "When it's done".
Aber warum wird immer die Leistungsaufnahme vom gesammten System gemessen?
Wir haben technisch leider keine andere Möglichkeit. Und nur die Grafikkarte zu messen ist teuer. Sehr teuer.
wenn ihr sowas das nächste mal macht wäre es nett wenn ihr zu den framelatenzen noch Diagramme mit den Tatsächlich anliegenden taktraten der GPU´s über den getesteten Zeitraum mitliefert. Mich würde es nicht wundern wenn dann herauskäme dass die auftretenden probleme mit einem stark schwankenden Takt einhergehen (eventuell Powertune bzw boost probleme).
Das geht nicht, da dies bei den Nvidia-Karten lustig aussehen würde. Deswegen kann man deine Vermutung eigentlich schon ausschließen: Die Taktraten der Kepler-Karten ändern sich ja durchweg in einem Stück.
Das mit der HD 7990 ist AMDs Schuld, wäre es eine offizielle Karte hätte CB wohl schon ein Sample das man gut verwenden kann. Die GTX 690 hätte ich aber aus dem Test wie er jetzt ist raus gelassen. Aus zig gründen...
Die ist alleine schon Pflicht wegen...wegen...naja, du weißt schon
Für mich wär nur noch interessant zu wissen, wie sich die Frametime Problematik bei aktivem Vsync auswirkt. Hier wird ja die Bildausgabe mit dem 60Hz Zeitraster des Monitors synchronisiert. Da dieses zeitlich immer exakt ist, müsste sich die Problematik damit ja eigentlich "lösen" lassen.
Imo (muss aber nix heißen) sollten ein Framelimiter/Vsync dabei helfen. Aber müsste man einfach mal ausprobieren.
Ist es eigentlich so schwer zumindest die Grafikkarten Generation davor noch mit einzubeziehen als Vergleich?
Nicht jeder kauft sich jeden 6. Monat ne neue Grafikkarte!!!
Schwer nicht, aber zeitlich eben einfach nicht einfach. Und eine GTX 580 sowie HD 6970 sind ja mit dabei.
Allerdings kann man das auch nur im High End Sektor als positiv bewerten, weil wohl keine auf die Idee kommt mit einer HD 7770 SSAA und Downsampling zuzuschalten.
Die Benchmarks wurden immer erst nach einer kurzen Aufwärmphase gestartet, oder?
Du merkst selber: Es ist nicht gerade einfach zu entscheden, was ein ++, ein + oder was auch immer bekommt
Natürlich kann man solche Features nicht auf einer langsameren Karte benutzen. Funktionieren würde es aber. Da wird die Performance dann ja schon entsprechend im Kasten abgewertet.
Dass die Geld bekommen, glaube ich nicht. Aber es gibt im Netz ja inzwischen zahlreiche Berichte von (Ex-)Redakteuren, die beschreiben, was für Probleme eine Redaktion bekommt, wenn nicht das rauskommt, was rauskommen soll. Zur Not wird halt der Testmusterhahn zugedreht....
Auch wenn mir keiner glaubt: Solche Berichte stimmen einfach nicht.
Wir hatten auch schon öfter Ergebnisse, die von denen der Hersteller abweichen. Und die meisten arbeiten dann auch ordentlich mit uns zusammen um das herausfinden zu können. Noch nie hat AMD/Nvidia oder ein Bordpartner angekündigt, uns wegen schlechter Ergbenisse nicht mehr samplen zu wollen. Nicht immer alles glauben war frustrierte Menschen irgendwo schreiben
Bei der 7850 steht als einzigste AMD Grafikkarte als Minuspunkt "AA/AF in Zukunft nicht mehr möglich"
Warum nur bei dieser?
Bei ncoch langsameren kasten merken wir an, dass AA/AF bereits jetzt nicht mehr (sinnvoll) gehen. Bei der HD 7850 geht dies derzeit eben noch ganz gut, doch sehen wir da bei zukünftigen Spielen schwarz. Die schnelleren Karten haben eben noch ein wenig mehr Spielraum.
mich würde mal ganz genau interessieren welcher treiber da wirklich verwendet wurde:
Framelatenz-Diagramme
Steht doch im Abschnitt "Testsystem". Oder wills du uns etwas unterstellen?
WER bitte interessiert sich nach über einem Jahr für eine 7970 in Referenzausführung, bzw. generell für irgendwelche Referenzkarten, wenn es 100 verschiedene, vor allen Dingen, bessere Costumdesigns gibt (690 mal ausgenommen)??
Dadurch verwässert ihr z.B. den Gesamteindruck wieder in dem steht, eine 7970 ist im Referenzdesign mega laut.
Unbedarfte dürften dann wohl wieder denken, es sei ein generelles Problem, obwohl ihr das in Klammern da hin schreibt.
Du hast natürlich recht, dass sich einige Zeit nach einem Launch wohl nur noch wenige Referenzkarten kaufen. Dennoch sind die Modelle eben jene, die meistens von vielen Partnern angeboten werden. Und auch wenn wir eine Grafikkarte aufgrund der Lautstärke "abwerten", schreiben wir ja im schlimmsten Fall nur, dass man eben zu einer besseren Partnerkarte greifen sollen. Wir schreiben nie, dass man deswegen unter keinen Umständen Karte X kaufen sollte.
Die 660Ti wurde durch ne heruntergetaktete 670 simuliert.
Allerdings frage ich ich wie das bei der 660 gemacht wurde? Auch durch ne 670 simuliert?
Das würde natürlich nicht gehen
Die GTX 660 Ti haben wir durch eine heruntergetaktzete Partnerkarte der GTX 660 Ti getestet. Und die GTX 660 durch eine heruntergetaktzete Partnerkarte der GTX 660.
Wie oft hab ich das schon hier kritisiert; neben so einigen anderen Punkten.
Und noch nie gab es von CB eine auch nur ansatzweise vernuenftige Erklaerung.
Das stimmt einfach nicht. Wir haben bereits öfter erklärt, wie sich das Rating berechnet. Hier ein Zitat unseres Admins:
"Die Option beudetet, dass bei jedem Benchmark einzeln das jeweils beste Element die 100% markiert. D.h. dass selbst die beste Grafikkarte bei dieser Einstellung nur dann 100% im Rating erreichen wird, wenn sie jedes einzelne Diagramm gewinnt. "
Mir fehlt immer noch von der 7870 die Ghz-Edition (oder auch OC-Version) in eurem Test.Von der 7950 und 7970 ist sie doch auch vorhanden.
Die 7870 Ghz Edition ist doch drin! Das ist die ganz normale HD 7870
Meinst du die Tahiti-LE-Variante?
Ich frage mich ob womöglich nur die HD 7900-Karten mit dem "Problem" zu kämpfen haben. Ich habe eine HD 7870 im Rechner und kann keine unregelmäßige Bildwiedergabe feststellen. Und ich bin was das angeht wirklich sehr empfindlich.
Es sind auf jeden Fall alle GPUs der GCN-Generatio nbetroffen. Wir haben hier deutlich mehr Messwerte als nur die gezeigten.
Es wäre beispielhaft - und würde dem Beispiel anderer auf diesem Gebiet engagierter Netz-Magazine folgen - wenn mit angegeben werden würde, mit welcher Rechenpräzision die Fließkommaarithmetik erfolgte.
Es ist immer FP32 Single Precision. Double Precision wird nur von dem einen SiSoft-Sandra-Test genutzt. Es gibt leider kaum Programme, die DP-nutzen und sich ordentlich benchen lassen (oder ich kenne zumindest keins). Wenn ihr da Tipps habt: Nur raus damit.
Könntet ihr mal einfach ein AMD system vs ein Intel system bei EINER der Grafikkarten die das Phänomen zeigen untersuchen....mich würde es nicht wundern wenn es am ende doch ein Chipsatz problem von Intel ist das AMD wieder mal ausbaden muss.
Ich kann das jetzt natürlich nicht ausschließen, aber warum hat den nvidia keine proleme (bzw. deutlich weniger).