Wir benutzen einige GTX570, um darauf zu rechnen. Manche dieser Rechnungen laufen über Tage, in einem Fall gings gar über ein paar Wochen (auf den TESLA rechnen wir bis zu 8 Monate am Stück). Die sind nach kurzer Zeit so "warm", daß die GPU grenzwertige temperaturen erreicht - und das permanent, da wird sich ein "Boost" im Mittel überhaupt nicht bemerkbar machen - bei 7 Tagen sind 30 Sekunden verschwindend gering.
Und wer bitte wird sich in einem anspruchsvollen Spiel gerade mal 30 Sekunden in einer komplexen Szene mit vielen geometrischen Objekten aufhalten, die volle Rechenleistung brauchen?
Meiner Meinung ist dieser "Boost" nur eine dümmliche Bauerfängerei, um mit schicken Benchmarks - 30 Sekunden gelaufen - Kunden anzuwerben. ich hoffe doch sehr, daß der deutsche Ingenieursgeist und der Verstand auch bei CB in den nächsten Tests diesen Umstand einmal näher beleuchten wird und Klarheit schafft.
Und das kann aber nicht bedeuten, daß mit einer 1000 Euro Graphikkarte ältliche Software von heute getestet wird, die die Potentiale dieser GPU nicht ausnutzen kann (ich meine Spiele) und wirklich nur bruchstückhaft in Turbomodi geht und so das Endergebnis verfälscht.
An dieser Stelle erweisen sich theoretische/synthetische Benchmarks als berechtigt, weil sie die Maximaltiefen des Leistungssees auszuloten vermögen. Also, warten wir mal ab, was sich ergibt. Ich bin gespannt.