Eine Frage an den Autor: Ich habe auch nTune benutzt um die 8800 GTS zu übertakten aber ich kann nirgendswo den Shader einlesen. Nicht einstellen ist mir bekannt aber wie hast du den Shadertakt ausgelesen?
Den Shadertakt kann man derzeit ganz gut mit GPU-Z auslesen.
Eine weitere Frage: Im Test steht, dass in Bioshock und Rainbow Six Vegas kein AA möglich ist. Unter Windows XP habe ich bei meiner Karte AA mit den beiden Spielen ausprobiert und es hat funktioniert, dabei sollte es bei beiden doch nur wenn überhaupt unter DirectX 10 möglich sein? Benutze den Forceware 169.17 mit 169.06 inf-Datei.
Das ist durchaus auch unter Vista möglich. In Bioshock DX10 geht es aber nicht und in Vegas gibt es Fehler bei der Schattendarstellung (auch unter XP). Dies ist durch einen Treiberhack von Nvidia möglich, der sich einige D3D10-Vorteile der Hardware zu Nutze macht.
Könntet ihr vielleicht im voraus irgendwo schreiben ab wann der Test veröffentlicht wird bzw. die NDA fällt?
Nein, das geht nicht, weil auch das schon unter das NDA fällt.
Kann es sein, dass der 3D Mark 06 Test mit alten Treibern auf der 8800GTX lief?
Ich habe mit einem Intel Core 2 Duo E6750@ 3,2 GHZ genau 12010 Punkte.
Hier äußere ich mich einmal (wie auch schon diverse Male vorher in anderen Artikeln) zu der Treibersache. Ja, optimal ist die Situation derzeit nicht. Wir arbeiten daran, allerdings kann es bis zur Lösung noch lange dauern. Aber derart große Unterschiede, wie manche glauben machen möchten, gibt es nicht ansatzweise. Natürlich sind die neuen Treibern generell was schneller, aber der 163.75 ist nicht alt, sogar noch sehr neu. Darum ist der auch nur bedingt oder nur minimal langsamer als neue Treiber. Crysis wurde generell mit 169.xxer gebencht.
So viel Unterschied zwischen dem "alten" und dem neuen Treiber gibt es nicht. Ich kenne die unterfschiede ganz genau. So groß sind sie nicht. Für einen Treiber zwar ordentlich, aber dadurch ändert sich absolut nichts an der generellen performanceaussage. Akzeptiert das oder lest die Artikel nicht. Wer unsere Treiberproblematik dauernd kritisiert hat einfach nicht den Hauch einer Ahnung, wie lange ein Treiberdurchlauf einer einzelnen Grafikkartge dauert. Ihr könnt ja gerne mal raten, wieviel Zeit das in Anspruch nimmt.
Warum werden die ATI Karten 3850/3870 mit den alten Treibern betrieben???
ATi Catalyst 7.10 (R6x0)
ATi Catalyst 8-43-1-071028a (HD 3870, HD 3850) [/QUOTE]
Ehm, alte Treiber? Weißt du, wie alt unser Launch-Treiber ist? Anscheinend nicht. Dieser ist im Prinzip größtenteils identisch mit dem Cat 7.11, es fehlt ihm aber das WHQL-Zertifikat. Und selbst wenn, einen wirklichen unterschied würde es eh nicht ausmachen.
Kanns sein das bei UT3 die 3870 vergessen worden ist?
Zum Testzeitpunkt von UT3 hatten wir keine Radeon HD 3870 hier. Deswegen konnten wir die Karte nicht mitttesten. Mittlerweile hat sich das geändert und im nächsten Artikel wird es auch Werte der HD 3870 geben.
@Blumenkind
Wir testen Grafikkarten, keine Systeme. Unsere Tests sollen zeigen, wozu die Grafikkarten in der Lage sind. Das geht mit einer langsamen CPU nicht, weswegen es nicht Sinnvoll wäre, eine herkömmliche "normale" CPU zu benutzen.
Im Artikel finden sich etliche kleine Ungenauigkeiten von denen ich mal zwei rauspicke. Auf Seite 2 steht:
"Letzteres ist aber nur selten für „General Shading“-Aufgaben zu gebrauchen, da das MUL meistens mit Special-Function-Unit-Berechnungen, wie beispielsweise eine Kosinus-Operation, beschäftigt ist."
Danke für den Hinweis! So genau habe ich mir das leider noch nicht drüber nachgedacht, weswegen dieser Fehler immer noch drin ist. Ich werde das demnächst mal beheben.
Im Artikel sind laufend kleine Schreibfehler verstreut, wie z. B. auf Seite 6:
"Dabei setzt Futuremark auf FP16-HDR, das die derzeit Best mögliche Bildqualität liefert, aber auch aufwendig zu berechnen ist."
Nochmal danke, werde ich auch demnächst korrigieren. Solche Fehler passieren leider schnell, da dieser Einleitungstext immer kopiert wird. Wenn dann einmal Fehler in dem Text drin sind, kommen sie so schnell leider auch nicht raus.
Es müsste "bestmögliche Bildqualität" heißen. Allerdings würde die bestmögliche Bildqualität mit FP32 erreicht. Die Berechnung ist dabei nicht aufwändiger als mit anderen Formaten, es fallen aber gewaltige Datenmengen an welche das Speicherinterface belasten.
Das ist zwar durchaus richtig, aber zu den Zeiten vom 3DMark06 gab es noch kein FP32-HDRR (bzw. es gab keine dazu fähige Hardware). Mehr als FP16 ging damals einfach nicht, aber das weißt du selber. Deswegen bin ich vom damaligen Standard ausgegangen.