Test Nvidia GeForce 8800 GT (SLI): Das Geheimnis des G92 ist gelüftet

Busta Rhymes schrieb:
Da sieht man mal wie schwach selbst eine 8800GTX ist. Crysis ruckelt sich auf 1600x1200 4xAA/16xAF mit knappen 17fps durch die Gegend...

Wird Zeit für ne neue Generation an GPUs.

Da sieht man eher wie hoch die Anforderungen von Crysis sind, wenn man mit allem auf max spielen möchte...

momo_2003 schrieb:
@ Busta Rhymes also mit meiner 8800 gtx läuft Crysis bei 1600x1200 4xAA/16xAF wie Butter ohne ein Ruckler???? Da kann ich dir nicht zu stimmen

Hier im Test gibts da halt nur 17,5 fps, das sieht nicht grad nach flüssig aus. Spielst Du vll. unter DX9?
 
Zuletzt bearbeitet:
Auch wenn die Kaufempfehleung der CB sehr wohlwollend ausfällt:
Jungs, es wird Zeit für die nächste Graka Generation !
 
Langsam geht die GPU Energieaufnahme in annehmbare Bereiche für die gebotene Leistung , der positive Trend setzt sich hoffentlich fort.
Warum mit dem Catalyst 7.10 keine HD Hardwarebeschleunigung gehen soll kann ich nicht nachvollziehen, also hier funktioniert das noch.
 
Hach ich freu mich schon so... ende des Monats steht auch bei mir die 8800GT ins Haus. Und bis dahin dürfte aufgrund der Wartezeit und der neuen Vorstellungen seitens ATI der Preis und die Verfügbarkeit noch besser aussehen :D
 
Ok, Sau geiles Teil! Fazit: Wer sich jetzt gerade eine andere Karte als die 8800 GT holt, ist wirklich nur blöd :lol:
 
An sich macht die Karte einen guten Eindruck, aber ~95 °C? Ob das im Hochsommer stabil läuft?

BTW: Eine Frage an die Leute die sich mit Netzteilen auskennen:
Das Testsystem verbraucht unter Last ~250 Watt. Kann man in so ein System ein 300 Watt Netzteil einbauen, oder muss man noch höher nach oben runden?
 
Klasse, bin davon ausgegangen,dass die Karte durch den flachen und kleiner Lüfter lauter sei... Freut mich zu hören dass trotz der Bauweise sie in der Lautstärke die 7900GTX enttront hat... Man konnte sich gleich 2 zulegen und spart enorm viel Geld im Bereich Preis-Leistung man bezahlt für ne GTX und erhält je Anwendung zwischen 30-60 FPS mehr laut Tests.... Sauber!!!
Ich werde wohl noch bis Dezember abwarten und die 8800GTS (G92) vergleichen, da ich nen 24" hab und Power benötige :-) bin schon gespannt!!!
 
Günstig und hammer leistung. Genau das was wir haben wollen.
Außerdem ist die Leistung nur bei extrem hohen Auflösungen und mehrfachen AA weniger als die 8800GTX. In geringeren Auflösungen tun die beiden Karten sich nichts. Nur beim Preis ;-)

Gruß Carlos
 
Ich kann den Test nur bestätigen, habe jetzt auch seit Dienstag eine XFX 8800 GT und bin absolut zufrieden, vor allem die nicht vorhandene Lautheit des Lüfters hat mich sehr positiv überrascht.

Aber dieses Gejammere wegen Crysis hier in den Comments... Jetzt wartet doch erstmal ab, bis die Final da ist. Das wird schon noch flüssig spielbar sein. EA wird keinen Blockbuster zum Weihnachtsgeschäft releasen, den man nicht gescheit spielen kann. Das macht überhaupt keinen Sinn. Also erstmal neue Grafikkartentreiber seitens Nvidia und ATI abwarten und den ein oder anderen Patch zur Performanceverbesserung.

just my two cents.
 
Könnte die Ablösung meiner 7900gt werden aber mal schauen was ATI raus bringt und wie sich dann der Preis verhält ;)
 
RubyRhod schrieb:
Warum hat man das denn nun gemacht? Bei dem großen Chip ist doch jeder Tranni mehr ein Problem bei der Herstellung.. und wenn man die NVIO Chip sogar schon "rumliegen" hat... naja..
der g92 ist wesentlich kleiner als der g80. zudem ist der nvio in 90nm schon nicht groß, sprich der flächenanteil am g92 wird zu vernachlässigen sein. weniger bauteile vereinfachen jedenfalls das pcb und die bestückung wird auch noch billiger.
außerdem glaube ich kaum, dass mehr nvio als g80 produziert wurden, das ergibt doch garkeinen sinn.

drollig find ich ja die performance der gf7 z.b. in jericho ^^ das gibt mir zu denken. wäre unschön, wenn ich in zwei jahrn da sitzt und seh, dass amds karten von gestern einfach schneller sind...
 
Zuletzt bearbeitet:
@AnarchX
Die Sache mit den Treibereinträgen ist gefixt. Danke!

Toller Test! Aber warum gibt's unter DX10 keine SLI Benchmarks? Oder habe ich die Begründung irgendwo überlesen?
Dies hat einen einfachen Grund: Wir haben leider schlicht und ergreifend nur von den wenigsten Grafikkarten zwei Exemplare hier. Deswegen aktualisieren wir auch nur sehr selten (wenn überhaupt) die SLI-Tests. Und als wir die SLI-Systeme hier hatten, gab es die meisten DX10-Spiele leider noch nicht, weswegen wir da jetzt keine Messwerte haben.

Sorry, aber ihr wisst schon, dass ihr mit verschiedenen Treiberversionen kaum realistisch vergleichen könnt?

* Nvidia ForceWare 163.75 (G8x)
* Nvidia ForceWare 169.01 (8800 GT)
Warum glauben immer gleich alle, dass neue Treiber wer weiß was für eine Leistungsänderung zeigen? Die Vergleichbarkeit ist immer noch absolut gewährleistet, die Geschwindigkeitsunterschiede bei ein paar Spielen sind, wenn überhaupt, nur minimal.

Ja mich hätte auch mal ein SLI TEst unter Crysis interessiert kommt vielleicht noch nach
Die Crysis-Demo unterstützt kein SLI.

Die Temperatur ist ja wohl sehr übel. Dass man diese lapidar mit "gefährlich sind die Temperaturen für eine moderne GPU aber nicht" abtut (woher wisst ihr das?) und im Fazit dann völlig unter den Tisch kehrt, halte ich für fragwürdig. Datenblätter hab ich bei nVidia vergeblich gesucht, also weiß ich nicht für welche Temperaturen die Chips spezifiziert sind. Aber wenn man mal überlegt, dass der Kühler nach ner Zeit auch einstaubt und auch Gehäuselüftung oft vernachlässigt wird, geht da locker auch mehr als 92°C bzw. 95°C, ganz abgesehen von OC.
Nvidia gibt selber an, dass auch Temperaturen um die 120 Grad Celsius für eine moderne GPU kein Problem sind. Einige Chipteile werden gar noch deutlich wärmer. Bei ATi gilt zudem dasselbe. Über 100 Grad ist für eine moderne GPU absolut kein Problem, dafür sind die Chips ausgelegt.

warum wird bei den sli benchmarks der 3dmark06 nicht in den default werten gebencht?
(ich weiß, dass es bei der geringen auflösung ohne aa und af nicht so viel bringt- trotzdem wären vergleichswerte nicht schlecht)
Du beantwortest dir die Frage schon selber. Selbst mit AA und AF ist der 3DMark06 in 1280x1024 schon sehr CPU-limitiert, ohne AA/AF machts überhaupt keinen Sinn mehr. Zudem wird jeder SLI-Nutzer sicherlich auch (fast) immer AA und AF hinzuschalten.
 
Warum gibts kein Vergleich von 8800 GT SLI gegen eine einzige GTX?
Hätte man ja in den Graphen einfügen können.
2x 8800 GTs werden ja ungefähr so teuer sein wie eine GTX.
 
Wolfgang schrieb:
Nvidia gibt selber an, dass auch Temperaturen um die 120 Grad Celsius für eine moderne GPU kein Problem sind. Einige Chipteile werden gar noch deutlich wärmer. Bei ATi gilt zudem dasselbe. Über 100 Grad ist für eine moderne GPU absolut kein Problem, dafür sind die Chips ausgelegt.

Der GPU selbst macht das vielleicht nichts aus, aber wie sieht es mit den ganzen anderen Komponenten (Spannungswandler usw.) aus ?

Und offensichtlich ist die GT während des Tests nicht "abgeraucht" :freaky: Gibt ja schon diverse Berichte über erhöhte Ausfallraten...
 
Seit ihr sicher das WIC unter DX10 mit all max gebencht wurde?
Laut andern Seiten bzw mags kommen bei dem Spiel selbst unter DX9 nicht mal so hohe FPS Werte raus, wie bei eurem Test unter dx10 rauskommen.
Dann habt ihr Company of heroes gebencht mit all max dx10 4x8x 1280x1024. Die GTS 320 kommt da auf ca 27 FPS non oct. Ich hatte die Karte im Juni mal für ne Woche im Rechner. In der oben genannten Auflösung mit den O g Settings hatt ich 7 FPS avg. Also total schlecht gelaufen. CPU ist bei mir ein c2d @ 3Gig.
Ansonsten ganz ok der Test. Mich wundert es auch das der G92 soviele Transistoren hatt. Vergleicht man die Die mit der des R670 ... iss ja riesig der G92.
Zu Crysis. Frage an den Entwickler von nem Redakteur gestellt: Welche Karte braucht man für Crysis? Entwickler: Geforce 8. ;)
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Doch überkompensieren diese Änderungen tatsächlich derart drastisch den theoretischen Rückgang der Transistorenanzahl durch Entnahme eines Shader-Clusters? Wir spekulieren an dieser Stelle einmal und behaupten, dass der G92 nicht nur sieben Shadercluster und vier ROP-Partitionen, sondern wie der G80 acht Shadercluster und sechs ROP-Partitionen besitzt. Denn uns kommt die Anzahl der Transistoren trotz der Verbesserungen des G92 zu hoch vor (NVIO sollte zum Beispiel nur eine kleine einstellige Millionenzahl kosten).
Oh ja, ich will mitspekulieren.^^
Wolfgang schrieb:
Darüber hinaus soll die Effizienz der GPU in Verbindung mit Anti-Aliasing sowie einer hohen Auflösung verbessert worden sein: Der Performanceverlust soll geringer ausfallen.

Kann doch auch sein, dass 8 Shadercluster verbaut sind und 5 Rop-Partitionen, also nicht sechs Rop-Partitionen. Die restlichen Transistoren könnten von Größeren Caches auf dem Chip verbraucht worden sein. Ich denke "die Effizienz der GPU in Verbindung mit Anti-Aliasing sowie einer hohen Auflösung" wurde vor allem durch Vergrößerung der Caches auf dem Chip verbessert. Damit kann man die GPU mit einem kleineren Speicherinterface anbieten. Man sieht auch, dass die Karte bei 2560x1600 8xAA/16xAF meistens wegbricht. Anscheinend wird in der Auflösung und bei der AA-Stufe der Interne Cache zu klein und die kleinere Anbindung lässt den Chip wegbrechen.
 
@ riddi:PCGH steht WIC DX9 all max 1280x1024 4x8 c2d e6700 GTS 320 28 fps 2900xt 29 FPS.
WIC all max DX9 ect klick:http://www.firingsquad.com/hardware/nvidia_geforce_8800_gt_performance/page8.asp
Auf der Seite ist auch ein Bench der COD4 Demo. In der Demo kann man soviel ich weiß (in der UT3 Demo auch) nur auf normal Settings spielen. Ob sich so eine Karte also für zukünftige Spiele lohnt, also ob mann die dann @ max Quality Settings daddeln kann wird sich noch zeigen.
Wen interesieren schon Far Cry oder Prey benches (@ sli) mit einer ( bzw zwei) DX10 Karte(n).
Edit, riddi hast ja garnet mich gemeint. winke
 
Zuletzt bearbeitet:
Der GPU selbst macht das vielleicht nichts aus, aber wie sieht es mit den ganzen anderen Komponenten (Spannungswandler usw.) aus ?
Das ist natürlich was ganz anderes, hat dann ja auch nichts mit der GPU zu tun ;)
Das andere Bauteile mehr Respekt vor zu hohen Temperaturen haben, ist natürlich durchaus möglich.

Seit ihr sicher das WIC unter DX10 mit all max gebencht wurde?
Laut andern Seiten bzw mags kommen bei dem Spiel selbst unter DX9 nicht mal so hohe FPS raus, wie bei eurem Test unter dx10.
Dann habt ihr Company of heroes gebencht mit all max dx10 4x8x 1280x1024. Die GTS 320 kommt da auf ca 27 FPS non oct. Ich hatte die Karte im Juni mal für ne Woche im Rechner. In der oben genannten Auflösung mit den O g Settings hatt ich 7 FPS avg. Also total schlecht gelaufen. CPU ist bei mir ein c2d @ 3Gig.
Ansonsten ganz ok der Test. Mich wundert es auch das der G92 soviele Transistoren hatt. Vergleicht man die Die mit der des R670 ... iss ja riesig der G92.
Zu Crysis. Frage an den Entwickler von nem Redakteur gestellt: Welche Karte braucht man für Crysis? Entwickler: Geforce 8.
Lies dier bei WiC mal unsere Benchmark-Beschreibung durch. Wir nutzen nicht den integrierten Test ;)
Und in Company of Heroes hat sich seit Juni super viel getan. Das ist absolut nicht mehr vergleichbar.
 
Aja dann. Ist mir auch aufgefallen das der interne test schlechter läuft (wie das Spiel dann selbst), bzw der interne Test der 2 ten Demo lief sogar noch schlechter wie der der ersten Demo.
Und bei COH ... also das der Bugg der 320er Version weg ist oder Treiber die Performance gesteigert haben halte ich für gut möglich.
Ich hol mir bald eine neue Graka und test das mal (kritisch guck) ;)
 
Zuletzt bearbeitet:
Zurück
Oben