Test Test: Nvidia GeForce 8800 GTS 512

bensen schrieb:
desweiteren hat die neue gts die gleiche speicherbandbreite wie die alte gts

Das ist aber nicht richtig! Die G80GTS hat 320Bit+640MB und die G92GTS hat 256Bit+512MB. Ein Grund, dass die G92GTS in höheren Auflösungen und mit AA/AF gegenüber der G80GTS ein wenig Boden verliert!
 
Ein hochinteressanter Test, der meiner Meinung nach zeigt, dass die 8800GT DIE SLI Karte schlechthin ist. Mit zwei 8800GT Karten rockt man derzeit wohl im Qualitätsbereich als auch im Preis-/Leistungsbereich.

SLI Benches würden mich hier aber dennoch interessieren, denn 100 EUR Aufpreis bei zwei GTS ist für Enthusiasten sicher kein Kaufhinderungsgrund.
 
@[Stephan]
komisch das das in jedem thread wer meint, ich quote mich einfach mal
bensen schrieb:
du weisst aber schon was die speicherbandbreite ist?
-> busbreite x speichertakt

320bit & 800mhz vs 256bit & 970mhz
die bandbreite ist also so gut wie gleich

wodurch ich sie erreiche ist doch wurst
 
Schön und gut, allerdings verliert die G92GT(S) gegenüber der G80GTS trotz "so gut wie gleicher" Bandbreite in höheren Auflösungen +AA/AF an Boden. Das zeigt sich im Test, insbesondere der DX10 Titel, z.T. schon sehr deutlich!
 
@bensen

Wenn es den Testern zu Aufwendig, dann sollen sie es bleiben lassen. Es wird hier ein falsches Bild von den neuen Karten vermittelt.

Das du den mittleren Absatz nicht verstehst ist mir klar. Es soll heißen das bei den neuen Beta Treiber die Qualität runter geschraubt wurde zugunsten der Performance ( speziell bei Crysis )

Bei gleichen Taktraten zwischen alter und neuer GTS IST die alte GTS schneller ( durch das größere SI ) Die Shader spielen fast keine Rolle.

Zu deinen letzten Absatz.
Da sieht man wieder das du keine Ahnung von der Materie hast. Die neue GTS hat eine 256Bit Speicheranbindung und die alte eine 320Bit Anbindung.
 
Eine Frage an den Autor: Ich habe auch nTune benutzt um die 8800 GTS zu übertakten aber ich kann nirgendswo den Shader einlesen. Nicht einstellen ist mir bekannt aber wie hast du den Shadertakt ausgelesen?
Den Shadertakt kann man derzeit ganz gut mit GPU-Z auslesen.

Eine weitere Frage: Im Test steht, dass in Bioshock und Rainbow Six Vegas kein AA möglich ist. Unter Windows XP habe ich bei meiner Karte AA mit den beiden Spielen ausprobiert und es hat funktioniert, dabei sollte es bei beiden doch nur wenn überhaupt unter DirectX 10 möglich sein? Benutze den Forceware 169.17 mit 169.06 inf-Datei.
Das ist durchaus auch unter Vista möglich. In Bioshock DX10 geht es aber nicht und in Vegas gibt es Fehler bei der Schattendarstellung (auch unter XP). Dies ist durch einen Treiberhack von Nvidia möglich, der sich einige D3D10-Vorteile der Hardware zu Nutze macht.

Könntet ihr vielleicht im voraus irgendwo schreiben ab wann der Test veröffentlicht wird bzw. die NDA fällt?
Nein, das geht nicht, weil auch das schon unter das NDA fällt.

Kann es sein, dass der 3D Mark 06 Test mit alten Treibern auf der 8800GTX lief?
Ich habe mit einem Intel Core 2 Duo E6750@ 3,2 GHZ genau 12010 Punkte.
Hier äußere ich mich einmal (wie auch schon diverse Male vorher in anderen Artikeln) zu der Treibersache. Ja, optimal ist die Situation derzeit nicht. Wir arbeiten daran, allerdings kann es bis zur Lösung noch lange dauern. Aber derart große Unterschiede, wie manche glauben machen möchten, gibt es nicht ansatzweise. Natürlich sind die neuen Treibern generell was schneller, aber der 163.75 ist nicht alt, sogar noch sehr neu. Darum ist der auch nur bedingt oder nur minimal langsamer als neue Treiber. Crysis wurde generell mit 169.xxer gebencht.

So viel Unterschied zwischen dem "alten" und dem neuen Treiber gibt es nicht. Ich kenne die unterfschiede ganz genau. So groß sind sie nicht. Für einen Treiber zwar ordentlich, aber dadurch ändert sich absolut nichts an der generellen performanceaussage. Akzeptiert das oder lest die Artikel nicht. Wer unsere Treiberproblematik dauernd kritisiert hat einfach nicht den Hauch einer Ahnung, wie lange ein Treiberdurchlauf einer einzelnen Grafikkartge dauert. Ihr könnt ja gerne mal raten, wieviel Zeit das in Anspruch nimmt.

Warum werden die ATI Karten 3850/3870 mit den alten Treibern betrieben???

ATi Catalyst 7.10 (R6x0)
ATi Catalyst 8-43-1-071028a (HD 3870, HD 3850) [/QUOTE]
Ehm, alte Treiber? Weißt du, wie alt unser Launch-Treiber ist? Anscheinend nicht. Dieser ist im Prinzip größtenteils identisch mit dem Cat 7.11, es fehlt ihm aber das WHQL-Zertifikat. Und selbst wenn, einen wirklichen unterschied würde es eh nicht ausmachen.

Kanns sein das bei UT3 die 3870 vergessen worden ist?
Zum Testzeitpunkt von UT3 hatten wir keine Radeon HD 3870 hier. Deswegen konnten wir die Karte nicht mitttesten. Mittlerweile hat sich das geändert und im nächsten Artikel wird es auch Werte der HD 3870 geben.

@Blumenkind
Wir testen Grafikkarten, keine Systeme. Unsere Tests sollen zeigen, wozu die Grafikkarten in der Lage sind. Das geht mit einer langsamen CPU nicht, weswegen es nicht Sinnvoll wäre, eine herkömmliche "normale" CPU zu benutzen.

Im Artikel finden sich etliche kleine Ungenauigkeiten von denen ich mal zwei rauspicke. Auf Seite 2 steht:

"Letzteres ist aber nur selten für „General Shading“-Aufgaben zu gebrauchen, da das MUL meistens mit Special-Function-Unit-Berechnungen, wie beispielsweise eine Kosinus-Operation, beschäftigt ist."
Danke für den Hinweis! So genau habe ich mir das leider noch nicht drüber nachgedacht, weswegen dieser Fehler immer noch drin ist. Ich werde das demnächst mal beheben.

Im Artikel sind laufend kleine Schreibfehler verstreut, wie z. B. auf Seite 6:

"Dabei setzt Futuremark auf FP16-HDR, das die derzeit Best mögliche Bildqualität liefert, aber auch aufwendig zu berechnen ist."
Nochmal danke, werde ich auch demnächst korrigieren. Solche Fehler passieren leider schnell, da dieser Einleitungstext immer kopiert wird. Wenn dann einmal Fehler in dem Text drin sind, kommen sie so schnell leider auch nicht raus.

Es müsste "bestmögliche Bildqualität" heißen. Allerdings würde die bestmögliche Bildqualität mit FP32 erreicht. Die Berechnung ist dabei nicht aufwändiger als mit anderen Formaten, es fallen aber gewaltige Datenmengen an welche das Speicherinterface belasten.
Das ist zwar durchaus richtig, aber zu den Zeiten vom 3DMark06 gab es noch kein FP32-HDRR (bzw. es gab keine dazu fähige Hardware). Mehr als FP16 ging damals einfach nicht, aber das weißt du selber. Deswegen bin ich vom damaligen Standard ausgegangen.
 
Ralf T schrieb:
Desweiteren verstehe ich nicht wieso so viele auf die 1GB Variante von der 8800GT/GTS warten. 1GB bei den schmalen SI ( Speicher Interface ) bringt überhaupt nichts, da der Karte vorher die Puste ausgeht. Alles nur Marketing mehr auch nicht.
Bei der 8600 GTS die ich kaufte achtete ich darauf, immerhin 512 MiB RAM zu haben – um Doom 3 in ultrahohen Details zocken zu können. Die 8800 GT hat je nach Spiel und Situation durchaus genug Leistung, 1024 MiB RAM zu nutzen. Ich finde es zudem besser, "zu viel" RAM auf der Karte zu haben als in eine Situation zu kommen wo die RAM-Ausstattung limitiert.
 
Grundsätzlich ist es mir ja eigentlich egal was hier getestet wird. Ich hab hier sowohl ein "hochgezüchtetes" Quad-Core System herumstehen als auch ein ehemaliges AMD X2-Highendsystem (heul) und ein etwas betagteres P4 System. ;p Es interessiert mich also durchaus, was theoretisch möglich ist. :D
Aber wirklich interessant ist das eigentlich nur die Freaks unter uns. Ich finde, dass der Normalanwender der diese Seite besucht eine verzerrte Wirklichkeit vorfindet, die ihm auf der Suche nach einer für sein System passenden Grafikkarte nicht wirklich viel weiterhilft.
 
Oo voll die Phylosophen unterwegs.
Wer 130 Euro hatt nimmt die 3850, wer 170 Euro hatt die 3870 und wer 220 < hatt ne 88gt.
Ab 300 giebts dann ne GTS usw.
 
Meine Gigabyte ist heut schon angekommen. Da ist Alternate wirklich fix.
Als Schmankerl ist Neverwinter Nights 2 dabei. Also ein nicht ganz aktueller Titel.

Jetzt müsste nur noch der Rest meines Rechners da sein. :(
 
@Ralf T
kleiner Tipp, wenn du nicht diskutieren willst, dann poste nicht in ein forum, kannst nicht verlangen das jeder deiner meinung ist (vor allem wenn sie so abstrus sind)
abwertende bemerkungen kannste dir stecken

zum ersten punkt: du kannst schlecht vorschreiben was jemand auf seiner seite zu tun oder lassen hat
lese den artikel einfach nicht
es stehen ja die testbedingungen alle aufgelistet, also weiss jeder woran er ist

frag mich auch wie du drauf kommst das ich den part mit crysis und den treibern nicht verstanden haben soll, das steht im ersten und nicht in dem besagten 2. absatz :rolleyes:

desweiteren zeige doch mal nen test bei gleiche taktraten wo die neue gts langsamer ist, behauptungen kannst du 10x wiederholen, wahrer werden sie dadurch nicht
aber was du damit überhaupt bezwecken willst hast du immer noch nicht gesagt

Ralf T schrieb:
Da sieht man wieder das du keine Ahnung von der Materie hast. Die neue GTS hat eine 256Bit Speicheranbindung und die alte eine 320Bit Anbindung.
und das rahm ich mir ein
die speicheranbindung ist total egal, es kommt nur auf die bandbreite an
wie ich die erreiche ist nebensächlich
das die busbreite unterschiedlich ist hab ich auch schon erwähnt
aber gut das wir jetzt alle wissen das du die weisheit mit löffeln gefressen hast
 
Zuletzt bearbeitet:
Thema Lautstärke:

Wie ist sie im Vergleich zur 8800gt Idle/Last?

Hat da jemand Erfahrungen?
Ist sie (ggf. per Rivatuner Lüfter ~25% gestellt) Silent zu bekommen?
 
Das die neue GTS in sehr hohen Aufösungen ein wenig gegen die alte(vom Abstand der riesig ist) verliert liegt wohl am geringeren VRam denke ich; daneben zeigen die Tests hier wohl das mit der neuen GTS auch bei OC deutlich höhere Taktraten in allen Bereichen möglich sind, vom Core über Shader und wohl auch beim Speicher wenn ich die Tests vergleiche.
Gruß
 
So Leute, meine Karte (8800GTS) ist ja nun heute bei mir angekommen. Ich habe gleich mal einen Benchmark mit 3DMark06 gemacht, über 12000 Punkte und die Karte ist nicht mal übertaktet.

Jetzt mal zum Mythos Crysis.

Ich habe zur Zeit noch die Demo, so wie ich es vor einiger Zeit vernommen habe, werden ja Dual Core Prozessoren nicht unterstützt.
Ich spiele grundsätzlich in der Auflösung 1024x768 Pixel, habe alles auf "HOCH" und kein Antialiasing eingestellt. Was soll ich dazu noch sagen, es hat mich fast vom Stuhl gehauen. So eine Hammer Grafik habe ich noch nie im Leben gesehen und es gab nicht einen Ruckler, wow!

Dann habe ich es mit 8x Antialiasing versucht, ich dachte ich spinne, dass Game läuft noch immer flüssig. Es gab zwar hier und da mal ein kleinen Ruckler, die waren aber auch kaum spürbar.

Die Temperaturen nach einer Stunde max. 78°, der Lüfter läuft auf ca.45%. Das ist aber nur bei Benchmarks oder Crysis so mit der hohen Temperatur, bei anderen Spielen geht die Temperatur nur max. bis auf 67°.

Da die Vollversion Crysis mehrere CPU-Kerne unterstützt, sollte somit auch genügend Puffer für unvorhergesehenes vorhanden sein.
Übrigens habe ich die Grafikkarte noch immer nicht übertaktet, ich habe also mit dem Standardtakt gespielt.

Wer das Geld hat, der sollte sich die Karte auf jeden Fall kaufen.

EDIT: Jetzt ist sie übertaktet.

Gruß.
 
Zuletzt bearbeitet:
Meine war gestern da Crysis auf 1680x1050 DX9 alles auf High läuft. Keine spiel das auf meinem Rechner liegt ist nicht im Max. Einstellung spielbar. Also wie man schon aus dem test entnehmen kann ist das ne schnelle und sehr leise Karte.
In 3D Mark habe ich nur 9000Punkte könnte das an meinen Opteron 175 liegen.
 
Zuletzt bearbeitet:
Hallo,

ich hab grade wie die news rauskam eine 8800gts mit 640 mb bestellt also noch mit dem G80 GPU... hab dann natürlich sofort nach karten mit dem neuen chip gesucht... und natürlich bestellt... heute sind beide karten angekommen... is ja wohl klar welche ich zurückschicke *g* - die mit dem G92 GPU ist im Performancerating 43Prozent schneller obwohl sie bissl weniger speicher hat und nicht mehr kostet...

leider is die karte nicht für meinen pc... schenke meinem kleinen bruder nen neuen pc zu weihnachten in dem ich die karte einbauen werde...

was sagt ihr zu meinem geschenkt:

Core 2 Duo E6750 2,66Ghz, 1333 MHz FSB, gekühlt von Thermaltake TMG i2
XFX 8800GTS 512 Alpha Dog Edition
CoolerMaster Centurion 534 Midi Gehäuse und CoolerMaster RealPower 520 Watt Netzteil
4x 1GB MDT DDR2 800 5 5 5 12 Arbeitsspeicher
WD 250GB 16MB SATA2 festplatte
MSI Neo 2 FIR mit Intel P35 Chipsatz MOBO
ASUS DVD SATA Laufwerk und ASUS DVD Brenner SATA

Kann sich normalerweiße sehen lassen, nur das netzteil macht mir sorgen... 19 A auf der 12V leitung... auf dem karton der grafikkarte steht was von mindestens 26A auf der 12 v leitung...

ich hab aber in der produktbewertung vom netzteil gelesen dass da einer ein ähnliches wenn nicht sogar spromhungrigeres system damit problemlos betreibt.. nur eben die alte 8800gts die ja niedriger getaktet ist... hoffe das klappt

was meint ihr?
 
Zuletzt bearbeitet:
hmm das mit dem Netzteil kann ich dir auch nicht sagen. ich persönlich spare nicht mehr am NT, da zuviel kaputt gehn kann wenn mal was ist. aber wenn du deinem Bruder so einen PC hinstellst, dann sollten 50-60 Euro für ein neues Marken NT ala Bequiet oder seasonic (je ca 450W - 500W reichen da)doch drin sein.

PS: bist ein netter Bruder :)
 
Zurück
Oben