Test Test: nVidia GeForce 8800 GTX

Unglaublich aufwendiger Test einer unglaublichen Graka :eek: . Und das direkt am release-Tag. :daumen: @CB!

Mir fehlen die Worte.........

Mfg
 
Sehr guter Test Computerbase, Frage war bei euch der Widerstand (2D-3D regelung) in Ordnung ?
Ich wäre später aber an einer kleineren modernen Grafikkarte interessiert , vll. sehr günstiges ein G8x Equivalent zur 7600GT , besser und schneller als meine ist die dann allemal.
 
Folgendes Szenario...

Derzeit kann nVidia qualitativ und performant die aktuelle Generation von ATI locker überflügeln, klare Sache. Wenn der R600 raus kommt, und wir dürfen davon ausgehen dass ATI wieder zu einer sehr guten Bildqualität tendiert, wird nVidia die Renderingqualität des NV80 zugunsten der Geschwindigkeit mit den künftigen Treibern suxessive reduzieren, jede Wette. Nur dann haben die Meisten schon solche Tests wie diesen hier gelesen und da es kaum objektive Nachtests geben wird, glauben alle dass der G80 noch immer mithalten kann und kaufen munter weiter, unabhängig welches Preisleistungsverhältnis dann die Karten auf Basis des R600 haben werden.

Ich kann eure Euphorie absolut nachvollziehen, aber solange Vista nicht draussen ist, es keine DX10 Spiele gibt und es keine Karten mit dem R600 gibt, kann man doch nur Vergleiche mit der "alten" Grakageneration ziehen. Die Frage ist nur was es bringt? Wären die G80 Boliden nicht deutlich schneller als die "alte" Garde, würde wohl etwas nicht stimmen!

Ach ja, bin kein ATI-Fanboy und muss mich echt beherrschen nicht gleich ne 8800GTX zu bestellen. Jedoch sollte man erst abheben wenn der R600 draussen ist und wenn man einen Preisvergleich hat. :D

EDIT: Danke an CB für diese sehr erfrischenden, aber leider eher zu seltenen Tests. Ist ein positiver Kontrast zu den "komischen" News.
 
Endlich denkt mal jemand. :)
Auch wenn ich die Wette nicht mitmachen würde, da ich einfach Spekulationen hasse.
 
Super Test!! Super Karte!
681 Mio. Transistoren??? Autsch...

Die Leistung ist einfach für ne Single-Karte nur aberwitzig hoch.
Vor allem in hohen Auflösungen. Und SLI erst. (Congrats 2 all 30"-User)

Und endlich hat NV die Bilqualität nicht hinten angestellt.
Bin schon seeeehr gespannt, was AMD/ATI als Antwort in petto haben...

Edit: Bin auf Vergleiche von G70/G80 vs. R580/R600 bei Crysis schon sehr gespannt
 
Zuletzt bearbeitet:
*schmatzschmatz*

Euer Test ist wieder mal sehr ausführlich und ... ja, mir fehlen grad die Worte...

Find das auch super dass ihr mit nem FX60 gebencht habt, denn da weiss ich nämlich ungefähr was mich erwartet, da ich mir keinen C2D sondern einen K8L zulegen werde und deswegen noch mit meinem X2 rumgurken werde. Dennoch würde mich auch der Nachtest mit dem X6800 interessieren, diese CPU sollte dann aber auch extrem oced sein, wenn schon denn schon. ;)

Ich werde mir eine 8800GTX wohl selbst zu Weihnachten schenken. Bin mal gespannt wie bis dahin die Preise sind und was es da noch für Kühler geben wird für die 8800GTX.
Aber bissel komisch finde ich es schon dass eure Karte nur 600MHz Clock schafft, denn bei Awardfabrik ging die Karte bis 625MHz und einige aus dem Xtremesystems-Forum konnten die GPU bis auf 660MHz hochhetzen. Habt ihr eigentlich den GDDR3 nur auf 2000MHz ocen können oder geht da noch mehr?
 
geiler Scheiss, mehr kann ich dazu nicht sagen :evillol: der Ober:hammer_alt: :D

Super Artikel CB! Sehr ausführlich und gut geschrieben, klasse Arbeit! :)
 
Man ich bin auch am Grübeln.

Vor allem der Preis ist der Wucher:freak: ...........

1:1 Dollar : Euro..........:mad:

Man, die GTS kostet "nur" 449$.........:(

Die GTS lohnt sich irgendwie nicht für den Preis bei der gebotenen Leistung, außer man will unbedingt ocen. Sie ist weder Fisch noch Fleisch......

Das P/L bei der GTX ist deutlich besser, aber was heißt das schon wenn man trotzdem 580€ zahlen muss.

Alos, wenn die 1950XTX in den nächsten 2 Wochen für ca.320€ verfügbar sein wird, hole mir die erst, oder?

Was meint ihr? Also ich meine wenn schon eine 8800er dann schon die GTX, die ein ganzes Stück mehr an Power hat als die GTS!
 
@ alex22, auf thw schreibt man von 450w (ich verfüge nur über 300 -> aber das gehäuse schliesst in meinem fall
meist das netzteil ein

@ m polle, es wird wohl nicht soviel übrig bleiben, dass es für ein sli gespann reicht, poah, und die stromrechnung erst,
(eigentlich wäre es interessant wann das erste laptop mit dieser echt extremen die-hard-grafik kommt). aber hast
recht, is spannend, wann die preise für lcd u. high-end-unlimited-cpus in den keller purzeln

wann kommt dieser test vom r600?
 
@shagnar
Ich denke du übertreibst schon , wie soll ATI das bessere Bild denn machen, noch bunter ? Die G80 hat doch laut CB Beitrag schon bessere BildQualitäten als die bisher besten Grafikkarten von der Konkurenz und ich wüsste nicht warum man das bezweifeln sollte. Eins wird später jedoch interesannt werden , welcher der beiden Chips im Kopf-an-Kopf Rennen das schnellere Bild zum günstigeren Preis und mit geringerer Energieaufnahme bringt , ich bezweifel das es ATI sein wird.
 
Voyager10, nein ich denke nur dass die neue ATI (Sorry ich kann mich mit AMD nochned anfreunden!) das gleiche Niveau haben wird bezüglich der Bildquali, dies aber zum günstigeren Preis und verteilt auf alle relevanten Spiele auch ungefär gleich schnell wie der G80. Da kann dann nVidia nurnoch mit mehr FPS kontern, was sie für gewöhnlich auch machen und dies geht dann auf Kosten der Bildqualität. Wenns nicht so ist dann bin ich echt positiv überrascht und nVidia hat wenigstens 50% meines Vertrauens wieder zurückerobert.:D

Was die Energieaufnahme betrifft muss ich dir allerdings recht geben. Zudem rechne ich damit dass die ersten R600 wohl tierisch laut werden, was mal wieder typisch ATI wäre. Wobei da lässt sich His bestimmt wieder was Feines einfallen für ein paar €/CHF mehr.

Verstehe nicht warum so komplexe GPU-Architekturen nicht mit einem besseren Fertigungsprozess hergestellt werden?
 
Der Test ist okay, allerdings verdutzen mich ein wenig die Screenshots aus dem Spiel.

Bei dem R580 ist der letzte Screenshot eigentlich sehr schön dargestellt. Schiff schön rot, Pfeiler leicht begrünt, Felsen gut zu sehen.

Guck ich mir den G80 auf höchster Quali an, wird mir schlecht. Alles, was weiter weg ist, wird grau verschleiert?!
Ein Fehler im Spiel, oder was ist da los???

Ich meine die Screens unter Bildqualität
 
Fakt ist:

Drüber freuen, dass Nvidia endlich die BildQuali enorm verbessern konnte und abwarten was in den nächsten Monaten bzgl. AMD/ATI so passiert. Die Konkurrenz schläft nicht und somit könnte es wieder am ende ein Kopf an Kopf Rennen geben. Vor- und Nachteile hat jede Karten-Generation...
 
hätte irgendwie erwartet das die karte noch schneller ist nachdem sie doch so starkausgebohrt wurde im gegensatz zur 7900 GTX /1950XTX , vielleicht liegts auch an der CPU was ich aber nit so sehr glaub, abwarten also ich muss sagen die "alten eisen" halten sich nit schlecht, mal sehen was es da demnächst für schnäppchen gibt :D
 
vll liegts ja auch noch am Treiber , es ist immerhin eine neue Technologie . Ein neuer Treiber für die G80 ist ja eben erst eingetrudelt.
 
ich hatte es schonmal angemerkt (und es wird wohl wieder überlesen werden von den zuständigen Personen) - "winkelunabhängiges"-Filtering heißt Isotropes Filtereing - der Term anisotrop heißt "winkelabhängig" ,deshalb ist es quatsch von winkelunabhängigem AF zu sprechen.
 
geiles stück. ich werde mir auf jedenfall die 8800 gts holen. hätte nicht gedacht dass temperatur und lautstärke so gering ausfallen werden :)
 
Alter Falter, geiler Test!!!! :D

Was NV da abgeliefert hat, hätte glaub ich keiner für möglich gehalten, 40% oder mehr Mehrleistung zur x1950xtx!!!

:eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek:


Als ATI-Fan hab ich jetzt echte zweifel das der R600 da mithalten kann, vorallem wann kommt der endlich?????


***Einfach nur unglaublich die 8800 GTX *******

:eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek: :eek:

Ich möchte garnicht wissen, wie schnell die 8950 GTX wird ....
 
Zurück
Oben