Test Test: nVidia GeForce 8800 GTX

Innovatek soll bereits heute die neuen Wasserkühler für den G80 im Shop erhältlich haben:

gpukuehler02.jpg


http://www.hardwareluxx.de/story.php?id=4815

Ein anderer neuer:

dsc02115largeaz0.jpg


http://www.awardfabrik.de/forum/showthread.php?p=11337#post11337
 
Der Test ist sehr gut geworden auch wenn der Prozzi nicht wirklich passend war.
Hätte nicht gedacht, dass Nvidia gerade in sachen Qualität so aufholt.
Der Stromverbrauch ist zwar hoch aber eigentlich hab ich mehr erwartet.

Mal schauen, was der R600 so vollbringt.
Das Weihnachtsgeschäft lässt sich ATI ja offensichtlich durch die Lappen gehen.

MFG
 
Immer diese Leute die "eigentlich mehr erwartet" hätten. So viel mehr geht ja wohl gar nicht, oder was für ein Netzteil willst du dir hohlen? Und am besten sind auch noch die Leute die dann meinen, sie bauen sich auch noch ein Quadcore ins System ein. Dass der bei Spielen nichts bringt haben die wohl nicht mitbekommen und einer der sich eine 8800 käuft ist (denk ich mal) vor allem an Spielen interessiert.

Am besten ihr baut euch einen Quadcore und zwei 8800GTX im SLI-System ein. Braucht zwar kein Mensch, aber ist bestimmt geil. Dann hat man auch nicht mehr das Problem bei der Auswahl des Netzteils... gibt ja dann nur 2 Stück oder so zur Auswahl....

Na-ja, ich gebe auf jeden Fall noch die Hoffnung auf eine passiv kühlbare 8600 in 65nm-Fertigungsprozess noch nicht auf. Oder sollte ich?

/Edit
Um Missverständnisse auszuschließen "eigentlich mehr erwartet" bezieht sich auf den Stromverbrauch nicht auf die Leistung! Siehe dazu zum Beispiel den Poster vor mir.
 
Zuletzt bearbeitet: (siehe Edit)
Hmm... Hat mal wer ein Netzteil mit 750 Watt und 4 SLI-Poweranschlüssen?

Also das Gerät kann sich absolut sehen lassen. Ich bin mal gespannt, wie der Preis nach Weihnachten ausschaut... Wenn da was unter 500 Euro geht, bin ich dabei. :)

Ab wann soll die eigentlich genau in 65nm gefertigt werden?
 
@xp_home. ich glaub eher, dass dies eine frage der geduld ist ;-)

abgesehen davon gibt es auch leute, die spielen UND arbeiten wollen mit ihrem pc. für 3d-anwendungen kann man nie genug power haben.
 
Ich denke das da schon mehr geht...ist wohl auch eine Sache des Willens...
Nvidia's Motto, mit dem geringst möglichen Aufwand, den grösstmöglichen Gewinn
einzufahren, hat sich auch mit dem G80 nicht geändert. Durch D10 und den Next-Gen
Konsolen, musste ein "wenig" gehandelt werden. Im Ergebnis hat sich jedoch nicht allzuviel
getan. Nach wie vor bleibt die CPU der grösste Flaschenhals und so richtig schnell ist
die Karte hauptsächlich bei älteren Titeln. Der Slowdown bei Oblivion, Serious Sam oder
Call of Duty2 (Quality Settings)ist eklatant und nicht von der Hand zu weisen. Wobei an
der Stelle die CB Redaktion gut daran täte, die ermittelten Fps. endlich einmal in minimal,
durchschnitt und maximal aufzuteilen, damit das Potential der Karten auch tatsächlich
nachvollziehbar ist. Letztendlich präsentiert uns Nvidia mit dem G80 den neusten Schaumschläger, den man strategisch geschickt zum Weihnachtsgeschäft präsentiert und
sich einemal mehr den Markt als führender Graka-Hersteller sichert. Zumindest in diesem
Punkt muss ich den Kaliforniern ein Kompliment machen.
 
Zuletzt bearbeitet:
Die Karte ist nichts für mich. Scheint mir so, als wolle NV mit der Brechstange noch das Weihnachtsgeschäft mitnehmen. Bei dem Stromverbrauch und der Temperatur im Idle-Betrieb, ist die Karte in einer Dachgeschoßwohnung kaum einsetzbar.
Zudem muss man bedenken, dass mit Vista die Karte ständig belastet wird.

Werde also noch warten müssen und auf gute Midrangekarten hoffen.
ATI's Antwort steht ja auch noch aus.

Also Geldbeutel schonen und lieber die anderen den Betatester spielen lassen.
 
_Grisu schrieb:
Die Karte ist nichts für mich. Scheint mir so, als wolle NV mit der Brechstange noch das Weihnachtsgeschäft mitnehmen. Bei dem Stromverbrauch und der Temperatur im Idle-Betrieb, ist die Karte in einer Dachgeschoßwohnung kaum einsetzbar.
Zudem muss man bedenken, dass mit Vista die Karte ständig belastet wird.

Werde also noch warten müssen und auf gute Midrangekarten hoffen.
ATI's Antwort steht ja auch noch aus.

Also Geldbeutel schonen und lieber die anderen den Betatester spielen lassen.
Die paar Linien, die unter Vista gezeichnet werden müssen, fordern die Grafikkarte fast gar nicht.

Und was soll man beim Stromverbrauch auch erwarten? Das Ding ist im selben Fertigungsprozess gefertigt wie ein G71 (278 Mio Transistoren) und hat mehr als doppelt soviel Transistoren. Dazu noch 256 MB mehr Ram, der obendrein höher getaktet ist.
Also finds vorallem realistisch, wie viel die Karte nunmal braucht.

Ein Shrink wird sicherlich kommen. Aber auch da sollte man keine Wunder erwarten, was die Senkung des Verbrauchs angeht. Siehe G70 > G71
 
HPM-Computer schrieb:
AKTUELLE INFO (09.11.06 - 12:25 Uhr):

Sehr geehrter Kunde,

wie uns MSI soeben mitteilte, wurden seitens NVIDIA sämtliche (nicht nur die
Pressesamples, sondern alle Karten aller Hersteller) 8800er Karten
zurückgerufen. Als Begründung wurde ein defekter Grafikchip angegeben.
Bislang hieß es, daß lediglich einige Pressesamples von diesem Defekt
betroffen sein.

Wir versuchen, die Auslieferung aller 8800er Karten von MSI zu stoppen.
Sollten Sie trotzdem eine Karte von uns erhalten, VERWEIGERN SIE BITTE DIE
ANNAHME des Paketes. Die Karten werden nun von den jeweiligen Herstellern an
NVIDIA zurückgesendet, wo diese dann schnellstmöglich gegen fehlerfreie
Karten getauscht werden. Sobald der Tausch abgeschlossen ist, erhalten Sie
dann eine fehlerfreie Karte.

Wir bitten die Umstände zu entschuldigen, auch wir wurden erst vor wenigen
Minuten von diesem Umstand informiert. Bitte teilen Sie uns mit, ob Sie Ihre
Bestellung aufrecht erhalten wollen, oder ob Sie Ihre Bestellung stornieren
möchten.

:heul:

*10zeichen*
 
:freak:

Oha - das ist übel, Tommy! Und nun? Alternative kaufen oder willst du die Bestellung aufrecht erhalten?

"defekter Grafikchip" -> bei allen Herstellern - das gibt sicherlich wieder böse Pressemeldungen!
 
@Mydgard

also bei mordernen grakas ist es doch eigentlich so das sie sich im 2d modus selbst runtertakten. ist jedenfalls bei meiner 7800gtx so.
 
Zuletzt bearbeitet von einem Moderator: (Sinnloses Full-Quote entfernt, bitte Regeln lesen!)
Was?! :eek:
Schon wieder was kaputt?! Was ist denn da nur los?

Und auch noch alle Karten zurück gerufen, meine Fresse, wie lange wird das wohl dauern bis die ausgetauscht sind und welche Modelle sind denn nun betroffen von dem Defekt? Etwa alle oder wie?
 
so wird das nix mit dem weihnachtsgeschäft. :freak: vieleicht sollten sich mal alle hersteller und programmierer überlegen, das produkt erst ausgiebig zu testen und dann zu veröffentlichen.

man stelle sich vor, 600€ für eine neue graka, die jetzt so wie es aussieht, von jedem, der schon eine hat, in garantie zurückgegeben werden sollte. da gibt es bessere geldanlagen :evillol: und wenn die karte dann in 4 wochen wieder da ist, ist der wert gleich mal um 50 oder 100€ gesunken.

baFh
 
Keine Ahnung, weiss nicht Cheffe! :(

Eigentlich habe ich überlegt sie zu behalten, aber wenn dann doch was im arsch geht, man ist das ärgerlich, und dann noch für den Preis....

Aber ich glaube ich werde Sie dann wohl zurückschicken müssen, bzw. verweigern, aber das wird sich sicherlich 3 - 4 Wochen nach hinten verzögern, so eine scheisse!! :(
 
Hm, es sind wohl "nur" alle GTX gemeint oder wirklich alle 8800er?

Ersteres würde erklären, weswegen z.B. bei Alternate keine einzige GTX lieferbar ist. Die GTS sind ja immer noch verfügbar.

Auf Hardwareluxx.de haben gestern auch schon einige von Problemen mit ihren Karten berichtet, es waren glaube ich immer die GTX. Die Karten hatten urplötzlich keine 3D Leistung mehr, da half manchmal nur die Neuinstallation des Treibers oder gar Windows (?), wenn ich das richtig in Erinnerung habe.

Schon scheiße sowas zu Beginn, aber immerhin wurde schnell und offiziell reagiert als zu sagen "Hm, defekte Karten? Wissen wir nichts von, tauschen aber mal lieber aus (ohne bekannt zu geben, was der Grund war)".

Böse Zungen würden jetzt sagen: "Jaja, Verfügbarkeit bei Launch schon, aber niemand hat was von funktionierenden Karten gesagt."
Aber Spaß bei Seite, wenn sich jetzt die Auslieferung um sagen wir 1 Monat verzögert, dann glaube ich kaum, dass die Preise bis dahin merklich gefallen sein werden, denn Weihnachten ist umso näher und warum die Preise senken, wenn (in 1 Monat) gerade einmal die erste Marge an funktionierenden Karten rausgeht? Der R600 ist bis dahin zu 99,9% auch noch nicht am Markt, es fehlt also die Konkurrenz. Hm, kann mir aber schon vorstellen, dass bis dato die 1950XTX nochmals im Preis fällt aufgrund der 8800 GTS. Gut, alles nur Spekulationen.
 
Zuletzt bearbeitet:
Warum habe ich das komische Gefühl, dass NV mal ganz schnell ein Produkt auf den Markt werfen wollte, um die Konkurrenz aus dem Weihnachtsgeschäft ´rauszuhalten....und damit anscheinend [Offizielle Informationen abwarten!] auf die Nase fliegt!

Mein Beileid, Tommy! Du alter Hardware-Fetischist :D
 
Weiss jemand ob Adrianne noch single ist?

zu hoher stromverbrauch, vor allem sli verbund wird einiges brauchen.... ansonsten goile karte
 
Tja, die Meldungen sprechen für sich und Nvidia's Qualitätsmanagement. Nach dem 7900er
Fiasko dachte ich eigentlich, dass man bei der neuen Generation aus den Fehlern gelernt
hat... Natürlich ging die Karte bei mir postwendend zurück - gar keine Frage !
 
Ja, die Karte ist ganz ok, aber diesen Leistungsvorsprung gibts doch fast jedes mal...von 5xxx auf 6xxx und 7xxx.

Und bitte hört auf von SLI zu reden. Wie oft muß man noch beweisen, daß es der größte Mist ist und von der folgenden Generation von nur einer Karte überholt wird. Einziger Vorteil für die Leute die wirklich auf 2560x1600 zocken, wegen 24+ Zoll TFT.
 
Mich würde auch mal interessieren was dieser Fehler auslöst. Mehr Stromverbrauch? Leistungsverlust?

Ich weiss nur dass es im Awardfabrik-Forum jemanden mit ner GTX gab, der hatte irgendwelche Grafikfehler, da half auchn der neue Treiber nicht. Er schrieb dass man im Spiel richtig zusehen konnte wie die Grafikkarte das Bild berechnete und alles nacheinander mit Shader versieht.
 
Zurück
Oben