Test Nvidia GeForce 8800 GT (SLI): Das Geheimnis des G92 ist gelüftet

@tak: tja die ist auch verhältnissmäsig billig und daher auch nicht wirklich schneller in hohen auflösung und AA/AF. Aber trotzdem ist Sie jeden Cent wert. Außerdem ist ja noch OC-tauglich und bringt noch viel zusätzliche Leistung. Bin jetzt sehr gespannt auf die 3870 von ATI. Wie die wohl sein wird???? Wir werden es hoffentlich am 15. sehen. CB macht dann bitte einen TEST. Ihr seid die besten in Sachen Benches usw.
 
Zuletzt bearbeitet:
Unter Windows taktet sich die GeForce 8800 GT wie sämtliche Vorgängerprodukte mit der G8x-GPU nicht herunter, sondern agiert weiterhin mit den maximalen Taktraten. Schade.

Mich würde interessieren ob das bei zB Linux anders ist?:confused_alt:
 
Abwarten. In den nächsten Wochen komme die neuen GTS Versionen, die GS Version und de ATI Karte raus. Vor Xmas 07 würde ich mir keine Karte kaufen!!!
 
@ DrDeath:

Mir ist die Leistungsaufnahme unter idle trotzdem noch zu hoch und da dachte ich, wenn es extra für Windows heißt, das sich der Takt nicht runterregelt, dann könnte es ja sein dass irgendein anderes Betriebssystem das beherrscht!;)

Wenns natürlich nicht so ist hab ich mir überlegt evtl ein Mainboard mit OnBoard-Grafik zuzulegen und unter Windows (bzw beim Spielen) die 8800GT zu nutzen und unter Linux die OnBoard Grafik!:D
Oder zieht die Grafikkarte auch im deaktiviertem Zustand Strom (so dass ich sie jedesmal ausbauen muß?) :confused_alt:
 
@Brakker: Du machst es dir aber auch kompliziert lad dir doch einfach die neueste Version von Rivatuner runter da kannst du sie auch runtertakten und sogar den Lüfter einstellen.

mfg
 
Wolfgang schrieb:
Ebenfalls als positiv zu bewerten ist die Integration von PureVideo HD in die GeForce-8800-Serie. Damit kann nun die GPU der CPU einiges an Arbeit abnehmen und selbst bei langsameren Prozessoren bleibt die Wiedergabe eines HD-Videos flüssig. Weder die bisherigen GeForce-8800-, noch die Radeon-HD-2900-Karten können dort überzeugen. Einzig der VC-1-Codec wird noch nicht voll beschleunigt. Hier wünschen wir uns, dass in Zukunft die GPU diese Arbeit ebenso erledigen kann.

Warum wünscht ihr euch das so sehr?
Bei einer GeForce 8500 GT und niedriger könnte ich es ja noch irgendwie verstehen. Aber bei einer GeForce 8800 GT? Jeder, der so eine starke GPU hat, hat auch eine hinreichend schnelle CPU. Wozu soll ich für die Extratransistoren auf der GPU bezahlen, wenn ich die erste Decoderstufe des VC-1 auch ganz locker von meiner CPU erledigen lassen kann?!
Nicht jedes Features ist überall gleich sinnvoll. Solange die Bildausgabequalität der GeForce 8800GT bei HD-Filmen stimmt, ist es doch ziemlich wurscht ob die erste Decoderstufe nun von der CPU oder Graka erledigt wird. Da braucht man auch nicht ständig drauf rumzureiten.
 
Zunächst war ich ja von der Lautstärke recht angetan, was sich beim Anblick der Temperaturen jedoch schnell geändert hat.

Meint ihr diese Grafikkarte verrichtet in einem Barebone problemlos seinen Dienst? In Barebones ist es nunmal ein wenig knapper was die Temperaturen anbelangt, weshalb ich für gewöhnlich keine "Dampfmaschinen" einzubauen pflege.
 
Zuletzt bearbeitet: (heftige Grammatikfehler)
Die karten sollen sich unter den high-end modellen positionieren
Die 8800GT schlägt öfter die GTX! und dazu kostet sie 200€ weniger. Da muss ich einmal sagen: gut gemacht nVidia. Aber erst RV670 abwarten. Dann bewerten.
 
Ne X1900XT als Vergleich wäre nice...
 
@ datvader:

Super! Danke für den Tipp!:bussi:

Das ist genau so ein Vorschlag den ich hören wollte!
Jetzt muß ich nur noch auf die Tests der 38X0 warten!
Aber ich schätz mal es wird die 8800 GT!:D
 
BigChiller schrieb:
Zunächst war ich ja von der Lautstärke recht angetan, was sich beim Anblick der temperaturen jedoch schnell geändert hat.

Meint ihr diese Grafikkarte verrichtet in einem Barebone problemlos seinen Dienst? In Barebones ist es nunmal ein wenig knapper was die Temperaturen abelangt, weshalb ich für gewöhnlich darauf keine "Dampfmaschinen" einzubauen.

Das kommt auf die restlichen Komponenten drauf an. Eine höhere Temperatur zwegs schlechterer Luftzirkulation wirst du sicher haben. Trotzdem sollte der Kühler für die 8800GT auch für ein Barebone-System reichen.

mFg tAk
 
@ brakker und datvader:

Man kann auch ein gemoddetes BIOS flashen um im 2d Modus weniger Takt zu haben. Die Stromersparnis dürfte aber sehr mager ausfallen.

@ Big Chiller:

Na, im Barebone wär mir das zu kritisch. Aber kannst ja wie gesagt auf ne Karte mit modifiziertem Kühler setzen - die kommen bestimmt schnell.
 
trotz einger Vorteile welche die GT mitbringt frage ich mich warum man denn nicht auch das neue
4.1 Shadermodell bzw DX10.1 intergriert hat - wär das denn so aufwendig ?
schliesslich sollen es die neuen ATI-Modelle ja schon bieten - damit wird doch nur wieder die
Softwareentwicklung in der Hinsicht ausgebremst - denn wozu sollten die zB die Spieleentwickler
den Upgrade auf zB Shader 4.1 integrieren wenn es nur die wenigsten Karten unterstützen ?
andererseits könnte man M§ vorwerfen dass nicht von vornerein in DX10 implementiert zu haben...

verstehe auch nicht warum viele Leute sich nicht beherschen können und eine Kaufhysterie entwickeln
die den Preis der Karte dermassen hochtreiben und evtl dazu führt dass die für längere Zeit auf dem
zu hohen Preisniveau hält und vlt sogar so bleibt ...
denn warum sollten die Hersteller auf den Kaufrauschbonus verzichten ?
 
ogltw schrieb:
Der GPU selbst macht das vielleicht nichts aus, aber wie sieht es mit den ganzen anderen Komponenten (Spannungswandler usw.) aus ?

Und offensichtlich ist die GT während des Tests nicht "abgeraucht" :freaky: Gibt ja schon diverse Berichte über erhöhte Ausfallraten...

1. In einem gut belüfteten Gehäuse sollten die Temperaturen keine Probleme darstellen. Es gibt auch die Option den Lüfter/-Kühler durch einen besseren zu ersetzen, wovon die meisten Käufer meiner Meinung nach auch Gebrauch machen werden.

2. "offensichtlich" sollte man auch mit einer Quelle belegen, andernfalls einfach mal die Klappe halten.:baby_alt:


Gruß.
 
In meinem Gehäuse sollten diese Temperaturen auch kein Problem darstellen: Aplus CS-Wind Tunnel - edles, großes und leises High-End-Gehäuse für sehr guten Preis ;)

Aber halt bei "normalen" (teilweise sinnlos überteuerten) Gehäusen von Firmen wie Coolermaster, Thermaltake, Lian Li, usw. wo man nur vorne und hinten einen 120mm-Lüfter hat (oder ähnlich) kann es schon passieren, dass die Graka so richtig heiß wird, daher habe ich mich ja auch für das Aplus CS-Wind Tunnel entschieden, weil es eine so geile Kühlung mit sich bringt, das da eigentlich nichts schief gehen kann. ;)

Muss aber jeder selber wissen.

MfG paxtn
 
@Dr.Death: JA das wäre dann die nächste Möglichkeit aber nicht jeder möchte sein BIOS updaten es kann einfach zu viel daneben gehen wenn man nicht gerade weiss was man da tut, da kommt ein Rivatuner doch viel besser als Normal Anwender^^

mfg
 
testeron schrieb:
trotz einger Vorteile welche die GT mitbringt frage ich mich warum man denn nicht auch das neue
4.1 Shadermodell bzw DX10.1 intergriert hat - wär das denn so aufwendig ?
schliesslich sollen es die neuen ATI-Modelle ja schon bieten - damit wird doch nur wieder die
Softwareentwicklung in der Hinsicht ausgebremst - denn wozu sollten die zB die Spieleentwickler
den Upgrade auf zB Shader 4.1 integrieren wenn es nur die wenigsten Karten unterstützen ?
andererseits könnte man M§ vorwerfen dass nicht von vornerein in DX10 implementiert zu haben... ?


Ich denke die neuen GTS/GTX Modelle werden DX10.1 sowie Shader 4.1 unterstützen...

In meinen Augen ist es Strategie seitens Nvidia, das wäre wohl ein weiterer Kaufgrund für die kommende GTS/GTX Reihe neben dem Leistungsvorsprung.

Mit dem P/L Verhältnis der 8800GT werden die kommenden Grakas bestimmt nicht mithalten können.
 
Zurück
Oben