Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test nVidia GeForce 8800 GTS 320MB im Test: Ein abgespeckter Kraftprotz auf Kundenfang
platineye
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.589
Wenn nVidia 113 W als max. Verbrauch angibt, dann ist dieser Wert nicht von ungefähr. Meine 6600 verbraucht glatt 50 W weniger. Also die 8800 sind absolute Stromfresser und wer den Rechner nie ausmacht, darf sich am Ende des Jahres über eine fette Nachzahlung freuen.
Konsumkind
Lieutenant
- Registriert
- Jan. 2007
- Beiträge
- 970
platineye schrieb:Wenn nVidia 113 W als max. Verbrauch angibt, dann ist dieser Wert nicht von ungefähr. Meine 6600 verbraucht glatt 50 W weniger. Also die 8800 sind absolute Stromfresser und wer den Rechner nie ausmacht, darf sich am Ende des Jahres über eine fette Nachzahlung freuen.
Ist es nicht so dass man die Karte im 2D-Modus ziemlich weit runterschrauben kann?
bensen schrieb:
nicht die karten weisen einen hohen verbrauch auf, sondern das gesamtsystem
hier werden nur die karten verglichen und kein spezieller verbrauch der karten präsentiert
Nun das versuche ich ja gerade richtig zu stellen. Hier wird aber nur der Gesamtsystemverbrauch (eines OC-System) gemessen und dieser Wert im Fazit erwähnt, statt den Grafikkartenverbrauch zu kritisieren.
Die Verbrauchswerte mit einem Amd 4000+ System sind weniger für negative Schlagzeilen geeignet.
mmic29
Admiral
- Registriert
- Okt. 2005
- Beiträge
- 7.646
Davon ganz abgesehen, dass ein (overclockter) Core2Duo recht genügsam ist: wie willst Du den Stromverbrauch der Graka isoliert messen? Und das ganze unter Volllast? Technisch ziemlich schwierig, würde ich sagen. Und da der Verbrauch des standardisierten Testsystems ja immer gleich sein sollte, kann man die Verbräuche der Grafikkarten recht gut miteinander vergleichen.
Mfg
Mfg
@onamor
du hast echt irre gedankengänge
dem autor des textes wird schon klar sein was er da misst
er vergleicht die werte der versch. karten und kommt zu den schluss das der G80 viel verbraucht, steht auch so im text
ich versteh überhaupt nicht was du willst, es wird überhaupt kein konkreter wert im fazit erwähnt
stattdessen wird genau die hohe verlustleistung des G80 im 2D kritisiert
du hast echt irre gedankengänge
dem autor des textes wird schon klar sein was er da misst
er vergleicht die werte der versch. karten und kommt zu den schluss das der G80 viel verbraucht, steht auch so im text
ich versteh überhaupt nicht was du willst, es wird überhaupt kein konkreter wert im fazit erwähnt
stattdessen wird genau die hohe verlustleistung des G80 im 2D kritisiert
Der Wert von Nvidia ist in etwa 110W.
Und wer ein System aufbaut, dass 50 W mehr Verlustleistung bringt(mit allen Grafikkarten), als einen AMD 4000+ braucht, soll sich nicht gleichzeitig über die Grafikkartenhersteller aufregen. Nicht falsch verstehen, bin auch gegen Stromfresser.
Erst ein stromsparendes System betreiben, bevor man sich als öko verkaufen will. Intel CPU leisten mehr, im Idle verbrauche sie mehr als ein Athlon 4000+. In 2D 50W geht auf die Rechnung des im Tests konfiguriertes Intel-Systems und dies führt zu einer Verschleierung der Tatsachen.
@bensen deine Gedankengänge kreuzen sich wohl nicht mit meinen, denn für mich ist schon bei meiner ersten Antwort alles klar beschrieben. Hab mir ja Mühe gegeben, vielleicht gibt es jemand der mich und dich versteht;-)
Und wer ein System aufbaut, dass 50 W mehr Verlustleistung bringt(mit allen Grafikkarten), als einen AMD 4000+ braucht, soll sich nicht gleichzeitig über die Grafikkartenhersteller aufregen. Nicht falsch verstehen, bin auch gegen Stromfresser.
Erst ein stromsparendes System betreiben, bevor man sich als öko verkaufen will. Intel CPU leisten mehr, im Idle verbrauche sie mehr als ein Athlon 4000+. In 2D 50W geht auf die Rechnung des im Tests konfiguriertes Intel-Systems und dies führt zu einer Verschleierung der Tatsachen.
@bensen deine Gedankengänge kreuzen sich wohl nicht mit meinen, denn für mich ist schon bei meiner ersten Antwort alles klar beschrieben. Hab mir ja Mühe gegeben, vielleicht gibt es jemand der mich und dich versteht;-)
Zuletzt bearbeitet:
platineye
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.589
onamor schrieb:Intel CPU leisten mehr, im Idle verbrauche sie mehr als ein Athlon 4000+. Hoffentlich kommt das in euren Gedankengänge rein.
Ja, Intel CPU's leisten mehr, deswegen bin ich ca. 4 Mal schneller, das kommt voll in meinen Gedankengang rein.
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
@tAk
Er hat doch gesagt "im Idle" Im Idle verbraucht ein E6300 System mehr als ein A64 4000+ (bei eingeschaltetem Cool and Quit) Von daher brauchst du seine Aussage gar nicht in Frage zu stellen.
Das ist aber ganz und gar nicht das Topic hier.
@onamar
onamor stell dir vor es gibt auch noch so was wie Pentium D. Der verbraucht nicht übertaktet nicht weniger als dieser übertaktete Core 2 Duo. Ah und die Quadprozessoren darfst du auch nicht vergessen.
Im Grunde ist dies aber auch nicht dasTopic.
Hier werden doch nur die Grafikkarten verglichen. Wie groß der Gesamtverbrauch des Systems ist, ist völlig nebensächlich. Der Autor schaut bloß auf die Differenz zwischen einem früheren High-End Modell und dem heutigen High-End Modell. Das der Gesamtverbrauch mit einem langsameren Prozessor kleiner ist, ist doch für diese Betrachtungsweise völlig irrelevant. Es werden nur die Differenzen betrachtet. Hoffe du kriegst das mal in deine Gedankengänge rein.
Das einzige Problem an der Sache ist einer ganz anderer Natur:
https://www.computerbase.de/forum/t...otz-auf-kundenfang.259188/page-6#post-2587917
CB braucht auch kein Ökosystem hier aufzubauen um die Entwicklung zu kritisieren. Sie testen doch nur. Später wird es wieder einen Prozessor geben, der die gleiche Leistung wie dieser übertaktete Core 2 Duo schafft aber nur ein TDP von 65 W aufweist und da CB nicht ständig einen neuen Prozessor sich besorgen will und alle Modelle noch mal nachmessen will, wird einmal übertaktet und dann auf dem System so lange wie möglich getestet.
Er hat doch gesagt "im Idle" Im Idle verbraucht ein E6300 System mehr als ein A64 4000+ (bei eingeschaltetem Cool and Quit) Von daher brauchst du seine Aussage gar nicht in Frage zu stellen.
Das ist aber ganz und gar nicht das Topic hier.
@onamar
onamor stell dir vor es gibt auch noch so was wie Pentium D. Der verbraucht nicht übertaktet nicht weniger als dieser übertaktete Core 2 Duo. Ah und die Quadprozessoren darfst du auch nicht vergessen.
Im Grunde ist dies aber auch nicht dasTopic.
Hier werden doch nur die Grafikkarten verglichen. Wie groß der Gesamtverbrauch des Systems ist, ist völlig nebensächlich. Der Autor schaut bloß auf die Differenz zwischen einem früheren High-End Modell und dem heutigen High-End Modell. Das der Gesamtverbrauch mit einem langsameren Prozessor kleiner ist, ist doch für diese Betrachtungsweise völlig irrelevant. Es werden nur die Differenzen betrachtet. Hoffe du kriegst das mal in deine Gedankengänge rein.
Das einzige Problem an der Sache ist einer ganz anderer Natur:
https://www.computerbase.de/forum/t...otz-auf-kundenfang.259188/page-6#post-2587917
CB braucht auch kein Ökosystem hier aufzubauen um die Entwicklung zu kritisieren. Sie testen doch nur. Später wird es wieder einen Prozessor geben, der die gleiche Leistung wie dieser übertaktete Core 2 Duo schafft aber nur ein TDP von 65 W aufweist und da CB nicht ständig einen neuen Prozessor sich besorgen will und alle Modelle noch mal nachmessen will, wird einmal übertaktet und dann auf dem System so lange wie möglich getestet.
Die, die am lautesten Schreien werden erhört oder wie? Im Zweifelsfall kann man ja auch eine Umfrage machen. Wollte ich nur mal so anmerken. Ich persönlich begrüße die Prozessorwahl. Die Übertaktung hätte eigentlich nicht sein müssen, da dadurch nur unnötige Probleme auftauchen. (Zum Beispiel wird der Lüfter der CPU schneller/lauter, wodurch die Lautstärke der Grafikkarte schwieriger messbar wird)Wolfgang schrieb:Erstmal zu der Kritik zu dem verwendeten Prozessor. Ich finde das eigentlich interessant. Vorher haben nur alle rumgemeckert, wie langsam und unbrauchbar doch unser FX60 wäre - jetzt ist es genau anders herum...aha.
Zuletzt bearbeitet:
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
@tAk
Die verfügbaren Stromsparfeatures des C2D habe ich in meine Aussage miteinbezogen.
Das mit der Lautstärke war ja nur ein Beispiel. Ich hab es extra noch in die Klammern gesetzt.
Wenn das "Wenn" nicht wäre, wäre ich schon Millionär.
Es wird keine Wakü verwendet, also brauchen wir auch nicht darüber zu diskutieren.
Einen leiseren Lüfter kann man auch bei einem nicht übertakteten System drauf packen, womit das nicht übertaktete System immer noch besser abschneiden würde.
Das Mainboard und die Stromwandler werden bei einem übertakteten Prozessor anders ausgelastet, was zu Verfälschungen führen könnte. Man müsste jetzt zum Beispiel nachprüfen warum das System mit einer X1900 mehr verbraucht als mit einer 8800GTX die zwei Stromanschlüsse braucht und im vorigen Test mit einem anderen System auch eine andere Differenz herauskam...
Hätte ich das System, würde ich erst mal nachprüfen ob sich die Übertaktung auf die Stromdifferenz zwischen X1900 und 8800GTX auswirkt oder nicht. Wenn nicht müsste man wo anders nach dem Problem suchen...
Die verfügbaren Stromsparfeatures des C2D habe ich in meine Aussage miteinbezogen.
Das mit der Lautstärke war ja nur ein Beispiel. Ich hab es extra noch in die Klammern gesetzt.
Wenn das "Wenn" nicht wäre, wäre ich schon Millionär.
Es wird keine Wakü verwendet, also brauchen wir auch nicht darüber zu diskutieren.
Einen leiseren Lüfter kann man auch bei einem nicht übertakteten System drauf packen, womit das nicht übertaktete System immer noch besser abschneiden würde.
Das Mainboard und die Stromwandler werden bei einem übertakteten Prozessor anders ausgelastet, was zu Verfälschungen führen könnte. Man müsste jetzt zum Beispiel nachprüfen warum das System mit einer X1900 mehr verbraucht als mit einer 8800GTX die zwei Stromanschlüsse braucht und im vorigen Test mit einem anderen System auch eine andere Differenz herauskam...
Hätte ich das System, würde ich erst mal nachprüfen ob sich die Übertaktung auf die Stromdifferenz zwischen X1900 und 8800GTX auswirkt oder nicht. Wenn nicht müsste man wo anders nach dem Problem suchen...
Zuletzt bearbeitet:
Hi,
kann mir einer bitte mal sagen, weshalb die 7950GX2 in dem Spiel Rainbow Six Vegas so Stark einbricht, und wie man die MultiGPu fähigkeit Aktiviert? Gibt es ein Profil im Treiber welches man Aktivieren muss?
Ps: Oder ist das Spiel schlecht Programmiert? :-)
Edit: So habe mal ein bisschen experementiert am Treiber und was soll ich sagen, 50-100 Frames/s mit maximaler Einstellung im Spiel bei XVGA!
Geändert habe ich:
1. Vertikaler Syncronisation aus!
2. Scalierung auf Altenativ 2
und Spass haben. Ich habe das gefühl das CB den Test mit der GX2 wiederholen muss, weil die Werte nicht stimmen! Anscheinend stellt der Treiber bei der Karte Automatisch die Vertikale Syncronisation ein? Und das würde begründen weshalb die Karte so derbe einbricht, gegenüber den anderen!
Gruss Selflex
kann mir einer bitte mal sagen, weshalb die 7950GX2 in dem Spiel Rainbow Six Vegas so Stark einbricht, und wie man die MultiGPu fähigkeit Aktiviert? Gibt es ein Profil im Treiber welches man Aktivieren muss?
Ps: Oder ist das Spiel schlecht Programmiert? :-)
Edit: So habe mal ein bisschen experementiert am Treiber und was soll ich sagen, 50-100 Frames/s mit maximaler Einstellung im Spiel bei XVGA!
Geändert habe ich:
1. Vertikaler Syncronisation aus!
2. Scalierung auf Altenativ 2
und Spass haben. Ich habe das gefühl das CB den Test mit der GX2 wiederholen muss, weil die Werte nicht stimmen! Anscheinend stellt der Treiber bei der Karte Automatisch die Vertikale Syncronisation ein? Und das würde begründen weshalb die Karte so derbe einbricht, gegenüber den anderen!
Gruss Selflex
Zuletzt bearbeitet:
tAk
Vice Admiral
- Registriert
- Feb. 2005
- Beiträge
- 7.146
xp_home schrieb:Einen leiseren Lüfter kann man auch bei einem nicht übertakteten System drauf packen, womit das nicht übertaktete System immer noch besser abschneiden würde.
Dir ging es doch dabei um die Lautstärke resp. die Messbarkeit von anderen Komponenten im PC oder nicht?
Auch ein X6800 lässt sich mit einem Scythe Infinity sehr leise kühlen, so dass man die Läutstärke von der Grafikkarte problemlos messen kann.
mFg tAk
knightofnever
Newbie
- Registriert
- Juni 2006
- Beiträge
- 7
ich hab mir die 320mb-variante gekauft. spiele alles auf vollster auflösung. bin aber eh noch auf 1280X1024 pixel limitiert.
in der schweiz kostet eine evga 8800 gts gerade umgerechnete 260 euros. die 640er-variante kostet 100 euros mehr. da fällt die wahl doch gleich schon viel leichter.
in der schweiz kostet eine evga 8800 gts gerade umgerechnete 260 euros. die 640er-variante kostet 100 euros mehr. da fällt die wahl doch gleich schon viel leichter.
platineye
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.589
260-270 Euro für die Karte sind echt ok. Vor kurzem wäre jeder über diese Karte noch sehr froh, der Vergleich mit der 640 MB Version interessiert bei dem Preisunterschied nicht. Also Ende der Diskussion.
Nur den Stromverbrauch zukünftiger DX10-karten sollten die ändern, dann gäbe es gar nix mehr zu meckern.
Nur den Stromverbrauch zukünftiger DX10-karten sollten die ändern, dann gäbe es gar nix mehr zu meckern.
Ähnliche Themen
- Antworten
- 14
- Aufrufe
- 1.379
- Antworten
- 39
- Aufrufe
- 6.165