News Erster Test der Dual-6600-GT-Grafikkarte

Sherman123 schrieb:
Wieviel Strom schluckt so eine Karte?

Man stelle sich vor 4 GPUs in einem Tower. :rolleyes:

2 6660gt m sli verbrauchen etwa 270watt.
die karte wird denk ich mal 10% weniger verbrauchen.
macht min. 500 watt bei 2 "3d1".
2 6800 ultras haben schon 350 watt.
und da wird ne 4 gpu-lösung nahezu blödsinnig.
700watt allein für die grakas.
da wird wohl nen zweites netzteli fällig. :rolleyes:
 
sebbekk schrieb:
Dann macht es womöglich jemand anders - Gigabyte machts vor!

wenn gigabyte bei dem gpu mangel überhaupt ausreichend karten bauen kann.
und sich dadurch nicht sogar die verfügbarkeit des bundels board+karte versaut.
die "3d1" karte ist etwa auf 6800u niveau,
kostet zwar weniger, verbraucht dabei 50 watt mehr als eine 6800 ultra.
du brauchst die doppelte verfügbarkeit an 6600 gt gpu`s, als zu einer 6800u gpu.
nvidia arbeitet bisher nur an der verfügbarkeit des nv41!
 
Zuletzt bearbeitet:
yamahakuesser schrieb:
2 6660gt m sli verbrauchen etwa 270watt.
die karte wird denk ich mal 10% weniger verbrauchen.
macht min. 500 watt bei 2 "3d1".
2 6800 ultras haben schon 350 watt.
und da wird ne 4 gpu-lösung nahezu blödsinnig.
700watt allein für die grakas.
da wird wohl nen zweites netzteli fällig. :rolleyes:

Die 270 Watt bzw. 350 Watt aus dem Computer Base SLI-Artikel beziehen sich auf den Stromverbrauch des gesamten PC´s ohne Monitor im 3D Betrieb. 4x 6600 GT´s oder 4x 6800 Ultra´s alleine würden wohl nicht 500 Watt bzw. 700 Watt verbraten, wohl aber soviel, dass man lieber ein 450 Watt Netzteil als Minimum einplanen sollte.
 
Wolfenstein 2k2 schrieb:
Die 270 Watt bzw. 350 Watt aus dem Computer Base SLI-Artikel beziehen sich auf den Stromverbrauch des gesamten PC´s ohne Monitor im 3D Betrieb. 4x 6600 GT´s oder 4x 6800 Ultra´s alleine würden wohl nicht 500 Watt bzw. 700 Watt verbraten, wohl aber soviel, dass man lieber ein 450 Watt Netzteil als Minimum einplanen sollte.

stimmt. ich dachte das wurde schon rausgerechnet.
ein 6600gt pc soll nur 240watt verbrauchen?
warum wird dann zwingend ein 350watt netzteil empfohlen?
und selbst wenn eine 6800 gpu "nur " 100 watt verbraucht,
würde das für eine 4-gpu-lösung min. 400watt ausmachen.
da reicht selbst ein 450watt netzteil nicht. :p
 
Weiss einer wiviel die KArte kostet ?
Wenn die KArte um die 500 Euro kostet find ich ich die Karte nicht intresant.
 
Hi,

die Benchmarkergebnisse sind schon beeindruckend, jedoch finde ich persöhnlich schade das die Karten wahrscheinlich nur auf GA boards laufen. Die andere Seite ist natürlich das man den Streit mit NV aus dem Weg gehen möchte was nachvollziehbar ist.
Nur finde ich das GA nicht Maß der Dinge ist zur Zeit und ich gezwungen werde, wenn ich mir solch eine Karte zulegen möchte, gleich ein neues Board kaufen muss :(
Ich hoffe andere Hersteller ziehen nach wie z.b ASUS, MSI, Abit. :)
 
MAnn kann sich auch ne Einzelkarte ALA x850 XT PE KAufen,damit kommt auf die gleichen ergebnisse.Stromverbrauch und Lautstärke weiss einer wie hoch ?
 
durch gigybyte verkauft nvidia doch doppelt zu viele 6600gt-karten.
nv stellt doch eh nur die chips her, die sollten sich doch freuen, wenn nun gigabyte bei ihren karten immer gleich 2 verkauft, zudem wir dadurch der verkauf von nf4-boards verstärkt, weils halt nur unter pci-express läuft, obwohl ich glaube, dass es auch agp laufen könnte, da ja der technische zeuge auf der graka-platine verläuft und nur zur übertragen der daten pci-e genutzt wird, also sollte theoretisch auch ein bridge-chip in der lage sein, die datenpakete agp-kompartibel machen können.
 
hmm...

nVidia ist die Firma der den Chip (GPU) für die Grakas baut und zugleich machen sie auch die Mainboard Chips.
Gigabyte und Konsorten müssen also eh immer nVidia bezahlen um diese Technologie auf ihren Boards zu verbauen.
Also ist es nVidia ziemlich egal wieviele GPUs diese auf die Graka machen.

Es braucht sicher nicht jede GPU 100Watt?!

2x ein Dual Core Graka im SLI geht nicht, da der SLI schon in 1er Graka verwendet wird...

*korrigiert mich wenn ich falsch liege*
 
Nur alleine durch diese Karte wird Nvidia sicherlich nicht die doppelte Anzahl der 6600GT Chips kaufen.
Und Nvidia hätte sicherlich etwas dagegen, denn so könnte man einfach beweisen, dass SLI Boards unnötig sind, wen eine einzelne Karten mit zwei Chips reichen würde.
Und Nvidia sowie die Hersteller werden die SLI Karte sicherlich nicht AGP fähig machen, da dann ein wichtiger Kaufgrund für PCI-E flöten gehen würde.
 
Lol ihr seit ja krank =). 4GPUs mhhhhmmm. Zuerst braucht mal man einen Prozessor der mit dem fertig wird (man siehe SLI, kein High-End Prozessor Benchmarks schlechter als mit einer GPU) Dann braucht man noch ein Netzteil, dass ich mir grad nicht vorstellen kann!

Lol naja, mal schaun was die Zukunft bringt ; )!
 
Mit AA/AF +hohe auflösung verliert die Karte gegen eine 6800GT

Wie hier im SLI test schon des öfteren bewisen wurde
s
Gruß
 
Notfalls könnte man für 4 GPU'S ein externes Netzteil machen. Siehe Voodoo Volts
Und bei 3dfx ging es auch mit 4 Chips auf einem board und man konnte diese Chips noch von intern versorgen. Das wird bei nVidia dann wohl auch klappen müssen. Da ist dann wieder klar, das ein gutes NT hermuss.
 
@irgendwen weiteroben
Der SLI Modus wird möglich sein. 2x2GPUs sin definitiv möglich. Deshalb kann man sich durchaus Gedanken über den Stromverbrauch machen.
 
Zur Realisierung: Am einfachsten für Gigabyte ist es doch die beiden Chips einfach anhand des SLI-Ports aneinander zu koppeln oder nicht?
Sozusagen also schon SLI auf nur einer Platine.

Wenn es so wäre, denke ich nicht, dass man dann zwei Karten bzw. vier Chip zusammenschalten kann, denn die Chips haben wohl nicht mehr als einen SLI-Port oder?

Ausserdem haben die Karten auf allen Bildern die ich bisher gesehen habe auch keinen extra SLI Stecker
 
Das Mainboard kann man ja mal total vergessen, denn es hat nur 2 PCI Steckplätze, wovon schon einmal einer wegfällt, wenn man den Wireless PCI Adapter verwendet (und ein weiterer, wenn man eine oder zwei Karten einbaut, welche Platz für jeweils 2 Slotblenden benötigen, z.B. bei ner 6800 Ultra). Außerdem kann man die VCore der CPU nur bis 1,75V erhöhen und den Multi nur bis x10.

Die Karte ist auch nur in hohen Auflösungen mit AA und AF und Unterstützung durch das jeweilige Game (und in Benchmarks) gut. Außerdem benötigt diese Karte wegen SLI mehr Prozessorpower. Des Weiteren lässt sich diese Karte nicht besonders gut übertakten, da sie sehr warm wird.

Alles in allem ist man mit einem Board seiner Wahl und einer 6800GT besser dran.
 
tobu4 schrieb:
Zur Realisierung: Am einfachsten für Gigabyte ist es doch die beiden Chips einfach anhand des SLI-Ports aneinander zu koppeln oder nicht?
Sozusagen also schon SLI auf nur einer Platine.
Wenn es so wäre, denke ich nicht, dass man dann zwei Karten bzw. vier Chip zusammenschalten kann, denn die Chips haben wohl nicht mehr als einen SLI-Port oder?
Genauso ist es doch auch bei der Gigabyte Karte gelöst. Die Chips sind durch SLI auf einem Chip verbunden. Man hat schon SLI auf einer Platine.
Und man könnte noch so eine Karte zusammen laufen lassen, da die SLI Lösung bei nvidia imo vier Ports hat.
 
Zurück
Oben