News Erster Test der Dual-6600-GT-Grafikkarte

Harrold schrieb:
Naja dann bräuchte man schon wieder einen Brückenchip, der die beiden Karten miteinander verbinden kann, da schon jeweils SLI auf den Karten selber angewandt ist.
Man kann aber den selben nehmen, da die SLI Bridge vier Ports hat. Somit sind zwei noch frei, welche man für ein zweites SLI benutzen kann, sprich vier GPUs auf einer Karte oder eben zwei Karten mit je zwei GPUs.
 
MechWOLLIer schrieb:
Und man könnte noch so eine Karte zusammen laufen lassen, da die SLI Lösung bei nvidia imo vier Ports hat.

wie kommst du denn auf 4 ports?

dieshot.jpg


sli ermöglicht nur die kommunikations zwischen 2 gpu`s.
zumin bei den derzeitigen gpu`s.
man könnte aber die 2 3d1 karten vielleicht via software/treiber, wie bei ati, verbinden.
ob dann die 2 sli-ports von der transferrate ausreichen ist die zweite frage.

edit:
2 6800 ultras im sli langweilen sich schon, weil die cpu`s zu langsam sind.
dann werden sich 2 3d1 karten auch langweilen.
hier mal ein beispiel - sli test mit fx55 und vapochill
was soll dann erst bei 4 6800 ultra gpus sein? nüschts!
alles spielerei.
 
Zuletzt bearbeitet:
yamahakuesser schrieb:
wie kommst du denn auf 4 ports?
Die Aussage stimmt nicht von mir, sondern von Demirug aus dem 3DC.

Audf dem Die SHot mag ja nur einer eingezeichnet sein, das sagt aber nicht aus, dass es nicht mehr geben kann.
 
Naja NV hin oder her, dies zeigt doch was noch alles möglich ist und wird. NV hat mit ihren neuen Chips eindeutig viel zur Creativität beigetragen. Wenn diese NV reihe nicht so gut wären dann würden noch mehr Hersteller auf ATI setzen und so bleibt es ein hochwertiger klassenkampf um die Pixel Krone.

Hoffe nur das sich NV und Giga... auf einen Nenner einigen, denn interessant ist der Weg den Gigabyte geht schon;)
 
MechWOLLIer schrieb:
Die Aussage stimmt nicht von mir, sondern von Demirug aus dem 3DC.

Audf dem Die SHot mag ja nur einer eingezeichnet sein, das sagt aber nicht aus, dass es nicht mehr geben kann.
Vielleicht weiss Demirug das besser, aber imo auch aus der Sicht von Nvidia macht das doch vorerst keinen Sinn da mehr als einen Port einzubauen, denn mehr ist mit zwei grossen PCIe-Slots aufm SLI-Mainboard und Singlechipkarten gar nicht nötig.

Von offizieller Seite ist ja keine Dualchipkarte angekündigt und ich glaube nicht, dass Nvidia auf Begehren von Herstellern mehr hineinpackt.

Also entweder haben die chips nun nur ein Port oder sie haben mehr, aber dann ist sicherlich noch was im Busch in Sachen Dualchip-Karten von Nvidias Seite her
 
Also ist es nicht so, dass die GF6600GT eigentlich keinen Externen Power Connector brauchen? Denn wenn dem so ist, darf die Karte maximal 75Watt schlucken, da mehr nicht über den PCI-e Bus zur Verfügung gestellt werden kann, somit kann man sich im kopf ungefähr ausrechnen, dass wenn eine PCB incl. GPU <75Watt braucht man bei zwei GPU's Maximal 150Watt hätte. Wobei sicherlich viel Energie durch den Wärmeverlust der Spannungswandler usw. drauf gehen. Somit denke, ich, dass ein Wert von ca. 130-140Watt im 3D Betrieb pro 2GPU Karte realistisch ist.

MfG GuaRdiaN
 
GuaRdiaN schrieb:
Also ist es nicht so, dass die GF6600GT eigentlich keinen Externen Power Connector brauchen? Denn wenn dem so ist, darf die Karte maximal 75Watt schlucken, da mehr nicht über den PCI-e Bus zur Verfügung gestellt werden kann, somit kann man sich im kopf ungefähr ausrechnen, dass wenn eine PCB incl. GPU <75Watt braucht man bei zwei GPU's Maximal 150Watt hätte. Wobei sicherlich viel Energie durch den Wärmeverlust der Spannungswandler usw. drauf gehen. Somit denke, ich, dass ein Wert von ca. 130-140Watt im 3D Betrieb pro 2GPU Karte realistisch ist.
MfG GuaRdiaN
Den Wert halte ich für zu hoch. Du darfst nicht vergessen, dass viele Sachen wie RAM etc. nicht doppelt vorhanden sind, sondern nur einmal. Natürlich ist der Stromverbrbaucht deutlich höher, aber ich schätze diese höchstens bei 120W.

Vielleicht weiss Demirug das besser, aber imo auch aus der Sicht von Nvidia macht das doch vorerst keinen Sinn da mehr als einen Port einzubauen, denn mehr ist mit zwei grossen PCIe-Slots aufm SLI-Mainboard und Singlechipkarten gar nicht nötig.
Aus der heutigen Sicht sicherlich nicht.
Aber du darfst nicht vergessen, dass Nvidia sicherlich schon an morgen denkt. So denkt sich NV vielleuicht auch wie AMD, dass bald schluss sein wird mit immer höher getakteten GPUs, mit immer mehr Pixel Shader/ALUs Einheiten pro Pipelines und mit immer mehr Quads, und, und, und.
Somit hat man vielleicht einfach mehr SLI Ports eingebaut um jetzt bereits zu testen, ob es in der Zukunft(mit NV50, 60) möglich ist, mehr als zwei GPUs miteinander zu verbinden.
 
NAJA ... NVIDIA wirds gefallen !


WIESO ???? Überrall hört man fast nur noch GEFROCE 6600 GT oder Dual 6600 GT oder 6600 GT AGP bzw. Nvidia TURBO CACHE usw. ... :D :D


Zwar ist es für einen Chiphersteller immer blöd, wenn andere Hersteller bessere Karten produzieren als man selber "will". Aber das ist ja das coole daran:D

Da hat ATI eindeutig ein Problem: weil nur der NAME "DUAL" bzw. "SLI" verkauft sich gut ...

Ist es schon jemanden Aufgefallen ? 6x News Beiträge über Nvidia auf Computerbase (28.12.)
 
Zuletzt bearbeitet:
nachtrag:

wie wäre es mit DUAL GEFORCE 6800 ULTRA im SLI Betrieb ??? :eek:
 
primicx schrieb:
NAJA ... NVIDIA wirds gefallen !


WIESO ???? Überrall hört man fast nur noch GEFROCE 6600 GT oder Dual 6600 GT oder 6600 GT AGP bzw. Nvidia TURBO CACHE usw. ... :D :D


Zwar ist es für einen Chiphersteller immer blöd, wenn andere Hersteller bessere Karten produzieren als man selber "will". Aber das ist ja das coole daran:D

Da hat ATI eindeutig ein Problem: weil nur der NAME "DUAL" bzw. "SLI" verkauft sich gut ...

Ist es schon jemanden Aufgefallen ? 6x News Beiträge über Nvidia auf Computerbase (28.12.)

Sorry, aber was soll das für ein Post sein?
Nutze besser die Edit Funktion, um deinen Beiträgen etwas hinzuzufügen.

Und ich denke nicht, dass sich diese Namen in diesem Maße besser verkaufen wie du es vermuten lässt, denn offengesagt ich glaube kaum, dass dem Otto-Normal-Verbraucher "SLI" etwas sagt. Zudem, warum verkaufen sich dann die DUAL Core Karten von XGI nicht so gut? Ich denke, es wird sich nichts wesentliches dadurch ändern.
Zudem glaube ich kaum, dass nVidia Probleme damit hätte diese Karte zu bauen! ;D Denn sie wissen sicherlich besser, wie das geht. Vielleicht sind sie nur ein wenig Perplex, weil die diesen Zug vorhatten, aber Gigabyte schneller war! ;D

MfG GuaRdiaN
 
XGI Dual Karten sind nun mal nicht so gut .... und wenn viele IT Magazine das Schreiben hat der Hersteller Pech gehabt.

Im Gegensatz zu 6600 GT etc.
 
MechWOLLIer schrieb:
Den Wert halte ich für zu hoch. Du darfst nicht vergessen, dass viele Sachen wie RAM etc. nicht doppelt vorhanden sind, sondern nur einmal.

ach nicht? 2 gpu`s, 2x 128bit 128mb gddr3 ram, doppelte so große energieversorgung.
bis auf die moni-ausgänge und dem vivo, alles doppelt.


MechWOLLIer schrieb:
Aus der heutigen Sicht sicherlich nicht.
Aber du darfst nicht vergessen, dass Nvidia sicherlich schon an morgen denkt. So denkt sich NV vielleuicht auch wie AMD, dass bald schluss sein wird mit immer höher getakteten GPUs, mit immer mehr Pixel Shader/ALUs Einheiten pro Pipelines und mit immer mehr Quads, und, und, und.
Somit hat man vielleicht einfach mehr SLI Ports eingebaut um jetzt bereits zu testen, ob es in der Zukunft(mit NV50, 60) möglich ist, mehr als zwei GPUs miteinander zu verbinden.

die gpu`s haben devinitiv nur einen mio sli port!
sli-komunikation ist derzeit nur zwischen 2 gpu`s möglich
und wird über den treiber gesteuert.
der legt schliesslich fest ob im Alternate-Frame-Rendering-Mode (AFR)
oder im Split-Frame-Rendering-Mode (SFR) gearbeitet wird.
das prinzip funzt nur mit 2 gpu`s.
bei 4 gpu`s müsste er theoretisch beide mode nutzen.
oder es muss ein neuer mode her wo das bild in 4 teile gesplitet wird
oder gpu1 bild1, gpu2 bild2, gpu3 bild3, gpu4 bild4, gpu1 bild5 usw. berechnet.
wäre alles viel zu aufwendig.

was bringt es nvidia immer mehr gpu`s auf einem pcb zusammen zu klatschen?!
bei 2 gpu`s:
nahezu doppelter energieverbrauch bei theoretisch maximal 70%Leistungszuwachs.
die derzeitigen cpu`s sind alle zu langsam,
um überhaupt die daten(maps) für diese multi-gpu`s liefern zu können.
daher ist der leistungszuwach derzeit im durchschnitt deutlich unter 50%.
bei mehr als 2 gpu`s mach es also derzeit überhaupt keinen sinn. :rolleyes:
was will man mit einer multi gpu karte die ne gigantische rechenleistung hat
und dank dem rest wie cpu, ram, schnittstellen die leistung nie zeigen kann?!
ich denke nvidia wird sich eher drauf konzentrieren gpu`s zu entwickeln,
die bei mehr rechenleistung, weniger energie verbrauchen.
quallität + effektivität + verfügbarkeit.
siehe intel vs. amd.
 
Zuletzt bearbeitet:
weitere 18 Seiten (guten und durchaus neutralen) Tests mit sehr aussagekräftigen Benches gibt es seit 5 Tagen hier

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=120&seite=1

Hoffen wir auch weiterhin, das die anderen Hersteller vor allem nachziehen, Gigabyte nicht der einzige Anbieter bleibt.


Außerdem gibt es in dem Zusammenhang den Bleistifttrick jetzt in einer ganz neuen, nämlich der Nforce4-Mobo-Variante. Zitat aus dem Fazit, letzte Seite:

"Dass SLI aufgrund des Treibers nur auf einem nForce 4 SLI-Board funktioniert, war schon bekannt. Hierzu haben sich die Kollegen von Anandtech ein paar Gedanken gemacht und einen Weg gefunden, ein nForce4 Ultra-Mainboard zu einem nForce4 SLI-Mainboard zu modifizieren. Nur drei Brücken rund um den Chipsatz sind dabei bei der SLI-Variante mehr geschlossen als beim nForce4 Ultra. Mit dem bekannten Bleistifttrick war es nun möglich, diese Brücken zu schließen. Nachdem auch die Jumper auf den SLI-Mode gesetzt wurden, war ein problemloser SLI-Betrieb möglich.(!) (Dabei wurden aber nicht wie bei SLI üblich die PCI-Express-Lanes in x8/x8 aufgeteilt, sondern es war nur ein Betrieb mit x16/x2 möglich.)"


Man sollte hierzu ggfls. demnächst noch direkt einen eigenen Thread eröffnen: NForce4-Ultra-Mobos zu NForce4-SLI modden. :) ("Wer hats schon geschafft?")
.
 
Zurück
Oben