News nVidia arbeitet an stromsparendem Hybrid-SLI

genau das gibt es für Notebooks schon lange, allerdings nur für AMDs - den 690T!
 
@xp_home

bitte? Dual Monitoring nich so wichtig?
Die meisten Leute die sich bissl um den Stromhunger ihrer Grakas gedanken machen, sind diejenigen die sich etwas mit PCs auskennen und bei denen findeste mehr als oft 2 Monitore...

Der größte Teil der "nur" einen Monitor nutzt, geht eh in Media Blöd und kauft das seine Schrottkiste und denkt netmal ob das Teil vor seinen Augen 100 Watt mehr oder wneiger frisst.


@Topic

Wenn se das mit dem Dual Monitoring hinbekommen find dich die Idee klasse... Dann kann man sich ja endlich ohne schlechtes Gewissen nen XX00 GTX SLI system aufbauen ohne Schweisausbrüche bei dem Gedanken an die Stromrechnung zu bekommen. xD
 
die ganze sache ist natürlich auch für nvidia ganz nett:

um das zu nutzen muss man dann nämlich 2 high end grakas kaufen + eine (high-end) mobo von nvidia.

da wäre es doch netter, wenn für den 2d betrieb z.b. bei einem G80, der ja 8 renderkerne (16 US + 8 TMUs) hat und 6 speicherkanäle (4 ROPs, 64 bit SI, 128 MB speicher) einfach ALLES bis auf EINEN renderkern und EINEN speicherkanal deaktivieren kann. das wäre die leistung einer 8500GT. dann noch die spannung und den takt absenken und der verbrauch sollte sehr gering sein ;)
 
@ 18 xp_home: hast recht. Ändert sich aber ansonsten nix an meiner Aussage.

Sollen einen Dual-Chip bauen, einen für Desktop mit 10W und einen für Leistung, der nach Bedarf zugeschaltet wird.
 
@yeeh@
daran ändert sich nichts
solange du nicht nen nv board & graka nutzt wird das nicht klappen

darfst also wohl auch weiterhin nur einen treiber haben
 
Wie soll denn das mit der integrierten Grafikeinheit des Mainboards funktionieren? Entweder habe ich doch meinen Monitor an der Grafikkarte angeschlossen oder am Mainboard. Muss ich da jedesmal umstecken? Oder wird da das Signal von der integrierten Grafik über die Grafikkarte durchgeschleift?
 
Das ist wohl so ziemlich das gescheiteste, was ich bisher über mehrere Grafikkarten in einem System gehört habe. Onboard für Windows, ne richtige Graka fürs Gamen. Perfekt. Spart Strom, senkt Temperatur, und liefert brachiale Leistung, wenn man es braucht. Und wer nur ne leistungsschwache Graka im System hat, kann Mini-SLI mit der Mainboard-GPU veranstalten. Wenn das so kommt, wie es hier bepriesen wird, ist das eine absolut sinnvolle Neuerung. Wird hoffentlich gleich integraler Bestandteil aller NForce-Chipsätze der nächsten Generation. So ein Feature (gerade das Mini-SLI bzw. Stromsparpotential) nur auf den Highend-Boards zu ermöglichen wäre imho Schwachsinn.

@Straputsky: steht doch im Text - die Grafikkarte schickt ihr Signal zur Onboard-Karte, und diese gibt es dann aus. Nichts mit Umstecken.
 
Nicht neu, aber besser spät als nie.
Wobei es warscheinlich besser wäre, die Grafikkarten mehr an die CPUs anzugleichen, mit ihren Stromsparfunktionen.
 
Nett aber besitmmt weitaus teurer als 2 normale, vergleichbare Grafikkarten im SLI-Verbund denke ich...
 
Sehr interesant, das könnte einiges an Strom sparen.:)
 
Das hört sich sehr interessant an - hoffen wir, dass die Lösung nicht allzuviel kostet.
 
Sehr gute Idee, da könnte SLI sogar für den Massenmarkt interessant werden, wenn Preis/Leistung stimmt. Und das ist für mich bis jetzt immernoch der größte Kritikpunkt.
 
phil78 schrieb:
da kommen mir doch die alten 3D addon karten in den sinn... 3dFX's VOODOO!
An das habe ich auch gerade gedacht.
Komisch, alle paar Jahre wird das Rad neu erfunden und dem Kunden zehn Jahre alte Techniken als die neuesten Innovationen suggeriert.

Mein Rechner verbraucht beim "nichts tun" 182Watt (ohne Monitor), weshalb ich mich unter anderem für ein Notebook als Zweitrechner entschieden habe.
Wann braucht man schon die volle Leistung...
 
AMD entwickelt längst so einer Lösung
http://www.heise.de/newsticker/meldung/81183

Irgendwie habe ich die Meldung auf Computerbase nicht gefunden...

Naja jetzt zieht halt Nvidia hinterher um nicht ins Hintertreffen zu kommen.
Aber die Idee ist schon cool, die Grafikkarte ganz abschalten und nur die 2D Einheit laufen lassen.
Warum ist das eigentlich auf mordernen Grafikkarten nicht möglich unter 2D soviel von den GPU's abzuschalten, dass nur noch ein Bruchteil der Energie benötigt wird?
 
Das wurde auch mal Zeit, dass diese Entwicklung kommt. Ich hoffe doch mal sehr, dass diese Idee denen nicht erst jetzt gekommen ist, denn sonst hätte ich sie vielleicht zum Patent anmelden sollen, als ich sie hatte (wie so oft ;-)).
Aber ich finde das ist wirklich der Schritt in die richtige Richtung und daher eine begrüßenswerte Entwicklung, denn so kann es nicht mehr weiter gehen mit dem Leistungshunger der heutigen Grafikkarten-Flaggschiffe!
Jetzt fehlen nur noch Multi-Core-GPUs in kleinerer Fertigungsweise - dazu kommt ja auch noch die Entwicklung von Intel, die einen kombinierten Multi-Core-CPU/GPU-Chip entwickeln und dann begibt sich die Grafikchip-Entwicklung endlich hinaus aus der derzeitigen Sackgasse und wieder hinein in eine vernünftigere Zukunft. Vor allem auch für Notebooks halte ich die Entwicklung hinsichtlich der Akku-Laufzeiten für durchaus willkommen.

NACHTRAG:
Wenn diese Entwicklung Einzug in den Markt hält (das wird sie ganz sicherlich - die Frage ist nur wann), dann wird das auch schon wieder das Ende von Produkten wie der angekündigten (und auf sich warten lassenden) ASUS XG Station - die ohnehin nur mit einer großen Schwäche aufwarten kann, nämlich der ExpressCard-Anbindung in 1x PCIe-Geschwindigkeit. Es ist zwar schon der Nachfolge-Standard des Bus' mit 16-facher Anbindung in der Entwicklung, aber solange wird sicherlich die XG Station oder ähnliche Produkte ein Nischenprodukt bleiben bzw. nicht über das Prototypen-Stadium hinaus kommen.
 
Zuletzt bearbeitet:
Ein relativ einfaches Cool & Quiet für Grafikkarten wäre für den Anfang auch schon ganz nützlich.

BF
 
Hi Community
mal ne Frage: läuft Vista im 2D Modus ?
Ich vermute dass für den ganzen optischen Müll 3D erforderlich ist, oder?
Dann würde es ja nichts bringen ,wenn die 3D unit abgeschaltet wird. :- (
 
Zurück
Oben