News GeForce GTX 285 und GTX 295 ohne Hybrid-SLI

Denke mal das Hybrid-SLI zwar ein gute Idee ist aber in Zeiten wo High End Grafikarten es schaffen beim Nixtun um die 25 Watt zu Verbrauchen ist es nicht mehr notwendig.
Das war zu Zeiten von G80 GPUs die über 50 % des Max Stromes beim nixtun verbrauchten ganz anders. In der Zeit ist der Gedanke von Hybrid-SLI wohl auch entstanden.
 
Meines erachtens nach reicht auch das undervolten was manche Karten machen, gepaart mit niedrigeren Taktraten reicht es eigentlich schon.
 
Wie wärs denn mal mit 2 Grafikchips auf einer Karte:
Ein "Performance-Chip" (Bsp. G200b) und ein "Office-Chip" (Bsp. untervolteter+untertakteter G92b):freaky: Es wird ja nach Leistungsbedarf einer der Beiden aktiviert, wobei der Performance-Chip auf den kompletten VRAM zugreifen kann, der Office-Chip nur auf ein oder zwei VRAM Bausteine. Im Office-Betrieb wird also der große Chip und der meiste VRAM abgeschaltet. Ist doch ne tolle Idee:D

Klar die Karte wird etwas teurer, aber man spart ja auch übers Jahr gerechnet einige Euro. Noch dazu kann man ja für den Office-Chip, abgespeckte Versionen der Vorgänger-Generation nutzen...

Keine Ahung ob das möglich ist, aber ich fänds witzig:lol:
 
Berserkervmax
Welche High-End Karte im Auslieferungszustand braucht bitte 25W?
Erst mal, zählt MGPU als High-End? Wenn ja: Eine GTX 295 zieht 76W im Idle.
Eine 8800 GTX zieht 70W im Idle.
Die Werte kannst du bei xbitlabs nachschlagen.

So rosig sieht der heutige Idle Verbrauch nicht aus.

klicker5 schrieb:
Klar die Karte wird etwas teurer
Da hast du den Grund, warum soetwas keine Marktchancen hat.
Achja, 754 Millionen Transistoren für Office?
 
Auch ich fände es sehr schade, wenn das Projekt eingestellt wird. Mit meinem Netbook verbrauche ich beim surfen ca 10Watt das Selbe gilt fürs Office. Mein Desktop-System verbraucht beim nichtstun schon 80Watt

Ich denke nicht, dass sich die Grafikkarten Hersteller einen Stillstand in der Verbrauchspolitik leisten können, also ich zumindest werde meine nächste Desktopgrafikkarte zu einem sehr großen Prozentsatz wegen des Idleverbrauchs kaufen. (Leistung ist gut, mehr Leistung auch, aber halt nicht zu jedem Preis -> wobei Preis als zu hoher Verbrauch zu verstehen ist)

Meine Kühlschrankgefrierkombi braucht 120Watt eine Grafikkarte fürs "nichts" tun 70Watt, na Danke :-(
 
Zuletzt bearbeitet:
Meiner Meinung nach ist Hybrid-SLI etc. hauptsächlich bei Notebooks interessant. Ich bin ja grundsätzlich auch der Ansicht, dass ein Desktop-PC nicht mehrere hunderte Watt verbraten muss, aber richtig interessant an Hybrid-SLI ist nicht der Umweltschutz sondern die verlängerte Laufzeit von Notebooks.
 
Die ganze Sache war einfach ein wenig unausgereift, die Idee an sich ist prima, wenn man anguckt, wie viel die High-end-Karten verbrauchen

Ich hoffe ATI holt jetzt was ähnliches zu sich ins Haus, eine Platine mit einem Chip für das Energiesparen auch anderer Komponenten wäre perfekt

Edit: da hier so viele das Verharmlosen: Ihr meint wohl mit eurer ultra Gamingmaschine tragt ihr nicht zur Umweltverschmutzung bei

ein PC verbraucht ohne Hybrid-SLi vllt. 25W mehr

1.000.000 PC´s ohne brauchen 25.000.000 Watt mehr (bitte nicht so ernst nehmen) --> ganz nett, wenn man bedenkt, dass die meisten ihren Gamer-PC die meiste Zeit fürs Surven verwenden
 
Zuletzt bearbeitet:
Ich benutze HybridPower jeden Tag, möchte es nicht mehr missen (8300+260).

War für mich damals auch ein Kaufgrund.
 
Kasmopaya schrieb:
Ihr könnt euch alle bei der Wirtschaftskrise und dem Preiskampf von ATI bedanken.

Es soll wohl heißen: [...] dem Preiskampf mit ATI.


Kasmopaya schrieb:
Im Laptopbereich wird die Technik natürlich weiterhin eingesetzt hier kommt auf jedes Watt an.

Für uns Endkunden kostet das ganze pro Komponente vielleicht nicht mehr als 50Cent, aber in der Herstellung kostet Hybrid Power bestimmt mehr.

Hier wiedersprichst du dir. Was hindert einen Grafikkartenhersteller wie nvidia daran Notebooktechnologie in Desktoptechnologie zu implementieren? Folgekosten? Wohl eher kaum.

Diese Technologie kann aus Kostengründen der allgemeinen Implementierung in den Chip verworfen worden sein. Muss aber nicht.
Ich halte die mangelnde Dynamik von Hybrid SLI und den mangelnden Absatz an NV S-775 und S-AM2 Boards für den Hauptgrund. "-> H-SLI wird von den Verbrauchern ´nicht akzeptiert`" ...

Kasmopaya schrieb:
ATI hat sich auch nicht drum bemüht und seine Karte so billig wie möglich verkauft(sogar ohne funktionierendes Power Play) und jetzt bleibt NV gar nix anderes übrig als mitzuziehen.

Hybrid-SLI ist eine Antwort auf das höchst effektive ATI PowerPlay 1.0 der HD 3000. In der reinen Masse gesehen ist eben das konkurenzlos. (Von der vom Stromverbauch enttäuschenden HD 4000 rede ich i.d.F. nicht.)

Kasmopaya schrieb:
Aber so schlimm ist das ganze dann auch wieder nicht, wenn man den immer weiter fallenden Idle Verbrauch der GTX Serie betrachtet kann man auch ohne Hybrid Power genug Strom sparen. Finds nur schade um die Lautlosigkeit, denn die Lüfter währen auch komplett aus gewesen...(GTX 280 @ passive Grafikkarte)

Ganz genau. Schlimm ist das zum jetztigen Zeitpunkt bestimmt nicht. Eine GTX285 macht in der Idle-Leistungsaufnahme eine verdammt gute Figur.
Ich für meinen Teil kann mich in dieser Beziehung nicht auf nVidias zukünftige Grafikchips verlassen, bis sie mir ihre Konsequenz bewiesen haben. Und auch deswegen halte ich diesen Schritt von nVidia für unüberlegt, kurzgeschlossen und nichtsdestoweniger für ein wenig überheblich und selbstsicher.
 
Zuletzt bearbeitet:
Na super! Extra ein Board gekauft was das kann und jetzt sowas.

Scheiss Entscheidung Nvidia!
 
AMD zeigt ja mit den HD3000 und 4000er (zumindest bis 46xx), dass es auch ohne geht.
Ich frage mich aber schon seit Jahren warum die nicht auf die älteste und naheliegendste Lösung kommen, ein 2D-Chip bzw. ein Minimal 3D-Chip der gerade so für Aero reicht und ein bei Bedarf zuschaltbarer richtiger 3D-Chip. Das hat schon vor 10 Jahren mit der Voodoo1 funktioniert.
Das ganze dürfte kaum mehr als ein paar Euro kosten und ist auf keine Kompatibilität zwischen Mainboard und Karte angewiesen, funktioniert also auch bei fremden Chipsätzen (ich möchte halt nen Intel-Chip zur Intel-CPU).
 
mr.coffee schrieb:
Wie spart ihr Strom (wenn ihr nur im I-Net surft oder Office etc benutzt) oder ist es euch egal.

Also mir ist das völlig egal. Wenn ich mir einen PC für 4000€ leisten, dann interessieren mich die Stromkosten am allerwenigsten.
 
mr.coffee schrieb:
Jetzt mal eine Frage die halb zum Thema passt. Gerichtet an alle die nicht mehr zu Hause wohnen, ihren Strom selber zahlen müssen und einen "dicken" High End Rechner besitzen der 200-400 Watt (unter Last) zieht. Im Windows Betrieb ziehen diese Systeme immer noch 150-250 Watt. Ein Office PC dagegen 50-70.

Wie spart ihr Strom (wenn ihr nur im I-Net surft oder Office etc benutzt) oder ist es euch egal.

ganz einfach: man schaltet die spiele-kiste ausschliesslich zum spielen an und erledigt den rest mit dem notebook :-)
 
Unyu schrieb:
Achja, 754 Millionen Transistoren für Office?

Es war nur ein Beispiel. Wie ich schon sagte, reicht ja auch ne abgespeckte Version...

PS. Ich schrieb ja auch dass man übers Jahr Geld spart und sich so ein kleiner Aufpreis relativieren kann. Noch dazu kann man mit sie als besonders energiesparend verkaufen. Also schön die Werbetrommel rühren...
 
@klicker5

gute idee, aber anstatt 2 chips auf einer grafikkarte zu verbauen, wie wäre es einfach nur 90% der shader abschalten. gleichzeitig den speicher+speicherinterface um faktor 8 abschalten. frame buffer muss dann natürlich reorganisiert werden. klar hat man dann nur 128 statt 1024MB RAM und 64bit Speicherinterface Statt 512Bit. Dann wird aber eine solche Karte im idle sogar weniger als office chip verbrauchen. Hypbir-Power wird dann garnicht gebraucht. Und es kostet 0€ mehr in der produktion, die 5.000 extra transistoren für ein solches mechanismus kann man gratis auf den wafer belichten. Es gibt nur die Entwicklungskosten.

Die gesammte Leistung wird bei einer Grafikkarte zu ca. 95% in GPU und im Speicher umgesetzt. Rest sind Taktgeber, Lüfter, Kapazitäten, Stromversorung etc. Abschaltung der 7 von 8 Speicherbausteine + 90% der Shadereinheiten müsste nach Elektrotechnik gesetzen die Leistungsaufnahme um den Faktor 8 nach unten drücken. Weitere Reduzierung von VCore und Clock gibt noch mal eine Reduzierung um ca. Faktor 2. Was verbraucht so eine High-End Karte? Sagen wir 150Watt. In einem Solchen Sparmodus würde sie dann ca NUR 10 Watt verbrauchen ;) Und das beste: Bei 10Watt Leistung, kann der Lüfter ebenfalls komplett Abschalten! --> noch Weniger Leistungsaufnahme --> Also ca. 8-9 Watt im Idle. Man hat dann im Idle ein komplett lautloses System.

Weiss nicht inwiefern sowas überhaupt möglich ist - den Speicherinterface im lauffenden Betrieb zu teilen, aber wie heißt es so schön... Wo ein Wille ist, ist auch ein Weg ;)
 
Zuletzt bearbeitet:
das kommt natürlich etwas mehr als 1 Woche nachdem ich ein Hybrid SLI Board gekauft habe ...

nun ja ich liebäugle sowieso mit einer 260 GTX ;)
 
Das gelbe vom Ei scheint es nicht zu sein, aber obwohl man von Problemen hört, bei manchen funktioniert HybridPower. Die Posts von den Nutzern werden hier allerdings konsequent ignoriert. Nvidia liefert die Vorlage und die Boardhersteller setzen das um und teilweise auch in den Sand. Weiterhin funktioniert HybridPower sehr wohl mit einer Intel-CPU auf einem 9400er Chipsatz. Allerdings nur bei Apple. Kauft man sich so ein Board, fehlt die Funktion - reine Schikane. Ich empfinde es als Frechheit, die mangelnde Kundenakzeptanz vorzuschieben.

Richtigstellungen:

Nvidia-Boards teuer: meins hat 65 EUR gekostet
Nvidia-Chips stromhungrig: mein ganzer Tower braucht 55 W (ohne GK)
kein Multimonitor: alleine an der Onboardgrafik hatte ich 2 Monitore, bis zu 4 mit Grafikkarte sollen gehen
Onboardgrafik im Idle über 90 °C: laut Everest bei mir Idle 56 °C beim Spielen mit Onboardgrafik 86 °C
 
Mein Geforce 8200 Board ist auch sehr sparsam (momentan wohl mit das sparsamste). Leider sucht man sowas beim S775 vergebens und ist meiner Meinung nach derzeit nur beim AM2+ zu finden.
Mein gesamter Server zieht im normalen Betrieb durchschnittlich nur 37W.
 
Zuletzt bearbeitet:
Also einfach RAM Bausteine deaktivieren wird wohl nicht gehen. Bei der heutigen Architektur des Speichers ist es doch so, dass z.B. bei 512 MB jeder Speicherbaustein 512 Bit hat. Dann schaltet man 8 Bausteine parallel und hat dann ein Byte und in Summe halt 512 MB. Dies kann man dann auf 2, 4 oder 8 Bytes im Transfer erweitern.

In den heutigen GDDR Speicher sind bereits einige Techniken integriert, welche die Leistungsaufnahme reduzieren. Gerade der GDDR5 sollte da recht weit gehen. Leider hat wohl ATI die entsprechenden Signalleitungen nicht angeschlossen. Oder doch? Die BIOS-Modder haben da mit manuellen Mitteln doch erstaunliche Resultate erreicht. Wenn beim GDDR5 die Stromspartechniken mal laufen sollten, dürfte das Problem Speicher und Wärme bei Grafikkarten im Idle gelöst sein.

Wo es noch Verbesserungen geben muss ist bei den GPUs. Aber da denke ich, dass beide Hersteller in der nächsten Generation nachlegen werden. Man hat damit angefangen die Technik zu integrieren und wird sicherlich jetzt nicht auf halbem Weg stehen bleiben. Auch unter dem "Zauberwort" 'Green IT'. Daher nehme ich auch an, dass die nächsten Top GPUs auch Einheiten abschalten werden können, um sich dann wie eine Einsteigerkarte zu verhalten.
 
Wilhelm14 schrieb:
Richtigstellungen:

Nvidia-Boards teuer: meins hat 65 EUR gekostet
Nvidia-Chips stromhungrig: mein ganzer Tower braucht 55 W (ohne GK)
kein Multimonitor: alleine an der Onboardgrafik hatte ich 2 Monitore, bis zu 4 mit Grafikkarte sollen gehen
Onboardgrafik im Idle über 90 °C: laut Everest bei mir Idle 56 °C beim Spielen mit Onboardgrafik 86 °C

NV boars sind insofern teuer, dass ein konkurrenzprodukt im schnitt 35% günstiger ist. nimm zum beispiel das ASUS M3N78 (NV 720a) und das ASUS M3A (AMD 770). Dazwischen liegen nunmal 10 Euro differenz die geneigte Kunden lieber in ein zusätzliches Gigabyte Arbeitsspeicher investieren.
Nvidias chipsets sind insofoern stromhungrig, dass sie ggü der konkurrenz doch einen ticken mehr verbauchen. Bester Vergleich ist wohl NV 780 und AMD 790FX und Intel X48.
Auf den Kritikpunkt Temperatur kann man nicht ohne weiteres eingehen. Das hängt zu sehr von der beschaffenheit des Case´ ab. Bei schlechter Belüftung kann auch ein X48 kochen.
 
Zurück
Oben