News Reanimiert Nvidia „Hybrid-SLI“ als „Optimus“?

Krautmaster schrieb:
Klar braucht die GPU sicher auch im abgeschalteten Zustand einige W.
Problem ist, dass das BildSignal ja irgendwie rauskommen muss...

Warum nicht einfach das Bildsignal dann übers Board ausgeben?
 
Kasmopaya
Das halte ich für ein Gerücht, die Throtteln dann einfach. Zeig mal Link wo da was abgeraucht ist.

es gibt genug threads die sich mit der misere befaßt haben und in vielen dieser threads zb. auch bei hw luxx gibt es berichte das die gpu nur den lüfter deaktivierte was aber bei hw freaks meist sofort erkannt wird über ihr seitenfenster bzw. übers wattmeter usw.
die frage ist doch, bei wievielen nicht freaks wurde die karte so deaktiviert und mußte wie du schon sagtest sich selbst bremsen und wie wirkt sich sowas als dauerzustand wohl auf die gpu aus?

nehmen wir mal einen zeitraum von 30 tagen mit 3 ~ 4 stunden am tag, das sollte dann grob 1,5 - 2 monate simulieren können. ich gehe jede wette ein das die karte am ende ist nach der zeit trotz des eigenen not throtteln.

wie hoch die dunkelziffer ist von leuten die ggf 3 ~ 6 monate nach hsli dauerbelastung ihren pc zum kundendienst bringen mußten würde mich mal brennend interessieren. man darf nicht vergessen das wir wirklich nur ein kleiner teil derer menschen sind die dies benutzen und in den foren aktiv sind und eben nicht alles das widerspiegeln was der rest der user so erlebt.

wie gesagt es ist eine vermutung aber es liegt sehr nahe das ein karte mit deaktiviertem lüfter diesen zustand auch mit dem throtteln nicht lange überleben wird da immer wieder hitzespitzen aufkommen und wie die temp bei den spawa und anderen teilen wie dem ram sind die ggf nicht einer messung unterliegen steht noch auf einem ganz anderen blatt.

mal abwarten was nvidia jez wieder zusammenbastelt ;)
 
Finde es gut, dass nVidia diese Technologie anscheinend noch nicht aufgegeben hat. Ich hoffe auch, dass nVidia die verstrichene Zeit genutzt hat um die Technologie weiter zu verbessern. Schlussendlich hat auch nVidia keine Wahl sich diesmal dem Markt mehr zu öffnen. Sprich, auch mit IGPs anderer Hersteller zusammenzuarbeiten.
Hätte insgesamt zudem den positiven Nebeneffekt, dass sich die Hersteller wieder mehr um die Leistung und deren Effizienz kümmern können, als sich Sorgen um einen funktionierenden Stromsparmodus machen zu müssen.
 
Die aktuellen Hybrid-Lösungen haben nichts mit Hybrid-SLI zu tun, sondern werden von den NB-Mainboards realisiert. Siehe hier zB.
 
eigentlich sinnlos, da die neuen grafikkarten sowiso über stromsparmodi verfügen^^
 
BobbyBest schrieb:
Die aktuellen Hybrid-Lösungen haben nichts mit Hybrid-SLI zu tun, sondern werden von den NB-Mainboards realisiert.
dafür funktionieren sie (zumindest auf meinem lenovo funktioniert das ganze recht gut) und sind auch herstellerübergreifend möglich zb. intel onboard kombiniert mit ati/nvidia dediziert. das problem ist halt dass du bei solchen lösungen auf die treiber des notebook herstellers angewiesen bist und nicht den neuesten treiber von ati/nvidia verwenden kannst.
 
Das problem damals war doch nicht dass es nicht von allen Karten unterstützt wurde sondern dass es einfach nicht richtig funktionierte - das hat Nvidia wohl auch schnell eingesehen und deswegen eben nicht weitergeführt.
Ich hoffe mal dass sie den selben Mist nicht nochmal baun und es diesmal auch wirklich funktioniert.

Den wirklichen durchbruch würde eine solche Technik wohl aber erst dann erfahren wenn es allgemeine standards gibt und somit auch herstellerübergreifend funktioniert.
Dem Mainboard müsste es ja eigentlich auch reichlich egal sein welche Graka es da deaktiviert.
Und genauso müssten das dann nicht nur Boards mit IGP können sondern auch alle anderen sobald sie eine CPU mit GPU erkennen.

Aber bis dahin ist es sicher noch ein weiter weg.
 
Also ich bin wie bei allen Nvidia sachen in letzter Zeit erstmal sehr skeptisch, bei einer Firma die übertrieben gesagt so ungefähr kurz vorm abnibbeln ist, kann man das auch sein.
Das ganze kann eigentlich nur dann funktionieren, wenn Nvidia alle IGPs unterstützt, sowie entsprechend viele GPUs..... Dann wäre es aber auch tatsächlich höchst interessant, nichtmal so sehr nur auf neue Karten bezogen, es gibt genug die noch stromfresser verbaut haben und sich über so sowas freuen würden.
Eigentlich hatte ich ja mehr auf ATI in dieser Hinsicht gehofft, aber nachdem die neuen Boards quasi enthüllt wurden und sich gezeigt hat, dass die alten IGPs weiter verbaut werden, stehen die chancen wohl eher schlecht.
Mfg
 
Schaffe89 schrieb:
Alle neuen HD5xxx Karten verbrauchen sehr wenig, sodass ein "Umschalten" nicht lohnt.
Kann mir auch vorstellen, dass es als abolutes Luxus Feature, nur in verbindung mit Nvidia Karten läuft und wenn eine ATI Karte im rechner steckt schon nicht mehr funktioniert.:D

Zwei Dinge fallen mir dazu ein:

1. Die Frage ist eben auch wann eine Grafikkarte in den 3D Modus schaltet? Erst wenn die volle Leistung gebraucht wird oder vielleicht schon wenn ein Film mit Hilfe der Hardware decodiert wird oder ähnliches.
2. Wenn nVidia nicht plötzlich auf Kundenfreundliche Politik wechseln würde, dann nehme ich an, dass die Technik für Karten anderer Hersteller wieder gesperrt wird. Auch wenn die Graffikkarte für diese Feature nicht können müssen würde.
 
NoD.sunrise schrieb:
Das problem damals war doch nicht dass es nicht von allen Karten unterstützt wurde sondern dass es einfach nicht richtig funktionierte - das hat Nvidia wohl auch schnell eingesehen und deswegen eben nicht weitergeführt.

Doch, genau dass war u.a. das Problem. Für das Ein- & Ausschalten der Grafikkarte war der sogenannte PIC-Controller zuständig. Dieser PIC-Controller wurde aber von NVIDIA´s Boardpartnern nicht konsequent auf den entsprechenden Grafikkarten verbaut. Viele Käufer haben sich damals auf die Angaben verlassen, die NVIDIA auf dessen Homepage angegeben hat. Da auch viele Online-Händler bei der entsprechenden kennzeichnung geschlampt haben, war das Chaos perfekt. Ich vermute, dass eine Minderheit der von NVIDIA geplanten Grafikkarten, den PIC-Controller tatsächlich besaßen. Deswegen hat es bei den meisten nicht funktioniert. Von den entsprechenden Treibern mal abesehen.
 
Da hat wohl jemand Angst vor dem idle Verbauch seiner zukünftigen Karten? Also jetzt wo die 5xxx Reihe von ATI so schöne idle Verbauchsergebnisse bekommt finde ich das nicht mehr so wichtig. Wobei es die einzige sinnvolle ausführung von SLI und onboard Karten für Gamer ist. Wenn die Kompabilität trotzdem groß wird ohne Verwirrung zu stiften kann das ein gutes Feature sein, denn auch wenn die 5xxx gut ist, gegen onboard Chips kommt sie nicht an. Wobei ich mir extra dafür kein neues Board holen werde und es für Intels neueste Prozessoren im Highend-Bereich ja leider noch gar keine Grafikkarten onboard gibt. Naja. Mal schaun. :D
 
Also so weit ich das damals mitverfolgt habe hat es auch bei den Karten mit denen es "funktionierte" mehr schlecht als recht funktioniert und abgesehen von anderen Problemchen effektiv quasi keine stromersparnis gebracht.
 
In vino veritas schrieb:
... Da auch viele Online-Händler bei der entsprechenden kennzeichnung geschlampt haben, war das Chaos perfekt...

Sogar die Hersteller selber haben's versaubeutelt. Ich hatte mir damals extra ein Hybrid-SLI-fähiges Board mit nForce 780a gekauft, auf das ich eine GeForce GTX 295 setzen wollte - bis ich feststellte, dass diese Karten das nicht mehr unterstützen.

Trotzdem hat z. B. EVGA eine Zeit lang behauptet, die GTX 295 könnte Hybrid-SLI, ich habe sogar extra beim Support angefragt.


Also habe ich zwei GTX 260² genommen, nur um festzustellen, dass Hybrid-SLI Probleme mit dem Zwei-Monitor-Betrieb macht, das Umschalten zu Problemen führt, dieses ewig dauert, und dann trotz ZWEI Grafikkarten, die abgeschaltet werden sollten, kaum Strom gespart wurde!

Ergo braucht mir nVidia damit jetzt nicht ankommen. Eine High-Performance-Karte, die sich im 2D-Betrieb mit 10 Watt begnügt, ihre SLI-Schwester ganz abschaltet und keine Chipsatzgrafik benötigt, DAS will ich haben, alles andere können sie sich sonstwohin schieben.
 
NoD.sunrise schrieb:
Also so weit ich das damals mitverfolgt habe hat es auch bei den Karten mit denen es "funktionierte" mehr schlecht als recht funktioniert und abgesehen von anderen Problemchen effektiv quasi keine stromersparnis gebracht.
Das stimmt nicht. Mit der richtigen Hardware und dem richtigen Treiber funktioniert es (verifiziert durch Energiekosten-Messgerät):
Mein System
IDLE-WERTE

Idle 1: (Cool´n´Quiet aktiviert / Grafikkarte deaktiviert) 78 Watt
Idle 2: (Cool´n´Quiet aktiviert / Grafikkarte aktiviert) 117 Watt

Differenz ca. 40 Watt.

@ Nevermore4ever

Ein weiterer Leidensgenosse. ;)
 
Kann Erfolg haben und ein sinnvolles Einsatzgebiet im Notebook-Bereich, wenn as Umschalten ohne Benutzerinteraktion und ohne Verzögerung funktioniert.

Wenn in Zukunft weitere Anwendungen mit OpenCL Unterstützung kommen (Firefox 3.7 mit WebGL, Adobe Graphics und Flash, PowerDVD, ...) macht es ja kaum einen Sinn, wenn man als Notebook-Nutzer im Extremfall den Laptop neu starten muss um einen Film bei youtube zu gucken. Oder auch nur manuell den Modus wechseln... Spätestens nach dem dritten Mal ist der User dann zu faul dafür und lässt halt den 3D-Modus an.

Greetz,
GHad
 
Optimus? WOOPS, wenns da mal nicht Ärger mit Art Lebedev gibt!
 
Meine Vermutung wäre hier ehrlich gesagt eher,dass in naher Zukunft auf allen neuen Nvidia Performance-,High End und Dual GPU Grafikkarten einfach ein zusätzlicher Nvidia IGP intern in der Grafikkarte verbaut wird.

Sozusagen das alle neuen Nvidia Grafikkarten,die auf der Fermi Architektur aufbauen, mit internen Hybrid SLI daherkommen werden,wenn sie auf den Markt erscheinen und das diese Technik dann auch dadurch wirklich auf allen Mainboards und Prozessoren,egal welcher Marke einwandfrei laufen wird.

Diese technische Entwicklung würde gerade ich,als bekennender SLI Nutzer sehr zu schätzen wissen:
Endlich nicht mehr dieser unnötig hohe Energiebedarf im Idlebetrieb,wenn der PC fast 8 Stunden täglich nur im Officebetrieb zum arbeiten genutzt wird und damit effiziente Kostensenkung.
Und nebenbei wird der PC im Windows auch noch leiser,da durch den verringerten Energiebedarf auch der Kühlbedarf sinkt und die Lüfter der SLI Grafikkarten abgeschaltet oder zumindest stark gedrosselt werden.

Und das gesparte Geld kann man nach etwa 2 Jahren gleich schon wieder in die nächste Grafikkarte investieren :evillol:

Ich würde das genial finden,falls es wirklich so kommen sollte und so teuer düfte die Umsetzung für Nvidia auch nicht werden,bei den Preisen die Sie für Ihre neuesten Produkte immer verlangen.Da wäre der Aufpreis gegenüber einer ATI Grafikkarte dann wirklich mal richtig gerechtfertigt und würde sich sogar richtig rentieren wirtschaftlich gesehen,anstatt nur von der Mehrleistung der reinen Rechenkraft ...

Wir werden es sehen,wenn es soweit ist,was da wirklich dabei herauskommt.
Spätestens beim Computerbase Fermi Test Reviev sind wir dann alle schlauer :p
 
Zurück
Oben