Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNeue Nvidia-Chipsätze nur noch mit Grafikeinheit
Was mich dabei ein wenig juckt, ist die Frage, an welchen Port ich dann das Kabel für den Monitor klemmen soll?
Wenn ich das Teil an die Grafikkarte klemm, und die sich im 2D
vollkommen abzuschalten, sodass der 3D-Beschleuniger keinen Strom mehr verbraucht.
Und wo schließe ich dann meinen Monitor an, wenn die Haupt-Grafikkarte abgeschaltet wird? Ich schätze mal es wird nur einen Anschluss geben. Wird dann ein Signal durchschleust? Und wie sieht's mit einem zweiten Monitor aus?
Gute Entwicklung! Sowas gibt es ja auch schon bei einigen Notebooks.
Wahrscheinlich werden die anderen Hersteller über kurz oder lange sowas ebenfalls anbieten.
Warum sollen die Leistungsstärker werden? Ich hoffe sie werden das nicht und werden um Sinne von Hybrid SLI nur für die 2D Darstellung aktiviert und somit in absolutes minimum an Energie verbraucht. Die meisten Rechner befinden sich sowieso zum weit größten Teil im Idle zumindest was die Graka angeht
Hybrid Power gefällt mir so schon sehr....
Wenn jedoch der Onboard-Graka-Chip im "Power-Modus" dann noch die Physix-Effekte berechnen würde, wäre das der Oberhammer!
Also was mich bis jetzt von der allgemeinen HybridPower Freude abhält ist u.a. folgendes: http://www.fudzilla.com/index.php?option=com_content&task=view&id=6433&Itemid=1
Das muss ja noch ein sehr früher Treiber sein, wenn man manuell zwischen Grafikkarte und -chip umschalten muss...
Desweiteren muss man erstmal sehen wir verschwenderisch die neuen Mainboards von nV überhaupt sind. in Vergangenheit, hat sich da nV nicht unbedingt mit Ruhm bekleckert. Was nutzt es also wenn man 15W durch das Abschalten der Grafikkarte spart im gleichen Atemzug aber wieder 20W mehr durch einen verschwenderischen Chipsatz rauswirft...?
btw: http://www.fudzilla.com/index.php?option=com_content&task=view&id=6497&Itemid=65
Außerdem sollten sie diese features generell in hardware lösen, seh es bei powerplay, meine tolle sparsame hd 3870 schluckt unter linux wegen fehlenden treibern 50-60W alleine idle.
Man kann es aber auch anders sehen. Ich war auch immer dafür, dass bei der CPU die Stromsparfunktionen in Hardware gelöst werden (so wie bei Intels EIST und C1E). Allerdings wenn man dann sieht, dass da AMDs Cool And Quiet doch besser und effizienter funktioniert (mehr Power-States, besser vom Betriebssystem steuerbar) dann überlegt man sich das Ganze vielleicht doch anders.
@simpson, das hat glaub nicht an der art der implementation zu tun sondern daran das intel das generell nicht so gut im griff hat. Denke auch das das eher an der hardware liegt.
Ein mittelweg wäre das es standardmäsig in irgend einem profil an ist per hardware man dies aber über software noch manipulieren könnte.
Apropo die phenoms sucken idle ziemlich von daher könnte man das auch umgekehrt sehen. Die haben ja angeblich noch besseres c&q.
stört mich ja nicht so arg wenn das per software läuft aber dann bitte auch direkt von anfang an und nicht nur für ein betriebssystem und dann 1 jahr später für den rest der welt. (oder zumindest einige monate)
ALso ich werde mir wohl dann kein NVidia Board kaufen, denn ich mag Onboard gar nicht. Bin da noch von meinem HP Pentium 60 mit 1MB Onboard Grafik gebranntmarkt
das gibts / gabs bei AMD schon unter dem Namen "Fusion". Es war angedacht, dass der Prozessor einen zusätzlichen Grafikkern bekommt damit die Grafikkarte im 2D Betrieb abschalten kann. Aber um das Projekt ist es in letzter Zeit sehr still geworden, wahrscheinlich wurde es auf Eis gelegt. Wahrscheinlich treibertechnische Bedenken, ein ATI Grafikkern soll mit einer Nvidia Grafikkarte zusammenarbeiten?
Das würde zwei Grafikkartentreiber bedeuten und Probleme beim Umschalten...
@Extra Speicher für den onboard Chip. Der Chip braucht keinen Speicher der verbaute Ram reicht doch völlig aus.
Ram kostet doch nichts mehr und auch vom Stromspargedanken her ist es besser den sowieso benutzten Ram Speicher mitzunutzen als einen seperaten Grafikspeicher auch noch mit Spannung zu versorgen. Und die großen Daten im 2D Betrieb halten sich wohl in Grenzen. Desweiteren ist der Onboardchip ja fest verlötet, Bandbreitenprobleme zum Ram Speicher sollten da auch keine vorkommen.
Wo man den Onboardchip aber noch verbessern kann ist bei der Videografikbeschleunigung. Onboardgrafikkarten mit einer Videobeschleunigerfunktion verbrauchen leider mehr Strom als Onboardchips ohne diese Funktion. Wenn man diese Funktion wie bei Powerplay bei Nichtnutzung abschalten könnte.
Und das 3D Signal muss man ja nicht Zwangsweise durch den PCI Expressbus durchschleifen, ein externes 2x VGA Kabel mit einem Ausgang zum Monitor wie damals mit SLI, wäre doch auch was.
Ich persönlich würde heruntertakten, Spannng senken und Cluster abschalten als weitaus tauglichere Methode beurteilen. Schliesslich funktioniert das unabhängig vom Mainboard und Chipsatz. So muss man MB und GraKa praktisch aus einer Hand kaufen - mir als vergleichendem Kunden ist das mehr als unsympathisch.
Da es im moment mode ist 2 GPUs auf eine Graka zu glatchen sollten sie doch lieber dann bei der Graka einen Highend und einen für den Desktopbetrieb drauf machen
...und in Zukunft kommt auch noch Intel mit eigenen Grafikkarten und entsprechenden Onbord-IGP-Lösungen und ATI und nVidia können einpacken. Soweit zumindest die Theorie.