News Neue Nvidia-Chipsätze nur noch mit Grafikeinheit

Also ein Mainboard mit Grafik auf dem Board kommt mir nicht ins Gehäuse... Vielleicht kommt nVidia ja doch noch zur Vernunft...

Onboard Grafik verbraucht auch dann noch Strom, wenn man sie nicht braucht...
 
@ 41:

Nur das die onBoard Grafik dann vllt 5 Watt zusätzlich kostet, im non-Gameing-Modus aber wohl 100 Watt spart...
Aber gut, ist deine Entscheidung.

Dazu fällt mir nur ein Satz ein:
Es wird gespart, koste es, was es wolle...
 
Was mich dabei ein wenig juckt, ist die Frage, an welchen Port ich dann das Kabel für den Monitor klemmen soll?
Wenn ich das Teil an die Grafikkarte klemm, und die sich im 2D
vollkommen abzuschalten, sodass der 3D-Beschleuniger keinen Strom mehr verbraucht.
dann hab ich ja kein Bild mehr.

Wenn ich das Kabel an den Onboardausgang klemm, wie soll ich dann im 3D Betrieb ein Bild bekommen?

Also muss es an die Karte und die wird sich dann nicht "vollkommen abschalten" können.
Ergo: Purer Marketing-Bauernfang.

Oder habe ich ein essentielles Detail vergessen?
 
Und wo schließe ich dann meinen Monitor an, wenn die Haupt-Grafikkarte abgeschaltet wird? Ich schätze mal es wird nur einen Anschluss geben. Wird dann ein Signal durchschleust? Und wie sieht's mit einem zweiten Monitor aus?
 
Gute Entwicklung! Sowas gibt es ja auch schon bei einigen Notebooks.
Wahrscheinlich werden die anderen Hersteller über kurz oder lange sowas ebenfalls anbieten.
 
Hoffentlich werden die integrierten Grafikeinheiten im Zuge der höheren Verwendung noch einmal leistungsstärker.
 
Pegatron schrieb:
44 u 45
Der Monitor wird an die Onboard Graka angeschlossen, die Daten werden über den PCIe Bus übertragen.

Und bei einem zweiten Monitor? Oder hat das Mainboard dann zwei Anschlüsse und es werden bei durchgeschleust?
 
@ hiqu:

Warum sollen die Leistungsstärker werden? Ich hoffe sie werden das nicht und werden um Sinne von Hybrid SLI nur für die 2D Darstellung aktiviert und somit in absolutes minimum an Energie verbraucht. Die meisten Rechner befinden sich sowieso zum weit größten Teil im Idle zumindest was die Graka angeht
 
Hybrid Power gefällt mir so schon sehr....
Wenn jedoch der Onboard-Graka-Chip im "Power-Modus" dann noch die Physix-Effekte berechnen würde, wäre das der Oberhammer!

Hybrid Boost hört sich weniger interessant an.
 
Also was mich bis jetzt von der allgemeinen HybridPower Freude abhält ist u.a. folgendes: http://www.fudzilla.com/index.php?option=com_content&task=view&id=6433&Itemid=1
Das muss ja noch ein sehr früher Treiber sein, wenn man manuell zwischen Grafikkarte und -chip umschalten muss...
Desweiteren muss man erstmal sehen wir verschwenderisch die neuen Mainboards von nV überhaupt sind. in Vergangenheit, hat sich da nV nicht unbedingt mit Ruhm bekleckert. Was nutzt es also wenn man 15W durch das Abschalten der Grafikkarte spart im gleichen Atemzug aber wieder 20W mehr durch einen verschwenderischen Chipsatz rauswirft...?
btw: http://www.fudzilla.com/index.php?option=com_content&task=view&id=6497&Itemid=65
 
blackiwid schrieb:
Außerdem sollten sie diese features generell in hardware lösen, seh es bei powerplay, meine tolle sparsame hd 3870 schluckt unter linux wegen fehlenden treibern 50-60W alleine idle.
Man kann es aber auch anders sehen. Ich war auch immer dafür, dass bei der CPU die Stromsparfunktionen in Hardware gelöst werden (so wie bei Intels EIST und C1E). Allerdings wenn man dann sieht, dass da AMDs Cool And Quiet doch besser und effizienter funktioniert (mehr Power-States, besser vom Betriebssystem steuerbar) dann überlegt man sich das Ganze vielleicht doch anders.
 
@simpson, das hat glaub nicht an der art der implementation zu tun sondern daran das intel das generell nicht so gut im griff hat. Denke auch das das eher an der hardware liegt.
Ein mittelweg wäre das es standardmäsig in irgend einem profil an ist per hardware man dies aber über software noch manipulieren könnte.

Apropo die phenoms sucken idle ziemlich von daher könnte man das auch umgekehrt sehen. Die haben ja angeblich noch besseres c&q.

stört mich ja nicht so arg wenn das per software läuft aber dann bitte auch direkt von anfang an und nicht nur für ein betriebssystem und dann 1 jahr später für den rest der welt. (oder zumindest einige monate)
 
ALso ich werde mir wohl dann kein NVidia Board kaufen, denn ich mag Onboard gar nicht. Bin da noch von meinem HP Pentium 60 mit 1MB Onboard Grafik gebranntmarkt

Wieso macht da eigentlich NVidia den CPU Herstellern einen Strich durch die Rechnung, wo doch die GPU mit der CPU vereint werden soll?
https://pics.computerbase.de/1/9/3/5/1/1-1080.1359614355.png
Hier 3 Reihe von oben in der 2ten Spalte.

GPU+CPU wie sie da zu sehen ist wird doch wohl die Zukunft sein oder? Daher kauft ja Intel auch GPU Spezialisten ein und AMD kaufte sich dafür ATI :D
 
Ich warte schon sehnlichst auf das MSI K9N2 SLI Platinum Board mit nForce 750a SLI Chipsatz, man gebt Gas :king:.
 
@Brabe,

das gibts / gabs bei AMD schon unter dem Namen "Fusion". Es war angedacht, dass der Prozessor einen zusätzlichen Grafikkern bekommt damit die Grafikkarte im 2D Betrieb abschalten kann. Aber um das Projekt ist es in letzter Zeit sehr still geworden, wahrscheinlich wurde es auf Eis gelegt. Wahrscheinlich treibertechnische Bedenken, ein ATI Grafikkern soll mit einer Nvidia Grafikkarte zusammenarbeiten?

Das würde zwei Grafikkartentreiber bedeuten und Probleme beim Umschalten...

@Extra Speicher für den onboard Chip. Der Chip braucht keinen Speicher der verbaute Ram reicht doch völlig aus.
Ram kostet doch nichts mehr und auch vom Stromspargedanken her ist es besser den sowieso benutzten Ram Speicher mitzunutzen als einen seperaten Grafikspeicher auch noch mit Spannung zu versorgen. Und die großen Daten im 2D Betrieb halten sich wohl in Grenzen. Desweiteren ist der Onboardchip ja fest verlötet, Bandbreitenprobleme zum Ram Speicher sollten da auch keine vorkommen.

Wo man den Onboardchip aber noch verbessern kann ist bei der Videografikbeschleunigung. Onboardgrafikkarten mit einer Videobeschleunigerfunktion verbrauchen leider mehr Strom als Onboardchips ohne diese Funktion. Wenn man diese Funktion wie bei Powerplay bei Nichtnutzung abschalten könnte.

Und das 3D Signal muss man ja nicht Zwangsweise durch den PCI Expressbus durchschleifen, ein externes 2x VGA Kabel mit einem Ausgang zum Monitor wie damals mit SLI, wäre doch auch was.
 
Ich persönlich würde heruntertakten, Spannng senken und Cluster abschalten als weitaus tauglichere Methode beurteilen. Schliesslich funktioniert das unabhängig vom Mainboard und Chipsatz. So muss man MB und GraKa praktisch aus einer Hand kaufen - mir als vergleichendem Kunden ist das mehr als unsympathisch.
 
Da es im moment mode ist 2 GPUs auf eine Graka zu glatchen sollten sie doch lieber dann bei der Graka einen Highend und einen für den Desktopbetrieb drauf machen
 
Alpha666 schrieb:
...und in Zukunft kommt auch noch Intel mit eigenen Grafikkarten und entsprechenden Onbord-IGP-Lösungen und ATI und nVidia können einpacken. Soweit zumindest die Theorie.

... wie du schon sagst - Theorie - denn es wird Jahre dauern, bis Intel es schafft, dafür vernünftige Treiber zu entwickeln ...
 
Zurück
Oben