News Neue Nvidia-Chipsätze nur noch mit Grafikeinheit

@dreamy_betty
hast die news wohl nicht verstanden

@all
ich find das es höchste Zeit wird. An soetwas hätte man doch früher schon denken können, wenn du gut umgesetzt wird find ich es echt Klasse.
Zumal der Einsatz im Notebook Bereich ein "Must Have" wäre, da es die Akkuzeit deutliche erhöhen wird, nehme ich mal an.
 
...und in Zukunft kommt auch noch Intel mit eigenen Grafikkarten und entsprechenden Onbord-IGP-Lösungen und ATI und nVidia können einpacken. Soweit zumindest die Theorie.
 
Interessant, aber ich denke auch das da noch einige Zeit vergeht bis es mehr oder weniger Bugfrei laufen wird.
Sogesehen finde ich AMDs Lösung derzeit besser, dank Powerplay wird schon massig Energie gespart und mit Powerplay+ in der HD4000er Serie brauchen die Karten nur noch 5-10W im 2D Modus/HD Modus, also gar nicht soviel mehr als eine IGP. Bei der nächsten Generation ist man dann vielleicht schon auf demselben Niveau wie IGP.
 
Sehr, sehr lobenswert, weiter so!
 
Ich frag mich ob nVidia die Technik auch an andere lizensieren wird?

Die Kehrseite dieser Medaillie könnte nämlich sein das Nvidia sich auf Hybrid-Power konzentriert und Stromsparmaßnahmen in diskreten GPU's aussen vor lässt was zu einem gesteigerten Mehrverbrauch bei Systemen ohne ebensolche Möglichkeiten führen wird.
 
Naja, wie schon paar hier hingewießen haben ist es schon problematisch, was die chipsätze dann auf jeden fall haben müssen wenn man die monitore wirklich nicht an die grafikkarte anschließt sondern ans mainboard, sind 2 digitale ausgänge sonst sind sie zumindest für mich uninteressant (bzw 2 die gleichzeitig benutzbar sind)

Aber glaub das erst wenn ichs seh. Außerdem sollten sie diese features generell in hardware lösen, seh es bei powerplay, meine tolle sparsame hd 3870 schluckt unter linux wegen fehlenden treibern 50-60W alleine idle.
 
Man muss dann nur hoffen, dass die Karte im 3D-Betrieb, dieselbe Leistung bringt, wie ohne Onboardgrafik. Nicht, dass sie im SLI sind und dadurch nur 80% Leistung der eigentlichen Grafikkarte ankommen
 
Vom Prinzip her absolut zu begrüßen. Wie's in der Praxis aussieht, wird sich zeigen (das ein oder andere mögliche Problem wurde ja hier schon angesprochen), aber die Grundidee gefällt mir. Würde mir so ein Ding gerne kaufen, vorausgesetzt, es tut auch unter Linux, was es soll.
 
Wenn es "später" automatisch funktionieren soll, möchte ich aber immernoch die Möglichkeit haben, es allein manuell abschalten und einschalten zu können, da ich besser weiß/merke, wann ich die Leistung brauche und wann nicht...
Dazu noch das automatische/manuelle runtertakten der Prozessoren und schon hat man einen guten kostensparenden Computer, da könnte man sogar an SLI denken. :)
 
Wirkt sich das denn nicht negativ auf die Grafikleistung aus, wenn die Grafikkarte alles berechnet, und das dann erst wieder ans Mainboard zurücksenden muss, damit dieses dann die Grafik ausgibt ?
Ich meine, die Bandbreite zwischen Mainboard und Grafikkarte ist doch begrenzt, und wenn man dann nicht nur Daten vom Mainboard zur GPU senden muss, sondern auch noch zurück entsteht da nicht ein Engpass ?
 
Und man kann natürlich gleich mal die Boards wieder teuerer vekaufen genau die selbe Masche wie damals als der Sound auf die Hauptplatine wanderte was ich genau so bescheiden fand denn man bekommt Hardware aufgezwungen die man vileicht werder braucht noch will... wie der Onboardsound, der seither bei mir immer deaktiviert ist und noch nie verwendet wurde.
 
Warum nicht wie bei ATI, so dass sich Funktionseinheiten auf der Grafikkarte abschalten?
Ansonsten durchaus positiv, solange dadurch Strom gespart wird.
 
@30 Zum Thema Performance ... danke frankys72 für den Link zu 3dcenter

Zitat 3Dcenter
"Keine Probleme dürfte hingegen die Nutzung von PCI Express für die Datenübermittlung machen, denn da hier nur der Rückkanal von PCI Express genutzt wird (im übrigen die erste sinnvolle Anwendung des Rückkanals im Spiele-Bereich), dürfte sich keinerlei Performance-Einfluß ergeben."
http://www.3dcenter.de/artikel/2008/01-21.php
 
Q-6600 schrieb:
Man muss dann nur hoffen, dass die Karte im 3D-Betrieb, dieselbe Leistung bringt, wie ohne Onboardgrafik.
Genau das befürchte ich nämlich auch, daher meine Frage.

Bessere (einfacher?) wärs wohl die Grafikkarte wie auch die CPU direkt im idle runterzutakten. Denn wenn, wie flappes unter mir schreibt, die 3870 nur 19 W braucht, kann ich mir das hin- und hergeschalte mit zwei Karten gleich sparen.
 
Zuletzt bearbeitet:
Sehe es aber so wie captain carot, der einzig richtig weg kann nur sein, dass sich die einzelnen Funktionseinheiten, bei nichtgebrauch, abschalten.

Eine Frage bleibt aber: wieviel Watt zieht ein IGP?

Wenn Ati es schon schafft bei einer 3870 auf 19 Watt zu kommen, da dürfte die Differenz ja nicht soo rießig sein.
 
Momentan haben wohl beide Lösungen ihre Vor- und Nachteile.

AMDs PowerPlay läuft auf jedem Board und wird mit PowerPlay+ auch kaum mehr brauchen als eine IGP
Dafür laufen im Crossfire weiterhin alle GPUs

nVidias Hybrid Power läuft nur auf neuen nForce Boards und auch nur unter Vista SP1
Dafür kann man sich dann auch so viele GPUs einbauen, wie man will. Es werden ja alle abgeschaltet.

Wenn AMD es hinkriegen würde, bei CF alle GPUs abzuschalten und die letzte in PowerPlay zu setzen, fände ich die Lösung eigentlich besser.
 
IGP zieht 2-3 Watt oder höchstens mal 5 wenn überhaupt.
MfG
 
Das gleiche könnten sie aber auch auf einer Graka machen - dann wäre man nicht an ein bestimmtes Mainboard gebunden und hätte die freie Wahl, außerdem könnten das auch Besitzer von älteren u aktuellen Mainboards verwerden. Wenn die da auf einer Graka auf so 10Watt runter kommen würden, wärs doch in Ordnung - eine Onboard braucht ja auch etwas.

Ciao
 
Zurück
Oben