News Nvidia stellt drei AMD-Chipsätze vor

@ TM30-HWLUXX
nein das abschlaten ist auch bei einer Grafikkarte möglich allerdings spart dann ja nicht soviel Strom wie wenn drei abgeschaltet sind (ist ja logisch)
deswegen wurde das Beispiel mit 3 Ultras genommen ;)
 
@Cleric
warum denn so pessimistisch? wenn man sie nicht hört ists doch gleich... klar kann der lüfter mit der zeit ein surren mit sich bringen aber hey dann wird der abgeschraubt und ein metallklotz kommt an dessen stelle ;-)

@topic
also würde für meinen nächsten HTPC eine 9600GT mit dem 730a die grafikkarte nicht abgeschaltet werden? irgendiwe gibt es da bei mir ein paar Fragen zuviel... und natürlich das wichtigste, wann ist es für den Endkunden erhätlich?
 
Naja sowas ähnliches findet man aucb bei AMD
Zwar werden mit ATi Powerplay nicht die gesamten Schaltkreise deaktiviert aber Teile schon und der Takt sowie die Spannung wird ordentlich nach unten auf dem Deskop korrigiert. Die Chipsätze von AMD haben dann noch den Vorteil, dass sie verdammt wenig Strom verbrauchen und deshalb schon ein kleiner Kühlkörper für ausreichend Coolness sorgen kann - bei nvidia fällt es mir schon leichter die aktiven Kühler zu entdecken...
 
Das Zimmer eines TripleSLI Besitzers dürfte sich damit nach einer Stunde spürbar weniger erhitzen.
 
ww2warlord schrieb:
Naja sowas ähnliches findet man aucb bei AMD
Zwar werden mit ATi Powerplay nicht die gesamten Schaltkreise deaktiviert aber Teile schon und der Takt sowie die Spannung wird ordentlich nach unten auf dem Deskop korrigiert. Die Chipsätze von AMD haben dann noch den Vorteil, dass sie verdammt wenig Strom verbrauchen und deshalb schon ein kleiner Kühlkörper für ausreichend Coolness sorgen kann - bei nvidia fällt es mir schon leichter die aktiven Kühler zu entdecken...
Die Idee, eine Grafikkarte ausschalten zu können während die Onboard-Grafik weitermacht ist bei AMD schon ein alter Hut. Stichwort "Lasso"... und genau das kommt demnächst mit dem RS780.
 
Dann bleibt ja nur zu hoffen, dass auch Boards mit zwei DVI-Ports rauskommen, damit man das ganze auch funktioniert, wenn man zwei TFTs betreiben möchte.
 
immerhin kann man sich nun ein sli gespann holen, und muss nicht mehr so auf die streomrechnung achten aeil man ja die karten "abschalten" kann. wie das gehen soll weiss ich nicht, weil z.b die ulltras dann ja noch ueber den stromanschluss strom ziehen. oder es ist so aehnmlich wie im standby
 
Jute idee von Nvidia^^. wenigstens was neues gegen den hohen Stromverbraucht. Echt jut gemacht. Würde mich nur interessieren in welchen Fertiungsprozess die Chipsets gefertig werden und wie hoch der reale stromverbrauch der chipset ist. Sobald mein Jetziges Board ausgedient hat und dan nen Phenom rein kommt würde ik auf den neuen Chipsatz wechseln 780a. Jetzt müssen noch die Grakas stromsparender werden. Dan is allet Fein^^. aber auf den Blockdiagramm bietet es bis zu 5 PCI slots, etwas viel finde ik. und nur 3x PCIe. naja. Interessant zur wissen is noch ob es auch varianten mit PCI-X geben wird,z.b für Workstations. (SATA / SAS RAID Controller)
 
sturme schrieb:
Die Idee, eine Grafikkarte ausschalten zu können während die Onboard-Grafik weitermacht ist bei AMD schon ein alter Hut. Stichwort "Lasso"... und genau das kommt demnächst mit dem RS780.

Bei AMD geht das nur mit einer Low-End-Karte (HD3470 oder HD3450) AMD kann die diskrete GPU nur im Crossfiremodus laufen lassen und im Stromsparmodus dann abschalten. Das Problem: Crossfiremodus geht nur mit Low-End-Karten, da sonnst die Leistung einbricht. Bei nVidia kann man dagegen eben gar Ultras anschließen, da diese auch ohne die integrierte GPU laufen können.
http://www.hardware-infos.com/news.php?news=1647
 
Zuletzt bearbeitet:
mal ne frage - der 780i is für die Intel boards, der 780a für die AMD Boards, oder?

Wird es dieses HybridSLI eventuell schon auf allen neuen 780i Boards geben, hab keine Lust wegen diesem tollen Feature auf AMD zu setzen. Die 20 W die ne HD3870 im Idle brauchen machen meinen Brei nicht fett... Aber Nvidia Karten in Zusammenspiel mit Intel CPU wären mir am liebsten. HybridSLI wär natürlich fein.

Greedz
 
xp_home schrieb:
Bei AMD geht das nur mit einer Low-End-Karte (HD3470 oder HD3450) AMD kann die diskrete GPU nur im Crossfiremodus laufen lassen und im Stromsparmodus dann abschalten. Das Problem: Crossfiremodus geht nur mit Low-End-Karten, da sonnst die Leistung einbricht. Bei nVidia kann man dagegen eben gar Ultras anschließen, da diese auch ohne die integrierte GPU laufen können.
http://www.hardware-infos.com/news.php?news=1647
Ich bezweifle, dass das wirklich den Crossfire-Modus voraussetzt, würde auch irgendwie keinen Sinn ergeben. Wenn man die Grafikkarte schon abschalten kann, weshalb dann auf Crossfire beschränken? Von technischer Seite kann es nicht schwer sein, das zu realisieren.
 
@sturme

Das Problem ist doch, dass die Anschlüsse an der integrierten GPU hängen. Der diskrete Grafikchip wird bei AMD einfach nur per Crossfire dazugeschaltet oder wieder abgeschaltet.

nVidia dagegen kann die interne GPU abschalten und den Signal von der extenen GPU auf die Ausgänge des Mainboards trotz abgeschalteter GPU weiterleiten. Genau dies fehlt bei der AMD-Lösung, so zumindest die bisherigen News dazu.
Bei AMD wird der Monitor an die interne GPU angeschlossen und die externe wird dann nur als Leistungssteigerung dazu geschaltet, wenn man hier die interne GPU abschaltet, wird es auf dem Monitor schwarz.
 
So ein Müll! Eine GPU hat auf einem Mainboard nichts verloren!

Wenn ich ein Mainboard kaufe, dann doch nicht um eine Grafikkarte zu bekommen, die ich eh nicht verwende! Das sind absolut unnötige Kosten für unnötige Hardware. Ich hoffe doch, dass nicht eines Tages diese wichtigen Dinge unter "Strom sparen ist immer gut" untergeht und alle Mainboards standardmäßig mit einer später ungenutzten Grafikkarte ausgestattet werden, weil es bei der Einführung irgendwer nicht begriffen hat, dass das absolut unnötig ist!
Auch jemand im Büro wird wohl in der Lage sein, sich für 30 Euro eine GeForce 7300 oder sowas zu kaufen und einzubauen. Die Leute, die Leistung brauchen, werden eh ne andere Karte kaufen. "Strom sparen" lässt sich bestimmt auch ohne zusätzliche Grafikkarte auf dem Mainboard realisieren.

@Krautmaster: Tut mir ja leid, aber dieser Teil des Chips wurde bei Intel für andere Dinge verbraucht. Intel-Fanboys nörgeln, dass AMD immer wieder Probleme bei irgendwelchen neuen Technologien hat, aber vergessen dabei gern, dass AMD mehr Neuentwicklungen schafft als Intel. Außer 45nm-Fertigung und die SSE-Befehle hat Intel in den letzten Jahren nicht viel geleistet, und selbst die 45nm-Fertigung stammt ursprünglich von IBM-Technologie ab...
 
Zuletzt bearbeitet:
katanaseiko schrieb:
So ein Müll! Eine GPU hat auf einem Mainboard nichts verloren!

Wenn ich ein Mainboard kaufe, dann doch nicht um eine Grafikkarte zu bekommen, die ich eh nicht verwende! Das sind absolut unnötige Kosten für unnötige Hardware. Ich hoffe doch, dass nicht eines Tages diese wichtigen Dinge unter "Strom sparen ist immer gut" untergeht und alle Mainboards standardmäßig mit einer später ungenutzten Grafikkarte ausgestattet werden, weil es bei der Einführung irgendwer nicht begriffen hat, dass das absolut unnötig ist!
Auch jemand im Büro wird wohl in der Lage sein, sich für 30 Euro eine GeForce 7300 oder sowas zu kaufen und einzubauen. Die Leute, die Leistung brauchen, werden eh ne andere Karte kaufen. "Strom sparen" lässt sich bestimmt auch ohne zusätzliche Grafikkarte auf dem Mainboard realisieren.

Also wenn ich raten müsste bist du jmd. der Kategorie "mindestens 2 Riesenangeberkarten und einen Vierkern "Schw...vergleichprozzi" (sry).

Diese Art Boards ist für Heim-PCs die später vielleicht für den Junior mal spieletauglich gemacht werden könnten richtig Ideal (die ersten Jahre oder so kann Dad das Ding zum Bildergucken und I-Netten nutzen und wenn der kleine dann soweit is die ersten Spiele die etwas mehr 3D-Leistung brauchen spielt kann eine stärkere Karte nachgesteckt werden. Und bis dahin kann Strom gespart werden.
Für Bürorechner ist das noch idealer weil die damit von Haus aus weniger Saft verbrauchen (ja, mit interner Grafik geht das tatsächlich besser).
 
Zurück
Oben