Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia stellt drei AMD-Chipsätze vor
- Ersteller Volker
- Erstellt am
- Zur News: Nvidia stellt drei AMD-Chipsätze vor
setnumbertwo
Lieutenant
- Registriert
- Aug. 2007
- Beiträge
- 917
@Cleric
warum denn so pessimistisch? wenn man sie nicht hört ists doch gleich... klar kann der lüfter mit der zeit ein surren mit sich bringen aber hey dann wird der abgeschraubt und ein metallklotz kommt an dessen stelle ;-)
@topic
also würde für meinen nächsten HTPC eine 9600GT mit dem 730a die grafikkarte nicht abgeschaltet werden? irgendiwe gibt es da bei mir ein paar Fragen zuviel... und natürlich das wichtigste, wann ist es für den Endkunden erhätlich?
warum denn so pessimistisch? wenn man sie nicht hört ists doch gleich... klar kann der lüfter mit der zeit ein surren mit sich bringen aber hey dann wird der abgeschraubt und ein metallklotz kommt an dessen stelle ;-)
@topic
also würde für meinen nächsten HTPC eine 9600GT mit dem 730a die grafikkarte nicht abgeschaltet werden? irgendiwe gibt es da bei mir ein paar Fragen zuviel... und natürlich das wichtigste, wann ist es für den Endkunden erhätlich?
ww2warlord
Commander
- Registriert
- Juli 2006
- Beiträge
- 2.970
Naja sowas ähnliches findet man aucb bei AMD
Zwar werden mit ATi Powerplay nicht die gesamten Schaltkreise deaktiviert aber Teile schon und der Takt sowie die Spannung wird ordentlich nach unten auf dem Deskop korrigiert. Die Chipsätze von AMD haben dann noch den Vorteil, dass sie verdammt wenig Strom verbrauchen und deshalb schon ein kleiner Kühlkörper für ausreichend Coolness sorgen kann - bei nvidia fällt es mir schon leichter die aktiven Kühler zu entdecken...
Zwar werden mit ATi Powerplay nicht die gesamten Schaltkreise deaktiviert aber Teile schon und der Takt sowie die Spannung wird ordentlich nach unten auf dem Deskop korrigiert. Die Chipsätze von AMD haben dann noch den Vorteil, dass sie verdammt wenig Strom verbrauchen und deshalb schon ein kleiner Kühlkörper für ausreichend Coolness sorgen kann - bei nvidia fällt es mir schon leichter die aktiven Kühler zu entdecken...
sturme
Commander
- Registriert
- Apr. 2004
- Beiträge
- 2.268
Die Idee, eine Grafikkarte ausschalten zu können während die Onboard-Grafik weitermacht ist bei AMD schon ein alter Hut. Stichwort "Lasso"... und genau das kommt demnächst mit dem RS780.ww2warlord schrieb:Naja sowas ähnliches findet man aucb bei AMD
Zwar werden mit ATi Powerplay nicht die gesamten Schaltkreise deaktiviert aber Teile schon und der Takt sowie die Spannung wird ordentlich nach unten auf dem Deskop korrigiert. Die Chipsätze von AMD haben dann noch den Vorteil, dass sie verdammt wenig Strom verbrauchen und deshalb schon ein kleiner Kühlkörper für ausreichend Coolness sorgen kann - bei nvidia fällt es mir schon leichter die aktiven Kühler zu entdecken...
HeldDerNation
Cadet 1st Year
- Registriert
- Okt. 2004
- Beiträge
- 8
Dann bleibt ja nur zu hoffen, dass auch Boards mit zwei DVI-Ports rauskommen, damit man das ganze auch funktioniert, wenn man zwei TFTs betreiben möchte.
BrOokLyN R!ot ³
Vice Admiral
- Registriert
- Dez. 2006
- Beiträge
- 6.606
ist ja geil mit dem Hybrid sli... SO muss Multi GPU sein! Kompliment an Nvidia, da sollte sich amd was abgucken von! Das ist ja geil sag ich nur. Von sowas träum ich schon lange
Gruss Jens
Gruss Jens
zogger CkY
Commodore
- Registriert
- Feb. 2007
- Beiträge
- 4.720
immerhin kann man sich nun ein sli gespann holen, und muss nicht mehr so auf die streomrechnung achten aeil man ja die karten "abschalten" kann. wie das gehen soll weiss ich nicht, weil z.b die ulltras dann ja noch ueber den stromanschluss strom ziehen. oder es ist so aehnmlich wie im standby
Master_okiwan
Lieutenant
- Registriert
- Okt. 2005
- Beiträge
- 617
Jute idee von Nvidia^^. wenigstens was neues gegen den hohen Stromverbraucht. Echt jut gemacht. Würde mich nur interessieren in welchen Fertiungsprozess die Chipsets gefertig werden und wie hoch der reale stromverbrauch der chipset ist. Sobald mein Jetziges Board ausgedient hat und dan nen Phenom rein kommt würde ik auf den neuen Chipsatz wechseln 780a. Jetzt müssen noch die Grakas stromsparender werden. Dan is allet Fein^^. aber auf den Blockdiagramm bietet es bis zu 5 PCI slots, etwas viel finde ik. und nur 3x PCIe. naja. Interessant zur wissen is noch ob es auch varianten mit PCI-X geben wird,z.b für Workstations. (SATA / SAS RAID Controller)
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
sturme schrieb:Die Idee, eine Grafikkarte ausschalten zu können während die Onboard-Grafik weitermacht ist bei AMD schon ein alter Hut. Stichwort "Lasso"... und genau das kommt demnächst mit dem RS780.
Bei AMD geht das nur mit einer Low-End-Karte (HD3470 oder HD3450) AMD kann die diskrete GPU nur im Crossfiremodus laufen lassen und im Stromsparmodus dann abschalten. Das Problem: Crossfiremodus geht nur mit Low-End-Karten, da sonnst die Leistung einbricht. Bei nVidia kann man dagegen eben gar Ultras anschließen, da diese auch ohne die integrierte GPU laufen können.
http://www.hardware-infos.com/news.php?news=1647
Zuletzt bearbeitet:
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.279
mal ne frage - der 780i is für die Intel boards, der 780a für die AMD Boards, oder?
Wird es dieses HybridSLI eventuell schon auf allen neuen 780i Boards geben, hab keine Lust wegen diesem tollen Feature auf AMD zu setzen. Die 20 W die ne HD3870 im Idle brauchen machen meinen Brei nicht fett... Aber Nvidia Karten in Zusammenspiel mit Intel CPU wären mir am liebsten. HybridSLI wär natürlich fein.
Greedz
Wird es dieses HybridSLI eventuell schon auf allen neuen 780i Boards geben, hab keine Lust wegen diesem tollen Feature auf AMD zu setzen. Die 20 W die ne HD3870 im Idle brauchen machen meinen Brei nicht fett... Aber Nvidia Karten in Zusammenspiel mit Intel CPU wären mir am liebsten. HybridSLI wär natürlich fein.
Greedz
gehacktesmacher
Lt. Commander
- Registriert
- Dez. 2002
- Beiträge
- 1.148
Die Healine liest sich irgendwie komisch, aber wenn man sie nochmal liest wird es einem klar
sturme
Commander
- Registriert
- Apr. 2004
- Beiträge
- 2.268
Ich bezweifle, dass das wirklich den Crossfire-Modus voraussetzt, würde auch irgendwie keinen Sinn ergeben. Wenn man die Grafikkarte schon abschalten kann, weshalb dann auf Crossfire beschränken? Von technischer Seite kann es nicht schwer sein, das zu realisieren.xp_home schrieb:Bei AMD geht das nur mit einer Low-End-Karte (HD3470 oder HD3450) AMD kann die diskrete GPU nur im Crossfiremodus laufen lassen und im Stromsparmodus dann abschalten. Das Problem: Crossfiremodus geht nur mit Low-End-Karten, da sonnst die Leistung einbricht. Bei nVidia kann man dagegen eben gar Ultras anschließen, da diese auch ohne die integrierte GPU laufen können.
http://www.hardware-infos.com/news.php?news=1647
silent-efficiency
Banned
- Registriert
- Aug. 2004
- Beiträge
- 5.253
@sturme
Das Problem ist doch, dass die Anschlüsse an der integrierten GPU hängen. Der diskrete Grafikchip wird bei AMD einfach nur per Crossfire dazugeschaltet oder wieder abgeschaltet.
nVidia dagegen kann die interne GPU abschalten und den Signal von der extenen GPU auf die Ausgänge des Mainboards trotz abgeschalteter GPU weiterleiten. Genau dies fehlt bei der AMD-Lösung, so zumindest die bisherigen News dazu.
Bei AMD wird der Monitor an die interne GPU angeschlossen und die externe wird dann nur als Leistungssteigerung dazu geschaltet, wenn man hier die interne GPU abschaltet, wird es auf dem Monitor schwarz.
Das Problem ist doch, dass die Anschlüsse an der integrierten GPU hängen. Der diskrete Grafikchip wird bei AMD einfach nur per Crossfire dazugeschaltet oder wieder abgeschaltet.
nVidia dagegen kann die interne GPU abschalten und den Signal von der extenen GPU auf die Ausgänge des Mainboards trotz abgeschalteter GPU weiterleiten. Genau dies fehlt bei der AMD-Lösung, so zumindest die bisherigen News dazu.
Bei AMD wird der Monitor an die interne GPU angeschlossen und die externe wird dann nur als Leistungssteigerung dazu geschaltet, wenn man hier die interne GPU abschaltet, wird es auf dem Monitor schwarz.
G
Germany_89
Gast
Strom sparen ist immer gut das ist ja mal was feines!
katanaseiko
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.485
So ein Müll! Eine GPU hat auf einem Mainboard nichts verloren!
Wenn ich ein Mainboard kaufe, dann doch nicht um eine Grafikkarte zu bekommen, die ich eh nicht verwende! Das sind absolut unnötige Kosten für unnötige Hardware. Ich hoffe doch, dass nicht eines Tages diese wichtigen Dinge unter "Strom sparen ist immer gut" untergeht und alle Mainboards standardmäßig mit einer später ungenutzten Grafikkarte ausgestattet werden, weil es bei der Einführung irgendwer nicht begriffen hat, dass das absolut unnötig ist!
Auch jemand im Büro wird wohl in der Lage sein, sich für 30 Euro eine GeForce 7300 oder sowas zu kaufen und einzubauen. Die Leute, die Leistung brauchen, werden eh ne andere Karte kaufen. "Strom sparen" lässt sich bestimmt auch ohne zusätzliche Grafikkarte auf dem Mainboard realisieren.
@Krautmaster: Tut mir ja leid, aber dieser Teil des Chips wurde bei Intel für andere Dinge verbraucht. Intel-Fanboys nörgeln, dass AMD immer wieder Probleme bei irgendwelchen neuen Technologien hat, aber vergessen dabei gern, dass AMD mehr Neuentwicklungen schafft als Intel. Außer 45nm-Fertigung und die SSE-Befehle hat Intel in den letzten Jahren nicht viel geleistet, und selbst die 45nm-Fertigung stammt ursprünglich von IBM-Technologie ab...
Wenn ich ein Mainboard kaufe, dann doch nicht um eine Grafikkarte zu bekommen, die ich eh nicht verwende! Das sind absolut unnötige Kosten für unnötige Hardware. Ich hoffe doch, dass nicht eines Tages diese wichtigen Dinge unter "Strom sparen ist immer gut" untergeht und alle Mainboards standardmäßig mit einer später ungenutzten Grafikkarte ausgestattet werden, weil es bei der Einführung irgendwer nicht begriffen hat, dass das absolut unnötig ist!
Auch jemand im Büro wird wohl in der Lage sein, sich für 30 Euro eine GeForce 7300 oder sowas zu kaufen und einzubauen. Die Leute, die Leistung brauchen, werden eh ne andere Karte kaufen. "Strom sparen" lässt sich bestimmt auch ohne zusätzliche Grafikkarte auf dem Mainboard realisieren.
@Krautmaster: Tut mir ja leid, aber dieser Teil des Chips wurde bei Intel für andere Dinge verbraucht. Intel-Fanboys nörgeln, dass AMD immer wieder Probleme bei irgendwelchen neuen Technologien hat, aber vergessen dabei gern, dass AMD mehr Neuentwicklungen schafft als Intel. Außer 45nm-Fertigung und die SSE-Befehle hat Intel in den letzten Jahren nicht viel geleistet, und selbst die 45nm-Fertigung stammt ursprünglich von IBM-Technologie ab...
Zuletzt bearbeitet:
Kenshin_01
Commander
- Registriert
- Okt. 2006
- Beiträge
- 2.107
katanaseiko schrieb:So ein Müll! Eine GPU hat auf einem Mainboard nichts verloren!
Wenn ich ein Mainboard kaufe, dann doch nicht um eine Grafikkarte zu bekommen, die ich eh nicht verwende! Das sind absolut unnötige Kosten für unnötige Hardware. Ich hoffe doch, dass nicht eines Tages diese wichtigen Dinge unter "Strom sparen ist immer gut" untergeht und alle Mainboards standardmäßig mit einer später ungenutzten Grafikkarte ausgestattet werden, weil es bei der Einführung irgendwer nicht begriffen hat, dass das absolut unnötig ist!
Auch jemand im Büro wird wohl in der Lage sein, sich für 30 Euro eine GeForce 7300 oder sowas zu kaufen und einzubauen. Die Leute, die Leistung brauchen, werden eh ne andere Karte kaufen. "Strom sparen" lässt sich bestimmt auch ohne zusätzliche Grafikkarte auf dem Mainboard realisieren.
Also wenn ich raten müsste bist du jmd. der Kategorie "mindestens 2 Riesenangeberkarten und einen Vierkern "Schw...vergleichprozzi" (sry).
Diese Art Boards ist für Heim-PCs die später vielleicht für den Junior mal spieletauglich gemacht werden könnten richtig Ideal (die ersten Jahre oder so kann Dad das Ding zum Bildergucken und I-Netten nutzen und wenn der kleine dann soweit is die ersten Spiele die etwas mehr 3D-Leistung brauchen spielt kann eine stärkere Karte nachgesteckt werden. Und bis dahin kann Strom gespart werden.
Für Bürorechner ist das noch idealer weil die damit von Haus aus weniger Saft verbrauchen (ja, mit interner Grafik geht das tatsächlich besser).
Ähnliche Themen
- Antworten
- 23
- Aufrufe
- 4.467
- Antworten
- 14
- Aufrufe
- 5.628
- Antworten
- 35
- Aufrufe
- 5.883
- Antworten
- 26
- Aufrufe
- 3.801