News GeForce GTX 285 und GTX 295 ohne Hybrid-SLI

Fairy Ultra schrieb:
das kommt natürlich etwas mehr als 1 Woche nachdem ich ein Hybrid SLI Board gekauft habe ...

nun ja ich liebäugle sowieso mit einer 260 GTX ;)

Bin ja gespannt ob die GTX 260 55nm Hybrid Power noch hat. Weis man schon genaueres? Bis jetzt sind alle 55nm Karten "kastriert" worden. Also Augen auf...

MfG Kasmo
 
MacPok schrieb:
NV boars sind insofern teuer, dass ein konkurrenzprodukt im schnitt 35% günstiger ist. nimm zum beispiel das ASUS M3N78 (NV 720a) und das ASUS M3A (AMD 770). Dazwischen liegen nunmal 10 Euro differenz die geneigte Kunden lieber in ein zusätzliches Gigabyte Arbeitsspeicher investieren.......

was ist das denn bitte für ein Vergleich? das M3N78 bietet Onboardgrafik, HDMI, FullHD, Hybrid SLI, Multimonitoring und ExpressGate. Das M3A bietet gar nichts davon. Also die 10 Euro sind mir für das M3N78 dann schon wert. Schliesslich bekomme ich für nur 10 Euro mehr ne Menge Extras dazu. Dafür bekomme ich nicht mal ne seperate Grafikkarte die ich fürs M3A benötige. Dazu kommt noch, dass das M3N78 auch für 140W CPU´s frei gegeben ist, das M3A nur bis 95W.
 
Kasmopaya schrieb:
Bin ja gespannt ob die GTX 260 55nm Hybrid Power noch hat. Weis man schon genaueres? Bis jetzt sind alle 55nm Karten "kastriert" worden. Also Augen auf...

MfG Kasmo

daran habe ich bisher noch nicht gedacht guter hinweis
 
Die 55nm ist auf Kohle sparen ausgelegt - da wird nV keinen Controller draufpacken.

cYa
 
Habt ihr nicht den Artikel gelesen es wird nur Herteller abhängig werden und immer noch existieren!
 
Also einfach RAM Bausteine deaktivieren wird wohl nicht gehen. Bei der heutigen Architektur des Speichers ist es doch so, dass z.B. bei 512 MB jeder Speicherbaustein 512 Bit hat. Dann schaltet man 8 Bausteine parallel und hat dann ein Byte und in Summe halt 512 MB. Dies kann man dann auf 2, 4 oder 8 Bytes im Transfer erweitern.

dachte ich mir dass die parallel auf dieser weise angesprochen werden. aber was wenn man einen (De-)Multiplexer an den 1. speicherbaustein einbaut? dann könnte die grafikkarte, wenn sie in sparmodus geht, die anderen 7. kanäle mit dem multiplexer auf den ersten speicherbaustein umleiten. der erste baustein arbeitet dann mit 8 seriellen (virtuell parallelen kanälen) und die anderen 7 können schlafen gehen. natürlich muss der gesammte BIOS content quasi neugeladen werden, im prinzip ein reboot im lauffenden betrieb. das kann man aber umgehen, wenn man für den BIOS einen dedizierten speicherbaustein auf die krafikkarte verbaut, 8MB sollen da reichen. der BIOS speicherbereich wird dann in diesen extra speicher eingeblendet, die grafikkarte braucht kein kalt-reset mehr.
 
was habt ihr den für systeme ^^ (hab jetzt nur seite 1 gelesen) 200W im idle? ich habe mit 5 platten im pc und grafikkarte (ok nur x800xl) ca. 100W im idle und finde das schon viel. hab jetzt glaub 90W und als ich noch die hd3870 oc edition hatte (hab sie wieder verkauft da mich die spiele dieses jahr nicht überzeugt hatten) waren es so 110W unter windows mit funktionierendem powerplay.

Dabei hätte ich noch einige punkte an denen man schrauben könnte. 1. hab noch ein altes nvidia board ein umstieg auf ein stromsparenderen ati-chip/board würde wohl 10-20W bringen. weiter werd ich mein raid 5 mit 5 platten irgendwann mal auf 3 größere platten umrüsten (auch 10-20w) sogar ne hd4670 würde wohl auch 8W zu meiner jetzigen x800xl sparen, wobei ich da gespannt auf die 40nm gpus warte. mein 380w seasonic netzteil ist eigentlich auch überdymensioniert die 330w variante wäre da wohl auch noch bischen besser könnte nochmal 10w sparen.

also mit viel anstrenung kommt man bei nem spielesystem mit ner grafikkarte die im idle nicht zu viel schluckt nahe 50W wenn man es will. daher sollten 100W überhaupt kein problem sein. wie man im idle über 200w verbraten kann versteh ich nicht. ohne sli mit den verschwenderisten karten und oder irgend ner auf 4ghz übertakteten intel cpu wüsste ich nicht wie ich sowas schaffen könnte.

achja hab auch noch ein 3800x2 in 90nm eine x2 mit ner neueren rev könnte im idle auch noch paar watt bringen
 
Es ist aber schade. :(

Die Idee war gut, und nicht nur wegen die Stromverbrauch. :p

Bei ATI/AMD funktioniert bis heute nicht. Und bei NVdia ist langasam vorwärst gekommen, und so wie ich in Foren gelesen habe, funktioniert mittlerweile ziemlich gut. :evillol:

Leider verbrauchen NVidia Mainboard mehr Strom als ATI. So dass eine Nvidia Mainboard im HybridPower Modus genaus so viel Strom braucht, wenn nicht etwas mehr, als eine 790FX mit eine GTX285. So dass eigentlich keine Grund gäbe es zu benutzen. :D

Aber ich zum Beispiel ist weniger wegen Stromverbrauch, sonder viel mehr, da mit HybridPower, die Grafikkarte beim nicht benutzung ausgeschaltet wäre, und so mit auch sein Lüfter, und da wäre zumindest im 2D-Betrieb eine Lärmquelle weniger. ;)

Ausserdem muss man nicht vergessen, dass es nur unter Vista funktioniert hat, und da Vista etwas mehr Leistung verbraucht, ist die gewonnen Sparniss schon ein Stuck kleiner geworden. :rolleyes:

Aber naja, vielleicht kommt irgendwann ein zweites Anlauf die auch richtig funktioniert.

P.S: Wenn dATI PowerXpress funktioniert hätte, bin sicher dass es anders ausgesehen hätte, da die ATI Chipset die sparsamste Chips sind die auf dem Mark gibt.
 
Unyu schrieb:
Berserkervmax
Welche High-End Karte im Auslieferungszustand braucht bitte 25W?
Erst mal, zählt MGPU als High-End? Wenn ja: Eine GTX 295 zieht 76W im Idle.
Eine 8800 GTX zieht 70W im Idle.
Die Werte kannst du bei xbitlabs nachschlagen.

So rosig sieht der heutige Idle Verbrauch nicht aus.


Da hast du den Grund, warum soetwas keine Marktchancen hat.
Achja, 754 Millionen Transistoren für Office?

Mein Zotac 280 GTX mit einem Bios von Edelgrafikkarten braucht ca 25 Watt bein Nixtun.
das finde ich schon wirklich gut wenn man mal bedenkt das G80/G92 GPUs so verbratten beim Nixtun.
 
Bei meinem nächsten Mainboardwechsel hätte ich auf jeden Fall darauf geschaut dass es Hybrid Power fähig ist. Für mich war dies eines der besten Feature gewesen, die man in den letzten Jahren auf den Markt gebracht hat.
Wie man nach so kurzer Zeit, kaum das es auf dem Markt war und nach einer z.T. fehlerbehafteten Ausgabe von dieser Technik schon Schlüsse über den Erfolg machen kann, ist mir schleierhaft.
Jetzt gibt es für mich auf jeden Fall keinen Grund mehr, weshalb ich etwas von Nvidia kaufen sollte.
Eigentlich sollte man es zur Pflicht machen das der PC im Idle Modus auf einen sparsamen Onboardchip wechselt. Kaum irgendwo wird so sinnlos Energie verschwendet wie hier.
 
Verstehe soweiso nicht warum man das nicht längst auf den VGA Karten direkt so gelöst hat, dass man darauf einen kleinen extrem stromsaprendenen 2. Chip verbaut, wie auf Onbard Lösungen.
 
naja bin nicht wirklich traurig darüber ... gibt genug sparsame Karten ... im Lowend oder Midrange Bereich ... alles Karten die für stromsparende Anwendungsfälle ausreichen ... bei Highend will/brauch ich die Leistung da ist stromsparen eher Nebensache ...Was nütz mir ne GTX295 mit Stromspartechniken ... Leute wenn die an ist brauch ich die Leistung ... und idle gibts da nicht dann ist der PC nämlich aus ;p
 
das ist ja wirklich schade.:( Die sollen jetzt bloß nicht auch noch auf die Idee kommen, es bei den kommenenden Treibern wieder rauszunehmen, jetzt wo´s endlich läuft!!!
 
serra.avatar schrieb:
naja bin nicht wirklich traurig darüber ... gibt genug sparsame Karten ... im Lowend oder Midrange Bereich ... alles Karten die für stromsparende Anwendungsfälle ausreichen ... bei Highend will/brauch ich die Leistung da ist stromsparen eher Nebensache ...Was nütz mir ne GTX295 mit Stromspartechniken ... Leute wenn die an ist brauch ich die Leistung ... und idle gibts da nicht dann ist der PC nämlich aus ;p

Sehe ich auch so.
Wenn du Stromsparen willst dann nimm den Laptop !

Wer V8 fährt muss sich nicht über hohe Benzinkosten beschweren !
Immerhin ist der Idle Stromverbrauch deutlich besser geworden !
 
bei Highend will/brauch ich die Leistung da ist stromsparen eher Nebensache
High-End ungleich nur maximale Fps. High-End suggeriert, dass man die fortschrittlichste Technik erhält, ergo auch gescheite 2D-Stromsparmechanismen.

cYa
 
Berserkervmax schrieb:
Sehe ich auch so.
Wenn du Stromsparen willst dann nimm den Laptop !

Wer V8 fährt muss sich nicht über hohe Benzinkosten beschweren !
Immerhin ist der Idle Stromverbrauch deutlich besser geworden !

So ein Schwachsinn!
1. Mein Notebook hat kein 24 Zoll TFT.
2. Es hat nicht die bequemem Tastatur und Maus wie die, die am PC hängen. und ich habe keine Lust ständig alles umzustöpseln.
3. Das Book kaufe ich wegen seiner Mobilität -> ich habe anderes OS drauf, andere Konfigurationen und Einstellungen.
4. Ein V8 entspricht in meinen Augen einem 90nm Chip. In heutigen Tagen würde ich aber ein Hybridauto kaufen, dass auch sportlich sein kann. Und es gibt Entwicklungen Sport-Elektro-Autos aller Porsche zu bauen (es gibt schon Prototypen).


Und wie Sascha schon gesagt hat, ein Laptop ist kein Wohnungs-Accessoire wie die Kloschüssel, die man beim Einzug gratis in der Wohnung vor findet ;)
 
Zurück
Oben