Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Hm, ich habe gestern Abend die Zotac GTX 260² für 199 Euro bestellt. Da ich jetzt aber sehe, dass schon Gpus in 40nm kommen sollen, bin ich drauf und dran, sie wieder zu stornieren
Wenn es sich wirklich bewahrheiten sollte, dass die 55nm-GTX260er mehr Strom verbrauchen als die 65nm-Versionen hast Du sicher keinen Fehler gemacht. Vielleicht hat nvidia wirklich noch Probleme in der Fertigung, Stichwort Leckströme.
Also mir reicht meine GTX 280 voll aus bis Ende nächsten Jahres, kein aktuelles Game zwingt die in die Knie auf meinem 22", solange da nix neues ala Crysis kommt (welches ich übrigens nicht so doll fand wie überall gehypt) reicht's locker aus bis der GT300 im Q4/09kommt. Auserdem bin ich einer von denen die Mikroruckler sehen , von daher sowieso nur ne Single GPU Lösung.
Weil sie im Vergleich zu CPUs viel schneller sind und auch bei weitem die bessere Watt/Performance haben. Der Markt verlangt weiterhin nach immer schnelleren Rechnern und die GPU darf daher so groß und Leistungshungrig sein wie sie will. Außerdem hast du was verpasst, der Nehalem ist deutlich größer als Core 2 Quad oder Phenom II und teilweise sogar ineffizienter als Core 2 Quad.
Komisch das die GTX 285 mehr Leistung bietet und dabei deutlich weniger Strom verbraucht, bei der GTX 260 55nm hat das ja nicht so gut geklappt. Vielleicht ist die Übertaktbarkeit bei der GTX 260 55nm dafür umso besser? Bin schon gespannt auf die ersten CB Tests.
Der Startpreis von 400€ wird sich wie üblich schnell Richtung 300-350€ bewegen...
Was für Blindleistung? Blindleistung gibt es nur bei Induktivitäten oder Kapaziäten, aber nicht bei Leckströmen Bei Leckströmen, die durch Spannungen verursacht wird, handelt es sich um normale unerwünschte Wirkleistung, die in Wärme umgewandelt wird
jo stimmt ...
wie komm ich nur auf Q ... ^^
hab in der richtung was gerechnet eben vieleicht deswegen
also wenn man die karte übertakten will und noch dazu die spannung erhöht
wird noch mehr energie umgewandelt als bei einer 65nm karte wenn man im gleichen rahmen
übertakten will?
denn wenn ich das richtig verstanden hab sind die abstände so gering, dass keine isolation mehr vorhanden ist und bei mehr spannung die strecke noch größer sein muss um die gleiche isolation zu gewährleisten
dann wiederrum könnte man ja die spannung per bios senken um bei einer "guten" karte vieleicht die selben taktraten behalten bei viel weniger verbrauch
Die alten chips werden noch als GTX280 verkauft werden, vielleicht ist auch das eine oder andere Schnäppchen dabei. Die GTX285 natürlich generell in 55nm, da neuer Name (im Gegensatz zur GTX260).
Verlustleistung... lustig
Ich dachte, es wäre bei CPUs GPUs PPUs etc. so, dass nahezu 100% Verlustleistung herschen. Es findet in den Karten nur eine Energieumwandlung statt Eelec -> Etherm
es sei denn Rechenleistung wurde jetzt zu Energie erklärt. Wenn ich Mist erzähle flamed mich bitte zu. Werde es dann ändern.
Werd meinem Bruder wohl seine alte GTX280 günstig abluxen, damit er sich die 285 kauft
EDIT:
Ja ein bisschen Energie wird auch in Bewegung umgewandelt... also beim Lüfter. Lageenergie hat das Ding ja von mir, weil ich sie die Treppe raufgeschleppt hab
Also mir reicht meine GTX 280 voll aus bis Ende nächsten Jahres, kein aktuelles Game zwingt die in die Knie auf meinem 22", solange da nix neues ala Crysis kommt (welches ich übrigens nicht so doll fand wie überall gehypt) reicht's locker aus bis der GT300 im Q4/09kommt. ...
Na ich binn mal gespannt drauf, aber selbst zu einem Preis von "nur" 350€ währe sie keine Wahl für mich, da sie einfach zu Teuer währe für die gebotene Leistung, da nehme ich lieber MR(die bösen bösen MR) in kauf und hol mir eine 4870x2 oder eine GTX295 die dann einen richtigen Leistungssprung zur 8800GTX darstellen.