News Nvidia gibt Namen der GF100 bekannt

genau das wollte ich auch sagen. Sobald die Fermi Karten kommen, wird dort die erste Europalette direkt zack zack verklopft.
 
y33H@ schrieb:
Hinter Alternate steht Wave, einen größeren Distri gibts iirc nicht. Wenn die gut bestückt sind, spreche ich von "Lieferbarkeit".

Das mag ja sein, auch wenn ich glaube das es größere gibt, wie z.b. Actebis, aber was das nun mit dem dem Status "Verfügbarkeit" eines Produktes zu tun haben soll weiß ich trotzdem nicht.
 
Ok, dann lassen wir das. Offenbar unterscheiden sich unsere Definitionen von "Verfügbarkeit".
 
Ich sehe es kommen, 8800GTS goes GTX 450 (wenn wir Glück haben als G92c in 40nm und mit DirectX 11)


Achtung Ironie!
 
y33H@ schrieb:
Ok, dann lassen wir das. Offenbar unterscheiden sich unsere Definitionen von "Verfügbarkeit".
die diskussion hatten wir doch wohl schon zur genüge. ob hier oder im 3dc. der fermi wird nach 3 monaten auch nicht besser verfügbar sein. das ist jetzt mal meine prognose.
 
Zwirbelkatz schrieb:
Wenn die preislich tatsächlich bei ca. 400-500 Euro liegen dann können sie für mich persönlich in puncto Stromverbrauch einfach nur überzüchtet und inadäquat sein. AMD/ATi haben ein recht rundes Paket geschnürt, man wird sehen, wo die tatsächlichen Käufer sich wieder finden. Das sind jedenfalls nicht diejenigen, die hier nach Leistung um jeden Preis und 200 Watt Verbrauch für eine Grafikkarte schreien ;) Abwarten, was da so kommt.

Ich bekomme immer Magengeschwüre wenn Leute bei High-End Komponenten wegen dem Stromverbrauch rumheulen. Dann holt euch Midrange Kram die ziehen auch nicht soviel!!!!

Das ist genauso absurd als wenn man sich als 911-Fahrer beklagt weil die Karre doch mehr als 10L schluckt.
Dazu kommt noch das ich Monatelang zocken müsste eh sich da mal nen 10er läppert, welchen ich sparen könnte, genügsam im idle sind die ja jetzt eh alle.
 
Naja, Highend sollte zumindest in 2D sehr sparsam und in 3D effizient (Fps/Watt) sein - zumindest verstehe ich das unter "Highend".
 
y33H@ schrieb:
Naja, Highend sollte zumindest in 2D sehr sparsam und in 3D effizient (Fps/Watt) sein - zumindest verstehe ich das unter "Highend".

Eher Watt pro FPS und ich glaube kaum das ein GTX480 mehr als 30-40% als eine 5870 schluckt(ich kalkuliere mal mit einer Mehrleistung von 30-40%).

Mir geht dieses Stromgeheule jedoch derb auf die Nüsse, niemand heult rum wenn ein großer Fernseher mehr verbraucht, ein teures Auto(=dicker Motor) mehr verbraucht, aber wenn die schnellste Single GPU auch am meisten verbraucht dann schreien sie den Untergang des Abendlandes herbei.
Ich finde das einfach nur abartig bekloppt. Wenn ein potenzieller Käufer 500€ investieren will, dann sollte er nicht zurückschrecken weil sich seine Stromrechnung im Monat um 2€ erhöht.;) (das ist einfach nur total unverhältnismäßig)
 
Das ist nicht falsch, zumindest so lange es den Anschein hat, die erbrachte Spielleistung wäre nicht möglich ohne viel Strom zu ziehen.
Aber wie schauts denn aus, wenn einer oder mehrere Hersteller es schaffen, die Leistung mit wesentlich weniger Stromverbrauch zu liefern? Wenn ein teures Auto (=dicker Motor) auf einmal nur noch die hälfte von anderen teuren Autos (mit dickem Motor) verbraucht? Ist es dann nicht berechtigt, bei 50.000€ den doppelten Spritverbrauch des einen Autos zu kritisieren, wenn es andere wesentlich besser hin bekommen?

Aber das ist ja alles reine Spekulation, ob der Fermi wirklich so Stromfressend wird, sehen wir erst, wenn es so weit ist, und mehrere Unabhängige Tests dies be- oder widerlegen. Bis dahin sollte man den angeblichen Verbrauch der Fermi nicht künstlich aufwiegeln.

Ich für meinen Teil brauch und möchte ne DX11 Graka, und der Anbieter, der für knapp 200€ (lieber weniger) die beste Leistung bietet, und das einrechnen vom Stromverbrauch (im Idle) keine erheblichen Mehrkosten auf etwa 1 1/2 Jahre verursacht (und die Karte im Idle leise ist), bekommt mein Geld.
 
meiermanni schrieb:
Eher Watt pro FPS und ich glaube kaum das ein GTX480 mehr als 30-40% als eine 5870 schluckt(ich kalkuliere mal mit einer Mehrleistung von 30-40%).

Mir geht dieses Stromgeheule jedoch derb auf die Nüsse, niemand heult rum wenn ein großer Fernseher mehr verbraucht, ein teures Auto(=dicker Motor) mehr verbraucht, aber wenn die schnellste Single GPU auch am meisten verbraucht dann schreien sie den Untergang des Abendlandes herbei.
Ich finde das einfach nur abartig bekloppt. Wenn ein potenzieller Käufer 500€ investieren will, dann sollte er nicht zurückschrecken weil sich seine Stromrechnung im Monat um 2€ erhöht.;) (das ist einfach nur total unverhältnismäßig)

2€ im Monat? Wo lebst du denn? Oder wohnst du noch bei Mama? :freak:

Oder aber du spielst mit deiner 500€ GPU nur ein paar Minuten am Tag ... :rolleyes:

@milamber!: Sehe ich ähnlich wobei ich auch bis zu 250€ gehen würde wenn es sich lohnt. Ansonsten sehe ich rund 200€ als fairen Preis für eine schnelle GPU ... Stromverbrauch bedeutet im übrigen nicht nur kosten (meine Stromrechnung ist btw ziemlich gestiegen seitdem ich mein System habe) sondern auch Hitzeentwicklung und die muss im Griff gehalten werden - ich brauch nicht unbedingt Super Silent bei einem potenten System (eh kaum bezahlbar) aber leise sollte es schon sein und da kommen diese Miniturbinen von Boxedkühlern definitiv nicht in Frage (und nein die seltsamen Marketinglösungen anderer Hersteller sind nicht viel besser).
 
Zuletzt bearbeitet:
I-HaTeD2 schrieb:
2€ im Monat? Wo lebst du denn? Oder wohnst du noch bei Mama? :freak:

Oder aber du spielst mit deiner 500€ GPU nur ein paar Minuten am Tag ... :rolleyes:


Ich vermute mal das der Idle Verbrauch identisch ist, der Fermi wird schätzungsweise 50 Watt mehr im Betrieb ziehen. Beim derzeitigen Preis der Kilowattstunde(20Cent) könnte ich demnach für 2€ Aufpreis circa 200(!) Stunden spielen.
Bei 100 Stunden(immerhin über 3 Stunden täglich!) ist es nur ein lausiger €!

Immer wieder toll wenn manche meinen einen dumm machen zu müssen ohne auch nur den Hauch einer Ahnung zu besitzen.
Also bevor man andere angreift einfach mal selber deinen Spüllappen von Hirn einschalten :headshot:
 
Zuletzt bearbeitet:
Stimmt schon, als Spieler muß man schon ne Menge zocken, um durch den Lastverbrauch auf bedeutend höhere Stromkosten zu kommen. Nur ist hier die Frage, ob und wie die 50 Watt (vielleicht mehr, oder weniger) weg gekühlt werden. Und stellt sich ebenso die Frage, ob der Idle Verbrauch wirklich gleichwertig ist. Denn hier könnte je nach Nutzungsverhalten schon einiges zusammen kommen.

@I-HaTeD2; ja, die Temperatur ist mir da mittlerweile auch ziemlich wichtig - mein System ist leider nicht so toll zu kühlen, bei meinem Avance B032 Midi Tower ist da vor allem mit Netzteil ohne Kabel Management und 4 Platten echt an seinen Grenzen.
Ich hab keine Lust mehr auf nen lauten Rechner. :(
 
Wenn Nvidia es schafft alle Fermi basierten GPU-Modelle GTX-4XX oder zumindest mit der 4 vorne zu nennen ist es ein sehr sinnvoller Schritt, ob es so kommt mal sehen.

Ich vermute aber auch das Marketing hat endlich mitbekommen das keiner mehr durchblickt und sich verarscht fühlt. Ich zumindest habe es aufgegeben die alten Modelle mehr als grob auseinander zu halten.
 
Preis sollte nicht über 600€sein

der Rest ist mir egal
(Strom, Wärme)

Mein Coolermaster Storm Scout ist ausreichend gekühlt da könnt ich auch SLI betreiben...
Und so lang mein 650W NT die GRaka schaftt is mir der Stromverbrauch auch egal

Werd jedoch trodzdem auf die GT495 warten also 2in1...
 
Fl_o schrieb:
Und so lang mein 650W NT die GRaka schaftt is mir der Stromverbrauch auch egal

Werd jedoch trodzdem auf die GT495 warten also 2in1...

Auf die 337Watt der 5970 wird die Dual-Fermi noch eine Schippe drauflegen.
Dann brauchst du mit Sicherheit ein stärkeres NT, dein stark übertakteter Prozzi nuckelt schon deutlich mehr aus der Dose als normal.
 
Zuletzt bearbeitet:
Interessant an der News ist auf jeden Fall, dass es eine 480 und eine 470 wird und nicht eine 480 und eine 460.

D.h. entweder der Chip ist doch nicht so schnell wie uns Nvidia glauben macht und der 470 liegt auf 5870 Niveau und der 480 geringfügig darüber oder aber Nvidia stampft alles in Grund und Boden nach dem Motto, jetzt erst recht. Wobei ich eher zu ersterem tendiere.
 
Klikidiklik schrieb:
D.h. entweder der Chip ist doch nicht so schnell wie uns Nvidia glauben macht und der 470 liegt auf 5870 Niveau und der 480 geringfügig darüber oder aber Nvidia stampft alles in Grund und Boden nach dem Motto, jetzt erst recht. Wobei ich eher zu ersterem tendiere.

Wenn der 470 auf oder knapp über 5870 Niveau ist, dann kann aber der gemunkelte Preis von 450€ nicht stimmen, da ich auch einfach mal davon ausgehe das ATI noch etwas an der Preisschraube drehen kann bei der HD5870.
 
meiermanni schrieb:
Immer wieder toll wenn manche meinen einen dumm machen zu müssen ohne auch nur den Hauch einer Ahnung zu besitzen.
Also bevor man andere angreift einfach mal selber deinen Spüllappen von Hirn einschalten :headshot:

Dann betrachten wir die Sache einmal von einer anderen Seite, Grafikkarte X benötigt im Idle 10 Watt, Grafikkarte Y 30 Watt. Ok von den Stromkosten her gesehen nicht wirklich umwerfend, nun rechnen wir aber einmal die Ersparnis aus, wenn die fiktiven 2 Millionen Käufer von Grafikkarte Y stattdessen Grafikkarte X gekauft hätten.

Somit wären wir bei 4 000 000 Watt oder 4 000kw oder 4 Megawatt !

Du siehst es lohnt sich doch, einmal über den Tellerrand hinaus zu schauen und die eigene Behauptung der Stromverbrauch bzw. die entstehenden Kosten seien einem egal zu überdenken ;)
 
Lübke schrieb:
hat nvidia die karte jemals als gtx380 benannt? das waren spekulationen von den medien und den boardies, die aus dem alten namen abgeleitet wurden ;)
bei nvidia steht soweit ich weis immer nur fermi oder gf100^^

Nvidia-Partner hatten auch von GTX380/360 gesprochen:
http://www.fudzilla.com/content/view/17524/1/
Ergo hat Nvidia tatsächlich unveröffentlichte Produkte umbenannt.

Ich glaub Charlie hat das irgendwo mal als Witz erwähnt, aber anscheinend ist es nun tatsächlich eingetreten. ;)
 
Zurück
Oben