News Nvidia gibt Namen der GF100 bekannt

Ein noch nicht veröffentlichtes namenloses Produkt kann man ja wohl schlecht umbenennen :lol:
 
@meiermanni: In der News steht aber nichts von einem Preis. Und auf das was gemunkelt wird geb ich zunächst mal nix. Und selbst wenn der Preis stimmen sollte, so könnte es trotzdem hinkommen, da der komplexe Chip und das komlexe Board durch das große Speicherinterface Nvidia mit Sicherheit mehr Kosten wird als Chip/Board bei ATI/AMD.
 
meiermanni schrieb:
Wenn der 470 auf oder knapp über 5870 Niveau ist, dann kann aber der gemunkelte Preis von 450€ nicht stimmen, da ich auch einfach mal davon ausgehe das ATI noch etwas an der Preisschraube drehen kann bei der HD5870.

momentan gehe ich davon aus das die 470 auf ca 5870 niveu sein wir. wenn man bedenkt dass zwischen nvidia veröffentlichten farcry 2 benchmarkt und der auf vergleichbaren system nachgessenen 5870 ca 30% liegen und davon ausgeht dass nvidia einen vorteilhaften benchmark ausgewählt hat wird die stärkere karte warscheinlich im schnitt 20% über der 5870 liegen.
wenn die heise meldung stimmt dass die 470 sowohl weniger takt als auch nur 448 sp und eingeschränkte speicherbandbreite hat dann kann von diesen angenommenen 20%, aber nicht mehr viel übrigbleiben.

also meine persönliche schätzung wäre 480 hat im schnitt etwa 20% mehr leistung als 5870, 470 liegt ziemlich gleichauf mit 5870. wie weit ich daneben liege werden wir ja hoffentlich in ein paar wochen wissen.
 
Der Sprung auf die 400er Reihe von Nvidia hat nichts mit dem Überchip zu tun wie hier einige hoffen. Das dient einzig dazu, aufzuräumen im Namensschema ( Was auch mal Zeit wurde ). So werden mit sicherheit nur G100 Chips oder deren kleineren ableger, als 400er Reihe bezeichnet.
 
PCGH sollte dringenst die (utopischen) Preisangaben zu den GTX4xx-Modellen überdenken. Die sind einfach viel zu hoch angesetzt! Nvidia selbst hat gesagt, dass sie bei der Preisgestaltung der GTX200er Serie Fehler gemacht haben und dass dies bei der neuen Serie (mit Fermi-Architektur) nicht mehr geschehen wird. Die Preise für die Fermi-(GeForce-)Karten würden sehr attraktiv werden

Suche nocht das besagte Video-Interview...

BTW: Ich vermute 300€ für GTX470 (welche in Konkurrenz zur HD5870 aufgestellt wird) und 450€ für GTX480 (wird die HD5970 zwar nicht erreichen, dafür deutlich billiger sein). Aufgrund einiger Aussagen von Nvidia gehe ich davon aus, dass wir zunächst nur 448-Core-Varianten sehen werden, 512 Cores-Karten werden eine B-Revision brauchen, um anständige Yields zu erzielen. Demnach hätte eine GTX470 nur weniger Takt als eine GTX480, deswegen auch die geringe Abstufung von 70 zu 80.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Ein noch nicht veröffentlichtes namenloses Produkt kann man ja wohl schlecht umbenennen :lol:

Wie man sieht ist nVidia beim Umbennen inzwischen *so* gut, dass sie selbst das hinbekommen ;-)


Nichts gegen ihre Grafikkarten... aber was die da abliefern nervt schon.
 
Namen sind Schall und Rauch, (technische) Fakten und Leistung zählen.
 
@AwesomeSource
BTW: Ich vermute 300€ für GTX470 (welche in Konkurrenz zur HD4870 aufgestellt wird) und 450€ für GTX480 (wird die HD4970 zwar nicht erreichen, dafür deutlich billiger sein).

Wunschdenken oder Schreibfehler? XD (ich denk du meintest die 5870 und die 5970)

Also ich denke nach wie vor, das die "Kleine" etwa 5-10% vor der 5870 liegen wird und die "große" nochmal etwa 20-30% vor der "kleinen". liegt also im groben etwa wie bei deiner Einschätzung. Aber ich glaub auch noch an die 2GPU Variante von NV, und wenn die wirklich kommt, siehts doch sehr kritisch aus für ATI, sollten die vermuteten leistungsdaten der single gpu varianten stimmen...
 
@Neo_Xsendra
Jo sorry, natürlich Schreibfehler:D Habs geändert, danke!

Dual-GPU interessieren mich herzlich wenig - hab schon genug Inputlag mit Single-GPU, weswegen ich schon lange auf eine Revolution bei der Input-Abfrage bei DirectX hoffe, die völlig unabhänig von Framerates ist.
 
Zuletzt bearbeitet:
Dein Input wird allerdings ohnehin maximal mit jedem Frame ausgegeben. Bei NV kannst du zudem das Pre-Render-Limit definieren.
 
Die Ausgabe hat damit wenig zu tun. Beispiel Autorennen, wo Physikthread auf niederigen Frametimes (also höheren FPS) läuft als der Grafikthread. Willst du mit dem Input nun auf den Grafikthread warten?
 
Zuletzt bearbeitet:
Ah so meinst du das, dann klar - nicht warten :D
 
Antimon schrieb:
Dann betrachten wir die Sache einmal von einer anderen Seite, Grafikkarte X benötigt im Idle 10 Watt, Grafikkarte Y 30 Watt. Ok von den Stromkosten her gesehen nicht wirklich umwerfend, nun rechnen wir aber einmal die Ersparnis aus, wenn die fiktiven 2 Millionen Käufer von Grafikkarte Y stattdessen Grafikkarte X gekauft hätten.

Ich habe immer gesagt das es nur auf den Last Verbrauch hinausläuft. Beim Idle werden die Karten sich wenig nehmen, immerhin waren in den letzten Jahren meist die NV's genügsamer im Idle.
 
Klikidiklik schrieb:
Und selbst wenn der Preis stimmen sollte, so könnte es trotzdem hinkommen, da der komplexe Chip und das komlexe Board durch das große Speicherinterface Nvidia mit Sicherheit mehr Kosten wird als Chip/Board bei ATI/AMD.

Wenn der kleine Fermi nur 5870 Niveau erreicht, dann sind Nvidia die Hände gebunden, dann MÜSSEN sie es für in etwa denselben Preis anbieten. Ansonsten werden sie kaum die Karten los, weil halt die wenigsten Blöden 100€ draufzahlen für nix... Gut es wird schon ne ganze Menge geben die sowieso und generell nur Nvidia kaufen, aber der Großteil der potenziellen Kunden kauft nach P/L.
 
meiermanni schrieb:
Ich vermute mal das der Idle Verbrauch identisch ist, der Fermi wird schätzungsweise 50 Watt mehr im Betrieb ziehen. Beim derzeitigen Preis der Kilowattstunde(20Cent) könnte ich demnach für 2€ Aufpreis circa 200(!) Stunden spielen.
Bei 100 Stunden(immerhin über 3 Stunden täglich!) ist es nur ein lausiger €!

Immer wieder toll wenn manche meinen einen dumm machen zu müssen ohne auch nur den Hauch einer Ahnung zu besitzen.
Also bevor man andere angreift einfach mal selber deinen Spüllappen von Hirn einschalten :headshot:

Und welche Glaskugel sagt dir das der Idleverbrauch identisch ist?
Jemand der "nur" 3 Stunden am Tag spielt wird wohl auch kaum eine 500€ GPU kaufen, es sei denn er kauft sich täglich spiele wie Crysis die man in rund 3 Stunden durch hat.

Btw: Bei welchem Anbieter zahlst du 20 Cent pro Kw?
 
Jocotty schrieb:
Ich halte die Preise für plausibel ;)
Aber das ist wie immer Spekulation
Der Preis wird sich am (gleich schnellen) ATi-Pendant orientieren - viel Spielraum bleibt da nicht!
550 gegen 450 Euro
Sind absoluter Schwachsinn:freak:
 
Wieso bist du dir so sicher, dass sie sich orientieren können?
 
Weil man sich immer an der Konkurrenz orientiert. Der Chip mag teuer zu produzieren sein, dann fällt halt die Marge etwas. G200 konnte man auch billig verkaufen, weil mans musste. Wird hier nicht anders sein, wenns sein muss.
 
Für folgende Aussage werde ich bestimmt gesteinigt:D
Nvidia kann die neuen GeForces über den Tesla- und Quadro-Markt quasi "subventionieren".

Sonst sehe ich das wie AffenJack.
 
Zurück
Oben