NVIDIA G80 Vorstellungstermin bekannt

Clubstar06 schrieb:
warum steht da das der GDDR3 speicher nutzt!


Wundert mich auch ein wenig. ATI hat ja schonmal DDR4 verwendet, Nvidia noch nicht. Vielleicht dann der 8900. Denke aber das der R600 DDR4 haben wird, wäre ja sonst ein Rückschritt.
 
angeblich soll der g80 ja ein 384bit speicherinterface haben
dann reichen 900mhz dicke

das kämen 1350mhz bei nem 256bit SI gleich
 
Wenn die Daten wirklich stimmen scheint die Karte nicht nur von der Performance her ein wahres Monster zu werden. ;)

mFg tAk
 
trotzdem ich will gddr4 speicher das was mir versprochen wurde will ich auch haben ...Aber es sieht eigentlich sehr gut aus am 25 oktober geht vista in die massenproduktion und erscheint dann auch anfang nächstens jahres für den endbenutzer..
 
Die ersten würde ich nicht kaufen, die Preise werden sicherlich ab 400€ losgehen. Mal sehn, wie der Stromverbrauch seihen wird.
 
War nicht die Rede davon dass die Einstiegspreise bei um die 600€ liegen sollen?
 
Bei der 8800GTX sicherlich, zumal wenn die Meldung mit der serienmäßigen WaKü stimmen sollte :rolleyes: .
Aber wenn die Karte wirklich solch ein Performance-Monster wird, ist mir das nicht zuviel.

Mfg
 
nachtlampe schrieb:
Die ersten würde ich nicht kaufen, die Preise werden sicherlich ab 400€ losgehen. Mal sehn, wie der Stromverbrauch seihen wird.

Was ist denn das für ne Sprache:rolleyes: :lol: sorry, musste sein^^
 
Welche Sprache? Das ist indikativ-konjunktiviertes-Plusquamperfekt von "sein" :p

Spaß bei Seite: In spätestens 2 Wochen wissen wir dann, ob diese ominösen Bilder irgend einen frühen G80 Prototyp zeigen, ob es ein Fake ist oder es sich um einen Prototypen einer schon längst erschienen Karte handelt.

Es wird erst dann so richtig interessant, wenn die ersten unabhängigen Berichte über die Leistungsfähigkeit des G80 im Netz auftauchen. Nicht minder interessant sind dann noch Stromverbrauch, Anforderungen ans Netzteil und Lautstärke der wie auch immer aussehenden Kühlung. Dass der Preis sehr hoch ausfallen wird, ist, wie üblich im High-End Bereich, schonmal (leider) klar. Aber dadurch fallen sicherlich nochmals die Preise der aktuellen High-End Generation, was die Mehrheit der willigen Käufer wohl viel eher freuen wird.
 
Zuletzt bearbeitet:
Clubstar06 schrieb:
trotzdem ich will gddr4 speicher das was mir versprochen wurde will ich auch haben ...
sorry, aber da muss ich lachen
wo hat denn nvidia da was versprochen?
was andere für gerüchte verbreiten, da kann nvidia nichts für
ausserdem kommt s auf die leistung an
man sollte sich da nicht an einem feature oder in dem fall speicher aufgeilen

ist doch toll das das ding mehr speicherbandbreite hat als andere chips mit gddr4
ist doch egal wie die zustande kommt, ob durch den takt oder ein breiteres interface

ansonsten wart auf den refresh, da brauch man kein prophet zu sein um zu sagen das dieser höher getakteten speicher besitzt
 
also für 200€ würde ich auch eine 8800GT/GTX kaufen (...man achte bitte auf den konjunktiv) ;-)

spass bei seite, aber paar Hunderte von Euros und mehr leistung ist ja wirklich schön, aber das dingen frisst und frisst und frisst....
mich würde es nicht wundern, wenn die stromanbieter ihre preise wieder nach oben schrauben werden.
 
Oder die Stromanbieter bieten ein extra Paket für den G80 an. ;)

mFg tAk
 
Clubstar06 schrieb:
575 mhz chiptakt ist eindeutig zu wenig ich habe gedacht das endlich mal einer mit über 700 rauskommt


6800 GT -> 350mhz Core
6600 GT -> 500mhz Core

wer war schneller? ://


hirn bitte nicht immer auf standby laufen lassen
 
Lutschtablette schrieb:
Wenn ATI beim R600 kein PCF (zur Schattenfilterung, damits nicht so aussieht wie bei BF2) einbaut, können die ihren R600 knicken. Ich will doch keine Pixelschatten.

Mit der Shaderleistung der R600 könnte man PCF auch locker im Shader implementieren(wenn die Devs nicht zu faul sind;) )

Was die Preisspekulationen angeht:
Für 400EUR wird man die Karte kaum kriegen, vorerst gibts ja keine echte Konkurrenz, warum sollte Nvidia nicht die "Early Adopters" melken? Je teurer, desto höher ist auch der Prestigefaktor :king:
Mein Tip: 650€ (für die GTX, wenn die Specs halbwegs stimmen)

Aber man wird sehen...
 
Endlich!

Ich freue mich erstmal mehr drauf das endlich die Spekulationen der Vergangenheit angehören und mal die "echten" Daten zum Vorschein kommen.

Ob ich mich danach auch noch auf die Karte freue, muss man erstmal abwarten;)
 
Du kannst ja dann anfangen über den G90 (?) zu spekulieren. Wenn man's so nimmt scheint das kein Ende zu haben. ;)

mFg tAk
 
ownagi schrieb:
6800 GT -> 350mhz Core
6600 GT -> 500mhz Core

wer war schneller? ://


hirn bitte nicht immer auf standby laufen lassen

So ist es.
Wozu höher takten? Das erhöht nur wieder die Abwärme und den Stromverbrauch. Viel wichtiger ist doch da die Speicheranbindung und die PP.
 
mehr transistoren erhöhen auch den stromverbrauch!
allerdings ist es wirklich ne unsitte nur auf den takt zu schielen, sah man doch auch schön am nv40 und r420 und und und
(oder bei den cpus noch deutlicher)
wichtig ist im grunde nur die endperformance, wie das gemacht wurde ist mir eigentlich egal, solange nicht zu viel an der wattage oder bildquali gedreht wird
 
Zurück
Oben