News Kommt Nvidias „G92“ am 12. November?

Ob man dem glauben schenken kann ist sowieso fraglich. Es tauchen ja jetzt fast täglich neue/andere Meldungen über den G92 Chip auf.

Nvidia soll endlich mal Licht ins Dunkeln bringen.
 
die quellen sind bei sowas geheim, weil ihnen das oft ein nvidia mitarbeiter oder grafikkartenpartner geflüster hat (oder auch nicht). wenn man den namen oder den partner nennt, dann wird der von nvidia wegen geheimnisverrat angeklagt oder sonstwas ;)

leider gibt es zum G92 sooo viele gerüchte. von leicht verbessertem 8600 mit 265bit SI, über geshrinkten G80 bis ultra graka mit 512bit SI (singel 1*512 oder dual-gpu, also 2*256). da weis man echt nicht mehr, was man glauben soll.
 
Vor ein paar woochen klins es so:

bombastisches 512 bit speicherinterface, 2200Mhz DDR4, 1Ghz Core und über ein teraflop durchsatzt,

...die 8600GTS sollte ja auch 64 shader haben :lol:
 
Nvidia soll endlich mal Licht ins Dunkeln bringen.

Warum sollten sie das tun?
nV ist laufend weltweit in den News und so gut wie alle relevanten Foren mit Graka Diskussionen zerreißen sich seit Monaten darüber was der G92 denn nun wird.

Besseres, kostenloses Marketing gibts doch gar nicht. ;)

Ansonsten:
nVidias Michael Hara hat zum Ende des Jahres ein Produkt angekündigt, das ein 1 TFlop zustande bringt.
Ob das nun ein einzelner Chip wird oder es sich evtl. um 2 G92 handelt bleibt abzuwarten.
Auf jeden Fall wird dort noch etwas kommen.
 
SlB schrieb:
Hier entbrennt ja mal wieder eine schicke Diskussion :)! Diese Tipps von wegen nen g80 gtx nicht mehr kaufen sind zu verfrüht. Finde, man sollte wenigstens mal abwarten, was da an Leistung von dem G92 zu bekommen ist.

MEIN TIPP ist NIEMALS ne 8800GTX (oder halt irgendein Highend Grafikchip) zu kaufen, denn wenn eine neue Grafikkartengeneration kommt, ist die eh schneller und günstiger (siehe 8800GTS zu 7950GX2 z.B.) und zum zocken reicht die "Mittelklasse" (lol) locker aus. Dadurch, dass die die meisten Spiele eh für PS3 und XBOX360 umgesetzt werden, müssen sie so programmiert werden, dass sie auf den Konsolen noch vernünftig laufen, siehe z.B. Bioshock, das läuft ja sogar mit meiner 7800gt annehmbar. Eine Highend Graka verliert einfach zu viel an Wert über die Zeit, als Beispiel kann ich meine (leider) eigenen Erfahrungen schildern: Für meine X850XT (brandneu für ~550€ gekauft) hab ich ein halbes Jahr später noch ~300€ bekommen (fragt mich jetzt lieber nicht warum ich die wieder verkauft hab :freak:), für meine 7800GT (gekauft für 300€) bekomm ich jetzt, nach ungefähr 2 Jahren, immer noch n hunni.
Eine GTX schmeißt man auch nicht so leicht raus, weil man immer denkt, dass man mal so viel Geld bezahlt hat und damit man einen bedeutenden Geschwindigkeitszuwachs bei einer neuen Grakageneration hat, muss man sich ja eigentlich wieder ne GTX zulegen. Anders bei meiner 7800GT, war eh nicht so teuer, die 8800GTS320 ist wesentlich schneller und kostet auch nicht viel, da kann man schön jedes Jahr ne neue Graka reinstecken. Ich machs trotzdem nicht, weil ich einfach noch die nächste Grakageneration abwarte.
Wer natürlich zuviel Geld hat, kein Problem. Will ja keinem verbieten sein Geld zu verbrennen :D.
 
Zuletzt bearbeitet:
Realsmasher schrieb:
wozu sollte es auch eine neue highend grafikkarte geben ? die gtx verkauft sich doch für ihren viel zu hohen Preis hervorragend und nvidia kann gewinn ohne ende machen.
Hallo,

die wird kommen, da bin ich mir sicher.
Und zwar, um den Usern das Geld aus der Tasche zu ziehen, denen eine GTX/Ultra zu "langsam" ist.
5 Frames mehr und schon sind die Gamer glücklich. Man kann immer abkassieren. ;)

Ansonsten: KAOZNAKE bringt es auf den Punkt.
 
Eine neue High End Karte bringt sicherlich viel Geld ein, aber wie hoch ist denn der Anteil an Gamern, die sie wirklich kaufen. Die Mittelklasse Karten sind doch viel mehr im Fokus und auch fuer nicht Gamer interessant.
 
High-End Karten sind lediglich Prestigeobjekte. Mehr nicht. Das Geld wird im Mainstream, bzw. Low-Cost Bereich gemacht. Die Karten werden im viel größeren Umfang verkauft. Allein schon durch die OEM-Hersteller irgendwelcher Komplettsysteme. Im Gegenzug dazu ist der Anteil der High-End Karten verschwindend gering.
 
@daniel16420

Ich glaub das gleiche wie du, Crysis wird auch von NVIDIA optimiert und da Crysis so eine hohe Anforderung hat will es ja jeder auf max spielen und darum muss ne neue GRaka her.
Und es werden verdammt viele Crysis kaufen und auf manchen Seiten gibt es Umfragen.

Kauft ihr euch für Crysis neue Hardware: Da is das Ergebniss oft JA!

Darum glaube ich das^^

mFg Tobi
 
Hast du dir schonmal überlegt, wie gross der Anteil der Leute ist, die an solchen Umfragen teilnehmen?

Das repräsentiert niemals die Mehrheit aller PC User.

mFg tAk
 
Also solche Sprüche wie Prestigeobject etc kann man sich echt sparen.
Es soll Leute geben die diese Karten wirklich brauchen.

Ich habe schon ne 8800GTX und sitze hier trotzdem wie auf Kohlen und warte auf die neue High-End Karte.

Das hat bei mir 3 Gründe:

1. NVIDIA hat es versäumt der 8800GTX das Purevideo 2 zu spendieren.
(Brauche ich für H264 1080i weil alle verfügbaren [Software/DXVA1] Filter dafür einfach nur Schrott sind im Vergleich zu Purevideo2)

2. Unterstützt die 8800GTX kein HDCP bei DualLink-DVI

3. Die 8800GTX ist für Crysis auf meinem Monitor einfach zu langsam (30" 2560*1600)


Deswegen würde es mir auch nix bringen eine 2. 8800GTX dazuzustecken ... Ich hoffe doch sehr das NVIDIA mit Crysis zusammen auch eine neue Highendkarte mit minimum Purevideo2 rausbringt.
 
Zuletzt bearbeitet:
also da muss ich orb recht geben, es handelt sich zwar oft um statussymbole und 'schwanzvergleiche' aber bei nem 30 zöller und allgemein hohen ansprüchen ist es durchaus zweckmässig. ich kaufe mir auch immer high end karten, die dann allerdings auch nur in 3 jahres intervallen ausgetauscht werden.
 
hab ich auch grad auf tweakpc gelesen. schade eigentlich, hatte mich auf den g92 gefreut aber jetzt wirds wohl doch ne 8800gts 640 zum ende des jahres....
 
nun, die karte ist immerhin mehr doppelt so schnell wie eine 8600GTS:
- 64 statt 32 SP
- 256 statt 128 bit SI
- 512 statt 256mb ram
- 740 statt 675 mhz coretakt

wenn der stromverbrauch stimmt und der preis auch, dann kann man über die karte reden.
 
Zurück
Oben