News Neue Gerüchte zu nVidias „G92“

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.819
Die Kollegen der VR-Zone haben neue Gerüchte um nVidias G92-Grafikchip zu bieten, die nicht zu den bisher für diesen Chip angenommenen Daten passen. Den neuen Informationen zufolge handelt es sich beim G92 nicht um einen zukünftigen High-End-Chip, sondern ein Modell für die gehobene Mittelklasse.

Zur News: Neue Gerüchte zu nVidias „G92“
 
Naja ich kann es wirklich nur begrüßen, wenn noch eine kleine Stromsparvariante der GPUs rauskommt, dann geht der Trend entlich mal in die richtige Richtung, bei noch vorhandener Grafikpower :)

Mfg Nikolaj
 
Ich versteh nicht ganz den Artikel? Für mich hört der sich so an als wär der G90/G92 ca. auf dem Niveau der 8800 GTS?
 
Freut mich dass die Leistungsaufnahme sinkt:) wird langsam auch mal Zeit.
Hoffentlich wird es auch so im G90 sein, ansonsten finde ich es auch echt gut dass sie ENDLICH auf 256bit Speicherinterface in den Mittelklassekarten aufmotzen:lol::D
 
Nvidia claims G92 will be a 1 Teraflop beast

Christmas waste


By Wily Ferret: Donnerstag 24 Mai 2007, 09:51

NVIDIA SAYS its G92 high-end graphics card will deliver almost a teraflop of computing performance.
In an analyst webcast, Nvidian Michael Hara says that the chip will be ready for Christmas, a release cycle the company adopted with G80, where high-end products come out for Chrimbo and the mid-range and low-end products hit in the spring.

This suggests a couple of things. One, that the delays we saw to the release of Nvidia hardware through 2006 and 2007 have now been factored into the schedule, to a point where we're going to see yearly updates of the high-end part every Q4. This is pretty nifty. Second, Nvidia doesn't see the benefit in releasing all three ranges of cards together, preferring to let the 'halo' effect of the high-end card provide a few months of advanced marketing for the mid-range parts.

Second, it puts DAAMIT between a rock and a hard place. AMD is readying Barcelona, and Intel is preparing its own native quad-core chip in Nehalem to hit at the same time. ATI will be prepping the R600 refresh for the end of the year and Nvidia will be hitting with the GeForce 9800. Tough stuff.

The actual power of G92 might surprise some. The 8800 can rustle up about 330Gflops, which means the green team is suggesting that the 9800 could be three times more powerful. If that's true, the question remains - why bother? What games are going to take advantage of that? If the answer is Crysis at 2560x1600, Nvidia better hope that the game doesn't slip much further than it already has. µ
 
@acmilan1899
Der G92 ja, der G90 nicht.
 
hier der link zur quelle klick
Ich versteh nicht ganz den Artikel? Für mich hört der sich so an als wär der G90/G92 ca. auf dem Niveau der 8800 GTS?

nich auf dem niveau sondern zwischen der 8800gts und der 8600gts also eher so ein mittelding naja wenn die so ca 200 euro kostet dann ist es mal gerechtfertigt und nicht so wie die verkrueppelte 8600gts das ist ja ein witz bei der p\l

aber mal abwarten
 
Ein 25-45W Mittelklasse Chip wäre genau das richtige .
 
find ich gut, aber PCI-e 2.0 ist eher ein Marketing-gag - die Karte wird mit dem alten Standard auch noch laufen.
zwischen 8600 mit 128bit Speicher und 8800 mit 320bit bzw. 384bit Speicherinterface ist dann auch die große Lücke geschlossen
 
abwarten und tee trinken.. aber wenn die wirklich stromsparend wird, ist sie definitiv interessant für mich.. von den ganzen aktuellen grafikchips gibts doch inzwischen keinen einzigen mehr, der mittels heatpipe passiv kühlbar ist, oder täusche ich mich da? (ich rede von denen, mit denen auch n bissl zocken möglich ist, also mittelklasse grafikkarten und highend)

EDIT: ok, hab mich getäuscht *lool* XFX 8600GT, das kann man sogar hier bei CB nachlesen^^
 
Die von nVidia vor Analysten in Aussicht gestellte Leistung von einem Teraflop dürfte sich also auf ein anderes Modell, möglicherweise die neue Basisvariante der kommenden Generation, den G90, und nicht auf den G92 beziehen.
Ich tippe da eher auf 2xG92 aka GX2-Variante. :)
 
NVidia will die Lücke zwischen Highend und Midrange Produkten schließen, sehr gut. Weil die Midrange sind ja eher Lowend Produkte ;)

Vor allem das 256bit Speicherinterface freut mich, wenn dazu die GPU noch sparsamer wird, umso besser.

Ich vermute AMD wird auch bald mit einer HD2700 nachlegen - ansonsten haben die Manager und die Entwicklung komplett verschlafen.
 
ich hoffe die lernen endlich! jetzt möcht ich nur noch sowas im notebook haben und alles wird gut. denn da ists auch zum kotzen. diese 128bit anbindung ist ekelig. lieber etwas weniger mhz dafür mehr speicherbandbreite.....

denn die hohen mhz sind "heisser" als so eine 256bit anbindung

die 8600M GT ist auch net der wahre bringer.... die Mobility HD2600 ist zwar n biskel schneller, aber trotzdem sind die karten zu lahm um aktuelle games in voller montur spielen zu können. das konnt ich mit meiner 7600er vor einem jahr aber! (also im sommer 2006 aktuelle games mit flüssig mit schöner grafik zocken)
 
Zuletzt bearbeitet:
Wenn der Stromverbrauch, echt gesenkt wird und die Karte 2DVI hat und am besten noch Passiv gekühlt ist, ersetz ich meine 8800GTS. Leistung ist mir egal, zock eh nix :evillol:
 
athlonforever schrieb:
Wenn der Stromverbrauch, echt gesenkt wird und die Karte 2DVI hat und am besten noch Passiv gekühlt ist, ersetz ich meine 8800GTS. Leistung ist mir egal, zock eh nix :evillol:

und wozu hast du dir eine 8800GTS geholt? :freak:
 
Keine Ahnung .... dachte damals, ich zocke dann mehr. War aber nicht so :lol:

Liegt aber auch dadran, das es momentan einfach keine Spiele gibt die mir zusagen.

:cool_alt:
 
leistung kann ja auch drüber liegen wenn die architektur etwas besser wird, es wird ja nicht die alte weiterverwendet, bin mal gespannt, jedoch ist meine x1950xt noch mehr als ausreichend und dx10 kaum in sicht, einzig crysis reizt mich da
 
naoki schrieb:
NVidia will die Lücke zwischen Highend und Midrange Produkten schließen [...]

Weißt du doch garnicht. Ich denk mal es ist nur die ganz normale Entwicklung von Generation zu Generation. Die 8600 ist schließlich auch stärker als die 7600, wenn ich mich nicht täusche. Da macht es nur Sinn, dass eine eventuelle 9600 dann wenigstens ein *kleines* Stück über der 8600 liegt... ;)
 
Zurück
Oben