News Fotos und weitere Infos zum GT200 von Nvidia

Für jemand der vor ~2 Jahren 500EUR für ne 8800GTX bezahlt hat ist es schon enttäuschen, dass die Karte nicht DX10.1 unterstützen wird. Dass der Unterschied nicht so marginal ist wie gerne behauptet hat Assassins Creed doch gezeigt?! So wies aussieht wartet Nvidia tatsächlich bis DX11 kommt bevor sie hier was tun - dann wird es halt wieder ne ATI Karte bei mir :P
 
Der Grund warum die 512 bit bei der 2900 XT einfach verpufft sind liegt einfach an der Architektur des R600 welcher einfach mit der hohen Bandbreite nichts anfangen konnte. Gerade beim Einsatz von FSAA wo die hohe Bandbreite am meisten von Vorteil gewesen wäre hatte die R600 GPU ihre größsten Schwächen.

Sollten sich jedoch die Specs der GTX280 mit 240 Shadereinheiten usw. als wahr herausstellen ist die Erhöhung der Speicherbandbreite meiner Meinung nach sogar dringend notwendig.

MfG

Sparefankerl
 
Da binn ich auch mal gespannt was die Karte leisten wird und zu was für einem Preis, und Stromhunger, aber interesanter könnte da die GTX260 werden, die wohl nicht allzuviel langasamer sein wird, aber warscheinlich doch um einiges günstiger sein könnte, interesant ist auch ob mann die Deaktivierten Shadercluster aktivieren kann.

Die Chipgröße dürfte es einfacher machen das "Monster" zu kühlen.
 
Erst mal abwarten wg. Dx10.1 ... riecht zwar schon nach Druck seitens Nvidia, bei der Assassin's Creed Geschichte, aber...

Bis gaaaaanz kurz vor dem Release hieß es ja beim G80 damals auch, er käme ohne Unified Shader Modell daher. Und FLAPP! - da war es plötzlich.
 
Ich habe seit über einem Jahre meine 8800GTX SSC, und diese ist noch immer einer der schnellesten und wird für zukünfitge Games, die kommen noch mehr als genügen um in max. details zu Spielen.
das Erste wirckliche Game, welches eventuell nicht mehr flüssig läuft ist: Alone in the Darkness auf max Details
 
was es bringen würde ist doch klar: man könnte wieder wie zu gf6 zeiten per riva-tuner z b die shader aktivieren um die leistung zu steigern.
allerdings bezweifel ich dass nv das nochmal machen wird, besonders bei einem so teuren chip. die umfangreichen einschnitte beim gtx260 lassen mich vermuten, dass die beiden preislich gesehn doch sehr weit auseinander driften werden. sollte nv das freischalten von shadern wieder zulassen, würden viele potentielle kunden den aufpreis zur gtx280 sparen und durch shaderreaktivierung und oc die leistung der gx260 selbst steigern. dann bliebe nur noch das si und der ram als (geringfügiger) unterschied.
also ich denke du hast recht und die werden die shader, insbesondere bei teildefekten chips per lasercut beschneiden.
 
ähm, zu der zeit als die 8800gtx rauskam gab es noch garkein directx 10.1. und falls du es vergessen hast, hat es da auch noch ne weile gedauert bis ati ihre dx 10 karte auf den markt geworfen hat. und jeder der sich damals ne 8800gtx gekauft hat, kann sich, wenn er mag heute genausogut eine ati karte kaufen die dx 10.1 unterstützt. die einzigen idioten sind wohl hier die fanboys (wie du anscheinend) die nur von einem bestimmten hersteller ihre grafikkarte kaufen wollen.
 
Vielleicht hat es Nvidia auch nicht nötig Dx10.1 zu nutzen, da vielleicht der GTX280 über so eine enorme Power verfügt das mann darauf verzichten kann oder will könnte auch sein, und wegen einem Game son aufriss machen die meisten User nutzen nichtmal DX10 also braucht sich Nvidia da keinen allzugroßen kopf machen, aber vielleicht werden wir ja doch überrascht und die Karten habens doch.
 
Zuletzt bearbeitet:
Ich finde man darf auch nicht die GeForce GTX 280 mit einer HD 4870 vergleichen, da beide Grafikkarten völlig andere Bereiche ansprechen.
Für die Highend Klasse wird ja schließlich eine HD 4870x2 hergestellt.
Die für mich klar im Vorteil liegt (Dx10.1, 55nm, etc.).
Außerdem sollte man erstmal die ganzen Tests abwarten.
 
Zuletzt bearbeitet:
Mal kurz nachgerechnet (bei Annahme von ~1700 MHz Shadertakt bei der GTX 280, ähnlich wie bei der 9800 GTX):

9800 GX2 = 2x 3 FLOPS * 128 * 1500 = 2x 576 GFLOPS = 1152 GFLOPS
GTX 280 = 3 FLOPS * 240 * 1700 = 1224 GFLOPS

Macht also ~6% mehr Shaderleistung. Sollte nVidia an den Shadern bzw. SPs nicht massiv geschraubt haben, was eher unwahrscheinlich ist, wird deine Prognose nicht zutreffen.
 
Wann soll ungefähr die GTX280 kommen?
Die Namensgebung finde ich auch Klasse.
 
ich hab die vermutung dass es sich beim gt200 um den g90 handelt, der ja ursprünglich mal für 11/2007 geplant war, aber gestrichen wurde. das würde erklären warum der gtx200 immernoch kein dx 10.1 beherscht, das war zu dem zeitpunkt, wo der chip entwickelt wurde einfach noch nicht stand der technik.
das gleiche gilt für die fehlende stromsparfunktion: als ati mit dieser inovation auf den markt kam, war der g90 (der angeblich etwa 1,5 bis 2 mal so schnell wie der g80 sein sollte, was auch zum gt200 passt) ja schon lange fertig.
imho will nv mit dem bereits entwickelten g90 nochmal geld verdienen. das wäre auch eine erklärung für die gerüchte, beim gt200 handele es sich um 2 g92. der g92 könnte tatsächlich ein Ableger des g90 sein, halt nur beschnitten wie ein g86 zum g80. in dem fall dürfte der gt200 eine enorme leistung bieten allerding nicht viele technische neuerungen (wie eben dx10.1 und stromsparfunktion) beinhalten.
im übrigen hab ich auch gelesen dass der nachfolger des gt200 der g100 sein soll... könnte auch ein inditz für einen umgelabelten g90 sein.
was haltet ihr davon`?
 
Zuletzt bearbeitet:
Sie wird Ende Juni vorgestellt und im August warscheinlich verfügbar sein (bitte verbessert mich, falls dies falsch sein sollte).
 
Das könnte gut der Fall sein. recht Interessant ;)

Dies würde eigentlich bedeuten das Sie enorm an Kosten sparen, weil die Grafikkarte ja schon teilweise fertig war.
Ich denke das wird sich eventuell in den Billanzen wiederspiegeln.
 
Oh mein Gott ich kotz gleich:kotz:
dass der GT200 angeblich Nvidias letzte High-End-GPU sein soll, die aus einem einzigen DIE besteht.
Ich kauf mir keine GPU die unter Microrucklern und massig SLI Nachteilen leidet

Entweder sie bekommen die Microruckler und Skalierung+ Treiberunterstützung in den Griff oder ich kaufe mir keine High End Karten mehr. Ich lasse mir auf den Fall nicht so schnell SLI aufzwingen.
Für 500€ will ich 100% Qualität und keine Probleme kaufen.

Wenn die nächste Architektur, die eigentlich noch dieses Jahr kommen müsste, es nur schafft die Leistung zu steigern mit 2 GPUs ala GX2 dann ist das ein Rückschritt. Da kann mich mir ja gleich 2x GT200 kaufen.
 
Zuletzt bearbeitet:
@Lübke:
Sowas in der Art hab ich mir auch schon überlegt. Wäre ja verständlich das NV das Geld was bei der Entwicklung investiert wurde wieder rein holen möchte.
Ich hab mir auch schon überlegt wo der G90 geblieben ist... da ja der G92 auf nen G90 hinweist und NV bisher immer mit Gx0 gestart ist (bzw. den für die Highend Produkte genutzt hat).

@Topic:
Mh, das mit D10.1 find ich jetzt zwar nicht ganz so schlimm - momentan braucht mans ja auch nicht - aber wer 500€ für ne Graka ausgibt sollte ja doch etwas Zukunftssicherheit besitzen.

Ich war eigentlich überzeugt davon den G200 zu kaufen, allerdings schrecken mich jetzt Dinge wie Stromverbrauch, Preis, Kühlmöglichkeiten (silent) und kein DX10.1 ab. Aber da alles noch spekulativ ist heißt es abwarten bis es richtige Tests gibt und die Karten verfügbar sind.
Dann wird entschieden.

Vielleicht hat ja ATI doch noch nen Trumpf im Ärmel was bessere DualGPU Unterstützung heißt.
Gerade hierzu stell ich mir die Frage wann mal ne nativer DualGPU kommt. Nicht so 2 Chips auf ein PCP geklatscht.
 
Hm,
also ich find es völlig in Ordnung.
Wenn in diese Richtung entwickelt wird, wird somit auch mehr geforscht und so werden sie das bestimmt in den Griff bekommen.
Außerdem der Leistungsvorteil größer.
 
Zurück
Oben