News Fotos und weitere Infos zum GT200 von Nvidia

Und ich prophezeie sie wird weitaus drüber liegen.
Mehr als doppelt so viele Transistoren wie G80, dazu ein höherer Takt und leichte Optimierungen = 2-3 fache G80 Power, huch die Zahl hatten wir schonmal. :D

9800 GX2 = 2 * 16 ROPs * 600Mhz = 2x 9600 MPix/s -> abzuglich SLI Effizienz -> 11520 MPix/s
GTX 280 = 32 ROPs * 600Mhz = 19200 MPix/s

Jetzt noch die Munkellei über den doppelten z-Takt hinzugefügt:
-> Dann wärs mehr als 3 fache 9800 GX2 Power, ohne Berücksichtung des kleinen VRAM auf der GX2.
 
Naja ich denke Ati könnte auch einen Chip herausbringen der stärker als der GT200 sein wird und die Karten den Enduser 800€ kosten.
Für mich ist das so ähnlich wie Anfangs mit der Playstation3 die sozusagen super HighEnd Konsole kostete einfach zu viel obwohl sie anderen überlegen war.

Also wenn man den Mainstreammarkt hernimmt wo die größeren Umsätze gemacht werden, dann glaube ich dass Ati mit der 4780 und 4850 und den kleineren Ablegern recht gut aufgestellt sein wird.
Denn um 200-300€ kriegt man bei Nvidia vielleicht nicht die Leistung von Ati zusammen und dann ändern sich die Marktanteile schlagartig.
Das ist so wie mit den Ferraris, die verkaufen ihre 500Stk. Pro Jahr, haben aber gegen VW umsatzmäßig nicht viel entgegen zu setzen.
Ich denke aber NV bringt noch middle und lower-end karten auch raus die sich eher gegen die 4850 und 4870 messen können.
 
Das ist von vorneherein klar, dass ds P/L-Verhältnis bei ATi deutlich besser wird.
Der GT-200 ist der deutlich schnellere Chip, damit wird nVidia die Leistungskrone weitertragen - zumindest den Monat, bis die 4870 X2 in den Regalen steht.
Außerdem: Meinen Vermutungen und Berechnungen nach wird die 4870 Crysis (DX 10)1600x1200, alle Details sehr hoch, 4x AA und 8x AF flüssig leisten können. Was mich auch noch zu ATi treibt: nVidia hat kein DX 10.1.
 
Wo willst du das 3000W-Netzteil herbekommen?
 
Macht doch einen Thread drüber auf.
 
An dem Gerücht, dass der GT200 der verschollene G90 ist, da könnte was dran sein. Wir werden es beim Release sehen, welche Features die Karte nun wirklich hat. Wenn sie keine Stromspartechniken und DX10.1 bietet, dann fände ich es persönlich nicht mehr zeitgemäß. Würde dann warscheinlich diese Generation auslassen. Mit ner 8800GTX kann man schließlich auch noch alles mit bester Quali spielen.
 
Was wollen immer alle mit D3D10.1?

Was haben alle gegen den Stromverbrauch? Hallo das Ding ist High-End, ohne Kompromisse einfach nur brachial schnell.

Was wird GT200 ständig mit RV770 vergleichen?
Gegner von RV770 ist weiterhin G92b, auch wenn G92b etwas lahmer wird, so wird er sparsamer und billiger.

Was wollen immer alle mit Multi GPU? Ein Chip ist nunmal besser als 2.

Warum ist es so schlimm, das es die selbe Generation ist? Wollt ihr echt alle jetzt 4 Jahre auf eine Nachfolgegeneration warten?
Was ist daran verwerflich ein gutes Design aufzubohren, das es am Ende 2-3 Mal so schnell ist?

Diese Behauptungen sind wohl einfach ohne jeglichen Hintergrund....
 
Zuletzt bearbeitet:
vor ein paar wochen sagte ati noch, im sommer den marktanteil auf 50% bei den grafikkarten steigern zu wollen.

da haben viele noch gelächelt.

nu weiß man, dass es realistisch sein wird.
 
Nicht ganz freiwillig? Da wird das große Geld verdient. Die paar Highendsysteme machen vielleicht 5% aus. Der Rest landet im Ich-Bin-Doch-Doof Rechner für 400€
 
Warum? Ist ja nicht so, das RV770 keine Konkurrenz hätte, die hat er nunmal nennt sich G92b.
 
du hast in so fern recht, dass mit der gehobenen mittelklasse deutlich mehr verdient wird als mit der highend-klasse. aber das ist auch gar nicht der sinn der highend. an der 8800ultra hat nv sicher keine riesen gewinne gemacht, weil da eben nur verhältnismäßig wenige von verkauft wurden.
bei solchen karten geht es eher ums prestige und vor allem um marketing. wenn otto-normalverbraucher in der computerbild liest dass auf platz 1 eine nvidia-karte ist, dann will er auch ne nvidia haben. wenn ne ati vorne steht will er halt ne ati haben.
darum ist die performancekrone interessant. der preis solcher karten ist eher nebensache. teilweise sogar extra hoch, weil sich die produktion kaum lohnt und gar nicht so eine hohe nachfrage gewünscht ist (siehe 7800gtx 512, nur teure selektierte chips, preise bis zu 1.000,- €!)
ich denke, dass ati schon gern so eine karte bauen würde, aber im moment einfach nicht die performance schafft. das gute dabei: ati gleicht dieses defizit durch andere vorteile wie eben dx10.1 und stromstparfunktionen und vor allem den preis aus. ich denke wir verdanken nicht zuletzt ati die aktuellen niedrigen preise.
 
Zuletzt bearbeitet:
naja ich werde ganz sicher KEINE 600 Steine für so eine Karte ausgeben, die nichmal richtig ne neue Generation ist... sprich: 65nm, dx10.1, stromverbrauch, kühlung, geräusch.... und das soll 600 euro kosten?? da wart ich ganz bestimmt lieber auf die 4870 x2 die sowieso besser sein wird mit WIRKLICH NEUEN SACHEN wie GDDR5 und auch nicht DX10.0 sondern 10.1 .... und vor allem wird sie NICHT 600 euro kosten..
Ich denke ATI hat es nun im Griff mit den dual GPU's wegen der 3870x2 und 3850 x2.. einige fehler sind bestimmt behoben...
 
du hast schon irgendwie recht damit.
dx 10.1 ist ein besonderes feature das ati besonders hervorhebt. ebenso sparmechanismen. das alles sind stärken von ati.
die rechenleistung ist die stärke von nvidia.
im moment liegen die stärken und schwerpunkte der beiden hersteller eben in unterschiedlichen bereichen. leistung auf der einen seite, moderne features auf der anderen. jeder muss selbst wissen was ihm wichtiger ist.
und darum kann man die 4870 nicht direkt mit der gtx280 vergleichen. allein schon weil sie auch preislich in völlig anderen liegen spielen...
 
Wenn D3D10.1 so ein besonderes Feature ist, dann müssen sie es auch mal aktiver bewerben.
Spielentwicklern bei der Implementierung helfen, sonst wird sich da nichts tun.

Solange da nichts passiert, habe ich recht damit, das D3D10.1 noch nicht nötig ist und nicht vermisst wird. Erst recht bei einer High-End Karte mit einer Halbwertszeit von einem Jahr.
Man kann natürlich immer behaupten, das nv schuld ist, das sich da nichts tut, aber davon das jemand schuld ist, wird D3D10.1 nicht wichtiger.
 
Zuletzt bearbeitet:
@ Unyu

toller kommentar.
Er strotzt nur so vor fakten.

@ sharpi
ich muss dich leider korrigieren, bei der Voodoo damals waren das auch keine nativen mehrkerner. Die haben quasi SLI benutzt. Bzw haben SLi erfunden und Nvidia hat es dann "nachgemacht" (auch wenn es anders funktioniert)

@topic:

ich bin schon sehr gespannt wie die Leistungsunterschiede sein werden, aber vor allem auch die Preis-/leistungs unterschiede!!
Man kann aber aus dem letzten satz schon erkennen, das nvidia wohl gemerkt hat, das ATI mit der "günstigeren Fertigung und dann lieber mehrere chips" philosophie eventuell besser für die Zukunft und für den eigentlichen markt gerüstet ist.

schliesslich wollen nicht alle leute unsummen an geld für einfach nur brachiale power ausgeben.
Innovative technologien und Preis/leistung ist sehr wichtig für 9x% der kunden.

Falls das alles stimmt, hoffe ich dass nvidia diesmal mit der generation auf die fresse fällt, damit die macht wieder besser verteilt wird.
Kann für den kunden, also uns, nur gut sein.
 
warscheinlich wird die 280er um die 500 euro kosten wie damals schon die gtx und dann innerhalb eines monats auf circa 400-450 fallen durch die anderen hersteller , bei der gtx war es auch so da schwankten die preise um circa 100 euro von hersteller zu hersteller

ich persönlich denke schon die 260 wird ati`s 4870 schlagen womit sich dann beide karten im preis nichts nehemen werden ;D

eine kleinere herstellungsverfahren kann auch dazu führen das man mehr ausschuss hat , nv produziert in 65nm und kann sicher sein das auch funktionierende chips rauskommen auch wenn mehr platz auf nem wafer verschwendet wird
 
Woher kommen eigentlich die 600 Euro, Dollar, oder was es sonst sein soll für die NVIDIA Karte?
Quellenangabe bitte, denn in der Meldung selbst steht davon nix!

@JJJT: 3Dfx hat SLI erfunden (und es auch so genannt), mit der Übernahme von 3Dfx durch NVIDIA wurden die Patente mit übernommen. NVIDIAs SLI ist substantiel das SLI von 3Dfx und funktioniert exakt so wie das 3Dfx SLI von damals...
 
Zuletzt bearbeitet:
mein gott die hälfte der postings schriben von preisen die keiner bestätigt was soll das seit ihr alle bei nvidia berufstätig oder was, ihr habt keine ahnung vom preis der geforce karten aber ihr wisst schon das es um die 500-600euro kosten wird.

das wird sie mit sicherheit nicht keine grafikkarte heutzutage wird mehr als 500euro kosten ausser spezielle matrox usw aber kein geforce dektop. diese zeiten sind vorbei.

und nvidia ist auf dem besten weg, denn sie wissen was sie tun.

dx10.1 mein gott wer braucht und wer kann mit dx10.1 spielen. ganz genau keiner garkeiner also wozu dx10.1 das liegt noch jahre vor uns und hat heute und hier noch nichts verloren, und da ist mir physX viel lieber denn das wird wenigstens hier und da noch unterstützt. Nvidia ist technologisch auf dem richtig weg.
 
Zuletzt bearbeitet:
Warum soll sie nicht so teuer werden?
Der Die wird unglaublich teuer, ein PCB für das 512bit SI wird auch nicht umsonst und dazu hat nv den Vorteil einer Karte, die konkurenzlos schnell ist.
 
Zurück
Oben