News Fotos und weitere Infos zum GT200 von Nvidia

"Da der NVIDIA Chip gut doppelt so groß ist wie der ATI Chip, passen auf einem Waver auch nur halb so viele Chips."
Sogar noch deutlich weniger. RV770 soll eine DIE Fläche von 256mm² haben, GT200 von 576mm². GT200 ist also 2,25 mal so gross. Hinzu kommt, dass bei kleineren DIEs die Wafer Fläche auch effizienter genutzt werden kann, Stichwort Waferrand. Ich würde also eher vermuten, dass auf einen Wafer 2,5-3 mal so viele RV770 als GT200 Chips passen.

"Daher sollte eigentlich eine Grafikkarte mit 2 ATI Chips genauso teuer in der Herstellung sein wie 1 Nvidia Chip. 2 ATI Chips haben dann wieder mehr Leistung als 1 NVIDIA Chip. Zudem verdiehnt ATI doppelt, indem man 2 Chips verkauft, während NVIDIA nur 1 Chip verkauft."
Auch dies ist recht einfach kalkuliert. Da der Chip bei nVidia deutlich grösser ist, werden auch die Yields dementsprechend schlechter sein. Soll heissen, relativ gesehen kann ATI nochmal mehr funktionsfähige Chips aus dem Wafer schneiden als nVidia. Und dann sind wir schon bei Faktor 3-4.
So langsam habe ich das Gefühl, der GT200 wird wirtschaftlich eine totale Katastrophe. Vielleicht kann nVidia das Ruder noch mit 55nm rumreissen, denn dann verkleinert sich die DIE Fläche um knapp 30%. Wäre also "nur" noch gute 60% grösser als RV770. Momentan sieht es jedenfalls nicht gut aus. ATI wird weitaus mehr an RV770 absetzen. Und selbst wenn dieser dreimal so preiswert wäre, würden sie wohl immer noch mehr Gewinn als nVidia mit dem GT200 machen.
Zumindest muss man nVidia zugestehen, dass sie endlich eingesehen haben, dass solche Monsterchips wirtschaftlich unvernünftig sind und in Zukunft auch nicht mehr machen wollen. Das kann man machen, wenn man fertigungstechnisch führende Möglichkeiten hat und eher ein Nischenunternehemen ist, wo sehr hohe Margen möglich sind. Beides trifft auf nVidia nicht zu. Chips wie der RV770 sind preiswerter, flexibler und genau das, was du für dieses Marktsegment brauchst. Vorausgesetzt, die kolportierten Leistungsdaten stimmen annähernd.

Btw, der GT200 soll ein High-End Chip sein und nicht mal die letzte DX Spezifikation unterstützen, was ATI schon bei der letzten Generation hinbekommen hat? Das finde ich ziemlich schwach. Woran liegt es denn, nVidia? Bringt das bei eurer Architektur nix oder hat die Zeit nicht gereicht? Das wäre ja ok. Aber seid dann wenigstens so anständig und verhindert nicht die Nutzung von DX10.1, siehe AC.
 
Zuletzt bearbeitet:
Ja zwei native gab es ja schon ein Mal, sogar 6 native *voodoo zeiten zurück denk*.
Nvidia hatte dieses Jahr an einer Presekonfoerenz folgendes ausgesagt, als ein Reporter diese Frage stellte.
Das dies zurzeit mit dieser Technik nur sehr schwer zu erreichen sei und zu kostenintesiv sei aber warscheindlich ist das viel grössere Problem die hize Entwiklung.
 
Zuletzt bearbeitet:
Das steht derweil auch nirgends. Es steht nur, dass es das letzte High-End-Modell mit Single-Chip werden soll. Natürlich gibt es die Single-GPU-Karten auch weiterhin, zählen dann nur nicht mehr offiziell als High-End-Modelle. ;)
 
Ich kenne mich ja nicht mit DirectX aus, da ich prinzipiell nur mit OpenGL arbeite, aber beschrenken sich die Unterschiede zwischen DX10 und DX10.1 wirklich nur auf die performance? Als Entwickler, und um diese geht es schließlich, wäre es eher interessant, welche Funktionalitäten DX10.1 mitbringt. Mir persönlich wäre an dieser Stelle die Leistung eher gleichgültig.
 
Jaja, der Leistungsvorteil ist schon seit der GF 6 "größer" und geforscht wird schon lange vor der GF6, will erstmal Fakten und Tests mit einem SLI Setup sehen das 100% so gut funktioniert und effizient arbeitet wie eine single Lösung ansonst ist das überhaupt nicht OK. NV hat vor kurzem noch gesagt das es nicht nötig ist die Multi GPU Schiene zu fahren da GPUs sowieso schon paralell arbeiten. Wenn sie es jetzt doch tun dann sagen sie nix anders als das sie keine neue Architektur mehr entwickeln können auf single Core Basis die den G80 toppt(alles nachher ist nur ein Refresh inkl. GT200)
 
Klingt durchaus plausibel.
 
Sieht ja nach einer ordentlichen Fehlkonstruktion aus (dies wie alles folgende vorausgesetzt, die [häufigsten] Gerüchte stimmen):

1) Ich würde erwarten, dass der RV770 wesentlich früher fertig ist: in den letzten Monaten gab es bedeutend mehr Gerüchte um ATI(AMD), daher würde ich vermuten, dass die neuen AMD-Karten schon kurz nach der Vorstellung in Stückzahlen auf dem Markt sind während die NVidia-Karte jetzt nur schon mal vorgestellt wird, um ein paar Benchmarks rauszuhauen in der Hoffnung, dass die High-End-Kunden mit der nächsten Anschaffung noch etwas warten.
NVidia stellt ja auch traditionell lieber kurz vor Weihnachten vor.
Für einen späteren Start spricht ausserdem die GF9er-Serie. Die ist ncoh nicht lange genug her -- es sind ja noch nicht mal alle Karten vorgestellt und NVidia wird ja wohl kaum Karten für ein Verkaufsfenster von drei Wochen entwickelt haben...

2) Der Chip ist zu gross. Man hat es zwar publikumswirksam geschafft, über 1G Transistoren auf die Karte zu packen, aber dadurch werden die Produktionskosten eben entsprechend: über 100$. Bezahlt werden wollen ausserdem:
- Nvidia
- Die Leute, die die Karte zusammenschrauben (+Einzelteile wie teurer RAM)
- Die Händler, die das Ding dem Kunden verkaufen
- Logistik kostet auch Geld
AMD geht gleich mit Kampfpreisen von 350$ an den Start (Strassenpreis dann <300$).

Auf einen Preiskampf ist dieser Chip einfach nicht ausgelegt, sondern eher auf die für NVidia seeligen Zeiten, als man die 8800GTX zu beliebigem Preis verkaufen konnte weil ATI lange Zeit gar keine und später eine völlig vergurkte Konkurrenz (HD2900) am Start hatte.
30% mehr Leistung werden da nicht den doppelten Preis rechtfertigen, besonders wenn erst einmal die HD4870X2 an den Start geht.

3) Letzter Punkt ist die Leistungsaufnahme: mich interessiert da in erster Linie der idle-Modus. Da sieht AMD schon jetzt um Längen besser aus, und den Gerüchten zufolge soll sich das noch verbessert haben (von <20Watt im idle war bei der 4870 mal die Rede -- wie glaubwürdig das ist, werden wir bald sehen). Und der Punkt wird bei den heutigen Stromkosten immer wichtiger :(

Zusammenfassend: NVidia scheint mir genau die Fehler gemacht zu haben, aus denen ATI bei der HD2900 gelernt hat, und ein überdimensioniertes Monster gebaut, dessen Mehrleistung nicht gross genug ist, um einen hohen Preis zu rechtfertigen, die aber in der Produktion zu teuer ist, um einen Preiskampf mit AMD zu betreiben. -- wie gesagt, falls die mittlerweile recht konkreten Gerüchte stimmen.

Ich hoffe, das stimmt: NVidia geht es gut, die können sich notfalls einen Fehlschlag leisten (auch wenn es ihnen nicht gefällt); AMD hingegen kann jeden € brauchen, um am Leben zu bleiben, was wohl im Interessa aller Kunden ist.

€dit: Wow, ist ja ein eigener Artikel geworden ;-)
 
Zuletzt bearbeitet:
hoffentlich geht der Schuss von ATI nicht nach hinten los! NV wird bestimmt wieder gute MidRange Karten bringen. Solange sie also die Leistungskrone haben, werden viele trotzdem aus "Unwissen" wieder zu NV greifen!

wieso NV das Thema DX10.1 dermaßen unter dem Teppich kehrt kann nur bedeuten dass sie derzeit DX10.1 nicht wuppen können/wollen und sie dadurch ATI Leistung abgraben!
 
Zuletzt bearbeitet:
Ich finde es interessant, dass man bei CPUs die Größe des Prozessors fast gleich halten konnte, die Leistung aber drastisch gesteigert hat. Bei den Grafikkarten kauft man inzwischen fast 30 cm Monster, die nicht nur in manche Gehäuse gar nicht passen, sondern die auch noch entgegen dem (hoffentlich gewollten) Umwelt-Trend alles andere als sinnvoll sind.
Meine Entscheidung geht in Sachen Strom sparen eher Richtung Ati. Auch der Preis ist für mich ein Kriterium, dabei kann man jedoch Hersteller übergreifend entscheiden, welche Karte in welcher Preisregion mit wieviel Stromverbrauch bzw. Leistung agiert.
 
Wieso soll AMD/ATI der deutliche Sieger sein? Im moment sind alle nvidia-Karten von der P/L-Leistung auch im midend-Sektor besser (8800GTvsHd3870, 9600GTvsHd3850). Was die neuen Karten bringen ... wer weiß.
 
Das Problem soll ja mit neuen Treibern lt. Nvidia in den Griff zu kriegen sein. Die Lösung wird wohl noch verfeinert - habe ich in News hier gelesen.
 
Hat NVidia eigentlich technische Probleme das Sie kein DX10.1 unterstützen?
Ist ja doch schon seltsam da es ja offensichtlich Leistung bringt.
Schätze mal das wird für User die ATI nutzen schlecht sein, da NVidia seine Kohle spielen lassen wird um DX10.1 zu unterdrücken.
Siehe AC!!!
Gruss ST
 
Schon klar, dass bei einer einzelnen GPU die Shader momentan noch effizienter genutzt werden können. Zumindest wenn wir über Spiele reden. GPGPU ist das zB völlig egal. Es ging mir ja nur um die theoretisch maximale Shaderleistung und dass die Aussage von cyrezz so bezugslos einfach daneben ist. Über den Shadertakt weiss man auch noch nichts. Könnte auch sein, dass der wie bei der GX2 nur bei 1500 MHz liegt.
 
Zuletzt bearbeitet:
Der GT200 ist in der Tat ein Nischenprodukt und zwar für High-End Gamer. Da in diesem Segment Mehrleistung und Mehrpreis nicht linear sind, kann es durchaus lohnenswert für nVidia werden. Ob ich an drei Chips 10$ verdiene oder 30$ an einem einzigen ist dabei egal. Nvidia wird durchaus auch andere Chips herstellen und gegen den RV770 setzen. Der G92 z.B. in 55nm mit höheren Taktraten kann die 25% Vorsprung des RV770 schnell dahinschmelzen lassen und ist in der Produktion wohl nicht teurer.
Nicht zu vergessen das Prestige, das nVidia mit dem GT200 hinzugewinnt.
 
bohh ich hab gerade 2 Bier hinter mir und 2 Tage Urlaub yeah! ich hab den Text nicht gerafft, echt nicht.
gute nacht ich leg mich hin.
 
Das mit dem Treiber fix ist mir auch bekannt, NV sagt es ist zu Lösen, ATI sagt es geht nicht. Irgend wo in der Mitte liegt die Wahrheit und sehr viele Nachteile von SLI lassen sich nicht wegpatchen. Eine Multi GPU Karte wird immer ineffizienter arbeiten als eine single Lösung, schon allein deswegen will ich keine dual Core GPU sehen. Des weitern hat das NV auch so gesagt und Multi GPU als Weg in die Zukunft abgelehnt!(naja ist sowieso nur ein Gerücht und eigentlich total unglaubwürdig also abwarten und Tee trinken)
 
Ha jetzt weiß ich auch warum Assassins Creed den 10.1 Patch abgeschafft hat ;D
Gerade ne Mail bekommen:
Betreff: Gewinne eine GeForce Grafikkarte mit NVIDIA und Assassins Creed!
Newsletter von NVIDIA direkt ;)
 
Naja das der G200 kein schnäppchen wird war ja klar.
Die Highend Chips sind ja auch nicht für die breite Masse gedacht, sondern nur für Leute mit zuviel Geld die bei jedem Spiel FPS Jenseits der 50 haben wollen. Im übrigen is bei denen der Stromverbrauch auch zweitrangig. Käufer vom Ferraris beschweren sich ja auch nicht über den Spritverbrauch, oder ? Wer hat, der hat.

Wüsste jetzt auch nicht was ein normaler Zocker wie ich, der gerade mal nen 24 Zöller hat, sofort so eine Karte braucht.
Für alle die noch keine DX Karte besitzen, bekommen jetzt doch schon Klasse Karte für knapp über 100€.
Beim G200 wird es im Winter auch anders aussehen, der Preis fällt, die Spiele werden etwas anspruchsvoller und vielleicht kommt dann auch schon ne andere Fertigungtechnik und DX10.1 raus.
 
Zuletzt bearbeitet:
ich schätze es geht dabei darum das die abwärme besser abtransportiert werden kann, wenn die hotspots( eiso die gpus) über das PCB verteilt werden, anstatt einen riesigen, extrem heißen hotspot in der mitte zu haben. Also rein technisch betrachtet, dann können kleinere GPU auch billiger produziert werden etc etc
 
Zurück
Oben