News Erste genaue Details zu Nvidias „GT212“-Chip

Neocroth schrieb:
Doch, sie sind im Zeitplan. Wenn du den Text liest, findest du folgenden Abschnitt:

Was ich mir auch nicht vorstellen kann: wie sollen 1,8 Milliarden Transistoren (trotz 40nm Fertigung) auf weniger als 300mm² passen? Wenn ich nur die Verhältnisse zwischen GT200 in 65nm und 55nm vergleiche (576mm² und 470mm²), dann sind schon 1,4 Milliarden Transistoren bei 40nm und 300mm² nicht ganz stimmig. Ich weiß nicht genau, wieviel Platz jeweils TMU und ein Shader brauchen, aber unter 400mm² kann ich mir das (besonders bei 60% mehr Shadern und 20% mehr TMUs) nicht vorstellen.

Ich würde schätzen das sie ne besser Anordnung für die Shader gefunden haben. Und das mit dem Fertigungsprozess kann man ja auch erklären. Zwischen 65 und 55 liegen zehn nm. Zwischen 55 und 40 fünfzehn nm.
 
was für ein mist. was machts jetzt sinn für mich aufrüsten, wenns in einem halben jahr veraltet ist? und wieder ein halbes jahr drauf ist der gt300 draussen. rv870 kommt auch irgendwann dazwischen mal. derzeit sollte der preis der hd48x0 karten schon ein wenig sinken. dafür dass sie nun den gt260 unterlegen sind und teilweise sogar der 9800gtx+, kosten sie noch viel zu viel zu viel
 
stoneeh, das ist das Problem der Hardware^^. Da kann man nur eines tun: die Hardware dann kaufen, wenn man sie braucht. Auf Vorrat kaufen lohnt sich überhaupt nicht.

So spät wie möglich, so früh wie nötig.
 
Wozu diese Hardware es gibt nicht mal Software (Normale, Mainstream) die die Alte Hardware auch nur annähert fordert.
 
ExcaliburCasi schrieb:
Ich glaub du hast einfach Krankhaft was zu allem in meinem Post schreiben wollen weil dich 1 sache gestört hat?
Was soll mich gestört haben? Ich dachte das wäre ein Forum wo diskutiert wird, korrigiere mich wenn ich falsch liege. Du hast ne Meinung und ich eine andere. Wenn du nicht willst das andere auf deinen Post eingehen schreib am besten in weiss oder gar nicht.
In meinen Augen hat der Shrink auf 55nm eben nichts zu tun mit einem Chip in 40nm, weil letzterer ja überhaupt nicht von ersteren abhängig ist, da wohl parallel entwickelt wird.

IMHO also Wahrscheinlich, da Nvidia vorerst bei großen Chips bleiben will, was auch vernünftig wäre, Fläche will ausgenutzt werden.
1. Natürlich bleiben sie bei großen Chips, 300mm² sind ja immer noch deutlich größer als ATIs RV770 oder RV670. Und der GT300 oder wie der heißen mag wird ja vielleicht auch wieder nen großer Brummer.
Aber warum sollte man in Q2 09 noch nen Highendchip in 55nm bringen? Hätte man ja dann auch eher machen können.
2. Was meinst du mit Fläche muss ausgenutzt werden?

Ich weiß zwar wirklich nicht warum man auf vermutungen so Reagieren muss, aber von Flagschiff zu Flagschiff mit 3%-4% mehr Speicheranbindung, für mich eher weniger vorstellbar, ich erwarte da irgendwie mehr, bzw. wie gesagt, wer weiß wie hoch sie den GDDR5 bekommen ... vil. Hauts hin.
Wie reagiere ich denn? Ich habe nur versucht deine Frage, auch wenn sie vielleicht rhetorisch war zu beantworten. Bisher ist maximal GDDR5 mit eff. 5GHz verfügbar.
 
Ich weiss nich so recht, aber die Specs sind doch etwas hoch.

Jedoch würde ich mir so eine Karte nicht mehr kaufen, da kurze Zeit später der GT300 ansteht und wahrscheinlich DX11 mitsich bringt.

Also für eine Karte mit dem GT212 ne Menge Geld hinblättern und dafür dann nur DX10 zu haben, obwohl der Nachfolger vor der Tür steht, lohnt sich in meinen Augen nicht.


Edit:

Wird bestimmt wieder so en Performance Chip ala G92. Nvidia testet mal wieder die kleinere Fertigung, bis sie dann wieder neues High-End (GT300) rausbringen.
 
Zuletzt bearbeitet:
Aber wann sollen denn die ersten Spiele in DX11 rauskommen? Wie lange dauerte es, bis sich DX 10 durchsetzte? Wenn die Karte nur 200€ kostet, dann würde ich doch einen kaufen und dann halt erst DX11 nehmen, wenn es auch gebraucht wird
 
ja gehst du davon aus, dass sie nur 200 kostet? Glaube ich kaum, wenn die Specs stimmen sollten!

Nvidia wird sich das bezahlen lassen...
 
Ok, das Stimmt, aber der RV775, sofern er kommen sollte in 45nm wird wohl nicht mehr als 250€ kosten. Denn so viel mehr als der RV770 aka 4870 kann er auch nicht
1-1080.1807239947.png

br7hmhm9.jpg
 
Zuletzt bearbeitet:
Hi,

im Mediamarktprospekt vom Samstag war schon ein Angebot mit der NVIDIA GeForce GT 120 mit 1 GB VRAM + Intel Q8400 + 4GB RAM + 1 TB HDD zu 599€ und ein andres mit der NVIDIA GeForce GT 130 mit 1,5 GB VRAM + Q8300 + 6 GB RAM + 2 TB HDD zu 799€

Hier habe ich ein Foto des Prospektes:

http://www.pictureupload.de/pictures/050109230038_P1080405.JPG
 
SergeantHopeman schrieb:
Hi,

im Mediamarktprospekt vom Samstag war schon ein Angebot mit der NVIDIA GeForce GT 120 mit 1 GB VRAM + Intel Q8400 + 4GB RAM + 1 TB HDD zu 599€ und ein andres mit der NVIDIA GeForce GT 130 mit 1,5 GB VRAM + Q8300 + 6 GB RAM + 2 TB HDD zu 799€

Das sind alte Bekannte mit G92- bzw. G94-Chip.

Roenoe schrieb:
Ich weiss nich so recht, aber die Specs sind doch etwas hoch.

Jedoch würde ich mir so eine Karte nicht mehr kaufen, da kurze Zeit später der GT300 ansteht und wahrscheinlich DX11 mitsich bringt.

Also für eine Karte mit dem GT212 ne Menge Geld hinblättern und dafür dann nur DX10 zu haben, obwohl der Nachfolger vor der Tür steht, lohnt sich in meinen Augen nicht.


Edit:

Wird bestimmt wieder so en Performance Chip ala G92. Nvidia testet mal wieder die kleinere Fertigung, bis sie dann wieder neues High-End (GT300) rausbringen.
Der GT300 kommt erst ein halbes bis dreiviertel Jahr später und wird rein von der Rechenleistung her auch nicht soviel stärker werden als der GT 212. Wohl ähnlich wie der Wechsel vom GT200 auf den GT212. Nvidia wird den GT300 ebenfalls in 40 nm fertigen, deshalb ist da auch nicht soviel Spielraum für deutlich mehr Tranistoren. Außer NV will wieder so ein Verlustgeschäft wie beim GT200 machen, wo alleine die GPU schon über 100$ in der Fertigung kostet. Aber ich denke, der GT300 wird maximal 2,3 Mrd. Transistoren besitzen und max. 400 mm² groß sein. Der GT200 in 65 nm war ein "Ausrutscher" und direkt in 55 nm wäre er auch gar nicht mehr so fett gewesen.

Die GT212-Karten dürften schätzungsweise 300-350$ kosten mit 1 GiB VRAM. Also 250-300€. Rein von den Fertigungskosten her dürfte die Radeon HD 4870 1 GiB einen guten Maßstab bilden, eine Karte auf Basis des GT212 wird sehr ähnlich sein. Auch 1 GiB GDDR5, ebenfalls ein 256-Bit-SI, ebenfalls zwischen 250 mm² und 300 mm² Chipfläche (GT212 ~270-290 mm², RV770 = 256 mm²). Allerdings wird man dem GT212 wohl schnelleren und damit auch teureren GDDR5-RAM zur Seite stellen als dem RV770 auf der HD 4870.

Auf jeden Fall wird der GT212 ein High-End-Chip sein und kein Performance-Chip. Einen stärkeren Chip wird NV vorerst nicht anbieten und er dürfte auch in Punkto Preis-Leistung eine sehr gute Figur machen.
Im Performance-Segment wird vermutlich der GT215 antreten. Die Daten des GT215 sind bislang unbekannt, aber er wird wohl irgendwo zwischen dem GT212 (384 SPs, 96 TMUs) und dem GT216 (160 SPs, 40 TMUs) liegen. Der GT216 wird von der Performance her den G92 ablösen und das Mainstream-Segment bilden. Der GT218 rundet das ganze dann noch im Budget-Bereich ab.
 
Zuletzt bearbeitet:
@ theorist

Danke für die Aufklärung, hab mich schon gewundert was das für GPUs sind, so langsam steigt man durch die Benennung der Nvidia GPUs wirklich nicht mehr gut durch.
 
egal

bei dem Namens-wirwar werde ich mir die nächste Zeit keine nvidia-Karte kaufen
 
brabe schrieb:
man sollte aber nicht vergessen, dass dx10 seitens der software einen wirklich unglücklichen start hingelegt hat. wenn man dx10 nutzen wollte, musste auf vista umsteigen *für das die damalige hardware bei den wenigsten spielern wirklich brauchbar war*, da xp bei dx9 stehengeblieben ist. abgesehen von einigen early adaptors wurde vista aber in der anfangsphase gemieden, wie ein aussätziger (der wechsel ging eigentlich erst mit sp1 für vista los).
die folge von diesen beiden punkten war, dass die spiele schmieden sich mit dx10 dann auch erst mal zeit liessen (zumal durch die parallelisierung von dx9 und dx10 mehr arbeitsaufwand für die spiele schmieden entstand).
zusätzlich hatten auch die graka schmieden startprobleme mit den treibern für dx10, die sich als performancebremse herausstellten, soweit sie denn überhaupt ordentlich liefen.

wenn ich mich an den wechsel von dx8 zu dx9 erinnere, dann war das praktisch eine sache, die über nacht durchlief, da alle windows user nur ein update durchführen mussten. wenn man sich das vor augen hält und hofft, dass dx11 nicht eine "windows7-only" schnittstelle sein wird, so wie dx10 nur für vista verfügbar ist, dann dürfte das insgesammt fix über die bühne gehen.
 
Windows 7 ist ja NT6.1 und Vista NT 6.0. Von daher sollte das schon gehen, irgendwie.

Ein anderes Beispiel wäre da Shader 3.0 Meine X800XL ging bis Mitte 2007 noch sehr gut. Erst dann kamen langsam Shader 3.0 only Games wie RB6LV(2) oder so raus. Von daher denke ich da auch an DX10.1, welches bis heute kaum Spiele hat. Also müsste NVidia mal mit ATI DX11 mehr oder weniger gleich launchen
 
Das hat mit dem Kernel teilweise bzw. wenig zu tun. 6.1 deswegen, weil man die Kompatibilität zu Vista (6.0) waren möchte. Bei Microsoft weiß man aber nie, was sie sich noch einfallen lassen um die Käufer auf Windows 7 umsteigen zu lassen :-)
 
Farcrei schrieb:
bei dem Namens-wirwar werde ich mir die nächste Zeit keine nvidia-Karte kaufen

GT212 und die anderen GTxxx sind offiziel unbestätigte Namen der Chips. Wie die Grafikkarte im Endeffekt benannt wird ist doch noch garnicht raus, und du heulst schon rum ?

Bei hardware-infos.com findet man übrigens noch zwei weitere Artikel bezüglich des GT212 und seine performanceschwächeren Namensbrüder GT214, GT216 und GT218.
Der erste Artikel vom 06.11.2008 besagt das der Launch aufgrund der Probleme mit dem GT200b (aka GT206) vom Q1-2009 ins Q2-2009 verschoben wurde, und evtl. sogar erst einer der schwächeren und einfacher herstellbaren GT21x Chips auf den Markt kommen würde.
Der zweite Artikel vom 27.12.2008 wiederrum sagt das nun laut einer NV-Roadmap doch zuerst der Highend-GT212 im Q2-2009 auf den Markt kommt und die restlichen GT21x erst Q3-2009 erscheinen.

Jetzt könnte man natürlich spekulieren das die GT212 Chips schon recht nahe dem Finalen Tapeout sind oder diesen gar schon hinter sich gebracht haben. Und dementsprechend könnten auch erste Ableger recht früh im Q2-2009 schon auf dem Markt auftauchen.
Dies alles hängt wahrscheinlich auch vom Erfolg des recht bald anstehenden RV775 Launches ab. Schon beim RV770 verläuft Leistungsanstieg annährend Linear zum gesteigerten Takt. Wenn man jetzt überlegt wie schnell ein RV770 mit 900MHz wäre, ist es ja durchaus denkbar das der RV775 die GTX260 Karten deutlich überflügelt und die evtl sogar die GTX280/285 angreifen kann, und dementsprechend wird NVidia versuchen zeitnah zu reagieren.


EDIT1:
P.S.: Übrigens in der Nachbetrachtung eigentlich auch nicht unlogisch warum NV die Namen GTX 270 & GTX 290 freigehalten hat.

EDIT2:
@Krautmaster
Völlig richtig. Aktuelle Infos besagen das DX11 auch auf Vista funktionieren wird.
 
Zuletzt bearbeitet: (EDIT2)
blaub4r schrieb:
Wozu diese Hardware es gibt nicht mal Software (Normale, Mainstream) die die Alte Hardware auch nur annähert fordert.

Sei dir da mal nicht so sicher...es kommt immer auf die software drauf an...wenn du in 1920x1200 mit 16xQ AA und 16xAF + Multi/Supersampling zocken willst reicht da eine GTX 280/285 nicht aus

ich kann GTA 4 mit meiner GTX 260 oc grade mal alles auf hoch sichtdetails 50 in 1400x1050 rademal max 30 fps zocken...also wenn man da alles auf max. haben will...naja isn anderes thema
 
Zuletzt bearbeitet:
Zurück
Oben