Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News „GeForce 200M“-Serie mit DX 10.1 und 40 nm
- Ersteller Wolfgang
- Erstellt am
- Zur News: „GeForce 200M“-Serie mit DX 10.1 und 40 nm
Euphoria
Admiral
- Registriert
- Apr. 2007
- Beiträge
- 9.124
Ich find es macht keinen Sinn jetzt kurz vor der neuen Generation sich einen Laptop mit so einer GPU zu kaufen, zumal es sowieso noch mindestens 1 Monat dauert, bis die verfügbar sind.
Bei Desktops ist es eine andere Sache, denn da kann man wenigstens aufrüsten bei Laptops muss man meistens 2 Jahre oder mehr mit einem System klar kommen.
Dass nvidia jetzt noch DX10.1 einführt hätte ich nicht gedacht, aber wenigstens sind die Chips in 40nm gefertigt.
Somit wird wohl demnächst der Kampf zwischen HD 4860 (oder wie die hieß) und der 2xx M Reihe geben.
Dennoch versteh ich den Sinn nicht von High End Mobile GPUs kurz vor dem Launch der nächsten Generation.
Bei kleineren GPUs kann man das verstehen, da die sowieso nur zum Arbeiten benutzt werden, aber die hier wohl eher zum Zocken und da macht es mehr Sinn etwas zu warten.
Bei Desktops ist es eine andere Sache, denn da kann man wenigstens aufrüsten bei Laptops muss man meistens 2 Jahre oder mehr mit einem System klar kommen.
Dass nvidia jetzt noch DX10.1 einführt hätte ich nicht gedacht, aber wenigstens sind die Chips in 40nm gefertigt.
Somit wird wohl demnächst der Kampf zwischen HD 4860 (oder wie die hieß) und der 2xx M Reihe geben.
Dennoch versteh ich den Sinn nicht von High End Mobile GPUs kurz vor dem Launch der nächsten Generation.
Bei kleineren GPUs kann man das verstehen, da die sowieso nur zum Arbeiten benutzt werden, aber die hier wohl eher zum Zocken und da macht es mehr Sinn etwas zu warten.
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Auch wenn es Notebooks sind: CB so schnell wie möglich einen Test organisieren mit den neuen 40nm GPUs bitte.
NV hats anscheinend kapiert, nichtmal am Vram haben sie gespart, gleich 1GB GDDR5 spendiert
Herber Rückschlag für die mobilen HD 4000 jetzt hätten sie grad an Fahrt aufgenommen und nun gibts wieder starke Konkurrenz.
NV hats anscheinend kapiert, nichtmal am Vram haben sie gespart, gleich 1GB GDDR5 spendiert
Herber Rückschlag für die mobilen HD 4000 jetzt hätten sie grad an Fahrt aufgenommen und nun gibts wieder starke Konkurrenz.
Zuletzt bearbeitet:
Lübke schrieb:@-Sebastian-: dir ist schon klar, dass das keine highend gt200, sondern nur low-end ableger sind? die stehen leistungsmäßig tatsächlich unterhalb des g92...
Weder noch. Ein GT200 ist NUR ein G92 mit mehr Shadereinheiten.
Iron Grey
Lt. Junior Grade
- Registriert
- Juni 2006
- Beiträge
- 450
Und nvidia soll auch einen effektiven Stromsparmechanismus für den GDDR5-Speichercontroller entwickelt haben? Bevor mich kein Review überzeugt, trau ich den nvidia´schen Angaben nicht.
Die Bezeichnung der Grafikkarten lässt im Übrigen mal wieder ganz stark zu wünschen übrig.
Die Bezeichnung der Grafikkarten lässt im Übrigen mal wieder ganz stark zu wünschen übrig.
Wann, oh wann hört dieses "alte Architektur"-Gequatsche bloß auf? Leute, seit DX10 sind GPUs programmierbar; man muss nicht mehr für jede Kleinigkeit den Chip umbauen. Auf diesem Grunde haben sowohl ATI wie auch nVidia seit Einführung von DX10 genau _eine_ GPU entwickelt. Ob das Ding intern "G80", "G90" oder "G200" heißt, ist REINES Marketing; exakt genauso wie die Produktbezeichnungen.
Hätte nVidia die G90-Serie mit der Umstellung auf 55nm komplett in "G200-Serie" umbenannt, würden hier vermutlich alle die "tolle neue Architektur" feiern, hätten aber keinen einzigen Geschwindigkeitszuwachs. Und die verbesserungen beim Stromverbrauch werden ja eh leider in dem "ist der alte Chip" zerredet - da wird dann auch schonmal die GTS250 (55nm) als identisch zur 8800 GTX (90nm) bezeichnet...
Die Bezeichnungen sind übrigens sehr eindeutig: Eigentlich reicht die Zahl alleine zur Leistungseinordnung, die Buchstaben davor sind aber nochmal _zusätzlich_ eine Einstufung in die Segmente.
Hätte nVidia die G90-Serie mit der Umstellung auf 55nm komplett in "G200-Serie" umbenannt, würden hier vermutlich alle die "tolle neue Architektur" feiern, hätten aber keinen einzigen Geschwindigkeitszuwachs. Und die verbesserungen beim Stromverbrauch werden ja eh leider in dem "ist der alte Chip" zerredet - da wird dann auch schonmal die GTS250 (55nm) als identisch zur 8800 GTX (90nm) bezeichnet...
Die Bezeichnungen sind übrigens sehr eindeutig: Eigentlich reicht die Zahl alleine zur Leistungseinordnung, die Buchstaben davor sind aber nochmal _zusätzlich_ eine Einstufung in die Segmente.
Zuletzt bearbeitet:
Iron Grey
Lt. Junior Grade
- Registriert
- Juni 2006
- Beiträge
- 450
TheK schrieb:[...] exakt genauso wie die Produktbezeichnungen.
Ist der Name einer heutigen Grafikkarte(, insbesondere auf Kosten der Vergleichbarkeit,) egal? Ich glaube nicht.
Gorby
Vice Admiral
- Registriert
- Juni 2008
- Beiträge
- 7.102
Toll, der Unterschied zwischen 230 und 240 ist lediglich eine geringe Taktsteigerung der GPU und Shader. Sogar die TDP von 23 Watt bleibt gleich. Von daher hat die 230 für mich schon mal keine Daseinsberechtigung. bei den 260ern ist der Grund warum die GTS langsamer ist nur beim SI und den reduzierten Recheneinheiten zu finden. Da hätten die die GTX auch abservieren können, und mit der GTS nur ohne diese begrenzungen einsetzten können. Die müsste doch auch billiger zu produzieren sein, oder? Und warum gibt es bei der GTX260M keine TDP? Man fühlt sich iwie wieder verarscht, obwohl das eigentlich ne gute News ist. Hoffentlich werd ich diesen Kritikzwang irgendwann mal los...
Unglaublich, was sich die Leute wieder hier das Maul zerreißen. Was wollt ihr? DX11, 512-Bit-SI, 512 SPs, GDDR5 und das Ganze mit unter 50 Watt TDP im Notebook jetzt und sofort?
Auch über das Namensschema wird wieder gemeckert, obwohl Nvidia nur konsequent das neue Schema auch im Notebooksegment weiterführt.
Und wie immer gilt: Ihr müsst es nicht kaufen!
@Wolfang:
Das Fragezeichen bei der GeForce G 210M in den Rubriken TMU/TA kannst wegmachen. Der GT218 verfügt über einen Thread-Processing-Cluster mit 32 SPs und 8 TMUs, wobei 16 SPs zur Yieldverbesserung deaktiviert sind. Der GT214 und der GT216 haben dieselben Thread-Processing-Clusters, d.h. mit jeweils 32 SPs und 8 TMUs, wobei hier jeweils nur 8 SPs zur Yieldverbesserung deaktiviert sind.
Eventuelle Desktopparts könnten später also auch mit 32 SPs bei 8 TMUs (GT218), 64 SPs bei 16 TMUs (GT216) und 128 SPs bei 32 TMUs (GT214) aufwarten, wenn NV und TSMC mal die Yieldraten im Griff haben.
Auch über das Namensschema wird wieder gemeckert, obwohl Nvidia nur konsequent das neue Schema auch im Notebooksegment weiterführt.
Und wie immer gilt: Ihr müsst es nicht kaufen!
@Wolfang:
Das Fragezeichen bei der GeForce G 210M in den Rubriken TMU/TA kannst wegmachen. Der GT218 verfügt über einen Thread-Processing-Cluster mit 32 SPs und 8 TMUs, wobei 16 SPs zur Yieldverbesserung deaktiviert sind. Der GT214 und der GT216 haben dieselben Thread-Processing-Clusters, d.h. mit jeweils 32 SPs und 8 TMUs, wobei hier jeweils nur 8 SPs zur Yieldverbesserung deaktiviert sind.
Eventuelle Desktopparts könnten später also auch mit 32 SPs bei 8 TMUs (GT218), 64 SPs bei 16 TMUs (GT216) und 128 SPs bei 32 TMUs (GT214) aufwarten, wenn NV und TSMC mal die Yieldraten im Griff haben.
Zuletzt bearbeitet:
Mister79
Banned
- Registriert
- Apr. 2008
- Beiträge
- 4.489
Mein Gott Leute, und wenn die jetzt schon DX20 bringen. Was solls? Erstmal gucken was die neuen DX11 Karten so bringen. Dann gucken wir weiter. Aber für den Leistungsunterschied den wir beim Start der 200 Chips hatten zu den 8800 Karten werde ich keine neue Karte kaufen. Da muss schon was kommen und damit meine ich richtig kommen. Also mal sehen was es in der Realität bringt. Ansonsten kann ich mit DX10 noch lange gut leben.
Die 9600M GT hat eine TDP von 23 Watt wie die neue GT 240M. Die GT 240M bietet dabei rund 45% mehr Rechenleistung, 10% mehr Texelfüllrate und dieselbe Speicherbandbreite. Das Ganze kombiniert mit D3D10.1, sofern es denn irgendwo gewinnbringend nutzbar ist. Besseres AA @ Stalker Clear Sky ist in der Leistungsklasse ja eher kein Argument für D3D10.1.FreeZer_ schrieb:Gibts zum Vergleich die TDPs von aktuellen GeForce 9600M?
T
towa
Gast
Roenoe schrieb:Das Nvidia jetzt noch Dx10.1 noch bringt, hätte ich nicht gedacht.
Schade das sie das nicht im Desktop-Segment gemacht haben.
Jop damit hätte sich in der Spielentwicklung sicherlich mehr getan
Ähnliche Themen
- Antworten
- 59
- Aufrufe
- 7.768
- Antworten
- 62
- Aufrufe
- 8.199
- Antworten
- 110
- Aufrufe
- 13.799
- Antworten
- 5
- Aufrufe
- 1.050