Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Erste Details und Bilder zu Nvidias GT218-Chip
- Ersteller Wolfgang
- Erstellt am
- Zur News: Erste Details und Bilder zu Nvidias GT218-Chip
BestPower²TDP
Lt. Commander
- Registriert
- Juni 2008
- Beiträge
- 1.250
PUNK2018 schrieb:22W ist WENIG!
Es gibt eig kaum eine graka die weniger verbraucht! (aktuelle..) HD3450 ist auch schon bei 25W und passiv gekühlt
Bitte nicht falsche Tatsachen schreiben.
Meine ATI HD4550 passiv hat eine 22W TDP und verbraucht auch nur 18W im IDLE und 33W unter LAST.
Die 218 wird wohl nicht im April kommen. Ich rechne mit Anfang Juni oder Ende Mai. AMDs erste 40nm soll noch diesen Monat kommen. Zumindest gehe ich von aus. Also eine 4670 Nachfolger.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Nö, die 25W TDP 4550 braucht 8W im Idle und 19W unter Last. siehe xbitlabs
Schon klar, wenns nach dir geht, kommen AMDs 40nm GPUs deutlich früher, während sich Nvidias 40nm GPU erheblich verspäten.
Welche Begründung hast du dazu? Bitte nicht wieder die alte 55nm Leier.
Schon klar, wenns nach dir geht, kommen AMDs 40nm GPUs deutlich früher, während sich Nvidias 40nm GPU erheblich verspäten.
Welche Begründung hast du dazu? Bitte nicht wieder die alte 55nm Leier.
BestPower²TDP
Lt. Commander
- Registriert
- Juni 2008
- Beiträge
- 1.250
Oh nee. Also ich nehme doch liebers meinen Watt Messer an der Dose.
Und der sagt mir die Zahlen, die da stehen.
Und zu den 40nm Daten. Warts einfach ab.
Und der sagt mir die Zahlen, die da stehen.
Und zu den 40nm Daten. Warts einfach ab.
CHAOSMAYHEMSOAP
Banned
- Registriert
- Juli 2005
- Beiträge
- 2.093
Mal ne einheitliche Linie fahren. Die sind ja auch jetzt schon am shrinken, aber schon arbeitet man an 40nm Produkten, während man noch 65nm und 55nm Teile verkloppt.Unyu schrieb:Erzähl mal, was sollte Nvidia stattdessen machen?
Keinen Shrink durchführen, kein Low-End mehr anbieten oder was?
Bei der GT260 wird eine 65nm Version mit 192 Streamprozessoren rausgebracht, dann folgt die mit 216 und jetzt gibt es eine 55nm Version mit 216 Shadern.
Leider wird versäumt auch Druck auf die Hersteller auszuüben, so daß man als Kunde nicht wirklich weiß, was auf der Karte verbaut wurde.
Gleiches gilt für die 9600GT und die 9800GT. Auch hier gibt es 55nm Chips, aber die werden entweder als Pseudo-"Green" Edition mit reduziertem Takt rausgebracht oder nur als 9800GTX+.
Auch wenn ich ATI bisher nicht mochte, haben die wenigstens eine klare Linie.
Almost schrieb:@CHAOSMAYHEMSOAP auch schon mal daran gedacht das man vlt 2 monitore in einer Firma hat oder einen 22" wo vlt. die Onboard nicht mehr reicht? Kenne das in meiner Firma alle Chefen haben 22" grösser oder 2 x 19" Also da genügt meistens eine Onboard nicht.
Quatsch. Mit DVI sind 1600x1200er Auflösungen drin und gute IGPs bieten neben VGA auch DVI, HDMI oder sogar schon DP.
NVidia ist doch nichtmal in der Lage den 55nm Refresh des GT260 dem Kunden verständlich zu machen. Wie wirkt sich dann ein GT218 aus, wenn gleichzeitig die leistungsfähigere 9600GSO in GT130 umbenannt wird?KonKorT schrieb:Der GT218 basiert bereits auf einem Refresh des GT2xx.
Timesless schrieb:Die Qualität nimmt sicherlich nicht ab ...
Naja, eine Lautstärke wie beim Fön und ein komisches Fiepen würde ich nicht unbedingt als Zeichen hoher Qualität werten.
Aber bei der Kühllösung hat scheinbar jeder Grafikchipproduzent seine Probleme, weil sowohl ATI als auch nVidia zu blöd sind ihre Notebookchips als richtige Green Edition für PCIe x16 Karten rauszubringen.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
Wozu auch? Dem Otto-Normal-Käufer ists schei0egal ob 55 oder 65 nm. Und nVidia shrinkte den GT200 nicht, weil sie ihre Kunden so lieben, sondern um Kohle zu machen.NVidia ist doch nichtmal in der Lage den 55nm Refresh des GT260 dem Kunden verständlich zu machen.
cYa
wo ist nun der wirkliche unterschied zwichen dem DDr3 und dem Gddr3 speicher?
http://de.wikipedia.org/wiki/GDDR
http://de.wikipedia.org/wiki/GDDR
Mal was anderes: Die Radeon-HD-3000er-Reihe in 55nm kam ja nicht früh genug um dem Core 2 Duo in 45nm bei der Fertigungsgröße zuvor zu kommen. Mit dieser Geforce hätten wir es aber geschafft, da die CPUs immer noch bei 45nm sind und 32nm noch ein wenig hin ist. Damit würden GPUs erstmals (so hieß es damals zumindest) kleinere Strukturgrößen als CPUs aufweisen.
Zuletzt bearbeitet:
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Mit dieser Geforce hätten wir es aber geschafft, da die CPUs immer noch bei 45nm sind und 32nm noch ein wenig hin ist. Damit würden GPUs erstmals (so hieß es damals zumindest) kleinere Strukturgrößen als CPUs aufweisen.
Tja, wer hätte das gedacht, hätte ich niemals vermutet das NV so schnell die kleinste Strukturgröße haben wird, noch vor CPUs von AMD, Intel und ATI GPUs. NV ist hald immer wieder für eine Überraschung gut.
Also gegenüber einer 9400 wird das Ding sicher einen ganzen Tick schneller sein, sonst ist der Markt nämlich auf 2 Fälle begrenzt, die keine umwerfende Stückzahl abwerfen:
a) jemand hat ein Board mit intel-Chipsatz gekauft, dann gemerkt, WIE grausig deren Grafikteil ist und will jetzt für immer noch dagegen wesentlich mehr Leistung kaum Geld ausgeben.
b) man braucht noch mehr Monitor-Anschlüsse.
...beide Fälle dürften keine relevanten Stückzahlen liefern. Insofern wird das wohl ein "echter" G2xx werden, der also im Funktionsumfang den aktuellen Highend-Karten entspricht. *Kaffeesatz* Als Bezeichnung würde ich auf "G200" tippen, analog dem bisherigen "G100" für die 9400. Darüber gibt's dann irgendwann noch eine GT220 (vermutlich G216-Chip), den G214 als "GTS240" und dazwischen G215/GT230 und G212/GTS250 *Kaffeesatz Ende*
a) jemand hat ein Board mit intel-Chipsatz gekauft, dann gemerkt, WIE grausig deren Grafikteil ist und will jetzt für immer noch dagegen wesentlich mehr Leistung kaum Geld ausgeben.
b) man braucht noch mehr Monitor-Anschlüsse.
...beide Fälle dürften keine relevanten Stückzahlen liefern. Insofern wird das wohl ein "echter" G2xx werden, der also im Funktionsumfang den aktuellen Highend-Karten entspricht. *Kaffeesatz* Als Bezeichnung würde ich auf "G200" tippen, analog dem bisherigen "G100" für die 9400. Darüber gibt's dann irgendwann noch eine GT220 (vermutlich G216-Chip), den G214 als "GTS240" und dazwischen G215/GT230 und G212/GTS250 *Kaffeesatz Ende*
Mit den bisher bekannten Spezifikationen wird diese Karte mit GT218-Chip rund 15% schneller als die GeForce 9400 GT und etwa doppelt so schnell wie die 8400 GS 256 MiB. Die CUDA- und PhysX-Performance dürfte dank der 32 Streamprozessoren sogar fast auf dem Niveau einer 9500 GT liegen. Und das auf einer Diefläche von schätzungsweise 40-45 mm² (zum Vergleich: Der Dualcore-Prozessor Atom N330 hat eine Diefläche von 52 mm²).
Zuletzt bearbeitet:
TheGreatMM
Captain
- Registriert
- Mai 2008
- Beiträge
- 3.085
er meint wohl 25mm^2 als Die Fläche des Atom... ist doch egal
.Webo
Ensign
- Registriert
- Feb. 2009
- Beiträge
- 200
Solangsam blick ich bei der Grafikkartenbennung nicht mehr durch. Warum haben sie das schöne System mit 9600, 9800 und dann GT, GTX , GTX+ behalten. Find ich wesentlich einfach zu überschaun, ob die Karte eher oben oder unten in der Leistung anzutreffen ist.
@.Webo: Der Markenname dieser Karte ist doch noch gar nicht bekannt. GT218 ist lediglich ein entwicklungsinterner Codename des Grafikchips.
Wahrscheinlich heißen entsprechende Karten später GeForce GS 100 oder GeForce GS 200. Mal abwarten, was die Marketingabteilung von Nvidia für sinnvoll hält.
Die Onboard-Grafik-Variante wird wahrscheinlich GeForce G100 oder GeForce G200 heißen.
Wahrscheinlich heißen entsprechende Karten später GeForce GS 100 oder GeForce GS 200. Mal abwarten, was die Marketingabteilung von Nvidia für sinnvoll hält.
Die Onboard-Grafik-Variante wird wahrscheinlich GeForce G100 oder GeForce G200 heißen.
T
[TLR]Snoopy
Gast
Bevor noch mehr falsches über IGPs geschrieben wird.
Asus Nvidia 8300 Chipsatz
Integrated NVIDIA GeForce® 8 Series GPU
Hybrid SLI™ Support (supports Windows Vista only)
Supports HDMI™ Technology with max. resolution up to 1920 x 1200
Supports DVI with max. resolution up to 1920 × 1200 @ 60 Hz
Supports D-Sub with max. resolution up to 1920 × 1440 @ 75 Hz
HDMI/DVI/RGB Support
Supports Microsoft® DirectX 10, OpenGL 2.0, Pixel Shader 4.0
Support PCIe 2.0 / 1.0 Architecture
Asus AMD780G Chipsatz
Integrated ATI Radeon™ HD 3200 GPU
Supports DisplayPort* with max. resolution up to 2560 x 1600@60HZ
Supports HDMI™ Technology with max. resolution up to 1920 x 1200 (1080P)
Supports Dual-link DVI with max. resolution up to 2560 x 1600@60Hz
Supports D-Sub with max. resolution up to 2456 x 1536 @75Hz
Hybrid CrossFireX™ Support (For Windows Vista only) **
Supports Microsoft® DirectX 10, OpenGL 2.0, Pixel Shader 4.0
Maximum shared memory of 256MB
* Due to chipset limitation, DisplayPort on this motherboard only supports video signals
Asus Nvidia 8300 Chipsatz
Integrated NVIDIA GeForce® 8 Series GPU
Hybrid SLI™ Support (supports Windows Vista only)
Supports HDMI™ Technology with max. resolution up to 1920 x 1200
Supports DVI with max. resolution up to 1920 × 1200 @ 60 Hz
Supports D-Sub with max. resolution up to 1920 × 1440 @ 75 Hz
HDMI/DVI/RGB Support
Supports Microsoft® DirectX 10, OpenGL 2.0, Pixel Shader 4.0
Support PCIe 2.0 / 1.0 Architecture
Asus AMD780G Chipsatz
Integrated ATI Radeon™ HD 3200 GPU
Supports DisplayPort* with max. resolution up to 2560 x 1600@60HZ
Supports HDMI™ Technology with max. resolution up to 1920 x 1200 (1080P)
Supports Dual-link DVI with max. resolution up to 2560 x 1600@60Hz
Supports D-Sub with max. resolution up to 2456 x 1536 @75Hz
Hybrid CrossFireX™ Support (For Windows Vista only) **
Supports Microsoft® DirectX 10, OpenGL 2.0, Pixel Shader 4.0
Maximum shared memory of 256MB
* Due to chipset limitation, DisplayPort on this motherboard only supports video signals
Vendetta
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.133
Seby007 schrieb:22 Watt halte ich auch für viel. Eine Gef2MX verbraucht nur 5W. Und Niemand wird wohl im Office-Betrieb bzw. DirectDraw einen Unterschied zwischen beiden Karten finden!
den vergleich meinst du nicht ernst oder?!
Jede halbwegs brauchbare Notebook GPU braucht heutzutage 20 Watt und mehr. Wäre aber deutlich schwächer als diese Grafikkarte, also durchaus interessant was hier gebastelt wird!