News Informationen zur GeForce G 210 und GT 220

ich glaube langsam blickt bei Nvidia keiner mehr durch mit den bezeichnungen
die sollten lieber alles mal umstellen.

Warum heißen die einen G die anderen GT die nächsten GTS und die besten GTX ??
würd eine Zahlenkombination wie bei ATI nicht auch reichen?
 
@ROGER
Seh ich ähnlich.
Hoffentlich machen die das mit der nächsten Generation besser ....
 
Tekpoint schrieb:
DDR2 ist gleich GDDR3 und GDDR4 Videospeicher

DDR3 ist gleich GDDR5 und GDDR6 Videospeicher

OT:
Das kann man nicht so stehen lassen.

Afaik arbeitet GDDR4 wie DDR3 mit 8fach-Prefetch, DDR2 dagegen mit 4fach-prefetch. Der Takt der Speicherkernzugriffe ist bei gleichem I/O-Takt (Datenübertragung) halb so groß im Vergleich zu DDR2.
Er ähnelt also in seiner Funktionsweise dem DDR3 und nicht DDR2.

GDDR5 arbeitet auch mit 8fach-prefetch, aber im Gegensatz zu DDR3 wird hier zusätzlich zwischen I/O-Takt (Datenübertragung) und Adress-und Befehlstakt unterschieden.
Der I/O-Takt ist bei GDDR5 doppelt so groß wie der Adress-,Befehlstakt, bei DDR3 sind beide Takte gleich.

Es gibt noch weitere Unterschiede in der Funktionsweise zw. DDR3 und GDDR5, nachzulesen in den Data-Sheets der Hersteller (Samsung,Hynix, noch Qimonda).


Gruß
Raubwanze

EDIT: @Contras Post

Hmm, DDR2 mit 790Mhz I/O-Takt, also effektiven 1580Mhz, das halte ich für einen Auslesefehler seitens GPUz. Jedenfalls habe ich solch hoch getakteten DDR2 noch nicht gesehen. Die daraus berechnete und von GPUz angezeigte Bandbreite von ~ 12GB/s bei 64bit SI deckt sich aber mit den Angaben von eff. 1580Mhz.
 
Zuletzt bearbeitet:
Unyu schrieb:
[...]
Mal ein kurz durchgerechnet:
[...]

Genau die Tabelle möchte ich noch mal gern für die Vorgänger (9400/9500), bitte bitte

;)

PS: Übrigens sieht dein Satz bissl komisch aus...
 
R O G E R schrieb:
Warum heißen die einen G die anderen GT die nächsten GTS und die besten GTX ??
Weil Nvidia meint es muss 4 Klassen geben.

würd eine Zahlenkombination wie bei ATI nicht auch reichen?
Würde, aber doppelt tut auch nicht weh.
Gerade nach 4730, 4770, 4790, M 4830, M 4860 sollte AMD nicht das Vorbild sein.

Solange die Namenseinteilung eine klare Leistungsordnung entspricht ist alles im Lot. Faktisch ist dies der Fall:
G 210 < GT 220 < GTS 250 < GTX 260 < GTX 275 < (GTX 280) < GTX 285 < GTX 295

Wahrscheinlich hat dich in Wirklichkeit die übliche Codenamenbezeichnung erschreckt.

KAOZNAKE schrieb:
Genau die Tabelle möchte ich noch mal gern für die Vorgänger (9400/9500), bitte bitte
Nur zu, ich helf dir auch: http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie
Nur was willst du damit bezwecken? Leistungseinschätzung, ok gerne, präsentiere uns eine hübsche Rechnung.

PS: Findest du? Seis drum, man muss ja nicht alles können.
 
aber dann sollte nvidia die 9000er und die g1xx serie mal ganz schnell killen^^

Was Nvidia fehlt ist in meinen Augen etwas wie die HD4770.

Die hat auch nur ein 128SI, aber die rockt die mischt die kleineren 4800er ganz schön auf
 
Arhey schrieb:
@Unyu
Find ich lustig.
Sobald eine ATI News kommt wird immer über AF und so diskutiert und sobald bei nvidia SI zum Gespräch kommt, was mehr mit dem Thema zu tun hat, rastest du aus....

Er hat nur erklärt wie sinnlos doch die Kommentare sind. Wie sinnlos doch so viele Kommentare sind sieht man hier und eigentlich in jeder News. Warum muss man sich über ein 64bit SI aufregen, wenn es doch billigst Grafikkarten sind die eh um jegliche Leistung beschnitten sind. Wenn interessiert ein Kommentar mit den Wortlaut: Boah nur 64bit oder 128 bit SI für Grafikkarten die im Office/Multimedia Bereich eingesetzt werden?

Warum muss es immer wieder diesen Schwachsinn geben?

Aber ich frage dich besser nicht, denn du hast es ja eh nicht verstanden warum und provozierst deswegen User Unyu mit was völlig anderem.
 
R O G E R schrieb:
Was Nvidia fehlt ist in meinen Augen etwas wie die HD4770.

Eine nichtlieferbare Karte? (musste jetzt sein.)

Die G(T) 2x0 ist in einem anderen Segment. Da braucht man eine solche Bandbreite nicht.
 
Zuletzt bearbeitet:
Floletni schrieb:
Eine nichtlieferbare Karte? (musste jetzt sein.)

Kaum AMDs Schuld :cool_alt:

Unyu schrieb:
Nur zu, ich helf dir auch: http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie
Nur was willst du damit bezwecken? Leistungseinschätzung, ok gerne, präsentiere uns eine hübsche Rechnung.

Danke, war bloß Interesse halber, um zu sehen, was sich nun verbessert hat, oder obs nur ein Shrink war. Rechnen kann ich leider nicht so gut wie du*, mach doch mal wieder eine Rechnung mit so schönen Prozentangaben.

*Seis drum, man muss ja nicht alles können. ;)
 
In der GTX260 steckt auch nur ein abgespeckter GT200(b). Und der GT200 war ein High-End wo er raus kam(, falls du es vergessen hast).

Außerdem wäre dann der GT300 der erste Chip einer neuen Architektur der nicht High-End wäre. Naja 2x mal wäre. Klingt einbisschen unglücklich.

@KAOZNAKE

War ja auch nur eine kleine spaßige Stichelei.
 
@Unyu: Ah. Hatte Deine Frage wirklich etwas falsche gelesen.

Mir ist es völlig Banane, ob bei einer Grafikkarte der Speicher oder die Shader oder sonst etwas limitieren. Als Kunde interessiert einen doch: Wie viel Leistung bekomme ich für wieviel Geld?
Ich finde das völlig ok, dass die Karten ein 128-Bit-SI haben und kann die Diskussion nicht ganz verstehen. Natürlich tut es einer Karte gut, wenn sie eine höhere Bandbreite zum Speicher hat. Aber dann limitiert halt irgendwas anderes.
Ein 128-bit-SI ist nunmal einfacher und auch günstiger zu produzieren als ein 192-bit oder 256-bit-SI und es ist für Kunden doch wirklich egal, ob das SI oder die Anzahl der Shader oder sonst etwas "Schuld" daran ist, wenn ein Spiel nicht schneller läuft.

Hätten die Karten ein 192-bit-SI wären sie vielleicht schneller (in manchen Situationen), aber auch teurer. Von daher kommt es am Ende eh alles aufs gleiche raus. Man wird SI und Shader NIE so abstimmen können, dass beide gleichzeitig am Limit sind. Das geht schon deshalb nicht, weil es von Spiel, Filtern und Auflösung abhängt.

Wir sollten erstmal abwarten was die Karten leisten und wie sie sich am Markt von der Preis-/Leistung her einfügen. Auch der Stromverbrauch und die Laufstärke sind für mich sehr wichtige Kriterien. Ich zahl lieber 60 statt 50 Euro und hab eine sparsamere und leisere Karte mit 5% weniger Leistung.

@Floletni:

Am Anfang wird der GT300 in jedem Fall High-End sein, das stimmt. Aber vielleicht kommt er auch in anderen Klassen zum Einsatz. Naja, ist ja eigentlich ohnehin immer so. Es werden ja nicht für verschiedene Leistungsklassen KOMPLETT andere Chips entwickelt. Die haben dann weniger Shader und ein andere SI, aber das Prinzip ist eh immer das gleiche. Diese Diskussion ist also eigentlich überflüssig.
 
Zuletzt bearbeitet:
@ Floletni:

Was du redest??

Wenn mans so dreht ist (fast) jeder neuer Chip High-End ... was jedoch wiedersinnig ist, über soetwas zu diskutieren

Edit: Aber was bringt das, wenn der Chip "High-End" ist und die GraKa "nur" ala 260 gtx ist? das ist dann auch nicht high-end und mit dem (High-End)Chip alleine kann man nichts anfangen)
 
Zuletzt bearbeitet:
@ Unyu:
Rechnen kann ich schon alleine...

Wer mag hier den Text nicht?
Der Speicherausbau beträgt 1.024 MB.
Hat das überhaut irgendjemand wahrgenommen?

Ich denke so herum wirst du mir aber zustimmen;
Das ist ein absolut stumpfsinniger Speicherausbau für diese Karte. 512 MB hätten es auch getan.

WENN diese Karte in einem Bereich eingestez wird, in dem diese absurde Speichermenge effektiv etwas bringt,
so wäre die von dir kritisierte Konfiguration durchaus sinnvoll.
Darüber, dass es sich hier um absolute Low-End-Karten handelt brauchen wir gar nicht diskutieren.
 
Zuletzt bearbeitet:
na klaro
1024 ist doch kein aufreger mehr bei den Speicherpreisen ^^

nicht wie das damals mit ner radeon 9250 mit riesiegen 512mb speicher mal war ^^
 
@ R O G E R:
Es geht mir nicht darum, dass es ein "Aufreger" ist, wenn Karten mit Prestige-VRAM ausgestattet sind,
sondern darum, dass die Konstellation so total blödsinnig ist.

@ Floletni:
Ich weiß doch! Das konnte man auch schon bei einigen Karten aus der GF 8-Reihe beobachten.
Aber macht es das nun besser? Ich denke nicht...
 
Praktisch bedeutet die Einführung einen späten Marktauftritt der Low-End und Mainstream DX11 Chips. Würden diese direkt nach dem GT300 nachgeschoben wäre der Kostenaufwand für die neuen Produkte nicht zu rechtfertigen.

Eigentlich spielt DX11 in diesem Bereich keine Rolle aber mit Windows 7 und der Verfügbarkeit von DX11 im Performance und High-End Markt ist es ein größere Nachteil im Marketing als 10.0 zu 10.1.
 
@Halt´s_Maulwurf:
Wieso blödsinnig? Macht sich besser im MM-Prospekt, Nvidia bekommt Geld und der uninformierte Kunde freut sich und kann damit angeben. (Technisch gesehen hast du natürlich recht;)
Gruß,
Trance
 
Leute ich weiß, dass 64 Bit SI für die Karten mehr als ausreichen, nur wollte ich damit hinweisen wie trollig Unyu doch ist.
Denn bei ATI News hat AF meistens genausoviel mit dem Thema zu tun wie SI hier ;)
Nun aber genug OT will kein Flamewar eröffnen.

Wann sollen die Karten eigentlich kommen?
 
Zurück
Oben