Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia GT200 mit 200 ALUs und 512-Bit-Interface?
Schöne Sache das. Wenn der Stromverbrauch zumindest konstant bleibt und die Leistung sich mal wieder merklich erhöht, insbesondere in 1920x1200, dann werd ich wohl wechseln.
Allerdings müssen sie leider auch leise sein. Aber für ein Produkt um 500€ wird man eben viel erwarten dürfen
jajaaaaaa xD die hd2900xt hatte ja auch mal "320" shader und 512bit anbindung^^
was lernen wir spätestens daraus? -genau, immer die tests vom endprodukt abwarten^^
@Mardy2802:
Wie Recht du hast...
die News mal schnell zusammengefasst:
GT200 hat 200 Shadereinheiten Gerüchten zufolge => andere Struktur der Cluster. Natürlich könnte 200 auch nur gerundet sein... also wissen wir gleichviel wie zuvor.
Dank dem 512Bit Interface reicht auch billiger GDDR3/4 mit >=1GHz um fette Speicher-Performance zu kriegen...
Naja... ich würd sagen: einfach abwarten... solche Gerüchte bringen garnix, außer große Erwartungen, die (oft) letztendlich nicht erfüllt werden...
Stark. Hoffentlich wird das so ein Kracher wie damals bei der 8800er Generation. Meine 1950Pro wird spätestens Ende des Jahres abgelöst (wegen 50% mehr Leistung oder so rüste ich noch nicht auf) - mal sehen ob wieder nVidia oder diesmal ATi diesmal die besseren Karten auf den Markt wirft.
Wie wärs mit runtertakten? Ich mein bei Highend ist es doch gleich wie viel die zieht.
Naja ich kann mir trotzdem nicht vorstellen dass NVidia diese Vorstellungen einhalten wird.
Stellt sich nur noch eine Frage: Glaskugel oder Teeblätter?
Sry, aber einfach wilde Spekulationen ohne irgendwelche Nachweise seitens des Herstellers oder irgendeiner wenigstens halbwegs seriösen Quelle dachte ich stehen unter CB-Niveau.
Das man am Speicherdurchsatz arbeiten muss, ist seit dem G92 klar, der in hohen Auflösungen einfach zusammenbricht und mehr ALUs können natürlich auch nicht schaden. Genau das selbe hätte ich auch von der kommenden Generation erwartet und nur weil irgendeine Seite die neuesten Gerüchte über "Various GT200 specifications" veröffentlicht, muss das jetz als News kommen?
512Bit SI klingt ja nett, aber die werden sicherlich auch einfach noch sau tauren unnötigen GDDR5 dazupacken, damits "neuer und besser" klingt, obwohls halt unnötig ist, aber 1500MB Vram wären schon schön. Naja mal gucken was kommt, erwarte mir eigentlich wieder son Reinfall wie bei GeForce "9".
1536 MB Speicher wirds wohl kaum geben - bei 512 Bit Speicherinterface. 512/1024/2048 MB sind für mich denkbar...
@ Project-X
Welcher Speicherstandard ist doch von der Geschwindigkeit her vollkommen egal, solange es zumindest nicht SD-RAM ist... Der Takt machts ausschließlich aus. Das Problem ist nur, dass mit einem alten Standard hoher Takt schwierig/stromhungrig ist...
@ Nehebkau Nicht die anderen Posts lesen und dann schon selber posten... egal.
Aber glaub schon dass das wieder ein großer leistungstechnischer Sprung sein wird, von ungerade zu gerade war das bei nVIDIA seit jeher etwas. Währenddessen werden Leute die nicht so viel Ahnung haben schön von den OEMs geprellt mit einer GeForce-9-Karte.
Mag sein das dann AMD die HD4000 Serie draussen hat, aber so wie AMD mit den Treibern hinterher hängt, sollten sie lieber erstmal Software entwickeln die auch die neue Hardware unterstützt anstatt neue Karten rauszubringen die niemanden etwas nutzen...
Wie geht der Spruch... "Lieber haben und nicht brauchen als brauchen und nicht haben"... Danach arbeiten in letzter Zeit irgendwie zu viele Hersteller...
...Wenn ich mich recht erinnere kommt jetzt der G200 weil die Architektur des G100 schon auf DirectX 11 bassiert und das ja erst in 2 jahren oder so kommt...
Es ist aber kommisch weswegen es dann GT200 heisst, denn der Chip Name GT200 bzw. G200 lässt doch vermuten das es um ein nachgänger des G100 sein soll.
Bisher waren es doch immer so das z.B. eine GF7 Serie mit denn G70er Chips, GF8er Serie mit denn G80er Chips ausgestattet sind.
Und ich verstehe nicht warum nVidia jetzt ein extra schwaches Chip Entwickeln müssen nur weil der G100 zu Moddern ist, anstatt dies als Ultra High End Future ala DX11 zu vermarkten (Marketing)...
... wenn ich mir hier die Antworten so durchlese, könnte man auf den Gedanken kommen, daß die meisten Leser nicht begriffen haben, daß es sich bei der News um ein Gerücht handelt - wobei hier wohl eher der Wunsch der Vater des Gedankens war ...