News Kommt Nvidias GT200b schon im September?

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.926
Nvidias GT200-GPU ist, wie ATis Gegenstück, mittlerweile im Handel erhältlich und beide Konkurrenten kommen sich wohl näher als es Nvidia gerne gehabt hätte, obwohl die GPU gemäß den technischen Daten weiter vorn sein müsste. Dementsprechend arbeiten die Kalifornier derzeit mit Hochdruck an einem leicht verbesserten Rechenkern, dem GT200b.

Zur News: Kommt Nvidias GT200b schon im September?
 
Das der GT200B schon so früh kommt könnte gut möglich sein, würde es Nvidia wieder einige vorteile bringen bei gleichem Takt warscheinlich noch weniger Stromverbrauch, und bei höhrem Takt vielleicht auch nebst einer schönen Mehrleistung, und am Preis könnten Sie dann auch noch rummfeilen da Sie dann wieder mehr verdiehnen Pro GPU. Na das heisst dann wohl noch ne weile warten auf die 4870x2 will ich eh warten, mal sehen vielleicht werden wir mit einer GTX270 und GTX290 überrascht.
 
schöne news, auch wenn ich nicht denke das der G200b schon so früh kommt ... selbst wenn, wissen wir alle das es min. 2wochen dauert bis man wirklich eine karte kaufen kann.

ich würde es mir wünschen das schnellstmöglich was "besseres" nachgeschoben wird ... will kein neues nt kaufen und für mich kommt 4870CF oder 4870X2 leider nicht in frage =(

was ich auch positiv anmerken möchte an der news, ist der fakt das ihr NICHT die fake-news um den G300 näher erläutert habt ... !!

ist nämlich absoluter ****sh**
 
Schon klar, dass NV alles daran setzt, so schnell wie möglich einen verbesserten DIE zu produzieren. Blöd nur für die Kunden, die beim release zugeschlagen haben, wie meine Wenigkeit. :freak:
 
Wieso? Durch einen neuen Chip von Nvidia wird deine Grafikkarte ja nicht langsamer. Es wird immer irgendwas in den Startlöchern geben, was schneller sein wird.
 
Wolfgang schrieb:
Ob der GT200b nun ein reiner Die-Shrink wird oder ob man auch die Taktraten nach oben schraubt, was vor allem aufgrund der bald erscheinenden Radeon HD 4870 X2 eine große Rolle spielen würde, ist noch unbekannt. In dem Fall wäre es aber denkbar, dass die Anzahl der Transistoren weiter ansteigt.
Ich frage mich wieso die Transistoranzahl steigen sollte wenn man durch die 55nm Fertigung die Taktraten erhöhen kann :stock:
 
Naja, wenn man sich die Quelle anschaut, ist man letzlich genau so schlau wie vorher.
 
Im FAH-Forum stand die Vermutung das die FP64-ALUs deaktiviert bzw. aus dem Chip-Design herausgenommen würden, um mehr Strom sparen zu können. Betroffen wären wohl weder FAH noch Spiele, eher reine CUDA-Programme, die die Funktion des Double Precision einsetzen. Für die Zukunft verheißt dies jedoch eine gewisse Abkehr/Konzentration von wissenschaftlicher Unterstützung hinsichtlich CUDA-Versionen 1.0, 1.1 und der aktuellen 2.0 (Beta), Details siehe Thread:
http://foldingforum.org/viewtopic.php?f=43&t=4057

Um es nochmal klar zu stellen: es bleibt eine Vermutung (bis zum Release), logisch wäre es nachzuvollziehen.
 
Fudzilla ist meineserachtens auch keine Quelle, da kann ich genausogut Kaffeesatz lesen....
 
@Fonce: evtl neue Pipeline-Stages. Wobei die 7900er damals gezeigt haben, dass es auch anders geht.
@topic: Ein schneller Release wird für NV wohl Sinn machen. Immerhin müssen sie jetzt ziemlich teure Karten ziemlich billig raushauen. Allerdings würde es mich beim GT200b auch nicht wirklich wundern, wenn das SI wie beim G92 wieder verkleinert wird, um einfachere PCB´s und damit noch billigere Karten herzustellen.
Wie sich der 55nm beim Stromverbrauch schlägt interessiert mich aber auch.
 
@Hypocrisy: Vielleicht starten ein paar Hersteller ja ne GT200a gegen GT200b Eintausch Aktion, natürlich nicht in Europa:freak:
 
Zu erwarten wäre ein so früher shrink schon, v.a. wenn man bedenkt, was nvidia bzw. die Partner für immense Fertigungskosten haben. Eine erhöhte Transistorenzahl kann ich mir auch nicht vorstellen, wohl aber höhere Taktraten und evtl. ein Dual-GPU-Monster in 55nm mit leicht erniedrigter Taktung. Auf dessen Abwärme wäre ich dann gespannt. :D
 
bei den derzeitigen Preisen die sie erzielen ist es kein Wunder das man die Kosten senken muss.

das (signifikant) mehr transistoren kommen bezweifle ich doch sehr. Man kann nicht einfach neue Funktionen mal eben in 1-2 Monaten einbauen.
 
Wo hast du denn diese Gossensprache her ?

Wenn man natürlich immer das neueste kauft kann man viel Kohle verpulvern ...

Ich finde es gut , dass die Entwicklung weiter geht , mit den schlecht programmierten Spielen muss ja mithalten .
 
@thedarknes
Zwingt Dich doch keiner neue Hardware zu kaufen. Und eine gepflegtere Ausdrucksweise würde Dir auch nicht schaden :smokin:

B2T
Dieser Schritt ist doch unumgehbar, wenn Nvidia wieder deutliche Gewinne erwirtschaften und den Preiskampf mit ATI agressiv gestalten will.
 
NVIDIA hast Angst vor der ATI 4870x2

Jetzt wo AMD-ATI einen richtigen Kracher rausgebracht haben, setzt Nvidia alles daran
um ihre Marktanteile und die Performance Krone zu sichern.

Bin ja mal auf die TDP gespannt
bei der GeForce GTX280 liegt sie ja bei ca. 236W (Volllast) :( arme Umwelt :(
 
Naja abwarten und Teetrinken, wer sich immer wieder sofort die neuste Karte kauft, braucht sich über den Preisverfall nicht zu beschweren ausser seine alte ist grad abgeraucht (meinte jetzt die Graka).

Werde vielleicht die G200 und RV770 auch überspringen, schließlich brauch ich ja auch nen neuen CPU und zwangsläufig ein neues MB. Da bald ja auch noch neue MB rauskommen, überlege ich doch erst noch abzuwarten um alles in einem rutsch zuholen, aber wer weis. Die Preise der neuen Generation werden am Anfang auch wieder jenseits von gut und böse sein. Man is das immer schwer...:freak:
 
doesntmatter schrieb:
Im FAH-Forum stand die Vermutung das die FP64-ALUs deaktiviert bzw. aus dem Chip-Design herausgenommen würden, um mehr Strom sparen zu können. Betroffen wären wohl weder FAH noch Spiele, eher reine CUDA-Programme, die die Funktion des Double Precision einsetzen. Für die Zukunft verheißt dies jedoch eine gewisse Abkehr/Konzentration von wissenschaftlicher Unterstützung hinsichtlich CUDA-Versionen 1.0, 1.1 und der aktuellen 2.0 (Beta)

Das macht durchaus Sinn. Damit könnte nVidia einiges Einsparen und die Professionellen Karten würden dann wirklich von den Konsumerkarten unterscheiden.
 

Ähnliche Themen

Zurück
Oben