Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Im Rahmen der hauseigenen „GPU Technology Conference“ hat Nvidia die Katze aus dem Sack gelassen und erste Spezifikationen zur kommenden High-End-Grafik-Lösung präsentiert. Demnach hatte die Gerüchteküche vorab schon größtenteils recht, der Codename des neuen Chips lautet „Fermi“.
Juhu.. endlich infos.... von den ersten daten her scheint es ja ne richtige bombe zu werden... und das sage ich, obwohl ich normalerweise ATI bevorzuge
Wenn diese Zahlen auch in der Realen Computerwelt verwirklicht werden können, Anzahl = Leistung, dann ergebe das eine Leistungseigerung von über 200% zum GT200!
Allerdings wird man sehen müssen, wieviel sich daraus in der Praxis für den anspruchsvollen Durchschnittsanwender & Gamer umsetzen lässt. ATI hat zb mit Eyefinity gezeigt, wie wann mit wenig technischen Fortschritt aber durchdachten Anwendungsszenarien einen praktischen Mehrwert schafft.
Nvidia scheint immer noch an der "Riesen-Die-Strategie" festzuhalten. Das wird wieder sehr schlechte Yield-Raten und Ausbeutung von einem 300mm Wafer wie früher beim GT200 geben. Das wird dann sehr teuer, sehr heiss, sehr gross, sehr laut und natürlich auch sehr schnell.
Ich bin zwar kein Profi und konnte an dem Material nicht viel abgewinnen aber 3 Mrd. Transistoren und 512 Shader in 40nm kommen bestimmt locker auf 400mm² Fläche; wenn nicht, sogar mehr.
naja, mit gut 30% mehr Transistoren als der RV870 dürfte der Fermi-Die den Gt200 in Größe und abwärme auf jeden Fall überflügeln, da helfen auch 40nm nix. Bin auf die Leistung gespannt, soweit ich´s verstanden hab ist der Fermi seit dem G80 ne neuentwicklung, nicht wie der der GT200 der mehr oder weniger ein hochgepimpter G92 ist der ja nicht mehr ist als ein Die-Shrink vom G80.
Nein, wie kommst du dadrauf.
Die GPU übernimmt immernoch die selben Aufgaben wie früher, und einfache und besonders paralelle, kann sie immernoch so verarbeiten wie sonst.
Der Cache ist nur da, damit man nicht so oft Daten aus einem 6 GB RAM laden muß, das würde schon etwas länger dauern..
Hmm..
Intressant intressant. Ich bin auf erste Benchmarks scharf.
Ich glaube aber ehrlichgesagt, dass Nvidia da ein bisschen MArmelade ums Maul schmiert.
Mich intressieren keine GGPU oder CGPU Berechnungen, sondern Grafikleistung und da muss man erst sehen was hinten rauskommt.