Zum Release hat sichs Nvidia mit einigen sehr verscherzt. Nicht nur mit Boardpartnern... A3 war Pech (sonst wärs November gewesen).
Wie sich der Fermi nun in Real life schlägt werden wir am Freitag sehen, oder Samstag nacht? Uns alle sollte es freuen, denn Konkurrenz belebt ja das Geschäft.
Im aktuellen media Markt prospekt sind übrigens lauter Nvidia Grafikkarten, von ATI 0. Wie sowas zustande kommt, frägt man sich schon, dürfte eigentlich nicht sein. Aber vielleicht war das Gerücht, dass Nvidia 80 % von TSMCs 40 nm Kapazitäten gebucht hat, doch wahr?
CoffeeJunkie schrieb:
In einzelnen Tests - warum nicht? Immerhin hat nVidia bereits "irgendeine Karte" gegen "irgendeine andere Karte"
Ich war hier auch skeptisch, 2 Leute haben mir das aber bestätigt. Ich kann es mir wie gesagt nur so erklären, dass die Fermi-Architektur wohl von bestimmten Gegebenheiten sehr profitiert. Welche das sind, wird der CB Test hoffentlich zeigen. Wobei, eigentlich sollten Volker solche Benchmarkwerte bereits bekannt sein, vielleicht ists also doch nur eine Ente. Da Nvidia aber FC2 und Unigene immer herausgepickt hat, könnte ich mir schon vorstellen, dass das richtige Paradedisziplinen des Fermi sind.
Diesbezüglich bin ich auf den HardOCP Test sehr gespannt. Die sind meistens doch recht detailliert was AVG, MIN, MAX usw. angeht.
Und noch was zur Gerüchteküche:
Schaffe89 schrieb:
Es gibt keine feste Tesselationeinheit. Imho ist sie per Software/Bios fest bestimmt.
Das mitm emulieren war allerdings ne Ente.
nennen wir sie dedizierte hardware tesselation, OK? und das war ein epic fail von einer bekannten newsseite.
noch mehr falsche fermi prognosen der besagten?
Nvidia is going to use general purpose 'shaders' to do compute tasks, and the things that any sane company would put into dedicated hardware are going to be done in software. Basically DX11 will be shader code on top of a generic CPU-like structure. Just like Larrabee, but from the look of it, Larrabee got the underlying hardware right.
Contrast that with the GT300 approach. There is no dedicated tesselator, and if you use that DX11 feature, it will take large amounts of shader time, used inefficiently as is the case with general purpose hardware. You will then need the same shaders again to render the triangles. 250K to 1 Million triangles on the GT300 should be notably slower than straight 1 Million triangles.
When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't.
R870 should pummel it in DX10/DX11 performance, but if you buy a $400-600 GPU for ripping DVDs to your Ipod, Nvidia has a card for you. ... It won't come close to R870 in graphics performance,
Wer da recht hatte und wer unrecht - warten wir mal zum Launch
. Und dass sich TDP mehrmals geändert hat, war nichts neues. Aber im bezug zum TDP wurde schon vor Monaten angedeutet, dass sich nvidia hier am GT200 orientierten wird. Und was hat Nvidia die letzten Wochen getan? Performance zugunsten der TDP runter. Sowas aber auch...
Ich selbst habe erwartet, dass Nvidia an die TDP Obergrenze geht, um soviel Performance wie möglich rauszuquetschen. Dass sie das nicht tun, wundert mich etwas - ist aber auch eine angenehme Überraschung für alle Gamer, mit vernünftig dimensionierten Netzteilen. Es wird sicher werksübertaktete Fermis geben, Packshot: