AwesomeSauce
Lt. Junior Grade
- Registriert
- Juli 2009
- Beiträge
- 396
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)
Er hat auch verlauten lassen, dass der AF-Quality-Modus im GF100-Treiber vermutlich wieder mehr (zwar deaktivierbare) Optimierungen haben soll...
Ailuros schrieb:PS: auf Papier sieht GF100 nach 4 Tris/clock aus. NV gibt aber einen immer noch uebertriebenen Wert (IMO) von 3.2 Tris/clock an (siehe techreport Artikel). Ich persoenlich waere froh wenn das Ding unter allen Bedingungen zumindest 2 Tris/clock von sich spucken kann. Und das ist eben genau der Punkt wo man marketing herausfiltering sollte.
Ebenso behauptet NV dass die TMUs bis zu der 4x fachen Leistung von GT200 TMUs erreicht. Ihre Graph ueber Echtzeit-beispiele ist der Realitaet dann wohl am naehesten wie moeglich so wie es aussieht.
Etwas mehr zusammengefasst: ihre letzte GF100 Praesentation ist mit Absicht so irrefuehrend wie moeglich gestaltet was aber generell fuer solche Praesentationen normal ist. Es ist die eigentliche Aufgabe von PR/marketing die Realitaet so gut wie moeglich verdrehen zu koennen.
So oder so hat es NV wieder mal geschafft sehr gute Verwirrung zu stiften. Reale hw in PCs war wohl auf irgend eine Art reduziert. Was genau sie in whitepapers gesteckt oder sogar vermischt haben kann wohl keiner so leicht sagen. Das texturing state bucket Diagramm passt mir persoenlich erstmal nicht zu der gather4 Angabe.
Er hat auch verlauten lassen, dass der AF-Quality-Modus im GF100-Treiber vermutlich wieder mehr (zwar deaktivierbare) Optimierungen haben soll...
Sonst hab ich es schwarz auf weiss von einem engineer dass GF100 weniger TA/TF (und ja er erwaehnte beide) als GT200 insgesamt hat. Die Effizienz soll aber nach ihm bis zu 4x Mal so hoch sein. Da sie aber fast 3.3x im PR Quark mit gather4 gegen 5870 behaupten macht mir dieses 4x im Vergleich zu GT200 keinen besonderen Eindruck.
Und damit ich wieder nett viel zum aufraeumen habe: der GF100 Treiber hat mehr AF settings als heutige GPUs. Mehr sag ich noch nicht sonst wird es zu langweilig.
AMD's Schaetzungen fuer GF100 sind wohl um einiges zuverlaessiger als NVIDIA's.
Kann beim besten Willen kein "Weglassen von negativen Gerüchten" erkennen, Sorry. Und das "Promoten von positiven Gerüchten" musst du mir auch einmal zeigen - ausser du erkennst das blosse Erwähnen eben selbiger bereits als solches...stimmt anscheinend der von AMD original angegebene 280W TDP fuer die 380. Maximaler Lastverbrauch soll bis zu 240W reichen und ergo kann es auf keinen Fall weniger als 280 TDP sein.
Meine persoenliche Schaetzung fuer den groesser als original erwarteter Stromverbrauch duerfte sein weil erstmal die Mehrzahl der vorigen core clock Einheiten jetzt auf 1/2 hot clock getaktet sind (ausser ROPs/L2 cache), wobei die letzte tatsaechlich sogar 725MHz entsprechen koennte. Falls ja ganz grob vereinfacht: Zielfrequenz fast erreicht; Ziel-Stromverbrauch im Vergleich zum ersten eben nicht
Zuletzt bearbeitet: