Bericht Bericht: Nvidia GF100: Technische Details

Hier mal ein Zitat von Carsten der PCGH:
"Das Gute" an Tessellation ist, dass es sich leicht wie kein anderes Feature per Slider regulieren und so an die Leistungsfähigkeit der verwendeten Karte anpassen lässt.

Kein Entwickler verliert etwas, wenn er als Maximum eine bis zum Horizont detaillierte Landschaft anbietet.
Gerade deshalb ist die unerwartete Tessalation-Stärke mehr als erfreulich. Quasi ein Geschenk an die Entwickler.
 
@ Einhörnchen
...und ein Geschenk and "uns". Ich hätte es allerdings als mehr als traurig angesehen wenn der GF100 tatsächlich Tesselation so schlecht handhaben hätte können, wie erst vermutet. So haben wir alle einen deutlichen Mehrwert wenn die Spiele massiven Gebrauch davon machen. Jetzt hoffen wir auch gleich mal, dass die Entwickler das Feature auch so dynamisch nutzen wie es möglich wäre. Wenn einige Vermutungen hier recht behalten wäre sehr wichtig (egal ob Fermi so viel mehr in der Hinsicht leisten als die HD5XXX, oder ob die Fermi Mainstreamkarten leiden könnten -> wahrscheinlich), dass es tatsächlich so etwas wie einen Slider gibt und nicht nur on/off wie bei den ersten Beispielen die es schon gibt (dirt2/unigine bench). Ab einer gewissen Distanz zu den Objekten wir man auch kein Tesselation mehr brauchen. Dies sieht man auch im Drahtgitter Modell von Unigine ganz gut.
 
Zuletzt bearbeitet:
Limit schrieb:
Darüber kann man sich herzlichst streiten. Soweit ich das bisher verstanden habe ist Tessellation so realisiert, dass jeder Cluster eine zusätzliche Einheit enthält. Allerdings ist diese Einheit alleine nicht in der Lage die benötigten Berechnungen durchzuführen, sondern benutzt die normalen Einheiten des Clusters mit, so dass sich die normalen Shaderprogramme, evtl. Physikberechnungen und Tessellation die vorhandenen Cluster untereinander aufteilen müssen. ...

hab das mit nvidias tesselation nach lesen mehrer der heutigen artikel auch so verstanden.

dazu kommt auch noch der overhead für die kommunikation/synchronisation der 16 tesselation engines. was dazu führt das die tesselation leistung ausser in ein paar extra für die architektur handoptimierten benchmarks ziemlich sicher nicht mal annähernd linear mit der anzahl skalieren werden.
Tesselation leistung aleine reicht auch noch nicht um die daten dann darzustellen, für die berechneten polygone müss dann noch helligkeits und sichtbarkeits infos berechnet werden und als abschluss noch die texturen und shader darüber. In der Praxis wirds sicher interessant werden ob bei den aktuellen DX11 grafikkarten dann eher durch die tesselation engine oder durch andere komponenten der render pipleine gebremst wird wenn die tesselation hochgeschraubt wird.

Wirklich wissen wie effektiv die beiden ansätze im vergleich sind, werden wir erst wenn die ersten Direct X11 games draussen sind die Tesselation verwenden kombiniert mit allen anderen möglichen effekten..
 
Zuletzt bearbeitet:
Das Tessellation haben sie definitiv gut gelöst - vor allem auch kurze Wege da direkt in den skalierbaren Einheiten. Dass dies auf die Grösse des Chups Auswirkungen hat ist nun auch besser nachvollziehbar. Ich hoffe nur, dass dies nicht zum Bumerang wird und in der Produktion zu geringe Stückzahlen abwirft. Bisher sieht es ja nicht gut aus mit den Yields, auch wenn sie etwas besser geworden sind.
Technisch eine gute Architektur, doch vielleicht erst mit dem nächsten Shrink wirtschaftlich - mal sehen ob das skalieren der kleineren Einheiten reibungslose genug geht um in der Produktion bessere Stückzahlen aus einem Wafer zu erhalten.
Vielleicht können sie es ja ähnlich wie AMD mit seinen Phenom II X2 machen und einfach die kaputten Rechenkerne deaktivieren ;) Dann wären die Yields auch kein grosses Problem - mit dieser Architektur müsste das doch fast machbar sein.
 
@quaiky
Nein, die PolyMorph Engines sind eigenständige Einheiten, eigene Transistoren, die u.a für die Tesselation zuständig sind. Die CCs werden dafür nicht gebraucht... Nur sind die im Gegensatz zu ATIs Tesselator-Einheit nicht fixed function sondern programmierbar. Beides hat Vor-/Nachteile, laut Nvidia scheint deren Ansatz aber schneller zu funktionieren (wie kommts:D) Das schlägt natürlich auf das Transistor-Budget...
 
quaiky schrieb:
Wirklich wissen wie effektiv die beiden ansätze im vergleich sind, werden wir erst wenn die ersten Direct X11 games draussen sind die Tesselation verwenden kombiniert mit allen anderen möglichen effekten..

Schreck lass nach, das sieht ja bedeutend dürftiger aus als ich mir das mit meiner pessimistischen Einstellung vergestellt hab :-(
http://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support
Ergänzung ()

AwesomeSauce schrieb:
Nur sind die im Gegensatz zu ATIs Tesselator-Einheit nicht fixed function sondern programmierbar.

AwesomeSauce schrieb:
Natürlich hat der GF100 dedizierte Tesselator-Einheiten (fixed function), und zwar je eine pro Polymorph-Engine Da ist gar nix "Software"...
Zudem sind fixed function Tesselator-Einheiten Teil der DX11-Spezifikationen.

Oh oh, Widerspruch! :evillol:
 
Zuletzt bearbeitet:
@DvP
Ja, bezüglich des Tesselators des GF100 habe ich mich anscheinend getäuscht. Ist wohl wirklich programmierbar und nicht fixed function und kann somit auch nicht Teil der DX11 Specs sein **duckundrenn**

Aber auf jeden Fall sind es dedizierte Einheiten! Beweis (dedicated graphics hardware)

PS: ich habe darauf gewartet, bis jemand den Widerspurch erkennt;)

As always, this is an area vs performance play. It depends on what the area of a fixed-function unit is, times its (expected) utilization, vs the performance (and perhaps complexity) of not using fixed-function.

The Tessellation unit (however implemented) needs to do 4 things:
- Read the inputs.
- Determine the topology (how many vertices and where they are).
- Collect the vertices into batches.
- Schedule the batches on the SMs.

Some of those tasks are better suited to fixed-function, and some are better suited to a programmable environment. Note that after the "hull shader" (what a terrible name), the specified LODs can make generate a patch that has 100-1000x more vertices than the input patch.

Ultimately, however tessellation is done matters a lot less than the final performance achieved. Even between 2 fixed-function unit designs, the performance characterisitics can be wildly different.
 
Zuletzt bearbeitet:
naja, dass 2010 noch kein großer ansturm an dx11 spielen kommen wird, war abzusehn. erstmal müssen die engines da sein, dann müssen die spiele darauf ersteeinmal entwickelt werden...
als dx10 so richtig in fahrt kam, war die 2900xt auch schon wieder ein alter hut ;)
ersteinmal muss ja die hardware da sein, damit die entwicklung der software auch möglich ist...
 
@ Dem Beitrag der gerade gelöscht/verschoben wurde

Zum Wiederholen: Der Kerl fragte ob wir hier schon den ganzen Tag schreiben und ob es denn da so viel zu diskutieren gäbe:

Ich kann den Thread auswendig, wie du oben siehst ;-)...

Ne im Ernst, das Thema ist genial zum diskutieren und jetzt sind wir auch über das gebashe hinweg und viele die mitdiskutiert haben werden auch weiterhin gemeinsam gegen das blabla gebrabbel vorgehen, da sich hier nVidia und ATI/AMD Sympatisanten jetzt sehr gut austauschen. Fein ist das *freu*
 
hmmm was ich mich aber grade wirklich frag ... charlie mag ein fanboy vor dem herrn sein, aber schlecht informiert ist er selten. denkt ihr das A3 stepping war wirklich so ineffektiv dass sie über die 1400 taktung nicht rauskommen?

und falls ja, was würde das für die leistung der karte heißen? entspricht ja nur eta 80% des angedachten taktes...
 
So, ich kenn den Thread nicht auswendig und ist mir jetzt auch zu anstrengend. ;) Daher mal meine Frage einfach so: Wie skalierbar ist denn nun der neue Chip? Dürfen wir dann zum Marktstart nicht nur die High-End-Boliden erwarten, sondern runter bis zum unteren Mainstream gleich alles mit?
Ich bin diesbezüglich etwas beunruhigt, da ja die mobilen Grafiklösungen mal wieder durch eine Umbenennung zustande kamen. Hatte eigentlich gehofft, dass durch die Skalierbarkeit ein komplett neues Produktportfolio auf Basis der neuen Architektur entsteht.
 
@Straputsky

also das mit dem mobilmarkt ist ganz einfach zu erklären, da die architektur auf dem stand wie sie jetzt ist, schlicht zu viel strom benötigt für den mobilen markt (da wird angeblich für die gt400m vom tegra aus hochentwickelt werden)

nach dem was man bisher von der architektur weis scheint sie sehr modular aufgebaut zu sein, was prinzipiel positiv sein sollte für die kleineren varianten, aber wie es in der praxis aussieht weis aktuell wohl nichtmal nv
 
Neo_Xsendra schrieb:
hmmm was ich mich aber grade wirklich frag ... charlie mag ein fanboy vor dem herrn sein, aber schlecht informiert ist er selten. denkt ihr das A3 stepping war wirklich so ineffektiv dass sie über die 1400 taktung nicht rauskommen?
Naja, laut einigen Mods im 3dcenter Forum wird er von AMD direkt gefüttert. Viele seiner Newsmeldungen greifen fast identische Formulierungen aus AMD Statements auf.

Vorteil: Als NV seine eigenen Leak-Verdächtigen noch an der Nase herumführte (zb haben sie gesagt, das A1 Tape.out wäre im März gewesen), wusste Charlie es besser (dank AMD und die vermutlich dank TSMC).

Nachteil: Wo AMD sich täuscht, täuscht auch er sich. Und da er zwangsweise alles von NV negativ interpretiert, weiß man nie, was jetzt stimmt und wie relevant es wirklich ist (ich glaub ich frage Dave Baumann auf beyond3d mal, wieso ATI damals so stolz auf sein Tesselation war und es jetzt plötzlich als unwichtig abstempelt...)
 
Einhörnchen schrieb:
(ich glaub ich frage Dave Baumann auf beyond3d mal, wieso ATI damals so stolz auf sein Tesselation war und es jetzt plötzlich als unwichtig abstempelt...)

Wo wird denn Tesselation von AMD/ATI als 'unwichtig' abgesetempelt?
Hast du eine Quelle für uns?
 
Hallo zusammen,

also der Bericht ist doch arg Optimistisch Pro Nvidia. Für mich nicht besonders Objektiv, gelinde ausgedrückt.

Da erscheint mir der Bericht von www.heise.de - http://www.heise.de/newsticker/meld...ader-Kerne-und-64-Textureinheiten-906002.html - weit Objektiver und auch aufschlußreicher, vor allem Sachkundiger. Das ist meine eigene persönliche Meinung nach Lektüre beider Berichte. Speziell am Ende des Heise.de Berichts wird auch selektiert auf die Tesselationleistung eingegangen, was einiges aussagt.

Wobei ich Persönlich denke, Nvidia ist sich selbst nicht sicher, wie sie die GPU Takten kann. Es liest sich für mich sogar so, wie wenn sich die Aussagen der gängigen Auguren bewahrheiten, welche nämlich äußerten, es gäbe Probleme mit der GPU, sie könne nicht vom Takt her so hoch belastet werden.

Ich bin übrigens niemandes Fanboy. Aber einfach nur vorsichtig gegenüber Nvidia, nach dem Prozedere, was sie bisher abgeliefert haben.

So long....
 
Natürlich ist er Nvidia-centered... Ist ja auch von Nvidia.;) Der Heisebericht disqualifiziert sich schon durch die falsche Aussage zur Taktung der TMUs...
 
milamber! schrieb:
Wo wird denn Tesselation von AMD/ATI als 'unwichtig' abgesetempelt?
Hast du eine Quelle für uns?
http://forum.beyond3d.com/showpost.php?p=1381891&postcount=635
Dave Baumann schrieb:
Our modelling suggests that, at best increasing the primitive rate buys about 2% on current apps. We spent the area elsewhere.
Musst da die Postings drumherum noch lesen, damits klarer wird. Für ATI jedenfalls auf einmal sehr unwichtig. ^^
 
na bis nvidia die karten auf den markt bringt,wird ati schon den nachfolger der HD5870 vorstellen)
 
Zurück
Oben