Bericht Bericht: Nvidia GF100: Technische Details

@AwesomeSauce
Nochmal zum mitschreiben....solange man keine Kontrolle über das testsystem hat und die Werte nicht von anderen verifiziert werden können ist das ganze witzlos.
So ist beispielsweise in den Videos recht deutlich erkennbar das nicht exakt das gleiche getestet wurde, denn im linken Bildschirm rennt irgendwie mehr rum als im rechten. (beim Benchmark 1 rennt beispielsweise zu Beginn der Szene im linken Bild ein Männekin durch, im rechten nicht)
Es wurden also unterschiedliche Szenarien getestet und baut darauf einen Vergleich auf? Sehr fragwürdig wie ich finde....
In dem Zusammenhang erinnere ich beispielsweise gern an die Vorstellung des K10, wo dieser mit 3GHz lief und in der Serie diese Taktfrequenz aber nie erreichte.
 
KAOZNAKE schrieb:
Über den Tesselator kann man streiten. 16 "irgendwas-units" im Shader integriert würde ich nicht als dedizierten Tesselator ansehen, einfach weils keiner ist. Du kannst nicht 16 Kondensatoren in ein Notebook einbauen und behaupten, du würdest einen Akku verbaut haben.
Das erzählt Charlie - Nvidia selbst sagt was anderes:http://www.hardocp.com/images/articles/1263608214xxTstzDnsd_1_15_l.gif
Da geht nichts über die CCs!

The much more important of the two new execution units is the PolyMorph Engine, which is what NVIDIA is the execution unit that handles geometry for GF100. The PolyMorph Engine is responsible for handling Vertex Fetch, Tessellation, Viewport Transform, Attribute Setup, and Stream Output. It’s here where the Tessellator is located, one of the biggest changes that DX11 is bringing to GPU design. Unlike the Raster Engine, each SM has a PolyMorph Engine, giving the GF100 16 PolyMorph Engines altogether.

@wadenbeisser
Mann, mann mann... Video anschauen - Der Herr erklärt dir da den Grund auf dem Silbertablett: KI war eingeschaltet - deswegen die verschiedenen Reaktionen der Charaktere. Sind keineswegs unterschiedliche Szenarien! Bist du mit dem FC2-Benchmarktool nicht vertraut?
 
Zuletzt bearbeitet:
AwesomeSauce schrieb:
Yields für den GF100 (448CCs) liegen bei 40% - angesichts der komplexen Strukturen ein ziemlich hoher Wert. Nichts mit unmanufacturable
Du glaubst doch nicht dass der Fermi jemals das Reissbrett verlassen hätte wenn diese Yieldrate bei der Planung festgelegt worden wäre?
Naja auch Sony hat bisher immer noch auf jede PS3 Geld drauf gelegt und dies erst mit dem Verkauf der Spiele wieder rein gebracht - diese Möglichkeit hat Nvidia leider nicht.

Über den Tesselator kann man streiten. 16 "irgendwas-units" im Shader integriert würde ich nicht als dedizierten Tesselator ansehen, einfach weils keiner ist. Du kannst nicht 16 Kondensatoren in ein Notebook einbauen und behaupten, du würdest einen Akku verbaut haben.
Aua :freak:
@AwesomeSauce
Auch wenn der Akkuvergleich ziemlich weh tut. Charlie hat ja nicht gelogen wenn er von seinen Quellen zugetragen bekommen hat, dass Nvidia keinen dedizierten Tessellator im Design hat. Jeder ging von dem AMD Design aus, welches diese getrennte Einheit vorsieht. Was Nvidia alles in dem SM Einheiten unterbringt war ja völlig unbekannt bis heute - mit den skalaren Tessellatoren war es halt ein Geniestreich - wenn es mit den Taktfrequenzen am Ende hinhaut.
Ergänzung ()

Vertex Fetch, Tessellation, Viewport Transform, Attribute Setup, and Stream Output
Und noch ist nicht ganz klar ob nun eine Polymorphe Einheit jeweils eine der Aufgaben abarbeiten kann, oder eben für jede Aufgabe eine dedizierte Einheit bereit steht.
Kann Tessellation gleichzeitig mit Vertex Fetch arbeiten? oder müssen die 16 Einheiten immer grade das machen was ansteht?
 
Pickebuh schrieb:
Immer wieder schön zu hören wie toll doch Eyefinity ist und was man damit alles machen kann.
Ich hoffe doch du sitzt jetzt selber mit 3 Monitoren da und bist von Eyefinity überzeugt.
Wenn nicht ist jeglicher weiterer Kommentar überflüssig. :rolleyes:

Hier mal ein "richtiges" Game !
https://www.computerbase.de/2009-10/test-ati-eyefinity-im-spieletest/7/#abschnitt_crysis_warhead
Ups 2-3 FPS ... Na da lohnt es sich wenigstens die Monitore als Bilderrahmen zu verwenden. :evillol:

Klasse Vergleich aber ich hab hier auch noch einen kleine Test: https://www.computerbase.de/2009-11/test-ati-radeon-hd-5970/13/#abschnitt_crysis_warhead
Auf wievielen Grafikkarten läuft es da mit nur einem Monitor nochmal in der höchsten Einstellung flüssig?
 
Complication schrieb:
Und noch ist nicht ganz klar ob nun eine Polymorphe Einheit jeweils eine der Aufgaben abarbeiten kann, oder eben für jede Aufgabe eine dedizierte Einheit bereit steht.
Kann Tessellation gleichzeitig mit Vertex Fetch arbeiten? oder müssen die 16 Einheiten immer grade das machen was ansteht?

Laut Hardwareluxx alles parallel - http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/14133-gf100-wird-konkreter.html?start=3

Eine der zwei neue Fixed-Function-Units und auch die wichtigste ist die PolyMorph-Engine. Sie ist maßgeblich verantwortlich für Vertex-Fetch, Tessellation, Attribute-Setup, Viewport-Transform und den Stream-Output. Tesselation ist eines der wichtigsten Features in DirectX 11 und daher für die Performance und Darstellung entsprechender Inhalte besonders wichtig.

Während diese Schritte als Fixed-Function-Operationen bisher in einer Pipeline verarbeitet wurden, können sie auf der GF100 parallel berechnet werden, was die Geschwindigkeit der Berechnung deutlich erhöhen soll.
Daraus geht eindeutig hervor, dass die Einheiten dediziert sind! Nichts mit über Shader... Dass die Einheiten 16 mal auf dem Chip vorhanden sind, macht sie aber nicht weniger ein "Tesselator" als die Tesselator-Unit der HD5800!
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Hier mal ein "richtiges" Game !

In welcher Liste steht eigentlich was ein "richtiges" Game ist und was nicht?
Die Mathematiker würden jetzt sagen: "Definiere richtig"
Ich zocke Gerade Dirt2, ist das ein richtiges Game oder nicht.

Apropo Dirt2:
Wenn Fermi so ein Burner ist, warum hat Nvidia dann nicht ein DX11 Game genommen (auch wenn es zugegebenermaßen für AMD produziert wird, aber damit dürfen sich AMD Karten ständig rumschlagen...).
Was leistet das Teil in Dirt2?
Nicht umsonst ist FC2 im CB Testparkour nicht mehr drin...
Wenn Fermi so ein Burner wird, warum die vielen Monate Verspätung?
 
Bisschen engstirnige Argumentation:rolleyes:

Anandtech meint diesbezüglich:
By splitting up the fixed-function pipeline like this, NVIDIA in actuality created a lot of work for themselves. Why? Out of order execution.

The fact of the matter is that all of the work that goes in to making a design like this work correctly is an immense amount of effort, and NVIDIA’s engineers are quite proud of this effort. They have taken the monolithic design of prior GPUs’ geometry units, and made it parallel. We can’t overstate how much of an engineering challenge this is.

[]we believe that the PolyMorph Engine is the single biggest reason that GF100 didn’t make it out last year. It’s the single biggest redesign of any component in GF100, and is something that NVIDIA had to start virtually from scratch on. When NVIDIA told us that designing a big GPU is hard, this is what they had in mind.

Richtige Benchmarks kommen nocht nicht, weil noch nichts final ist - Taktraten, Kühlsystem, Treiber, mögliche Referenzdesigns - alles noch in Arbeit...

@Complication
Muss mich bei dir entschuldigen. Du hast natürlich "SM" geschrieben, was richtig ist. Ich dachte, du redest von CCs, die für Tesselation abgezwackt werden müssen (was KAOZNAKE immer noch glaubt)
 
Zuletzt bearbeitet:
AwesomeSauce schrieb:
Richtige Benchmarks kommen nocht nicht, weil noch nichts final ist - Taktraten, Kühlsystem, Treiber, mögliche Referenzdesigns - alles noch in Arbeit...

Bin zu Faul zu suchen, aber vielleicht kann mir ja jemand die Frage beantworten.
Wann haben die Dirt2 Entwickler ihre AMD DX11 Grakas erhalten?
 
Diese Info bringt nicht wirklich was. Direct3D 11 kannst du auch ohne DX11-Karten ansprechen und testen. Schon mal was von reference-Rendering gehört? Nicht optimal (da zu langsam), zur Not reichts aber...
 
@AwesomeSauce:
woher kommen die Infos auf Seiten die du gerne linkst? afaik haben die auch nur was cb hat, nämlich nur die Infos von Nvidia...
 
@AwsomeSauce
der Link zu Hardwareluxx hat mir trotzdem die Antwprt gegeben :)
Im letzten Schritt dann führt die PolyMorph-Engine die Viewport-Transformation und eine perspektivische Korrektur aus. Letztendlich werden die berechneten Daten über den Stream-Output ausgegeben, indem der Speicher diese für weitere Berechnungen freigibt. Während diese Schritte als Fixed-Function-Operationen bisher in einer Pipeline verarbeitet wurden, können sie auf der GF100 parallel berechnet werden, was die Geschwindigkeit der Berechnung deutlich erhöhen soll.
Das bedeutet, dass die Polymorphe Einheit eben nicht nur Tesselation macht. Die Einheit hat auch zusätzlich die Aufgabe:
GF100_04.jpg

Das ist eigentlich nur dann von Vorteil, wenn Tessellation nicht immer gebraucht wird - das wird es aber wenn es aktiviert wurde. Somit kann die Plymorphe Einheit nicht dauerhaft tessellieren und sondern muss zwischendurch auch andere Aufgaben (4 weitere) übernehmen. Nun hängt es wohl in erster Lniie von der Auslastung ab. Somit stimmt es aber, dass die 16 polymorphe Einheiten keine dedizierte Tessellatoren sind sind, da sie auch noch weitere Aufgaben haben.

Hier stellt sich die Frage ob eine einzige Tessellation Einheit die nach dem tessellieren die Daten weiter schickt und das nächste tessellieren übernimmt, schneller ist als eine Einheit die verschieden Schritte durchführt bevor es die nächste Tessellierung übernimmt. Der Zyklus also bei weitem höher ist.
Edit: besser gesagt ob die eine dedizierte Einheit besser ist als 16 Einheiten mit weiteren Aufgaben.
 
AwesomeSauce schrieb:
Diese Info bringt nicht wirklich was. Direct3D 11 kannst du auch ohne DX11-Karten ansprechen und testen. Schon mal was von reference-Rendering gehört? Nicht optimal (da zu langsam), zur Not reichts aber...

Soweit ich weiß hat AMD an die Dirt2 Entwickler aber "echte" DX11 Grakas geliefert ;)

PS:
Wenn noch nichtmal die Taktraten der Fermi feststehen, warum hältst du dann so große Stücke auf dem FC2 Benchmark?
 
Sagen wir es mal so: Die 5000er-Karten sind jetzt schon eher ein Jahr als ein halbes Jahr bei Entwicklern. Und auch Fermi wird zum Release sicher schon 6 Monate in der Gegend "herumfliegen". Und dieser Vorsprung ist nicht unwichtig, da man eben neue Techniken zuerst auf die Karten optimiert, die man hat (logisch, denn damit kann man testen).

Gruß, Quzy (für Joker: Mallard @ WoP ;) )
 
@JokerGermany
Ich habe nur gesagt, dass alles in jenem Benchmark mit reinen Dingen zu ging, was viele bezweifelt haben. Natürlich ist da noch nichts in Stein gemeisselt. Langsamer werden die Dinger aber auf keinen Fall;)

Deswegen habe ich ja dazugeschrieben, man solle die Beschreibung des Benchmarks genau durchlesen, weil da eben wirklich alles erklärt wird!

While the following benchmarks show only a slight glimpse of what the GF100 is capable of, it should be mentioned that all of them were run in front of our eyes in real-time and were done on hardware that is still in its beta stage. These numbers will improve as NVIDIA dials in clock speeds and the beta drivers mature to a point where they are ready for release.

While it was good to finally see some concrete results from the GF100 / Fermi architecture, there are a number of questions that are still bouncing around inside our heads. First and foremost, exactly what type of card was within the test systems since when asked, NVIDIA merely stated that it was the card that would be shipping on launch day. If some people are to be believed, due to yield issues the only card we would see on launch day would be a slightly cut-down 448SP version.
Darf ich fragen, ob du überhaupt English kannst? Du scheinst nämlich gar nichts zu lesen...

Jetzt ist aber genug;)

Noch @Complication
Der Tesselator in der PolyMorph Engine Einheit ist dediziert, denn er tut nix anderes... Nvidia hat sich vom zentralen Tesselator-Design abgewendet, da sie glaubten, hier auf einen Flaschenhals zu stossen - Die werden schon ihre Gründe haben, dass sie das Design parallelisiert haben...

This is just how things have been done for the longest time, and NVIDIA believes the traditional setup creates a bottleneck in geometry performance.

http://www.hardocp.com/images/articles/1263608214xxTstzDnsd_1_14_l.gif
 
Zuletzt bearbeitet:
Sun_set_1 schrieb:
Was ich immer wieder interessant finde ist diese These das Fermi für den Verbaucher ja so unglaublich Teuer wird. Und was ich viel interessanter finde, wie viele 100000000 Leute das so aufgrabschen.

Sagen wir mal die Ausbeute ist wirklich schlecht und liegt bei dem Faktor 0,5 bis 0,7 gegenüber dem GT200 (Aufgrund der Größe) (ATI Vergleiche hier völligst unangebracht) was bedeuten würde für den Verbrauche steigen die Produktionskosten je Die um 1,5 bis 1,8.

Soweit so gut. Aber wie hoch sind noch mal die Produktionskosten eines Die im Vergleich zum Endpreis für den Verbaucher? 3 oder 4 % des Gesamtpreises ? Oder noch weniger ??
....
Im Endeffekt wird die Karte 10, maximal 20 Euro an Mehrkosten aufweisen (was mE nach als pro Stück noch viel zu hoch kalkuliert ist, vllt 5 Euro).
....
Nur diese ganzen Besserwisser hier, die glauben das sich bei Nvidia noch kein Mensch Gedanken über Größe, Yieldrate, Ausbeute, Verfügbarkeit usw. us.f gemacht hat und hier meinen es besser zu wissen haben'se einfach nicht mehr alle aufm Zaun, sorry aber ist meiner Meinung nach so.

Ich mag auch keine Besserwisser, aber in diesem Fall haben sie nun mal eher recht, als du es hast. Denn du scheinst in keinster Weise aus einem Fundus von "Wissen" zu sprechen, sondern aus dem glauben heraus, ein Bauteil einer Grafikkarte könne ja nur aus Pfennig Beträgen bestehen.

Darauf wurde ja schon geantwortet, und du kannst auch gerne mal hier lesen: http://www.ivirtuaforums.com/nvidia-gt200-sucessor-out-gt200b-nvidia-face-tough-summer-t38753
Es ist ja nicht nur die GPU, auch die nun 1,5GB GDDR5 mit großer Speicherbandbreite drücken mächtig auf die Tube.


Pickebuh schrieb:
Ein sehr schöner in sich verdrehter Absatz mit einem kräftig Schuss Unterstellung dazu ! :mad:
Ich habe jeden Kommentar von mir mit zick Links untermauert und du unterstellst immer noch Unwahrheiten... Man kann sich auch Blind stellen...
Wenn du es nicht verstehen willst ist das dein Problem.
Aber selber sagst du das Eyefinity viel Leistung benötigt und schon sind wir bei der gespaltenen Persönlichkeit angekommen.

Verstehst du den Unterschied zwischen "viel Leistung benötigen" und "unspielbarer Marketing Gag"? Warum bitte schreibst du so viel Blödsinn?
Du verlinkst einen Crysis Benchmarks (von zich links kann gar nicht die Rede sein), und meinst damit den Ultimativen Beweis für die Unfähigkeit der Karten im Triple Display Setup brauchbare Leistung zu erzielen?

Bleib realistisch, und bitte tu doch wenigstens einmal erwachsen. Du verlinkst Informationen ohne auch nur im Geringsten auf den Inhalt einzugehen.

Pickebuh schrieb:
Eyefinity ist ein nettes Gimmik für Marketing-Präsentationen gut geeignet.
Für Leute die sich tatsächlich aber 3 Monitor auf den Schreibtisch stellen ist es wohl kaum zu gebrauchen da man nicht immer nur PacMan auf Niedrigauflösung spielen möchte. Ich kenne niemanden der sich Eyefinity zugelegt hat oder du etwa ?
Mehr habe ich dazu nicht mehr zu sagen weil es hier nicht zum Thema passt.

Schau ins Forum und mach die Augen auf, hier gibts einige mit Eyefinity Konfiguration.
Schau hier, was ja schon verlinkt wurde. Schau dir das HardOCP Video
an. Lese dir den Test von Computerbase von vorne bis hinten durch.

Es grenzt an nicht zu übertreffender Lächerlichkeit, wie du dir Eyefinity zu einer nicht funktionierenden Lösung zusammen reimst. Du brauchst dir Luftschlösser, warum auch immer.

JokerGermany schrieb:

Ok, nun wissen wir warum.


Pickebuh schrieb:
Hier mal ein "richtiges" Game !
https://www.computerbase.de/2009-10/test-ati-eyefinity-im-spieletest/7/#abschnitt_crysis_warhead
Ups 2-3 FPS ... Na da lohnt es sich wenigstens die Monitore als Bilderrahmen zu verwenden. :evillol:

Crysis Warhead ist ein "richtiges" Game? Bei dem es nicht mal ne GTX 285 in 1680 über 30 FPS schafft? Wo ist der Witz?

Bitte mach die Augen auf, bitte schaue über den Tellerrand, verstehe und akzeptiere, das es da draussen hunderte Spiele gibt, die man Spielen kann.
Das diese unzähligen Spiele nicht nur aus Engines bestehen, welche die aktuelle Hardware spielend locker an die Wand fahren, selbst ohne Eyefinity.
Bitte verstehe das es auch Menschen gibt, die selbst ohne Eyefinity bereit sind, Spiele ohne Full HD, 8xAA und Max Details zu spielen, und das ebenso Leute für Eyefinity bereit sind zu tun.

Bitte, bitte bitte bitte bitte höre endlich auf so viel Schwachsinn zu schreiben.
 
Also ich hab mir jetz die gesamten 18 Seiten des Threads durchgelesen, und ich muss schon sagen dass hier manche User wohl den IQ und der ein oder andere auch den EQ von Holz haben. Gott sei Dank gibt es noch ein paar relativ objektive, sachliche User die untereinander auch zu einer normalen Diskussion fähig sind (Dank @AwesomeSauce und DvP!). Allein schon das Performance-Wahrsagen von "nicht mal so schnell wie eine HD5870" bis "nur 60% schneller als ne 5870" (wobei jene, die letzteres behaupten auch noch von einer solchen Performance enttäuscht wären!!) lässt einem die Haare zu Berge stehen..

Und zum Thema Eyefinity, weil das doch sehr oft als Konkurrenz zum 3D-Vision genannt wurde: Wers (in Bezug auf Gaming) braucht soll sichs zulegen, ich spiel lieber in Full HD auf einem großen Moni, ohne Balken im Bild..
Ich versteh aber nicht warum hier mancher partout nicht wahrhaben will dass auch ein 3-Monitor Setup fürs Spielen zu gebrauchen ist. Letzteres wurde ja im CB-HD5870-Test einwandfrei festgestellt.

BTT: Die Architektur-Details lesen sich ziemlich spannend, vor allem das modulare Design macht Sinn. So könnte zB eine MidRange Karte aus 8 anstatt 16 SMs bestehen und man würde dadurch Transistoren weglassen und somit Die-Fläche einsparen können.
Schade find ich, dass anscheinend kein SGSSAA zur Verfügung stehen wird. Bin eigentlich davon ausgegangen, dass das implementiert wird nachdem der RV870 diesen Modus ja auch beherrscht.
Insgesamt find ich dieses "Sneak Preview" von Wolfgang sehr gut geschrieben, mir war eigentlich die jeweilige Funktionsweise der verschiedenen Einheiten schnell klar.
Mal sehen wer im Sommer/Herbst 2010 von den beiden Herstellern die Nase vorn hat (bei Single-GPUs), denn da kommt mir ein neuer Rechner ins Haus :)

Bin gespannt auf den CB-Test..
 
das problem für nvidia ist letzendlich, wenn die ihre karte bringen, dauerts nicht mehr lange und ati bringt die 6xxx reihe. diese wird dann locker schneller als die nvidia karten. (zumindest gehe ich davon aus). ich hab seit jahren nur ati karten im rechner, wobei ich kein fanboy bin. hatte auch schon paar nv karten. jedoch hat nvidia einfach verschlafen und wenn ati es besser macht, dann sind sie immer die schnellsten. zumal ati jetzt schon einige 5xxx karten verkaufen konnte (hab ja auch eine ^^) und ende des jahres (denke oktober /november) kommen ja wieder neue. bis nvidia dann nachfolger bringt die mit der 6xxx reihe mithalten können, dauerts sicher wieder ne zeit lang. also vorerst sieht es dennoch so aus, als hätte ati endlich mal wieder den dominanten part am markt. war ja lange umgekehrt. und solange die neuen ati karten immer schneller sind als nvidia´s pendants zu den aktuellen ati karten, wird sich daran auch nichts ändern. sollte ati ne neue serie raus bringen die langsamer ist, dann könnte nv wieder aufholen ;)

was mir persönlich aber wichtiger ist als 5-10 fps mehr ins games ist der stromverbrauch. und da hat ati die nase vorne. mal sehen wie die nv karten an der steckdose nuckeln ;)
 
Extrem grob die News.

Einfach wow, was für ein Titanenkampf da anrollt. so unglaublich mordsmäßig.wow
 
Trimx schrieb:
Kann ich auch mal ne frage am rande stellen ? ich habe ein Q6600 getaketet auf 3.33 Ghz läuft unter voll last auch stabiel meine frage kann es villeicht sein das dieser cpu einen fenrir Grafiekarte ausbremst ? oder sollte das noch reichen ? Wirde mal gerne eure meinung dazu hören ;)

Ps: Habe noch Pci express V1 weiss natürlich nicht ob da solche karten therotisch laufen wirden ;)

Wie gesagt reine neugirde ;)

Kann mir da jemand weiter helfen?
 
PCI-E 1.0 oder 1.1?

Ich weiss bei die 800GT damals wegen die BIOS liefen die Karten auf PCI-E 1.0 NICHT damals-Lag an die Graka BIOS.ATI Karten hätte diese Problem nicht..

3,3 Ghz ist OK aber die mehr Mhz die besser besondere in SLI/Crossfire.(ZB bei Guru 3D gab es die crossfire HD5850 test-Bei manche Spiele hat die CPU gebremst bei eine i7 920 @3,83 Ghz!)
 
Zurück
Oben