News Fermi: Und täglich grüßt das Gerüchte-Murmeltier

Status
Für weitere Antworten geschlossen.
Tombstone schrieb:
nun es gibt zwei mögliche wege laut dx 11 tesselation in hardware zu berechnen. einmal über die geometry shaders, das ist bei ATI so, und bei NV vielleicht ebenso möglich über die SFU`s ???

oder aber über die shader/compute shader, das ist dann aber dennoch eine hardware ausführung und nicht per software implementierung notwendig

nvidia wird sicherlich nicht einen weg gegangen sein der das produkt unnötig verlangsamt
wobei ich mich jetzt auch noch frage was denn sinnvoller ist... seperate geometry shader deren leistung man nun schlecht gegenüberstellen kann oder lieber die lösung über die compute shaders...
Das hier habe ich gefunden - die Technik gibt es seit 2003:
http://users.belgacom.net/xvox/technical.htm

Ati-Lösung<->Nvidia-Lösung
Hardware displacement mapping

Displacement mapping is a geometrical technique allowing intricate surface detail with moderate storage requirements. Unlike texture mapping, displacement mapping deforms the basic object geometry and creates a new dense triangle mesh for the object. With trilinear displacement mapping the mesh density can be made dependent on the object depth and geomorphing allows to smoothly interpolate the mesh density between different levels of detail.

Unfortunately, end 2003, graphics processors do not support hardware displacement mapping. They lack a primitive processor to tessellate the dense triangle mesh and vertex texturing to access the displacement map.

Still it proves to be possible to implement a form of hardware displacement mapping with the available hardware. The tessellation can be emulated with vertex morphing, and the vertex texturing can be emulated with vertex streams. This article describes how to do this.
Daher wird es wohl im Treiber mit Hilfe von HLSL implementiert von Nvidia, so wie sie es ja schon auf DX10 Hardware versucht haben zu simulieren mit "Instance Tesselation" für GeForce8: http://developer.download.nvidia.com/SDK/10.5/direct3d/samples.html#InstancedTessellation

Hier auch ausführlichere Doku dazu für die Interessierten: http://folk.uio.no/erikd/
 
@Ulukay
Das ist genau einer der Gründe warum ich warten werde und selbst wenn NV das über Software lösen würde.
Das Endergebnis wird zählen.
MFG
 
Ulukay schrieb:
statt 52 nur noch 20 minimum fps
jaaa das flutscht doch nur so :lol:

zumal der stalker korpus unter dx11 aussieht wie das michelin männlein -_-
 
CB kommt da selbst bei 1900x1200 auf bessere Werte unter directx11 mit Tesselation.
Dann dürften bei 1650x1050 mit directx11 und Tesselation durchaus spielbare Frames rauskommen.
Der korpus sieht für mich klar besser und realistischer aus als vorher.
 
Warum spielst du dann nicht in 800x600 - da hast du die besten fps :freak:
Wen ausser Sch**-Vergleicher interessieren die fps wenn die Optik nichts taugt?
Mehr Detail=mehr Rechnen=weniger fps sollte dir eigentlich auch klar sein.
Hier sieht man warum der Grafikkarten Markt eben nicht am "bringt nichts mehr" Limit angelangt ist.
 
Complication schrieb:
Daher wird es wohl im Treiber mit Hilfe von HLSL implementiert von Nvidia, so wie sie es ja schon auf DX10 Hardware versucht haben zu simulieren mit "Instance Tesselation" für GeForce8: http://developer.download.nvidia.com/SDK/10.5/direct3d/samples.html#InstancedTessellation

Hier auch ausführlichere Doku dazu für die Interessierten: http://folk.uio.no/erikd/

ich finde es ja sehr interessant das du soviel ahnung von der technik zu haben scheinst, aber nochmal...

worauf stützt du deine these das es so sein wird
 
Tombstone schrieb:
zumal der stalker korpus unter dx11 aussieht wie das michelin männlein -_-

Bei mirt läuft Stalker und Dirt2 mit Tesslation ohne ruckeln soviel ist sicher.
Und das sieht viel besser aus nicht nur wegen dem Männlein.

Dann spiel halt Dirt2 In DX9 da haste Frames ohne ende.:D
Hier ein Vergleich

http://www.pcgameshardware.de/aid,6...rgleich/Rennspiel-Sportspiel-Simulation/Test/

@Ulukay
In Stalker brauchst DU kein MSAA 16 X mal AF so wie bei CB. Das siehst DU mit Tesslation nämlich nicht und dann hast Du genug Frames auch in Stalker.
 
Zuletzt bearbeitet:
Was bringt mir Fermi wenn es aber viel zu Teuer wird...

Unter 499 € wird da nichts laufen-Bis dahin kann ich 2x HD5850 und sind vermutlich schneller als alle Fermis
 
Wir werden doch sehen was Fermi kann oder nicht. Sicher wird sie schnell, die Frage ist nur wie schnell und zu welchem Preis. Wenn Fermi Karten halbwegs bezahlbar sind werde, ich mir auch eine holen. Das soll aber jedem selbst überlassen sein.
 
Solange es keine aussagekräftigen Benchmarks gibt bringt die ganze Spekulation so oder so gar nichts. Wenn die Leistung mit DX11+Tesselation stimmen sollte, kann es dem Enduser ziemlich egal sein, wie das gelöst wurde. Falls nicht, hat sich nV derbe ins Knie geschossen.

Ansonsten stimme ich der Meinung zu, die im 3DCenter vorherrscht, man sollte sich lieber um Probleme wie Shader-Aliasing etc. kümmern, anstatt immer neue Mega-Nummern vom "normalen" AA nachzuschieben. Das gilt für beide Firmen.
 
Motkachler schrieb:
Bei mirt läuft Stalker und Dirt2 mit Tesslation ohne ruckeln soviel ist sicher.
Und das sieht viel besser aus nicht nur wegen dem Männlein.

Dann spiel halt Dirt2 In DX9 da haste Frames ohne ende.:D
Hier ein Vergleich

http://www.pcgameshardware.de/aid,6...rgleich/Rennspiel-Sportspiel-Simulation/Test/

Mhmmmm.. Das erste Foto ist genial :D Außer dem dicken Rand um die Felsen keine Unterschiede.
Fahnen,Wasser und Zuschauer profitieren, da gebe ich Recht.
Aber mal ne Frage : Wenn man sich aufs Rennfahren konzentriert wird einem doch höchstens das Wasser auffallen, es sei denn du spielst wie ich :p

Als ich das erste mal die PS3 Demo angemacht habe un das erste Rennen gefahren bin, war mein Auto nach ca. 1 Minute schrott. Ich war fasziniert von der Grafik :daumen:

Und noch eine Frage: Der größte Vorteil von dx 11 ist ja wohl die Optimierung der Technik, die ja bei Stalker mehr FPS brimgt. Ist das bei Dirt auch so? Oder ist der Unterschied wischen Dx9 und 11 nicht groß? Oder wird Unter dx11 einfac h noch Tesselation freigeschalten?

:eek:
Omg was hab ich viel geschrieben
@Topic: Entweder ´Fermi wird ein Klasse chip oder er geht unter wie Die Fx5800
Oder es wird ein Duke Nukem Projekt
 
@pookpook
INC.Microruckler
http://www.youtube.com/watch?v=-sGPIDmkDnY
Und das sind 2*HD5870 also rund 700Euro
Am ende des Videos sieht man die MIN FPS und das ist schon mehr als traurig für das Geld.
Das nene ich dann mal Microruckeln vom feinsten lol.
MFG
 
Zuletzt bearbeitet:
pookpook schrieb:
Was bringt mir Fermi wenn es aber viel zu Teuer wird...

Unter 499 € wird da nichts laufen-Bis dahin kann ich 2x HD5850 und sind vermutlich schneller als alle Fermis

Ich denke das sich die GTX 360 leistungs technisch gegen die HD 5870 stellen wird und diese leicht in ihre schranken verweist und dabei ein ähnliches Preis niveau anpeilen wird...

die GTX 380 wird sich weiter oberhalb aber immer noch zwischen HD5870 und HD5970 positionieren... demnach wird der preis unterhalb dessen sein was die HD5970 aktuell kostet aber deutlich oberhalb dessen was eine HD5870 kostet... round about 400 euro denke ich...

Mit einer Dual-GPU-Karte, die Geforcte GTX 390 heißen könnte, hätte man dann wieder die Leistungskrone erobert und die Situation wäre im Grunde wie zuletzt bei DirectX 10 auch.
 
Tombstone schrieb:
ich finde es ja sehr interessant das du soviel ahnung von der technik zu haben scheinst, aber nochmal...

worauf stützt du deine these das es so sein wird
Naja die Alternative wäre darauf komplett zu verzichten - das wäre ein Marketing-GAU. Man kann sich doch jetzt schon vorstellen was dann in den Foren los ist wenn die Fermi ohne Tessellation kommt. Und mittlerweile gibt es einfach zu viele Praxis-Beispiele die verhindern dass Nvidia das übliche "bringt eh nichts" Marketing betreibt wie zuvor.

Eine Hardware Unit haben sie nicht eingeplant in der Architektur, also bleibt nur noch die Treiber Einbindung und das nutzen der Stärke die sie ja immer wieder betont hatten: die Compute Shader.
Klar ist das lediglich spekuliert, doch meiner Meinung nach das einzige das Sinn macht, vor dem Hintergrund des "Treiber Optimierung verzögert Markteinführung"-Interviews vom PR-Chef von Nvidia.

Kein Tessellation und fehlendes Eyefinity würden ausreichen um Fermi zum Flop werden zu lassen - da spielt es auch nicht mal mehr eine Rolle ob sie extrem schneller in den Benchmarks ist - es wäre immer eine Karte mit fehlenden Features. Eyefinity kann man vielleicht noch als "nicht so wichtig" deklarieren, doch je mehr Features man als nicht so wichtig deklariert, desto unglaubwürdiger wird man. Das Problem haben sie ja jetzt schon.

Und nun sollte man noch berücksichtigen, wenn Microsoft mitteilt, dass Windows 7 am besten produktiv genutzt werden kann mit Verwendung von 3 Monitoren. Das hat nichts mit Games zu tun sondern mit Office Anwendungen oder Arbeitsplätzen für Programmierer.
Outlook, OneNote, Browser und weitere Anwendungen benötigen schon reichlich Platz auf dem Desktop aber keine FPS. Da werden die kleinen HD5xx Karten in den Büros der Sekretärinnen und Softwareentwicklern schnell Einzug halten.

Es wird immer von Spielen gesprochen - das macht Nvidia die kleinsten Sorgen.
Ergänzung ()

Tombstone schrieb:
Ich denke das sich die GTX 360 leistungs technisch gegen die HD 5870 stellen wird und diese leicht in ihre schranken verweist und dabei ein ähnliches Preis niveau anpeilen wird...

die GTX 380 wird sich weiter oberhalb aber immer noch zwischen HD5870 und HD5970 positionieren... demnach wird der preis unterhalb dessen sein was die HD5970 aktuell kostet aber deutlich oberhalb dessen was eine HD5870 kostet... round about 400 euro denke ich...

Mit einer Dual-GPU-Karte, die Geforcte GTX 390 heißen könnte, hätte man dann wieder die Leistungskrone erobert und die Situation wäre im Grunde wie zuletzt bei DirectX 10 auch.
Deine Preis prognose hat aber einen gewaltigen Pferdefuss:
Während Ati ca. 84 58xx GPUs pro Wafer ausbeute hat, kann Nvidia nur ca. 40 GPus pro Wafer produzieren bei der Die-größe von ca. 530 mm² bei identischer Ausbeute in der Fertigung von TSCM. Das schränkt die Preisgestaltung etwas ein nach unten.
 
Complication schrieb:
Und nun sollte man noch berücksichtigen, wenn Microsoft mitteilt, dass Windows 7 am besten produktiv genutzt werden kann mit Verwendung von 3 Monitoren. Das hat nichts mit Games zu tun sondern mit Office Anwendungen oder Arbeitsplätzen für Programmierer.
Outlook, OneNote, Browser und weitere Anwendungen benötigen schon reichlich Platz auf dem Desktop aber keine FPS. Da werden die kleinen HD5xx Karten in den Büros der Sekretärinnen und Softwareentwicklern schnell Einzug halten.

Es wird immer von Spielen gesprochen - das macht Nvidia die kleinsten Sorgen.

Versteh ich grad nicht, eyefinity macht aus mehreren monitoren einen, und multi monitor benötigt hingegen kein eyefinity, genau so wie man im office mMn besser damit bediehnt ist mehrere monitore zu haben als einen großen ausser evtl bei präsentationen und dergleichen
 
Wobei es noch absolut keine Infos darüber gibt, wie viele Monitore eine Karte ansprechen kann. Ich glaube kaum, das nV Eyefinity nicht mitbekommen hat und mehrere Monitore anzusprechen sollte auch nicht wirklich ein unüberwindbares Problem darstellen.
Während Ati ca. 84 58xx GPUs pro Wafer ausbeute hat, kann Nvidia nur ca. 40 GPus pro Wafer produzieren bei der Die-größe von ca. 530 mm²

Theoretisch, ja, Praktisch definitiv nicht, die Yield Problematik sollte mittlerweile auch der allerletzte mitbekommen haben.
 
Tombstone schrieb:
Versteh ich grad nicht, eyefinity macht aus mehreren monitoren einen, und multi monitor benötigt hingegen kein eyefinity, genau so wie man im office mMn besser damit bediehnt ist mehrere monitore zu haben als einen großen ausser evtl bei präsentationen und dergleichen
Ja aber du kannst nur max. 2 Monitore mit einer Graka betreiben ohne Zusatzhardware - mit Eyefinity sinds 3 - das ist für mich z.B. etwas worauf ich seit Jahren gewartet habe.
Ich habe im Büro und daheim 2 TFT in Verwendung.
Ergänzung ()

Evader schrieb:
Wobei es noch absolut keine Infos darüber gibt, wie viele Monitore eine Karte ansprechen kann. Ich glaube kaum, das nV Eyefinity nicht mitbekommen hat und mehrere Monitore anzusprechen sollte auch nicht wirklich ein unüberwindbares Problem darstellen.
Das wird wohl auch ein Mitgrund gewesen sein für die Verzögerungen. Du musst ja auch erstmal 3 sinnvolle Monitorausgänge in deinem Design einplanen->DVI+HDMI+Displayport. Wenn sie das vorher nicht hatten, ist es nachvollziehbar warum auch hier mit den Treibern Rückstand herrscht.
 
Zuletzt bearbeitet:
Ein Mitgrund vielleicht, das Hauptproblem denke ich liegt immer noch im Spiele/Computingbereich. Da hat man sich wohl etwas mit der Komplexität übernommen.
 
Complication schrieb:
Ergänzung ()

Deine Preis prognose hat aber einen gewaltigen Pferdefuss:
Während Ati ca. 84 58xx GPUs pro Wafer ausbeute hat, kann Nvidia nur ca. 40 GPus pro Wafer produzieren bei der Die-größe von ca. 530 mm² bei identischer Ausbeute in der Fertigung von TSCM. Das schränkt die Preisgestaltung etwas ein nach unten.



Ich denke deine rechnung ist genau so aus dem klo gegriffen ^^ viel spaß beim spielen ist nur schwer dabei zu berücksichtigen wie groß die ausbeute ist...
http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html



Complication schrieb:
Ja aber du kannst nur max. 2 Monitore mit einer Graka betreiben ohne Zusatzhardware - mit Eyefinity sinds 3 - das ist für mich z.B. etwas worauf ich seit Jahren gewartet habe.
Ich habe im Büro und daheim 2 TFT in Verwendung.
Ergänzung ()

Das wird wohl auch ein Mitgrund gewesen sein für die Verzögerungen. Du musst ja auch erstmal 3 sinnvolle Monitorausgänge in deinem Design einplanen->DVI+HDMI+Displayport. Wenn sie das vorher nicht hatten, ist es nachvollziehbar warum auch hier mit den Treibern Rückstand herrscht.

normalerweise 2 displays da aktuelle karten auch die HD 5870 nur 2 taktgeber besitzen für monitore... HDMI und dvi nutzt gemeinsam einen und der weitere dvi den anderen... nur display port ist unabhängig davon

oder man nimmt dieses feine teil für schlappe 120 euro
http://www.pcgameshardware.de/aid,7...r-Ati-Eyefinity-vorgestellt/Grafikkarte/News/
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben