Bericht Bericht: Nvidia GF100: Technische Details

Ne das Bild beantwortet gar nichts. Das ist ja das altbekannte aus dem Whitepaper.
Solange ich das nicht von unabhängiger Quelle, unvergrößert und in Bewegeung sehe glaube ich gar nichts. ;)
 
Zuletzt bearbeitet:
bensen schrieb:
Ne das Bild beantwortet gar nichts. Das ist ja das altbekannte aus dem Whitepaper.
Solange ich das nicht von unabhängiger Quelle, unvergrößert und in Bewegeung sehe glaube ich gar nichts. ;)

als jpg ist es auch nicht gerade gut geeignet bildeffekte darzustellen da jpgs ja selbst komprimierungseffekte haben (die zu einem verwaschen von kanten führen)...
 
Naja ich meinte auch nicht das Bild sondern den Link wie ich geschrieben hatte - das Bild war als Appetizer gedacht.
Wenn du es in Aktion sehen willst wird dir hier im Thread kaum einer helfen können und das mal schnell produzieren ;) In Foren kann man sich informieren und darüber lesen.
 
Man ich schnall ja kaum wie ein Abakus funktioniert!
Da treibt mir ein solcher Artikel Heulkrämpfe in die Rübe. :eek:

Auch schön dass alle Einheiten einer neuen Architektur quasi die selben sind aber trotzdem mit jeder Generation umbenannt werden.
Scheint auch in der Softwarebranche irgendwie Hip zu sein.
Schader sind Schader! Unified oder nicht unified! Das ist das selbe! Nur heißen die jetzt Kuba...Cubana...ach weiß der Teufel! :freak:
 
Ich komm grad net ganz mit, ATI hat doch die GATHER4 und nutzt die auch
Code:
; --------  Disassembly --------------------
00 ALU: ADDR(32) CNT(6) 
      0  x: MOV         R0.x,  (0x00000003, 4.203895393e-45f).x      
         y: MOV         R0.y,  (0x00000002, 2.802596929e-45f).y      
         z: MOV         R0.z,  0.0f      
         w: MOV         R0.w,  (0x00000001, 1.401298464e-45f).z      
01 TEX: ADDR(64) CNT(1) 
      1  GATHER4_x R1.yzxw, R0.zz0z, t0, s0
02 ALU: ADDR(38) CNT(16) 
      2  x: MOV         R2.x,  R1.x      
         t: MOV         R4.x,  R1.y      
      3  x: MOV         R3.x,  R0.z      
         y: MOV         R3.y,  R0.z      
         z: MOV         R3.z,  R0.z      
         t: MOV         R5.x,  R1.z      
      4  x: MOV         R1.x,  R0.w      
         y: MOV         R1.y,  R0.w      
         z: MOV         R1.z,  R0.w      
         t: MOV         R7.x,  R1.w      
      5  x: MOV         R6.x,  R0.y      
         y: MOV         R6.y,  R0.y      
         z: MOV         R6.z,  R0.y      
      6  x: MOV         R0.x,  R0.x      
         y: MOV         R0.y,  R0.x      
         z: MOV         R0.z,  R0.x      
03 MEM_RAT_CACHELESS_STORE_RAW: RAT(0)[R3].x___, R2,  VPM 
04 MEM_RAT_CACHELESS_STORE_RAW: RAT(0)[R1].x___, R4,  VPM 
05 MEM_RAT_CACHELESS_STORE_RAW: RAT(0)[R6].x___, R5,  VPM 
06 MEM_RAT_CACHELESS_STORE_RAW: RAT(0)[R0].x___, R7,  VPM 
END_OF_PROGRAM
Das ist das Disassembly aus nem einfachen CS Shader.
Oder versteh ich grad was falsch.
 
Tut mir leid, es ist eben nicht wirtschaftlich logisch seine Kunden zu verprellen, zumal gerade die Übernahme von 3dfx und das Erscheinen von XP recht zeitnah vonstatten gingen.

nV hat Technologien, Ingenieure und Patente von 3dfx gekauft, aber nicht das ganze Unternehmen als solches. Das blieb samt Werk in Mexico zurück und wurde nach und nach abgewickelt. Warum sollten sie die 3dfx Karten unterstützen? Man hat die Gelegenheit genutzt und der Voodoo Serie den Saft abgedreht während man seine Geforce Palette beworben hat.
Ich kann mich noch an die "Got Voodoo? Get Verto!" Anzeige auf der 3dfx Seite erinnern.

ATi hat auch Tseng, Trident, Bitboys etc. übernommen, Treiber und Produktpflege waren danach genauso Essig.

Übrigens, der 3dfx VSA100 und Rampage Sourcecode fliegt in der Tat im Web rum, zwar inoffiziell und rechtlich fragwürdig, aber er tuts.
 
Blitzmerker schrieb:
Ich komm grad net ganz mit, ATI hat doch die GATHER4 und nutzt die auch
....
Oder versteh ich grad was falsch.
so wie ichs verstanden habe gibt es eine leicht modifizierte variante von gather4 mit offsets die jetzt in dx11 als undocumented function aufgetaucht ist und von nvidia in hardware unterstützt wird. wie relevant diese neue varinate in wirklichkeit sein wird kann ich nicht beurteilen.
 
Wen ich das richtig gelesen habe dann nutzt Nvidia sogar nur eine Verdoppelung der Geschwindigkeit, während Ati in seinem Whitepaper von 4xSpeed schreibt. ich denke da hat jemand eine Diskussion los getreten ohne die Fakten zu kennen im dortigen Forum.
Der letzte Beitrag heute von eben demjenigen:
So I just threw the conspiracy theory out there and hoped someone else would find out whether this is just a public document error or if it runs deeper. Someone who does run a site perhaps. It would be fine and dandy too if some of the AMD/IMG lurkers on this board could just say something like "Microsoft told us about this, the public documents are just a mess" (nudge nudge).
 
es scheint sich um eine version mit 4 offsets (getrennte offsets für alle 4 werte?) zu handeln, die nirgends in der doku zu dirext x11 aufscheint.
http://forum.beyond3d.com/showpost.php?p=1382176&postcount=3490 und posts darum haben mehr infos dazu. hab zwar recht viel programmier erfahrung, und verstehe die aussagen deshlab, aber da ich mich bis jetzt nicht wirklich with shader programmierung beschäftigt habe kann ich da nicht wirklich mehr dazu sagen ob die 4 offset variante zusatz nutzen bringt.
 
die würden für Antialiasing was bringen. Aber damit ist es ja nicht offiziell DirectX sondern eine Methode, die vom nVidia Treiber als Optimierung verwendet wird. für 4 verschiedene Samples statt 4 Instructions nur noch 2 (2 pro Instr.).
Wie groß der Performancegewinn ist, weiß ich aber nicht, bei komplexen Shadern dürfte es nicht viel ausmachen. (Da ist sowieso meißt die GPU der Flaschenhals, also die ALUs, da macht eine Fetchinstr. mehr den Kohl nicht mehr fett).
 
Auch wenns absolut offtopik ist:

kleiner einblick in die menschliche psyche:

punkt1: der mensch neigt dazu, eher dem unterlegenen in einem kampf die daumen zu drücken. (david gegen goliath, jason gegen die götter oder auch hippies gegen die regierung)

in diesem Fall war es AMD gegen Intel auf der einen seite
und auf der anderen nvidia gegen 3dfx

als 3dfx unterging, wurde nv plötzlich zum big player und ati als dritte kraft erwuchs zum kleineren gegenspieler.

interessanter effekt an dieser stelle, viele die zuvor von amd und nvidia als kompination schwärmten, fanden spontan ati "gleichgut"

doch dann kommt ein anderer punkt zum tragen der heisst:
punkt2: der mensch bleibt bei seinem glauben (oder auf deutsch: veränderungen werden gerne ignoriert)

so kommt es, das nach ati's übernahme durch AMD sowohl von AMD, als auch von ATi fans die tatsache, das man zwar nach wie vor kleiner als intel, doch dadurch deutlich größer als nvidia wurde vollkommen ignoriert. nach wie vor wird amd und ati gern als unterlegener partner in diesem zweikämpfen dargestellt (was nicht böse absicht, sondern einfach eine fehlkalkulation aufgrund dieser menschlichen sichtweise)
punkt 3 der menschlichen psyche: jeder mensch sucht die stärken des schwachen und die schwächen des sterken, darum neigen viele dazu, ati mehr gutes nachzureden als sie tatsächlich getan haben und nvidias (unbestrittene) untaten noch deutlich schwerer zu machen und aufzubauschen.

punkt vier: kein mensch ist neutral (auch ich nicht, so sehr ich versuche alles objektiv zu betrachten)

so und nun zum topic:

die frage bei dieser uminößen GATHER4 funktion ist meiner meinung nach, ob es 1. verwendet wird, 2. auch von ati unterstützt wird und 3. falss es unterstützt wird, wer von beiden es BESSER umgesetzt hat ...
aber das ist glaub ich grade nicht zu beantworten ...
 
Lübke schrieb:
ati investiert schlicht weniger in neue technologien und konzentriert sich auf die wesentlichen dinge, wärend nvidia mehr für solche dinge ausgibt. wer mit seiner strategie besser fährt, kann man schlecht beurteilen.

Das liest sich hier aber bissl anders:

"I mean, I've still got a respect for Jen-Hsun because he knows his tech too, but Nvidia is clearly a marketing lead company. [Nvidia] has put this big program together with equally big label that they shove in your face all the time, but I don't really think what they do is radically different than what we do - we just don't make as much noise about it."

Lübke schrieb:
und wie soll nvidia bitte ati von der implementierung von dx11 abgehalten haben?
und was hat das mit dx10.1 zu tun?

NVIDIA hat AMDnicht von der DX11-Implementierung abgehalten, sie haben MS "überzeugt" die Spezifikationen für DX10 (die DX11 gar nicht so unähnlich waren) so weit abzuschwächen, das sie ihre Hardware rausbringen konnten.

Während AMD jede Menge Chipfläche für den Tesselator und ne Menge anderen Kram "verschenkt" hat, von der ganzen Zeit, die sie gebraucht haben, um das Zeug unterzubringen ganz zu schweigen.

Oder warum denkst du kam die HD3xx0 so schnell mit DX10.1 um die Ecke?

Dass NVIDIA nicht zu den Unternehmen gehört, die man durch einen Produktkauf unterstützen sollte, sieht man eigentlich ganz schnell:

-"Bumpgate"
-"Batmangate" oder Asassins Creed-Problematik
-Umbenennungsarien
-Filtertricks (Geforce 7 ganz schlecht; gabs bei ATI auch mal, allerdings nur vor der Übernahme durch AMD)
Marketing-Blablub (DX11 unwichtig usw.)
-kein PhysX-Support mit ner ATI/NVIDIA-Kombi
-"Holzschrauben-Grafikkarten"

ganz aktuell: "Fermi erscheint im Oktober, gaaaaaaaaaanz sicher!"

:rolleyes:

Von der Firma kommt mir nix mehr ins Haus, bis der komische Typ im zu engen schwarzen Hemd weg ist vom Fenster :cool_alt:

@Neo_Xsendra: Psyche hin oder her, ne Firma die so viel Sch**** baut, kann, will und werde ich nicht unterstützen. Sollte AMD sowas auch abziehen, muss man sich eben für das kleinere Übel entscheiden, aber das hält sich ja zum Glück sehr in Grenzen.
 
Zuletzt bearbeitet:
@Neo
Du hast die Fragestellung bei dieser gather Geschichte nciht verstanden. Dass es benutzt wird ist klar, da es auch schon Ati seit DX 10.1 verwendet.

Die Fragestellung (oder besser gesagt die Spekulation die als Behauptung und schon Fakt deklariert wurde) war viel mehr ob es Programmierfunktionen um dieses gather4 gibt, welche Nvidia ermöglichen eine Hardwareseitige Unterstützung zu bauen. Diese "Geheime Funktion" sei angeblich teil von DX11 und nicht offiziell dokumentiert, sondern nur Nvidia exklusiv von Microsoft zugänglich gemacht worden. Somit hätte Ati zu spät davon erfahren um die HD5 Hardware auch mit dieser Unterstützung zu versehen.

Diese Theorie ist meiner Meinung nach widerlegt durch die oben nun mehrfach erläuterten Fakten und somit dem viralen Marketing zu zu ordnen.

Deine Psychologische Analyse in Ehren doch ich glaub hier viel mehr in 2 Dinge die dieses Verhalten auslösen:
  • Eigene Kaufbestätigung (Bei iPhone Käufern wird sogar vom Stockholm Syndrom gesprochen)
  • Oder extreme Enttäuschung eines mal gekauften Produktes
Geh mal in einem Mercedes Autohaus zu einem frisch gebackenen Käufer hin und sag ihm, dass er sich grade eine völlig überteuerte Kiste gekauft hat die er für halb soviel Geld mit doppelt soviel Ausstattung gegenüber bei, sagen wir Mazda, Hyundai oder Opel bekommen hätte - das absolut identische Verhalten auch wenn Mercedes nun nicht wirklich klein ist ;)
 
@Complication

ach mist ich wusste ich hab nen punkt vergessen ... der teil mit "stres mit dem ex" ... (ist bei mir der fall mit ati, warum ich häufig probleme hab die ati leistugungen einfach so hinzunehmen, da ich halt nach GENAU diesen schaue und leider recht oft auch wiederfinde. nciht das es da nicht auch 1-2 punkte bei nv gibt, aber von meinen nv karten war ich nie derart enttäuscht.) von daher ein wichtiger punkt ^^ danke fürs anmerken :3

wobei das mit dem merzedes verkauf hinkt ... ich kenne keinen merzedes fahrer der sagt "die qualität ist es mir wert"
 
die preisliche Struktur der verwendeten Komponenten ist das a u o da sonst physx zu schnell
interagiert
 
Neo_Xsendra schrieb:
als 3dfx unterging, wurde nv plötzlich zum big player und ati als dritte kraft erwuchs zum kleineren gegenspieler.

nur ne kleine anmerkung, ATI war bis 2005 marktführer und größer als Nvidia.


gruß
 
@KAOZNAKE:
NVIDIA hat AMDnicht von der DX11-Implementierung abgehalten, sie haben MS "überzeugt" die Spezifikationen für DX10 (die DX11 gar nicht so unähnlich waren) so weit abzuschwächen, das sie ihre Hardware rausbringen konnten.

wie sollte ein vergleichsweise kleines unternehmen wie nvidia einen wirtschaftsriesen wie m$ "überzeugen" können, ihren eigenen standart extra für sie zu ändern? zumal die implementierung für nvidia sicher kein problem gewesen wäre. selbst via/s3 hatten zu hd3k-zeiten dx10.1.
und am ehesten wird dx vom größten gpu-hersteller gebremst: intel. die haben den mit abstand größten marktanteil an grafikchips und den größten rückstand bei der dx-version.

das war ein ziemlicher flop, bei dem der hauptgeschädigte nvidia war. wie man einen produktionsfehler allerdings als kundenfeindliches handeln eines herstellers darstellen kann, ist mir schleierhaft. ebenso könntest du ihnen die yields im 40nm-prozess zum vorwurf machen.
-"Batmangate" oder Asassins Creed-Problematik
die asassins creed gerüchte lasse ich mal unkommentiert, weil das nur wieder zu einer endlosen diskussion führen würde. bei batman aber denke ich hast du recht.
-Umbenennungsarien
du hast ne ati, die haben mit den "umbennenungsarien doch angefangen und sind jetzt auch wieder dabei Oô
-Filtertricks (Geforce 7 ganz schlecht; gabs bei ATI auch mal, allerdings nur vor der Übernahme durch AMD)
die hd2k kam erst zu amd-zeiten raus, auch wenn der großteil der entwicklung vorher stattfand, aber die treiber hätte man entsprechend ohne tricks wie den blureffekt bringen können, wenn man es gewollt hätte. und der reduzierte anisotrope filter ist auch bei der hd4k in unverminderter form. wenn dich sowas wirklich stören würde, kämst du seit dx10 um eine nvidia wohl nicht mehr herum.
-kein PhysX-Support mit ner ATI/NVIDIA-Kombi
genausogut könntest du ati einen vorwurf daraus machen, dass sie die implementierung von physx abgelehnt haben. wieso muss nvidia das jetzt für ati-kunden ausgleichen?
-"Holzschrauben-Grafikkarten"
schon mal auf der cebit oder sonstigen hardwareveranstaltungen gewesen? da stehen in den vitrinen bei sehr vielen herstellern dummies. warum regen sich da manche so künstlich drüber auf? man bekommt gezeigt, wie die karte aussehen wird. ob das jetzt n dummie ist oder nicht, ist wohl absolut wayne.
ganz aktuell: "Fermi erscheint im Oktober, gaaaaaaaaaanz sicher!"
in sachen verspätung hält ati mit der 2900 unangefochten den rekord. die sollte auch angeblich vor der 8800gtx kommen. hat man dann ja gesehn...
warum eine verzögerung eines produktrelease beim hersteller aber ein grund sein soll, da nichts mehr zu kaufen, kann ich nicht nachvollziehn. willst du lieber unfertige produkte? und warum hast du dann nach der 2900 noch ne ati gekauft?

das du fan von ati bist ist ja vollkommen ok, aber die gründe, die du gegen nvidia anführst sind nicht wirklich immer angebracht. das meiste davon kann man beiden vorwerfen. unterm strich nehmen sich die beiden hersteller nichts, auch wenn die fans aus beiden lagern das gerne anders sehn.
ich kaufe mir immer die karte, die mir das beste preis/leistungverhältnis bietet. zuletzt waren das 7950gt (nvidia), 4650 (ati) und 3850 (ati). ich hab auch schon karten von s3 und 3dfx sowie intel igp gehabt und ich war mit jedem hersteller zufrieden. wer unbedingt nen bestimmten hersteller will, ist auch ok. aber warum muss hier immer so gegen den jeweils anderen hersteller gebashed werden? was gibt einem das?
 
Lübke schrieb:
wie sollte ein vergleichsweise kleines unternehmen wie nvidia einen wirtschaftsriesen wie m$ "überzeugen" können, ihren eigenen standart extra für sie zu ändern? zumal die implementierung für nvidia sicher kein problem gewesen wäre. selbst via/s3 hatten zu hd3k-zeiten dx10.1.
und am ehesten wird dx vom größten gpu-hersteller gebremst: intel. die haben den mit abstand größten marktanteil an grafikchips und den größten rückstand bei der dx-version.

nvidia ist marktführer im markt für gamer grafik lösungen, was DX betrifft sind sie relevant für microsoft. da microsoft mit dx10 und dazugehörigen games versucht hat, vista schneller an die leute zu bringen, war es sicher für sie relevant nvidia und ati an bord zu haben . Eigentlich keine so schlechte strategie da gamer üblicher weise eher schnell beim adaptieren von neuen techniken sind.
intel spielt keine rolle im gaming sektor und deshalb auch nicht für die DX entwicklung, sie haben ur so einen hohen grafikchip anteil da in 80% oder mehr aller büro rechner intel grafik drinsteckt und auch in einem sehr hohen anteil der laptops/notebooks/netbooks...
 
Zurück
Oben