Bericht Bericht: Nvidia GF100: Technische Details

Also gerne nochmal - ich schreibe weder von Verschwörung (das machst du die ganze Zeit) noch davon dass irgendjemand hier ein Opfer ist - ausser den Kunden in dem ganzen Spielchen.
Ich schreibe hier über in der Geschäftswelt ganz alltägliche Verhaltensweisen, welche von den einen mehr und von den anderen weniger exzessiv betrieben werden.
Intel muss wegen so was Mrd. von Dollar an AMD, die EU und wohl bald auch an die Amerikanische Regierung bezahlen - auch Nvidia klagt wegen Wettbewerbsverstößen gegen sie. Auch Microsoft weiß wie man ein Quasi-Kartell etabliert und beibehält, und dafür reichlich Strafen bezahlt.

Nix Verschwörung -> Geschäftswelt. Wie sagen die Japaner? Business is War.

Was nützt es Ati DX11 seit der HD3000er Serie fertig zu haben, wenn die Spiele Hersteller von Nvidia dazu erpresst werden dieses nicht zu programmieren? Der Fall Assassins Creed ist ja nicht erfunden. Aber wie ich schon schrieb, werfe ich es nicht den Grafikkarten Herstellern vor, sondern den Spiele Schmieden die sich darauf einlassen und sich in Abhängigkeit von Hardware Herstellern bringen.

Edit: Das ist meine Meinung und du musst diese ja nicht teilen. Doch das Fanboy gebashe musst du nicht auf mich übertragen nur weil ich mal was schreibe das nicht in dein persönliches Weltbild passt.
 
Zuletzt bearbeitet:
Lübke schrieb:
mal angenommen es gäbe eine weltverschwörung von m$ und nvidia gegen ati, meinst du nicht, dass m$ und nvidia dx11 dann zusammen entwickelt hätten und nvidia einen zeitlichen entwicklungsvorsprung bekommen hätte, um vor ati mit dx11 hardware auf dem markt zu sein? andersrum ist es schlicht sinnfrei. wo wäre mein vorteil, wenn ich meinem konkurrenten einen vorsprung und ein zusätzliches verkaufsargument verschaffe?

weltverschwörung ist es sicher keine. ms definiert den direct X standard und diktiert ihn von oben herunter. soweit wäre es ja optimal für die kunden da dadurch die entwicklung des standards schnell voranschreitet nicht so wie bei open gl wo entscheidungen lange zeit immer wieder von teilen der kommission blockiert wurden/werden (es gibt zu viele unterschiedliche interressen), aber auch microsft lässt sich zumindest teilweise doch durch die hersteller beeinflussen. Und wenn nvidia sich querlegt gegen einen stadard dann kann ms ihn nur schwer durchsetzen, wäre aber warscheinlich genauso wenn amd/ati das machen würde.
 
Complication schrieb:
@Einhörnchen
Du zitierst immer 1-2 Tage vor dem Zitat von mir... eine Diskussion sollte 2 tage später ja eher neuere Erkenntnisse haben als früher.
Ehm? Andersrum triffts wohl eher zu... der von dir zitierte Beitrag von Mfa (https://www.computerbase.de/forum/t...echnische-details.688240/page-23#post-7257324) ist veraltet (19-Jan-2010, 16:27 )... alle von mir in den Antworten erwähnten Zitate von Mfa und Rys sind ausnahmslos neueren Datums, wer lesen kann, ist klar im ...:
https://www.computerbase.de/forum/t...echnische-details.688240/page-23#post-7257510
https://www.computerbase.de/forum/t...echnische-details.688240/page-23#post-7257657
(19-Jan-2010, 17:40; 19-Jan-2010, 18:09; 20-Jan-2010, 03:13; 20-Jan-2010, 12:15)

Erkenne die Realität doch einfach an. In DX11 gibt es einen (derzeit noch nicht dokumentierten) Bestandteil, für den NV eine Hardware-Implementierung hat und ATI nicht. Das ist Fakt. Ob das relevant ist oder nicht wird man sehen, genauso wie man hoffentlich sehen wird ob Microsoft AMD ebenso wie Nvidia über die Funktion unterrichtet hat.

mfa schreibt (neueren Datums: 19-Jan-2010, 18:09 ) sogar selbst
if not I personally would call anyone who still thinks an accident is the most likely to be slightly naive

In jedem Fall ist das ganze merkwürdig und nicht sehr erfreulich.
 
Microsoft will schon ewig DirectX als DIE Softwarespieleplattform entwickeln. Da gibst es natürlich auch Wechselwirkungen mit den GPU-Herstellern. Der R300 adaptierte DX9 sehr gut, während die grüne Konkurrenz mit ihrer 5er Serie eine eher eigenwillige Kreation vorstellte, immer noch besten OpenGL-Support inklusive. Aber ab Nr. 6 war nVidia ja wieder auf Kurs. Bei DX10 vermute ich schlicht einen Rohrkrepierer im Kontext Vista. Hinzu kam der sehr gute G80-Entwurf (breite, potente Hardwarebasis für Vista), wo dann MS vielleicht es sogar gelegen kam, nicht gleich alle Features zu implementieren - MS hat sich ja da bekanntlich verhoben. 10.1 wurde für Rot nachgeschoben, die ihrerseits das 2900er Disaster hinter sich gelassen haben. Bei 11 herrscht wieder Friede, nur das der fette Fermi den Sprint zum Markt nicht so ganz geschafft hat. Gucken wir mal, wie schnell Derivate für den zivilisierten Markt aufschließen...die Technik ist ja nicht übel...
 
@Lübke

Grundsätzlich sehe ich in den Ausführungen von Complication keinen Versuch eine Verschwörungstheorie (oder gar mehrere aufzustellen). Vielmehr erweckt sich mir der Eindruck, das diese "Anschuldigung" ein Recht zaghafter Versuch ist, sich nicht mit seinen Argumenten auseinander setzten zu müssen. Ich bin mittlerweile fast 34 und habe somit die ganze Entwicklung des Consumer-Grafikkartenmarktes und dessen "technische Errungenschaften" beobachten können. In diesem Zusammenhang ist mir grundsätzlich aufgefallen, dass NVIDIA i.d.R. auf (vorsichtig gesagt) "nutzerunfreundliche" Methoden bei der Durchsetzung Ihrer Geschäftsziele zurückgreift (was manche für legitim halten) und dabei durchaus über Leichen (sprich den eigenen Kunden) geht.
Ohne hier eine ermüdende Liste von "Vorfällen" zu veröffentlichen nur zwei kurze Statements dazu (der geneigte Leser kann, sofern er lernwillig ist, sich ja selbst damit auseinandersetzten):
Kein Support von für Voodoo5 nach Aufkauf von 3dfx und vor Allem: Verweigerung der Offenlegung des Quellcodes der Treiber. So konnte man den Konsumenten zwingen (XP Treiber etc.) sich eine entsprechende NVIDIA Karte zu kaufen (mangels damaliger Alternative), welche zu diesem Zeitpunkt immer noch ein dermaßen schlechtes 2D Bild auf den Monitor warfen (bis einschliesslich der 6er Generation), das einem Übel wurde.
Als jüngtes Beispiel möchte ich noch das treiberseitige Verbot zur Benutzung einer NVIDIA Zusatzkarte für PhxsX , sofern noch eine Karte eines anderen Herstellers im Rechner ist (das richtet sich konsequent gegen den eigenen Kunden) nennen.

Das alleine zeigt schon, wem sich NVIDIA verpflichtet fühlt. Was NVIDIA nicht passt wird, sofern möglich verhindert bzw. verzögert, ganz gleich ob es die eigenen Kunden trifft. Heilig sind sie alle nicht, allerdings gibt es durchaus wünschenswertere Unternehmenskulturen als NVIDIAs.

Im Übrigen ists mir wurscht was in meinen vier Rechnern werkelt, aktuell sinds drei NVIDIA und eine kleine ATI für den Shuttle (P/L muss stimmen).

Viele Grüße
 
mal eine andere frage, warum ist ein wafer überhaupt rund? wäre eckig nicht sinnvoller oder ist das technisch nicht machbar?


MFG XeonKing©!!!
 
Einhörnchen schrieb:
Erkenne die Realität doch einfach an. In DX11 gibt es einen (derzeit noch nicht dokumentierten) Bestandteil, für den NV eine Hardware-Implementierung hat und ATI nicht. Das ist Fakt.
Ich persönlich glaube nicht dass in dem dortigen Thread Fakten geschaffen werden oder dass ich eine "Realität anerkennen" muss die dort eventuell besprochen wird - dort sind ausschließlich Mutmassungen zu lesen, die ich anscheinend auch noch anders verstehe als du, was auch einer unterschiedlichen Übersetzung von uns beiden zugeschrieben werden könnte. Meine Realität hat sich dadurch noch nicht verändert.
Dass Nvidia eine bestimmte Hardware Implementierung hat und AMD nciht widerspricht keinem meiner Beiträge zu diesem Thema. Ich habe mehrfach geschrieben dass AMD Funktionen nicht implementiert, die gesonderten Programmier Aufwand erfordert speziell für ihre Hardware - Nvidia schon.
Das heisst nicht automatisch, dass Ati das nciht wusste oder Microsoft das in Konspiration mit Nvidia verschwiegen hat.

Ich finde das gerade etwas merkwürdig:
Eichhörnchen will mir weiss machen es gebe eine Verschwörung Nvidia/Microsoft die ich nicht akzeptieren will und ich solle endlich eine andere Realität akzeptieren,

Während Lübke mir zeitgleich vorwirft ich solle endlich aufhören hier Verschwörungstheorien gegen Ati zu veröffentlichen.

Und das beste daran: beide schließen das aus exakt den selben Beiträgen :freak:

Leute weder das eine noch das andere habe ich hier irgendwo im Thread geschrieben - Bitte!
 
Wafer werden aus Siliziumeinkristallen hergestellt.
Diese werden aus einer Suppe herausgezogen. Hört sich komisch an, ist es aber nicht.

-> Siliziumkristall
SILIZIUMKRISTALL.jpg


-> http://www.youtube.com/watch?v=LWfCqpJzJYM&NR=1
 
Complication schrieb:
Ich finde das gerade etwas merkwürdig:
Eichhörnchen will mir weiss machen es gebe eine Verschwörung Nvidia/Microsoft die ich nicht akzeptieren will und ich solle endlich eine andere Realität akzeptieren,
Nein (!), es hat einfach nur gefühlte 100 Posts gebraucht
  • um das hier zu widerlegen: https://www.computerbase.de/forum/t...echnische-details.688240/page-22#post-7257197 (deine Behauptung, dass es ein altes DX10.1 Feature das AMD schon lange Hardware-seitig implementiert hat)
  • und zu belegen, dass Nvidia eine Hardware-implementierung für ein derzeit nicht öffentliches dokumentiertes DX11 Feature hat, wo AMD keine hat (was nicht heißt, dass sie es nicht wussten oder bewusst getäuscht wurden) - im schlimmsten Fall muss die AMD Hardware bei so einem Aufruf wohl 2 Berechnungen durchführen, anstatt wie bei Nvidia 1 (was glaubst du wieso Hersteller DX11 Features immer möglichst Hardware-seitig realisieren?).
Das ist alles...

Was ich persönlich davon halte, habe ich hier im letzten Satz geschrieben: https://www.computerbase.de/forum/t...echnische-details.688240/page-23#post-7257510

Das mit der Verschwörung hat der von dir so gern zitierte Mfa behauptet.
 
Zuletzt bearbeitet:
Einhörnchen schrieb:
Das ist alles...
lol...aber ich habe nirgends geschrieben, dass Ati dies in der Hardware implementiert hat. Sondern lediglich dass es ein alter Hut für Ati ist. Wenn Nvidia meint das gather4 zusätzlich noch zu pimpen mit Hardware, dann bin ich mir nicht sicher wo Microsoft das hätte dokumentieren sollen :)

Ein Grafikkarten Hersteller hat immer die Wahl eine Spezifikation auf seine Weise umzusetzen - schau dir doch mal die unterschiedlichen Tessellation Ansätze an - wo hätte das denn bitte spezifiziert werden sollen?

Und übrigens Sorry, mir ist grade aufgefallen, dass ich dich fälschlicherweise die ganze Zeit mit "Eichhörnchen" angeschrieben habe ;)
 
@Complication: du nennst es nicht verschwörung, aber du schreibst von einer:

wenn die Spiele Hersteller von Nvidia dazu erpresst werden dieses nicht zu programmieren?

nvidia unterstützt spieleentwickler meist finanziell, teilweise mit hardwaresupport, zum teil sogar mit unterstützung durch eigene programmierer (was im grunde positiv für den endkunden ist, und in geringerem umfang auch von ati gemacht wird) ati spart an der stelle geld und investiert wo anders. natürlich macht auch nvidia das nicht uneigennützig sondern profitieren davon dadurch, dass sie bei krachern wie crysis von beginn an ausgereifte treiber haben, wärend ati erstmal anpassen muss, wo das spiel schon auf dem markt ist. bei euch verschwörungstheoretikern wird eine erpressung daraus (dein eigener wortlaut!), gegen die sich seltsamerweise keiner der unzähligen spieleentwickler wehrt und von der nichts durchsickert, außer haltlose anschuldigungen von ati-fans.
und erpressung ist eine straftat und hat nichts mit geschäftswelt zu tun. ich halte es nicht für sehr ratsam, jemanden eines verbrechens zu bezichtigen, um ihn öffentlich zu defamieren.

es ist dabei völlig egal, ob du es nvidia, ati, intel oder sonstwem unterstellst. es ist kontraproduktiv und eigentlich unter deinem niveau wie ich dich bisher eingeschätzt habe. wieso lässt du dich von so einer hetzpropaganda beeinflussen?

@laryllan: die zwei vorgänge, die du genannt hast, hat nvidia wirtschaftlich logisch gelöst und genauso wie ati auch. ati hat ebenfalls grafikfirmen "geschluckt" (waren aber nicht so bekannt wie 3dfx), den treibersupport für zukünfitge betriebsysteme eingestellt und niemals den treiberquellcode freigegeben.
warum macht man das so? weil die treibersoftware zum teil in den eigenen treibern mit einfließt und man so informationen an die konkurrenz preisgeben würde.

die entscheidung, physx als nvidia-eigenes feature zu nutzen und so den eigenen karten den rücken zu stärken ist für ati-kunden ein nachteil (ich zähle dazu), aber eine ganz normale entscheidung, die nichts mit über leichen gehn zu tun hat.

ich hab bwl studiert und von daher vllt manchmal einen standpunkt, der mehr dem der hersteller als dem der kunden gleicht, aber ich hätte diese option, physx für den vertrieb der eigenen produkte zu nutzen zumindest ebenfalls in erwägung gezogen und ich bin mir sicher, dass ati es nicht anders gemacht hätte.
aber vllt sollten wir wieder zurück zum thema kommen: gf100
 
@Lübke
Klar kann man das nennen wie man will, wenn eine zuvor gewährte Unterstützung wieder zurückgezogen wird wenn man nicht das macht was derjenige sagt. Meine Wortwahl ist sicherlich nicht weit davon entfernt von dem wie sich die Entwickler von Assassins Creed gefühlt haben - Sei müssen das Geld ja nicht nehmen und dafür die halbe Mannschaft entlassen die das Spiel eigentlich entwickeln soll ;)

Und ohne Erpressung gebe es keine Geschäftswelt. Wird im Studium nur so sicherlich nicht gelehrt, versteckt sich aber unter dem Begriff "Wettbewerbsverstoss"

Allerdings sehe ich keinen Grund mir nun dermaßen eine vor den Latz zu knallen mit "Hetzpropaganda" "verbrechens zu bezichtigen" "kontraproduktiv" und "unter deinem niveau" nur weil ich hier meine Meinung sage.
Aber ich sehe etwas von Nvidias Marketingmaschen wurde doch im BWL Studium gelehrt, oder kam das erst später? ;)
 
@lübke

/quote
die entscheidung, physx als nvidia-eigenes feature zu nutzen und so den eigenen karten den rücken zu stärken ist für ati-kunden ein nachteil (ich zähle dazu), aber eine ganz normale entscheidung, die nichts mit über leichen gehn zu tun hat.
/quote

Und genau hier liegst Du falsch. In dem Moment, wo ich eine Nvidia Karte als zusätzliche PhysX Beschleuniger verwende BIN ich Kunde von NVIDIA und werde eben von NVIDIA als Kunde nicht ernst genommen, da man mir verweigert deren Produkte ordnungsgemäß zu nutzen. Das hat nichts mit einer normalen Entscheidung zu tun, das ist salopp gesagt ein A....ritt für den Kunden und zwar für NVIDIAs Kunden. (Mich betrifft es im Übrigen nicht, dennoch kann ich nicht nachvollziehen, wie man solches Verhalten als "normale Entscheidung" tituliert)

/quote
die zwei vorgänge, die du genannt hast, hat nvidia wirtschaftlich logisch gelöst und genauso wie ati auch. ati hat ebenfalls grafikfirmen "geschluckt" (waren aber nicht so bekannt wie 3dfx), den treibersupport für zukünfitge betriebsysteme eingestellt und niemals den treiberquellcode freigegeben.
warum macht man das so? weil die treibersoftware zum teil in den eigenen treibern mit einfließt und man so informationen an die konkurrenz preisgeben würde
/quote

Tut mir leid, es ist eben nicht wirtschaftlich logisch seine Kunden zu verprellen, zumal gerade die Übernahme von 3dfx und das Erscheinen von XP recht zeitnah vonstatten gingen. Das die "3dfx Treibersoftware" in die eigenen Treiber mit einfliesst halte ich in diesem Fall für mehr als ein Gerücht, da es sich um komplett verschiedene Architekturen handelte.

Bezüglich ATI hätte ich gerne ein Beispiel, bei dem derart viele "Kunden" betroffen waren oder generell Eines.

Es geht ja auch nur darum Aufzuzeigen, wie es um die Unternehmenskultur von NVIDIA steht und aufgrund der zeitlich weit auseinander liegenden Vorfälle auch stand. Im Übrigen bezweifel ich, dass andere Hersteller eben so gehandelt hätten :-), erfahren wird man es wohl nie. Daher denke ich dass der Vorwurf der Verschwörungstheorien eher Unwillen ist, sich mit der Mateire einmal genauer zu beschäftigen.


Nun aber wieder zurück zum Topic.

Viele Grüße

PS: Auch ich kam in den Genuß eines BWL Studiums, liegt nur schon ein wenig zurück. Vielleicht galten "damals" noch andere Gesetze bezüglich des "plays" auf dem Markt und gegenüber seiner Kunden.
 
Zuletzt bearbeitet:
Bezüglich ATI hätte ich gerne ein Beispiel, bei dem derart viele "Kunden" betroffen waren oder generell Eines.
sagt dir zufällig die xgi volari noch was? ;) wo sind n da bitte die treiber für vista und win7? ^^
oder was ist mit tseng? wie weit reichte den da der support durch ati?

Nun wenigstens ein gutes Beispiel, dass es für NVIDIA eine "normale Entscheidung" ist, seine Kunden mit Füßen zu treten :-)
nicht für nvidia sondern für gewinnorientierte unternehmen wie nvidia, amd und intel. falls du amd aber für eine mildtätigen organisation hälst, kannst du von ihnen ja ein anderes verhalten erwarten ;)

@Complication: das wort hetzpropaganda bezog sich nicht auf deine aussagen, sondern darauf, dass du dich offenbar durch selbige beeinflussen lässt.

wer in nvidia und ati zwei personen sieht, von denen eine selbstlos und gut und die andere bösartig ist, dem kann ich keine objektivität in dieser sache nachsagen. beide unternehmen haben in ihrer geschichte gleich gehandelt (sei es die namensgebung zur kundentäuschung oder übernahme anderer hersteller oder sonstwas), aber das negative wird nur dem einen, das positive dem anderen unternehmen zugeschrieben. das bezieht sich nicht allein auf dich, sondern allgemein auf die fans eines herstellers, und das unabhängig welchem, denn da gibt es keine unterschiede.
 
Zuletzt bearbeitet:
Einhörnchen schrieb:
Offenbar gehörst du zu den wenigen, die Einblick in die Verträge zwischen TSMC und AMD/Nvidia haben.
Einhörnchen schrieb:
Gehst du davon aus, dass AMD und Nvidia bei TSMC die gleichen Verträge und Konditionen haben (darauf bezog sich mein Kommentar)? Ich nicht. Deshalb sind solche Spekulationen meiner Meinung nach nicht sehr nah an der Realität.
Ist ja Witzig was auf einmal die Verträge zwischen TSMC, AMD und Nvidia mit den theoretischen Kosten einer Die zu tun hat, wo mit dutzenden Quellen der Grund über die Theorien teurer und mehr defekten Fermi Kernen versucht wurde zu erklären.

Lübke schrieb:
warum sollte es sinnlos sein, zu wissen, auf welche karte optimiert wird? Oô
das macht es imho eher noch interessanter... was soll ich mit hardware anfangen, die zwar auf dem papier tolle leistungsdaten hat, aber von meiner software nicht ordentlich unterstützt wird?

Genau das war ja die Frage an dich; was nützt dir die erbrachte Leistung in einem BENCHMARK, welcher nur einen kleinen Teil des Kerns beanspruchen, wenn dies in der Praxis nicht umgesetzt werden kann, weil dieser bestimmte Teil des Kerns eben nicht 'ungestört' arbeiten kann?

Instead, the GF100 has what Nvidia calls a 'polymorph engine', and there is one per SM. Basically it added a few features to a subset of the shaders, and that is now what it is calling a tessellator, but it is not. ATI has a single fairly small dedicated tessellator that remains unchanged up and down the Evergreen HD5xxx stack. On ATI 5xxx cards, tessellation performance takes almost no shader time other than dealing with the output just like any other triangle. On GF100, there is no real dedicated hardware, so the more you crank up the tessellation, the more shaders you co-opt.

Nvidia is going to tout the 'scaling' of its tessellation capabilities, but since it is kicking off the GF100 line at the top, scaling is only going down from there. ATI's 5xxx parts don't lose anything when going down, nor do they lose die area when going up.

When showing off the tessellation capabilities last week, Nvidia was very careful to show the Unigine Heaven benchmark with the dragon statue, claiming it beat the ATI 5870 by 60 percent. While technically true, this number is purposely misleading on two accounts. First is that this is a best case for showing off tessellation and only tessellation. If it were to show any of the other Heaven tests, the margins would narrow significantly.​

Ob das nun der Wahrheit entspricht, und die Shaderleistung durch Tesselation auf dem Fermi wirklich abnimmt, und negativ beeinflusst wird, wissen wir erst, wenn der FPS Unterschied bei z.B. Dirt 2 zwischen Tess ON und Tess OFF wesentlich geringer ist, als bei ATI. Wenn dies so ist, ist das natürlich eine Super sache, aber ...
... das ändert nichts an der Tatsache, das die Zahlen eines Benchmarks fokussiert auf grundlegend nur eine von dutzenden Funktionen in der Praxis kaum relevant, und nur für Zahlenspielerien zu gebrauchen sind.


Lübke schrieb:
aber wenn beide diese technologien nutzen, warum ist es dann bei nvidia böse und bei ati gut?

und diese verschwörungstheorien, dass microsoft ausgerechnet nvidia zu liebe (der wettbewerber, der die meisten konkurrenzstandarts unterstützt) sich den ärger aller ati-user auf sich ziehn würde, glaubst du doch hoffentlich wohl selbst nicht?

Hat sich bezüglich DX10, 10.1 oder 11 irgendwer über Microsoft beschwert?
Nein, vielmehr hat man über ATI wegen dieser angeblich "unwichtigen" Erweiterung die Nase gerümpft.

Lübke schrieb:
wo soll denn da bitte der sinn hinter sein? im übrigen unterstützt nvidia die meisten features schon mit dem g80, der bekanntermaßen über ein halbes jahr eher den markt erreicht hat.

Lies dir doch die Quellen durch verdammt. Oder sollen wir deinen "Vermutungen" nun mehr glauben Schenken, als den Informationen von z.B. The Inquirer?

Lübke schrieb:
eine solche verschwörung entbehrt jeder logik.
sry wenn ich das jetzt mal so deutlich sagen muss, aber diese ganzen weltverschwörungstheorien gegen ati sind reines fanboy-gewäsch und ich wundere mich stark, dass du sowas für voll nimmst, wo du doch eigentlich sehr gute kenntnisse von der materie hast.
wenn sich wirklich alle spielehersteller der welt und mikrosoft und was weis ich nicht, wer noch alles mit nvidia gegen ati verschworen hätten, glaubst du nicht, dass ati dann längst weg vom fenster wäre?

Auf der letzten Seite durfte man mind. 8 mal "verschwörung" lesen, und 2 mal Fanboy. Fällt dir sonst nichts mehr ein? Wer redet von einer "verschwörung seitens Nvidia und Microsoft gegen ATI"?!
Es geht um nichts anderes, als das anscheinend DX10 nicht mit allen Features wie Anfangs geplant veröffentlicht wurde, und erst mit 10.1/11 nachgeliefert werden, und das auf druck/anraten/rücksicht von Nvidia.
Ebenso hat sich Nvidia nicht nur über 2 Jahre hinweg einen Dreck um DX10.1 gescherrt, und es in Bezug auf ATI sogar schlecht gerdet, sie haben wohl sogar ihren Einfluss dahingehend geltend gemacht, das es aus z.B. Asassins Creed entfernt wurde. Wer weiss schon wo DX10.1 sonst noch implementiert worden wäre, wenn mitgezogen wären?
Und genauso haben sie es jetzt wieder getan, DX11 als "kein Kaufkriterium" bezeichnet.

Du schreisst 'Verschwörung' und 'Fanboy' in einem Post? Wer sowas schön redet sollte sich an seiner eigenen Nase fassen.
 
Complication schrieb:
lol...aber ich habe nirgends geschrieben, dass Ati dies in der Hardware implementiert hat. Sondern lediglich dass es ein alter Hut für Ati ist.
D.h., du meintest: "Die Gather4 DX11 Erweiterungen sind ein alter Hut, weil der DX10.1 Teil bereits von ATI in der Radeon 3400 Serie nicht direkt Hardware-seitigg unterstützt wurden"? Aber die Diskussion um nicht dokumentierte Gather4 DX11 Features und die Nachteile die entstehen, wenn man nicht die Möglichkeit hat sie Hardware-seitig (und in diesem Fall dann mit doppelter Ausführungsgeschwindigkeit) zu realisieren, macht doch nur unter dem Aspekt nativer Unterstützung Sinn? Gerade darum dreht sich die aktuelle Diskussion in den von mir verlinkten beyond3d-Seiten ja...
Und übrigens Sorry, mir ist grade aufgefallen, dass ich dich fälschlicherweise die ganze Zeit mit "Eichhörnchen" angeschrieben habe
Daher kommt das Wortspiel auch, insofern darfst du das gerne weiter ;)
 
@Lübke, Milamber
Könnt ihr wieder zur Technik des Fermi zurückkommen oder muss der Thread auch wieder geschlossen werden weil ihr euch lieber irgendwelchen Scheiß an den Kopp knallt?

zu Thema:
Mich interessiert brennend das neue CSAA. Wenn es dadurch wirklich möglich ist Alphatests mit MSAA gut zu glätten wäre das eigentlich sehr schön. TSSAA kostet ja auch nicht grad wenig.
Aber wie das wirklich in der Realität aussehen wird, werden wohl erst Bildqualitätsvergleiche nach dem Release zeigen.
 
@Lübke

/quote
nicht für nvidia sondern für gewinnorientierte unternehmen wie nvidia, amd und intel. falls du amd aber für eine mildtätigen organisation hälst, kannst du von ihnen ja ein anderes verhalten erwarten
/quote

Eine positive Unternehmenskultur und ein gewinnorientiertes Unternehmen schliessen sich nicht gegenseitig aus, sondern Bedingen sich langfristig sogar eher. Scheint sich nur nicht zu den NVIDIA-Verantwortlichen herumgesprochen zu haben, sind wohl alle jüngeren BWLer Datums :D

Allein die Tatsache, dass Du mich versuchts in ein "Lager" zu drücken, zeigt mir schon, wie aufnahmefähig Du für Argumente bist (die Du im Übrigen gar nicht zu lesen scheinst)

Daher ist eine Diskussion mit Dir eher sinnlos, und hiermit für mich auch beendet.

Viele Grüße
 
@Hörnchen (ja ich machs mir einfach jetzt :D )
ich scheine die Aufregung nciht zu verstehen und wohl nicht zu begreifen was die genau dort wollen in dem Thread - wobei es mir auch schwer fällt dort mitten drin einzusteigen und den ganzen Unsinn dort vom relevanten zu sortieren.
Vielleicht können wir es einfach so machen:
Hier ein Zitat aus AMD White Paper release zu DX11 vom 26.06.2009:
http://www.legitreviews.com/article/1001/2/
Gather4: Modern GPUs use dedicated hardware blocks known as texture units to fetch data rapidly into their processing cores. These texture units have historically been optimized for rendering graphics, where techniques such as bilinear filtering are typically used to improve image quality. Compute Shaders often make use of these same units to fetch data as well, but they generally have no use for their filtering capabilities, leaving them underutilized. GPUs with Shader Model 5.0 support have the ability to use the excess fetch capability with the Gather4 operation, which can fetch up to 4 values simultaneously and provide a 4xincrease in data bandwidth.
Was ich nun nicht verstehe ist welchen Teil nun Nvidia hier angeblich auf seiner Hardware zusätzlich anders haben soll und von dem Ati nichts gewusst haben soll. Laut dieser Beschreibung nutzt Ati brach liegende Shader-Kapazitäten, von denen Sie reichlich haben durch ihr 5D Design im Gegensatz zu Nvidia mit 1D Shadern. Dies wurde auch immer wieder betont von Nvidia, dass ihre Shader bei weitem effektiver ausgelastet sind.

Will man nun das Gather4 nutzen und die Shader dafür verwenden bleiben weniger Kapazitäten durch eben schon hohe Auslastung der 1D-Shader. Also muss man zusätzliche Einheiten dafür bereitstellen (dafür sind ja die CUDA-Cores so flexibel).
Diese Implementierung der DX11-Funktion musste Nvidia in Zusammenarbeit mit Microsoft lösen, was Ati nicht musste da dies durch ihr 5D-Shader Design nicht notwendig ist und das Gather einfach die Lücken der freien Kapazitäten nutzt (ähnlich HT bei Intel ;) )

So verstehe ich das ganze Thema, doch vielleicht ist mir hierbei was entgangen auf das du mich die ganze Zeit stossen willst und ich sehe es nicht. Es ist für mein empfinden viel mehr so dass Nvidia hier auf bestimmten Bereichen durch den Architektur Wechsel einfach Dinge anders lösen muss als Ati, die mit 10.1 schon viele DX11 Features einfließen haben lassen oder vorbereitet hatten.
Vielleicht kommen wir jetzt auf einen Nenner :)
Ergänzung ()

@bensen
Der Link dürfte deine Fragen beantworten :)
http://www.hardwarecanucks.com/foru...idia-s-geforce-gf100-under-microscope-10.html
GF100-23.jpg
 
Zurück
Oben