Bericht Bericht: Nvidia GF100: Technische Details

Complication schrieb:
Naja, das liest sich halt als ob du schreibst: "Nvidia geht eh Pleite"

@Eichhörnchen:
Es wundert mich nciht, dass dieses "geheime Feature" in DX11 nicht beschrieben ist - es ist nämlich ein DX10.1 Feature:

Das ist ja als ob ein Höhlenmensch eine Geheimwaffe entdeckt und uns diese präsentiert: Das Feuer :evillol:
Ich glaube du hast es nicht ganz verstanden. Es geht um eine gather4 Funktion im allgemeinen sondern um neue (offenbar nicht dokumentiert) Features, die offenbar NV direkt nutzt:
I haven't either. DX11 SDK doesn't go into much details there. Nvidia told me there should be an instruction for the DX11 four-offset Gather4 at the user level but it's passed to the driver as 4 simple instructions with single offset or I guess directly written as these 4 simple instructions. Then their compiler reassembles it into a native four-offset gather 4 running at half speed. They considered at first to implement it at full speed but the 4 independant x/y calculators required were too expensive so they cut these to 2 later in the design. This still means a nice 2x boost.
Mehr dazu hier: http://forum.beyond3d.com/showpost.php?p=1382074&postcount=3478

Ein Statement von AMD (die werden vermutlich sagen, das ist nicht relevant) steht noch aus...

Edit: Hier frägt gerade jemand die selbe Frage: http://forum.beyond3d.com/showpost.php?p=1383143&postcount=1017 - ich lass es dann mal die Experten ausdiskutieren ;)
 
Zuletzt bearbeitet:
Der Verschwörungstheoretiker ist ja in dem dortigen Thread schon längst widerlegt worden:
http://forum.beyond3d.com/showpost.php?p=1382654&postcount=3522

What NVIDIA is saying is that there is an instruction in HLSL which up to this point has remained hidden, which if you know it exists you can decompile from assembler level and design hardware for to make it run efficiently. Knowing it exists is a rather important step though, without that knowledge you simply wouldn't expect those type of assembly instructions. They make absolutely no sense on the original hardware from which gather4 came (HD3/4/5, where you will just take all the samples).
Es war schon länger bekannt dass DX11 für Unterschiede bei den Compilern sorgen wird und somit auch auf bestimmte Hardware optimiert werden kann - dadurch werden die Benchmarks ja immer sinnloser, da es vom Spiele Hersteller abhängt welchen Compiler er verwendet und wie die verwendete Hardware das dann nutzt. Es geht fast in die konsolen richtung, dass man Hardware optimierte Games nun auch auf PCs erwarten kann. So nach dem Motto: AMD_version_x64 oder Nvidia_x86 wie das ja bei Windows Programmen Gang und gebe ist :(
 
Einhörnchen schrieb:
Gehst du davon aus, dass AMD und Nvidia bei TSMC die gleichen Verträge und Konditionen haben (darauf bezog sich mein Kommentar)? Ich nicht. Deshalb sind solche Spekulationen meiner Meinung nach nicht sehr nah an der Realität.
100% ident sicher nicht, aber da beide seit jahren grosskunden sind, denke ich dass die konditionen nicht soweit abweichen werden dass sie im vergleich zu den mehrkosten für den grösseren chip ins gewicht fallen werden.
 
AMD_version_x64 oder Nvidia_x86

hab ich was verpasst? :freak:
:D

dadurch werden die Benchmarks ja immer sinnloser
warum sollte es sinnlos sein, zu wissen, auf welche karte optimiert wird? Oô
das macht es imho eher noch interessanter... was soll ich mit hardware anfangen, die zwar auf dem papier tolle leistungsdaten hat, aber von meiner software nicht ordentlich unterstützt wird?
 
Complication schrieb:
dadurch werden die Benchmarks ja immer sinnloser

seit die hersteller vor ewigkeiten angefangen haben für einen der ersten futuremark benchmarks extra codepaths in die treiber einzubauen ist der sinn reiner benchmarks immer mehr gesunken.
 
Lübke schrieb:
warum sollte es sinnlos sein, zu wissen, auf welche karte optimiert wird?
Weil ich mir dann gleich ne Konsole kaufen kann - ein PC soll eine All-In-One-Upgrade-bei Bedarf Gerät sein und nicht Software spezifische Komponenten beinhalten.

Natürlich soll es Software spezifische Hardware geben, doch die Grafikkarte ist eine der Grundkomponenten die jeder benötigt - diese sollte Ihre Leistung nicht Software spezifisch abrufen.
Muss ich mir jetzt 2 Grakas kaufen damit ich sowohl Batman AA als auch andere games in voller Pracht genießen kann?
Irgendwo hatte mal jemand geschrieben, dass es eine Frechheit ist als Ati-Besitzer nur ein halbes Spiel zu bekommen für den gleichen Preis. Das hat mich wirklich ins grübeln gebracht und es ist wirklich so: Nicht der Graka-Hersteller der versucht spezielle features zu verwenden um seinen Umsatz zu steigern ist Schuld. Der versuch ist ja legitim. Der Spielehersteller der sich auf propriätere Hersteller beschränkte Features einlässt ist derjenige der die Kunden betrügt um die volle Leistung. Würde der Spiele hersteller sich nciht darauf einlassen, hätte der Graka Hersteller gar keine Chance als sich an Standards zu halten.

Ohne Standards brauch ich keinen PC mit austauschbaren Komponenten und kann mir mehr Vorteile aus integrierten Komponenten holen.
 
Complication schrieb:
Der Verschwörungstheoretiker ist ja in dem dortigen Thread schon längst widerlegt worden:
http://forum.beyond3d.com/showpost.php?p=1382654&postcount=3522
Hast du auch weiter gelesen? So einfach wie du das darstellst ist das bei weitem nicht...

Vom gleichen Autor wenige Posts weiter:
Mfa schrieb:
DirectX 11 is being hammered out, 4 offset gather gets put in and properly documented. Does AMD think :

A) NVIDIA has a texture cache optimized for individual 32 bit accesses and will advocate developers to make accesses in a pattern to make optimal use of that flexibility, we should take this into account for our future hardware architectures.

B) Meh, doesn't concern us.

A write in answer will be acceptable as well.
Und noch weiter (ebenfalls gleicher Autor):
Mfa schrieb:
Which is no reason for Microsoft to hide it from the docs and only expose it at the HLSL level (which effectively hides it from the other IHVs unless they bother to reverse engineer the shader compiler). It can all be an unhappy accident of circumstances of course ... which is why I would like to hear from AMD (or any of the other IHVs for that matter) if the HLSL instruction was made known to them (if not I personally would call anyone who still thinks an accident is the most likely to be slightly naive).

Und noch weiter (ebenfalls gleicher Autor):
The way how hardware currently works is not at issue. It was my contention that 64 bit granularity accesses could be supported at little greater costs ... and given that NVIDIA is pushing 4 offset gathers it would make sense for ATI to do that in future hardware (making the knowledge that they are valuable).
Edit: Bevor das falsch verstanden wird. Ich selbst bemesse dem keine große Bedeutung da, Spieleentwicvkler werden sowieso auf Kompatibilität achten. Ob es Absicht oder ein Versehen war, werden wir wohl nie erfahren. Wenn die Xbox 720 aber DX11 einsetzt und wieder AMD Partner ist, dann dürfte es tatsächlich nur ein Versehen sein.
 
Zuletzt bearbeitet:
das stimmt schon, einheitliche standarts wären wünschenswert. meine aussage bezog sich nur auf deine aussage, dass benchmarks dann sinnlos würden. schön wäre es, wenn es noch mehr große graka-hersteller geben würde, dann würden sich auch nur einheitliche standarts durchsetzen, weil keiner einen (spiele-)marktanteil von annähernd 50% hätte, wo ein eigener standart eine bedeutung erlangen könnte.
 
Nochmal - da ist nichts Geheim gehaltenes dabei. Das sind alles lange bekannte Dinge.
Ati hat immer schon die Politik verfolgt, die Features so offen wie möglich zu gestalten und Spiele Herstellern zu ermöglichen Hardware übergreifend zu programmieren.
Nvidia macht das genaue Gegenteil - siehe PhsyX.
Hier wird wieder genau das selbe gemacht - es wird eine Unterstützung ion Hardware gegossen und die Entwickler müssen aber genau darauf hin programmieren da es sonst nichts nützt. AMD macht so was nicht (ob nun absichtlich oder weil sie sich zu der Strategie gezwungen sehen ist ja nun egal).

Man kann also höchstens von einer weiteren proprietären Lösung von Nvidia sprechen und dem versuch die Entwickler in ihrer "engen Zusammenarbeit" wieder davon zu überzeugen genau so auf ihre CUDA-Cores optimiert zu programmieren. Es ist zusätzlicher Code notwendig da Ati dies Hardwareseitig nicht auslesen kann.
Ergänzung ()

Lübke schrieb:
das stimmt schon, einheitliche standarts wären wünschenswert. meine aussage bezog sich nur auf deine aussage, dass benchmarks dann sinnlos würden.
Das sind sie ja jetzt schon fast - ich kauf mir doch nicht eine Graka wegen 1 oder 2 Spielen. ich will die beste Performance für alle meine Anwendungen. Was nützt mir 60 fps in Spiel XY bei maximalen Details, wenn das lediglich dem Spiele/Benchmark Hersteller zu verdanken ist dass die verglichene Karte nur 40 fps bringt obwohl sie die schnellere Hardware hat?

Welchen Sinn hat denn ein solcher Bench ausser eine Fanboy-Diskussion auszulösen?
Kommt das nächste Patch für Cinebench/Crysis/Sysmark etc. sind plötzlich die 3 Monate alten Benches ncihts mehr Wert, da sich die angeblich vorher 20% schlechtere Hardware nun 10% besser zeigt (hier geschehen bei den ersten Benches vom Core i3 - schau dir mal dort die Werte der E8400 vs. Phenom an) - ja wie jetzt?

Letzten Monat hab ich mir die Hardware gekauft wegen dem Bench und nun ist sie plötzlich nicht mehr 30% vorne weil die Software ein Update hatte? :freak:
Da hätte ich doch vielleicht 40% weniger Geld ausgeben sollen und mir die neue Software kaufen sollen statt der Hardware, oder? Wozu also der Bench?
 
Complication schrieb:
Nochmal - da ist nichts Geheim gehaltenes dabei. Das sind alles lange bekannte Dinge.
Aktuell ist dieser Bestandteil von DX11 nicht dokumentiert und wohl nur über reverse engineering sichtbar (schreibt sogar der von dir zitierte Maf etwas später). Nvidia hat hierfür zufällig eine Hardware-Implementierung bereit, ATI zufällig nicht. Wenn Microsoft AMD nicht vorab ebenfalls darauf hingewiesen hat, riecht das nach Vorsatz...

Edit: Rys hat es nochmal kurz und bündig erläutert:
As MfA and OpenGL guy uncovered in the other thread, there's a four offset overloaded version of Gather in DX11, which wasn't commonly understood before. That's the jitter, with the acceleration looking like a Fermi sampler being able to fetch two samples with discrete offsets per clock, rather than one.
http://forum.beyond3d.com/showpost.php?p=1383168&postcount=1019

Was das in der Praxis bedeutet, wird man sehen müssen.
Complication schrieb:
Ati hat immer schon die Politik verfolgt, die Features so offen wie möglich zu gestalten und Spiele Herstellern zu ermöglichen Hardware übergreifend zu programmieren.
Nvidia macht das genaue Gegenteil - siehe PhsyX.
Hier wird wieder genau das selbe gemacht - es wird eine Unterstützung ion Hardware gegossen und die Entwickler müssen aber genau darauf hin programmieren da es sonst nichts nützt. AMD macht so was nicht (ob nun absichtlich oder weil sie sich zu der Strategie gezwungen sehen ist ja nun egal).
ATI Stream, Havok (unterstützt ATI nun) usw. sagen dir schon was, oder? Abgesehen davon macht man genau durch propriätere Lösungen manchmal Fortschritte im Sinne der Allgemeinheit, siehe DX11, CUDA.

Etwas off-topic, aber siehe dazu auch:
https://www.computerbase.de/2008-08...hysx-im-ueberblick/5/#abschnitt_was_macht_ati
https://www.computerbase.de/2009-02/was-passiert-mit-physx-wenn-dx11-opencl-da-sind/
 
Zuletzt bearbeitet:
Complication schrieb:
Muss ich mir jetzt 2 Grakas kaufen damit ich sowohl Batman AA als auch andere games in voller Pracht genießen kann?

Nein Eine Nvidia Karte reicht ;)

Irgendwo hatte mal jemand geschrieben, dass es eine Frechheit ist als Ati-Besitzer nur ein halbes Spiel zu bekommen für den gleichen Preis. Das hat mich wirklich ins grübeln gebracht.

Ja kann schon sein aber jd karte hat seine vor und nachteile bei Nvidia bekommste halt bei manchen spielen PhysX dazu und bei Ati äähh ja hat bestimmt auch wo einen vorteil in ihrgend einen spiel mir fällt aber grad keins ein!
 
Zuletzt bearbeitet:
Ati hat immer schon die Politik verfolgt, die Features so offen wie möglich zu gestalten und Spiele Herstellern zu ermöglichen Hardware übergreifend zu programmieren.
worauf begründest du deine aussage? ich wüsste nicht, dass von ati offene standarts entwickelt wurden.
Nvidia macht das genaue Gegenteil - siehe PhsyX.
nvidia ist sehr aktiv an der entwicklung von open gl beteiligt und auch physx war ursprünglich für ati frei zugänglich. ati hat sich geweigert, bei physx mitzuziehn und statt dessen die unterstützung von intels havok angekündigt.

ich denke, in der hinsicht muss man ati ebensowenig ein lob aussprechen, als nvidia einen vorwurf machen. ati investiert schlicht weniger in neue technologien und konzentriert sich auf die wesentlichen dinge, wärend nvidia mehr für solche dinge ausgibt. wer mit seiner strategie besser fährt, kann man schlecht beurteilen.
 
@ Floh0664:

DX11. Tesselation. Eyefinity. OGSSAA.
 
Lübke schrieb:
worauf begründest du deine aussage? ich wüsste nicht, dass von ati offene standarts entwickelt wurden.
Was ich nirgends geschrieben habe - wer welche Entwicklungen macht ist sowieso immer Kaffeesatzleserei - ich sprach davon dass Ati die offenen Standards unterstützt und keine eignen erfindet. Deshalb findet man auch keine Spiele die für Ati optimiert sind - Nvidia hätte wohl gerne dass sich AMD daran beteiligt um das eigene Vorgehen zu rechtfertigen.
Es gibt keine Features die ein Gamehersteller auf der Ati nutzen kann und die er nicht auf einer Nvidia Karte nutzen kann. Umgekehrt schon
ati investiert schlicht weniger in neue technologien und konzentriert sich auf die wesentlichen dinge, wärend nvidia mehr für solche dinge ausgibt.
Ich weiss gar nicht was ich dazu schreiben soll, ausser dass du wohl einer Gehirnwäsche unterliegen musst die mit grünen Strahlen stattgefunden hat :freak:

Nvidia hat DX11 jahrelang verzögert weil sie keine Hardware für die Technik entwicklen konnten oder wollten. Daraus ist das behämmerte DX10.1 entstanden - auch keine Nvidia Karten dafür. Und wir reden hier von offenen APIs für alle. Wenn Nvidia was eigenes entwickelt, dann immer so, dass die Konkurrenz davon ausgeschlossen wird. CUDA, PhysX etc.

Ati Stream+OpenCL
http://developer.amd.com/documentation/videos/OpenCLTechnicalOverviewVideoSeries/Pages/default.aspx
http://www.heise.de/newsticker/meldung/AMD-setzt-auf-quelloffene-Spielephysik-798225.html
Der Chiphersteller AMD hat gemeinsam mit dem Schweizer Softwarehersteller Pixelux die Open-Physics-Initiative ins Leben gerufen. Ziel ist es, die bestehende quelloffene Physik-Engine Bullet Physics um die Programmierschnittstelle OpenCL zu erweitern. Im Unterschied zur PhysX-Engine von Nvidia, die GPU-beschleunigte Physikeffekte in 3D-Spielen nur per CUDA auf GeForce-Grafikkarten erlaubt, soll Open Physics herstellerunabhängig mit allen OpenCL-tauglichen Prozessoren und Grafikchips sowohl in PCs als auch in Konsolen funktionieren.
@Einhörnchen
Havok gehört Intel und selbst die sind in der Lage mit AMD zu arbeiten.
Du zitierst immer 1-2 Tage vor dem Zitat von mir... eine Diskussion sollte 2 tage später ja eher neuere Erkenntnisse haben als früher.
DX11 und CUDA in diesem Zusammenhang nun in einen Topf zu werfen führt nicht wirklich irgendwo hin, da das eine eine API ist die jeder verwenden darf und das andere eine exlusive Technik die Nvidia nur für sich und niemand anderes hat (mein Schatz *Gollum, Gollum*) ;)
 
open gl ist also deiner meinung nach kein offener standart?
nvidia unterstütz deiner meinung nach kein open cl, da dus ja zu ati rechnest?
und wie soll nvidia bitte ati von der implementierung von dx11 abgehalten haben?
und was hat das mit dx10.1 zu tun?

deine beiträge haben meistens ein gutes niveau, aber hier wundere ich mich doch über deine sehr einseitige sichtweise.

wenn man aus deinen aussagen die fakten rausfiltert bleibt nur noch physx, und da ist es wohl legitim, wenn nvidia viel geld in den erwerb und die entwicklung steckt, dass sie es ihrem konkurrenten intel(havok) nicht offenlegen.

warum personifizieren die leute hier immer die hersteller und sehen in einem den großen wohltäter und in dem anderen eine ausgeburt des bösen? :freak:
 
Lübke schrieb:
open gl ist also deiner meinung nach kein offener standart?
nvidia unterstütz deiner meinung nach kein open cl, da dus ja zu ati rechnest?
und wie soll nvidia bitte ati von der implementierung von dx11 abgehalten haben?
und was hat das mit dx10.1 zu tun?
Ich habe nirgendwo geschrieben dass Nvidia das nicht unterstützt, sondern genau das Gegenteil - Ati nutzt nur Technologien die jedem zugänglich sind:
Es gibt keine Features die ein Gamehersteller auf der Ati nutzen kann und die er nicht auf einer Nvidia Karte nutzen kann. Umgekehrt schon
2007:
http://www.pcgameshardware.de/aid,6...ft-schliessen-sich-an/Nvidia-Germany-DE/News/
Auch bei Microsoft spielt man den Ball unüblich flach: Kevin Unangst, Senior Global Director bei Microsoft Games on Windows, sieht in Direct X 10.1 ein Update, dass in naher Zukunft keinen großen Einfluss auf Spiele haben wird.
2008:
http://www.hardwareluxx.de/index.ph...eche-mit-direct-x-10.1-nvidia-aussen-vor.html
Die neue Oberfläche von Windows 7 wird Berichten zur Folge die Grafikschnittstelle DirecX 10.1 nutzen, um die Leistung der Anzeige zu steigern und dadurch ein besseres Arbeiten zu ermöglichen. Bei dieser Meldung fragen sich sicher einige NVIDIA-User, ob man nun außen vor gelassen wird, da alle Grafikkarten bislang nur für DirectX 10.0 offiziell freigegeben sind. Die Folge könnten fehlende Effekte bzw. eine geringere Leistung sein, doch sollte man als betroffener User wohl kaum davon ausgehen, dass Microsoft durch ein solches Feature eine große Gruppe von Nutzern ausschließt.
http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture
"DX11 is a much funnier story. The DX10 feature list was quite long when it was first proposed. ATI dutifully worked with Microsoft to get it implemented, and did so with the HD2900. Nvidia stomped around like a petulant child and refused to support most of those features, and Microsoft stupidly capitulated and removed large tracts of DX10 functionality."
http://user.schottenland.de/forum/Nun-doch-DirectX-101-Grafikkarten-von-Nvidia-t420.html
Wir erinnern uns: Seit der Markteinführung der HD3000 Serie von ATI gibt es nun eine Unterstützung für DirectX 10.1. Von Anfang an hat Nvidia die besagten Vorteile dieser API heruntergespielt und sogar als völlig nichtig hingestellt. Außerdem hat man sich diese Kampagne auch einiges kosten lassen. Dieser Umstand führte sogar soweit, dass Spielehersteller, die ihre Titel für die DX10.1 API optimierten, diese Optimierung wieder ausbauen mussten, nur damit sie das Nvidia-Logo "The Way it‘s meant to be played" und wohl auch benötigtes Geld nicht verloren. Unnötig zu erwähnen, dass es sich dabei um den bekannten Spieletitel „Assassin‘s Creed“ handelte. Nachdem sich nun die Performance-Überlegenheit der DirectX 10.1 Hardware von ATI nicht mehr länger verheimlichen lässt, was ja einige exklusive Spieletitel, wie beispielsweise HawX, recht anschaulich beweisen, zieht der ehemalige vehemente Gegner dieser Technik einfach nach, ohne ein Bekenntnis oder Eingeständnis abzugeben. So ist das, andere Institutionen haben ja auch nie sorry gesagt, nachdem sie von ihren Abwegen auf den Pfad der Erkenntnis kamen. Das Motto lautet: Everything money can buy - und wenn es niemand von den Leuten da draußen bemerkt, Ok.

Das ganze schon vor 6 Monaten hier im Forum diskutiert worden:
https://www.computerbase.de/forum/threads/kompatibilitaet-von-dx10-1-karten-zu-dx11.600725/
In diesem Artikel steht etwas davon, dass ATI praktisch seit der HD2900 die Hardwareanforderungen von DX11, welche eigentlich schon DX10 beinhalten sollte erfüllt. Letztendlich wurde (vllt nvidia zu liebe?) einige der Anforderungen gestrichen.
Vermutlich wurde das ursprünglich geplante DX10 im jetzigen DX11 dennoch weiter verfeinert, sodass sicher keine 100%ige Kompatibilität besteht.
 
Ich habe nirgendwo geschrieben dass Nvidia das nicht unterstützt, sondern genau das Gegenteil - Ati nutzt nur Technologien die jedem zugänglich sind:

aber wenn beide diese technologien nutzen, warum ist es dann bei nvidia böse und bei ati gut?

und diese verschwörungstheorien, dass microsoft ausgerechnet nvidia zu liebe (der wettbewerber, der die meisten konkurrenzstandarts unterstützt) sich den ärger aller ati-user auf sich ziehn würde, glaubst du doch hoffentlich wohl selbst nicht? wo soll denn da bitte der sinn hinter sein? im übrigen unterstützt nvidia die meisten features schon mit dem g80, der bekanntermaßen über ein halbes jahr eher den markt erreicht hat. eine solche verschwörung entbehrt jeder logik.
sry wenn ich das jetzt mal so deutlich sagen muss, aber diese ganzen weltverschwörungstheorien gegen ati sind reines fanboy-gewäsch und ich wundere mich stark, dass du sowas für voll nimmst, wo du doch eigentlich sehr gute kenntnisse von der materie hast.
wenn sich wirklich alle spielehersteller der welt und mikrosoft und was weis ich nicht, wer noch alles mit nvidia gegen ati verschworen hätten, glaubst du nicht, dass ati dann längst weg vom fenster wäre?
 
Lübke schrieb:
aber wenn beide diese technologien nutzen, warum ist es dann bei nvidia böse und bei ati gut?
Ich schreibe weder dass die einen gut noch die anderen böse sind - wie kommst du darauf?

Ich habe dir lediglich Links aufgelistet die zu erkennen geben, dass Nvidia sich beim verschaffen von Wettberwerbsvorteilen einen Dreck um die Kunden kümmert und lieber andere blockiert als sich selber zu verbessern.
DX11 könnte schon jahrelang Realität sein, wenn es nciht blockiert worden wäre. Nvidia geht es genauso um geschäftlichen Erfolg wie auch Ati, doch die einen fallen immer wieder mit seltsamen und fragwürdigen Methoden auf.
  • Entwickler unter Druck setzen
  • Featurelisten streichen weil man sie selber nicht bedienen will/kann
  • Seltsame Comics über die Konkurrenz im Internet veröffentlichen.

IMHO sollte Nvidia mehr Zeit auf die Technik verwenden als mit Marketing die anderen klein zu reden. Leistung sollte überzeugen und nicht wer mehr Fans auf seiner Seite hat und wer die Medien besser manipuliert. Ich sag ja nicht dass Nvidia die einzigen sind die das machen, doch das Ausmaß ist sehr auffällig.

Unterm Strich sind wir Kunden die dummen dabei.
 
doch genau das schreibst du. du schreibst nvidia würde andere blockieren und führst verschwörungstheorien als beleg auf.
wenn diese verschwörungstheorien einen sinn ergeben sollen, dann muss es heißen, dass ati und m$ gemeinsame sache gegen nvidia machen, dass die sich was einfallen lassen haben, warum ati dx10.1 kann und nvidia über sehr lange zeit nicht. und dass ati einen vorsprung bei dx11 erhalten hat gegenüber nvidia.

aber dass derjenige mit den vorteilen auf seiner seite das opfer sein soll, ist ja nun wirklich absolut unlogisch.

davon ab kann ich dich beruhigen, es gibt keine verschwörungen, weder mit m$ noch mit spieleentwicklern noch mit aliens ;) das sind nur die ausgeburten der fantasien von fanboys, die was zum bashen suchen. wenn du das mit etwas abstand betrachtest (vertausch mal im gedanken einfach die namen, vllt fällt es dir dann leichter) wirst du erkennen, dass diese vielbeschworenen verschwörungstheorien überhaupt keine plausible grundlage haben.

mal angenommen es gäbe eine weltverschwörung von m$ und nvidia gegen ati, meinst du nicht, dass m$ und nvidia dx11 dann zusammen entwickelt hätten und nvidia einen zeitlichen entwicklungsvorsprung bekommen hätte, um vor ati mit dx11 hardware auf dem markt zu sein? andersrum ist es schlicht sinnfrei. wo wäre mein vorteil, wenn ich meinem konkurrenten einen vorsprung und ein zusätzliches verkaufsargument verschaffe?
 
Zurück
Oben