News Bringt Nvidia DX 10.1 auch auf den Desktop?

NV sollte in die Politik gehen, da hat Gesprochenes auch keinen Wert

Was gutes hat es ja vieleicht, u.U. ist der DX10.1 Pfad beim nächsten Assassins Creed Patch wieder bei .... ;-)
 
@ G-SAS:
Wies aussieht kriegen die DX11 noch ne Weile nicht gebacken. Also ich werde mir garantiert keine DX10.1 Karte mehr kaufen. Die 9800 GTX reicht mir sowas von und außer DX11 gibt es keinen Grund für mich zu wechseln. Falls Nvidia wesentlich länger als ATI braucht, wird meine DX11 Karte halt eine ATI.
:lol:

Als ob die's nicht "gebacken kriegen" würden... Deine Unterstellung ist mit an absoluter Sicherheit grenzender Warscheinlichkeit falsch. NV tut das aus zwei Gründen:
1. Aus der Gamerszene wird schon seit langem kritisiert und bemäkelt, dass die NV Karten keine (total unnützen) DX10.1-Fährigkeiten besitzen. Darum führt man dies nun auf den günstigen Modellen ein um den "guten Willen" unter Beweis zu stellen.
2. Aus absatzpolitischen Gründen ist es für NV besser jetzt noch schnell DX10.1 einzuschieben, bevor DX11 als neuer Verkaufsanreiz (für Konsumenten deines Schlages) verfügbar gemacht wird.

Das ist ein sehr kluges Vorgehen von "Big N". ;-)

@ unter mir:
Reicht dir das als Erklärung?
 
Zuletzt bearbeitet:
Die Ankündigung wirft bei mir nur Falten auf die Stirn:

Erst wird 10.1 von NVidia torpediert, damit es auch ja nicht unterstützt wird, also floppt.

Jetzt steht 11 vor der Tür und NVidia kommt mit 10.1.

Wie argumentieren die das? Und vor allem: Woher soll jetzt plötzlich die Unterstützung des Formats kommen?

Auch wenn ich eine GTX 260 im PC habe - die Argumentionskette erschließt sich mir überhaupt nicht. Wenn die 11er Karten von ATI gut werden und keinen Staubsauger als Lüfter wird wohl mal wieder ein Wechsel fällig.

.
 
Halt's_Maulwurf schrieb:
1. Aus der Gamerszene wird schon seit langem kritisiert und bemäkelt, dass die NV Karten keine (total unnützen) DX10.1-Fährigkeiten besitzen. Darum führt man dies nun auf den günstigen Modellen ein um den "guten Willen" unter Beweis zu stellen.

EPIC FAIL!

Ich brauch dir jetzt hoffentlich nicht den Test und die News verlinken, die das Gegenteil beweisen...

Punkt 1 kannste streichen, mit "gutem Willen zeigen" hat das nix zu tun. Punkt 2 kommt schon eher hin, aber ob das Vorgehen klug ist, naja, darüber lässt sich streiten.

NVIDIA bringt das letztendlich deswegen, weil sich offensichtlich viele gegen Physix und für DX10.1 (also ATI) entschieden haben. Jetzt will man also beides anbieten, klarer Fall.

Dazu kommt, das die mobilen Grafikchips erst in einem Jahr mit DX11 kommen werden, bis dahin kann man also wenigstens DX10.1 anbieten. Noch solange "nur" mit DX10.0 rumzueiern, kann man sich schlicht nicht leisten, siehe oben.

Wenn man dann also das ganze schon für die Notebook Grakas geschafft hat (DX10.1 integrieren), warum nicht auch für die Desktopchips?

Immerhin soll die GT210 (NV218) ja mittlerweile unterwegs zu den OEMs sein, mal schauen, ob da ein paar getestet werden, obwohl die ja anscheinend (noch) nicht für den Endkundenmarkt gedacht sind, wies ausschaut.

Die GT220 wird noch vermisst, soll wohl im frühen Juli aufschlagen jetzt. (40nm, 1GB DDR3, 128bit SI, Ersatz füt 9500GT)

@feris: Wegen der "plötzlichen" Unterstützung...

Entweder war die Integration Piepe-einfach und man hat sich damals absichtlich gegen DX10.1 entschieden, um ATI das Wasser abzugraben, oder man hat es bis heute nicht auf die Reihe bekommen, es in Hardware zu "pressen". Vermutlich weil man lieber CUDA/Tegra entwickelt hat. Könnte aber auch eine Mischung aus beidem sein. Erst nicht hinbekommen, weil man anderes zu tun hatte, dann infolgedessen versucht, .1 als sinnfrei hinzustellen und ATI zu schaden.
 
Zuletzt bearbeitet:
@ KAOZNAKE:

:lol:
Ist klar, poste doch was du willst - das Gegenteil beweist du mir/ uns damit trotzdem nicht.
Überleg dir mal lieber kurz wo dein "epic fail" (was ein dämlicher Ausdruck) liegt.

Soll ich dich kurz mit der Nase draufdrücken? Mach ich liebend gerne;
Wieviele Anwendungsmöglichkeiten für DX10.1 gibt es zur Zeit und wird es in nächster Zeit geben?
Ich sag's mal so - eine abschließende Aufzählung dürfte dir nicht sonderlich schwer fallen...

Also lehn' dich doch nicht so weit von Balkon und betätige dich als Marktschreier. Das steht dir nicht gut an.

NVIDIA bringt das letztendlich deswegen, weil sich offensichtlich viele gegen Physix und für DX10.1 (also ATI) entschieden haben. Jetzt will man also beides anbieten, klarer Fall.
Diese Theorie musst du mir erstmal beweisen! Die Statistiken die ich kenne (nein, ich werde hier nicht schon wieder die Steam-Erhebung bringen) sagen eigentlich etwas ganz anderes. Aber warten wir's ruhig mal weiter ab - Statistiken sind ja immer Rückblickend...
 
Wenn Nvidia hier nicht geblockt hätte, hätten viel mehr DX10 Games dank DX10.1 mehr Fps. Wie können mehr Fps für lau total unnütz sein? Manche Leute haben aber auch ne Logik. :rolleyes:

Und wenn du mal wissen willst, wo die Vorteile von DX10.1 gegenüber DX10 sind, dafür hab ich extra nen Link in die Sig gesetzt.

Eigentlich ist es ja sogar noch schlimmer: Hätte NV sich nicht quer gestellt, wäre DirectX jetzt wahrscheinlich schon viel weiter.
 
feris schrieb:
Wie argumentieren die das? Und vor allem: Woher soll jetzt plötzlich die Unterstützung des Formats kommen?
Wie NV das argumentiert weiß ich nicht, aber es dürfte notwendig sein: Der GT300 kommt zwar dieses Jahr, leider 1-2 Monate später als RV870. Nun braucht Nvidia günstige Mainstream und Performance Chips, welche aktuelle Spezifikationen implementieren. Insbesondere für den OEM Markt. Und bis es den Gt300 in diesem Segment gibt müssen wir vermutlich bis Q1/Q2 2010 warten. Und bis dahin kann NV den Markt nicht mit G92-Derivaten bedienen...
 
@ KAOZNAKE Ganz klar ist hiermal gar nichts. Was bringt mir directx10.1 auf Low End Karten im Vergleich zu Physx.
Nvidia hat das mit directx10.1 jetzt nicht grade an die große Glocke gehängt, man könnte schon fast sagen eher heimlich eingeführt. Nicht aufgrund von Physx, oder weil sich viele für directx10.1 entschieden haben. Viele warens nicht, sieht man allein schon beim Vorgänger der jetzigen ATI Karten, der 3870 usw..,
Es ist einfach eine notwendigkeit für den OEM Markt. Vll weil n paar Komplettsystembauer da auf die Barrikaden sind und keine Nvidias mehr verbauen wollten oder sowas.
Und ja , schade, dass Nvidia die Weiterentwicklung geblockt hat.
 
Zuletzt bearbeitet:
@ Lonely Shepherd:
Ach komm... was für ein Schmarrn! "wäre/hätte/sollte... dann wäre das und das passiert..."
Eine Unterstellung ist das. Mehr nicht. Die wenigsten Spielentwickler haben DX10 in vollem Umfang umgesetzt, warum hätten sie das dann ausgerechnet bei DX10.1 tun sollen?

Oh, wie amüsant! An der stelle zitiere ich gerne auch mal das Fazit aus deinem tollen Link:
Fazit
DX10.1 bietet viel für niemanden. Keiner kann es verwenden, niemand will es programmieren, die meisten haben nicht mal DX10 fähige Hardware. Reine Zukunftsmusik, wen auch sehr ansprechende, aber derzeit eine Sache über die man sich absolut keine Gedanken machen braucht.

Wenn du solche Quellen angibst ist das ein klares Eigentor. :evillol:

DX10.1 ist und bleibt eine nichtsnutzige zwischenlösung vor Version 11.
Auf ein par FPS, sollte es gerade den High-Tech-Jüngern nicht wirklich ankommen.

@ Schaffe89:
Danke für deinen Beitrag. Du siehst es wenigstens realistisch.
Wobei man fairerweise anmerken muss, das NV ja nichts aktiv "geblockt" hat, sie haben es nur nicht umgesetzt, das ist alles.
Und wenn DX10.1 so von der Macht Nvidias abhängt, dann kann KAOZNAKE's These schon gleich dreimal nicht zutreffend sein.

Ich persönlich muss sagen, dass ich PhysX für weitaus bedeutender halte als die DX10.1-Fähigkeiten. Wer PhysX schon einmal testen konnte, der weiß was das für ein unglaubliches Erlebnis das ist. PhysX hat noch enormes ausbaupotenzial und ist sehr ressourcenschonend. Bei meiner GTS und DX9.0c tut das der Performance nicht wirklich abbruch. Nvidia dominiert mit seinem PhysX ganz klar. Der Masse der PC-User scheint PhysX wichtiger als DX10.1 zu sein. Vor allem nach dem ganzen Theater mit XP/Vista und DX10 ist das mehr als verständlich. Nicht jeder kauft sich alle zwei Jahre eine neue Grafikkarte.....
 
Zuletzt bearbeitet:
Eine Unterstellung? Achja, ATi hat ja nur zum Spaß schon seit der ersten DX10 Garka ne Tessellations-Einheit mitverbaut. Die haben sich garantiert gedacht: "Oh, DX11 Grakas müssen als neues Feature auch Tessellation unterstützen und wir entwickeln gerade ne DX10 Graka. Ergo muss da ja ne Tessellations Einheit rein.":rolleyes:

Und es ist garantiert nicht so gewesen, dass ATi aufgrund der Specs für DX10 schon angefangen hat zu entwickeln und DX10 ursprünglich Tessellation enthalten sollte und aufgrund einer Querstellung seitens NV Tessellation doch noch letztenendes herausgenommen wurde und deswegen NV auch keine dieser Einheiten verbaut hat. Würde zwar alles wie die Faust aufs Auge passen, aber du hast mich überzeugt. Es wird doch der Grund aus dem ersten Absatz sein.

von Kaktus 27.10.2007, 06:29
Ja, jetzt wo du es sagst. Es ist mir absolut unverständlich, wie er zu so einem aktuellen Datum so ein alltmodisches Fazit ziehen konnte, wo man doch glatt auf die Idee kommen würde: "So ein Fazit kann doch nur von vor ca. 2 Jahren sein."

Btw. es ging mir ja auch nicht um die technischen Neuerungen. Ach was! Wie könnte man nur darauf kommen? Es ging mir allein um das 1,5 Jahre alte Fazit. Denn ein Fazit kann sich ja nicht verändern, aber technische Spezifikationen einer DX-Version ändern sich ja praktisch über Nacht. Fein, dass du das selbst erkannt hast.

Auf ein par FPS, sollte es gerade den High-Tech-Jüngern nicht wirklich ankommen.
Stimmt, gerade bei Crysis und Crysis Warhead kämpft man ja nicht um jedes Fps.

Btw ich warte ja immer noch auf die Antwort, wie mehr Fps für lau "total unnütz" sein können?
 
Halt's_Maulwurf schrieb:
Ist klar, poste doch was du willst - das Gegenteil beweist du mir/ uns damit trotzdem nicht.
Überleg dir mal lieber kurz wo dein "epic fail" (was ein dämlicher Ausdruck) liegt.

Bitte.

Nicht zu vergessen Asassins Creed, welches ebenfalls mehr Performance bei Kantenglättung bietet (ohne Patch).

Mehr fps oder bessere Optik (bei identischer Performance) total unnütz? LOL, dann kannste Physix grad genauso in die Tonne treten. Das einzige Spiel, wo Physix wirklich sinnvoll ist und was her macht, ist Mirrors Edge. Dann haben wir ne Quote von 5:1 in Sachen Nützlichkeit.

Halt's_Maulwurf schrieb:
Diese Theorie musst du mir erstmal beweisen! Die Statistiken die ich kenne (nein, ich werde hier nicht schon wieder die Steam-Erhebung bringen) sagen eigentlich etwas ganz anderes. Aber warten wir's ruhig mal weiter ab - Statistiken sind ja immer Rückblickend...

Da brauch man nix beweisen, das ist reine Logik. Wenn Audi nur ne Klimaanlage anbietet, und BMW nur Navi, werden sich die Leute für das eine oder andere entscheiden, je nach persönlichen Vorlieben. Wenn jetzt z.B. Audi anfängt, beides anzubieten, werden sich natürlich mehr Kunden für Audi entscheiden, ist doch klar.

Für NVIDIA ist es relativ einfach, DX10.1 umzusetzen (offensichtlich), AMD hingegen müsste vermutlich Gebühren zahlen für Physix bzw. würde sich vom NVIDIA-"Standard" abhängig machen. NVIDIA kann also ganz einfach beide Felder beackern, was andersrum aber eben nicht funktioniert.

Halt's_Maulwurf schrieb:
Auf ein par FPS, sollte es gerade den High-Tech-Jüngern nicht wirklich ankommen.

:D

Halt's_Maulwurf schrieb:
Wobei man fairerweise anmerken muss, das NV ja nichts aktiv "geblockt" hat, sie haben es nur nicht umgesetzt, das ist alles.
Und wenn DX10.1 so von der Macht Nvidias abhängt, dann kann KAOZNAKE's These schon gleich dreimal nicht zutreffend sein.

Asassins Creed sagt mir aber was anderes, einfach mal zusammen mit DX10.1 googeln. Zudem laufen die meisten Spiele nunmal in NVIDIAs TWIMTBP-Programm, klare Sache das die Entwickler, die das teilnehmen, sich nicht um .1 kümmern. Also blockt NVIDIA doch aktiv. Ich warte bloß noch drauf, das bei Asassins Creed die .1 Unterstützung wieder eingebaut wird, sobald NVIDIA es auch anbietet...:evillol:

Und welche Theorie soll jetzt nicht zutreffen? Dass sich viele für .1 statt Physix entschieden haben? Ist auch klar, viele schauen auf die größte Zahl und 10.0<10.1 ;)

Halt's_Maulwurf schrieb:
Ich persönlich muss sagen, dass ich PhysX für weitaus bedeutender halte als die DX10.1-Fähigkeiten.

Wayne?

:mussweg:
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Asassins Creed sagt mir aber was anderes, einfach mal zusammen mit DX10.1 googeln.
Bitte keine fehlerhaften Programme als Argument heranziehen.

Mehr fps oder bessere Optik (bei identischer Performance) total unnütz?
Inwiefern .1 bei Geforces FPS bringt ist bisher reines Rätselraten.
Selbst bei Radeons ist es nicht 100%ig eindeutig, was jetzt an Optimierungen, was am .1 liegt.
Davon auf eine völlig andere Architektur zu raten ist unrichtig.

Ich warte bloß noch drauf, das bei Asassins Creed die .1 Unterstützung wieder eingebaut wird, sobald NVIDIA es auch anbietet...:evillol:
Wird nicht passieren.
Niemand wird dies bezahlen, Ubisoft macht soetwas nicht aus Nächtenliebe.
Es ist nicht klar, was .1 an Performance bringt. Selbst wenn ist es in sämtlichen Test nahezu egal, wie Karten wie GT 220 oder G 210 abschneiden. Hier kämpft man nicht um 3% mithilfe zig xxxxx$, wenn man sich dadurch der Gefahr auszusetzt kritisiert zu werden.

Also blockt NVIDIA doch aktiv.
Dies ist bereits eine harte Unterstellung.
Demnach beschuldigst du, das Nvidia sämtliche Softwarenunternehmen bezahlt hat.
Lässt sich gut entkräften, indem man sich überlegt wie teuer das ist.

Oder damit, das einige Zeit nach dem guten Verkauf der HD4 ein paar .1 Spiele erschienen sind. Scheint wohl an AMD zu liegen, das sie auf einmal etwas Geld locker hatten um zu unterstützen, man sieht es geht auch ohne Nvidia, wenn man nur will.
AMD war zwar etwas zaghaft, aber so kurz vor D3D11 auch verständlich.


Und welche Theorie soll jetzt nicht zutreffen? Dass sich viele für .1 statt Physix entschieden haben? Ist auch klar, viele schauen auf die größte Zahl und 10.0<10.1 ;)
Viele entscheiden nach FPS, das weißt du.
FPS beim Setting 8xAA, 16xLQAF, noAAA/TAA.
Es ist vor allem den Reviewern anzulasten, wie die Kaufentscheidungen ausgefallen sind, dank völlig verzerten und überholten Testbedingungen.
Kleinigkeiten im Kleingedruckten sind da nahezu vollkommen Belanglos.
 
Zuletzt bearbeitet:
Bitte keine fehlerhaften Programme als Argument heranziehen.

Wieso nicht? Ist doch das beste Beispiel dafür, ob da jetzt ne Fehler drinnen ist oder nicht, intressiert doch letzlich keinen, wenn man sich um die bessere Performance von directx 10.1 unterhält.

16xLQAF, noAAA/TAA.

NAch dem kriterium entscheidet sicher nicht die Masse.

Inwiefern .1 bei Geforces FPS bringt ist bisher reines Rätselraten.
Selbst bei Radeons ist es nicht 100%ig eindeutig, was jetzt an Optimierungen, was am .1 liegt.
Davon auf eine völlig andere Architektur zu raten ist unrichtig.

Rätselraten? Gibt n CB Test dazu der genau directx 10.0 und directx10.1 gegenüberstellt.
 
Schaffe89 schrieb:
Wieso nicht? Ist doch das beste Beispiel dafür, ob da jetzt ne Fehler drinnen ist oder nicht, intressiert doch letzlich keinen, wenn man sich um die bessere Performance von directx 10.1 unterhält.
Interessiert sehr wohl weil dieser Fehler Auswirkungen auf die Optik hat.
Müsste KAOZNAKE sehr gut wissen, haben wir imho oft genug durchgekaut.

NAch dem kriterium entscheidet sicher nicht die Masse.
(Du hast vergessen die andere Hälfte zu quoten.)
Oh doch, den so werden Performance Rankings erstellt.

Rätselraten? Gibt n CB Test dazu der genau directx 10.0 und directx10.1 gegenüberstellt.
Les es nochmal.
CB Test mit Geforce Karte? Nö.
CB Test mit optimierten .0 Pfad vs optimierten .1 Pfad? Nö, sehr unwahrscheinlich.
AMDs Architektur = Nvidias Architektur? Nö.
 
@ Unyu:

Lass es bleiben... hat doch keinen Wert. Bei manchen Leuten hier geht es offensichtlich ganz einfach um reine Glaubensfragen und nicht um Tatsachen.

Es werden Behauptungen an den Haaren herbeigezogen und Thesen aufgestellt,
dass es einem schwindelig wird (vom Kopfschütteln).

Da brauch man nix beweisen, das ist reine Logik.
Mr. Spock wäre wohl neidisch auf dich...
 
Halt's_Maulwurf schrieb:
@ Unyu:

Lass es bleiben... hat doch keinen Wert. Bei manchen Leuten hier geht es offensichtlich ganz einfach um reine Glaubensfragen und nicht um Tatsachen.
Gut, dass du dein Problem erkannt hast, jetzt solltest du es nur noch lösen.

Halt's_Maulwurf schrieb:
Es werden Behauptungen an den Haaren herbeigezogen und Thesen aufgestellt,
dass es einem schwindelig wird (vom Kopfschütteln).
Jupp, hier ist schonmal eine...
Unyu schrieb:
CB Test mit optimierten .0 Pfad vs optimierten .1 Pfad? Nö, sehr unwahrscheinlich.
Achso, sorry hab ich ja ganz vergessen. Unyu's Behauptungen sind natürlich direkt wahr, da er ja nen NV Veteran ist. Da reicht ne Begründung wie "sehr unwahrscheinlich" vollkommen aus. Aber meine Begründung von oben, die einfach mehr als perfekt passt ist natürlich an den Haaren herbeigezogen. :rolleyes:

Wobei ich hier der Vollständigkeit halber sagen muss, dass ich dieser Behauptung von Unyu sogar zum Teil zustimme. Es kann durchaus sein, dass ATi bei DX10.1 Games den DX10 Pfad nicht optimiert. (Wobei man fragen muss, inwieweit der DX10 Pfad nicht direkt mitoptimiert wird, wenn man den DX10.1 Pfad optimiert. So viele Unterschiede gibt es ja nun auch nicht.) Trotzdem muss ich sagen, anhand der Veränderungen zu DX10 und anhand der Aussagen von AMD und Microsoft, kann man durchaus darauf schließen, dass DX10.1 im gleichen Spiel mehr Fps bringt als DX10. Stalker Clear Sky mal ausgenommen, dort wird ja "nur" die Bildquali verbessert.

Ich habe Unyus Behauptung nur aufgegriffen, um Halt's_Maulwurf mal die Augen zu öffnen und ihn klar zu machen, dass von beiden Seiten Behauptungen aufgestellt werden. Aber wahrscheinlich wird es eh nichts gebracht haben.
 
Unyu schrieb:
Bitte keine fehlerhaften Programme als Argument heranziehen.

Da ist nix fehlerhaft, zumindest, was die Grafik unter DX10.1 angeht. Wenn, beweise bitte das Gegenteil.

Unyu schrieb:
Inwiefern .1 bei Geforces FPS bringt ist bisher reines Rätselraten.

Da hast du recht, ich gehe aber davon aus, dass es was bringt, sonst könnte man es sich wirklich sparen noch zu implementieren und ne deutliche Aussage in die Richtung machen. Marketing hin oder her.

Unyu schrieb:
Selbst bei Radeons ist es nicht 100%ig eindeutig, was jetzt an Optimierungen, was am .1 liegt.

Was bei Battleforge z.B. rausspringt, kann man unmöglich einfach so reinoptimieren. Oder die bessere Bildqualität bei Stalker ohne fps-Verlust. Komisch, das es bei jedem .1 Spiel funktioniert.

Unyu schrieb:
Davon auf eine völlig andere Architektur zu raten ist unrichtig.

Da hast du wieder wahr :)

Unyu schrieb:
Wird nicht passieren.
Niemand wird dies bezahlen, Ubisoft macht soetwas nicht aus Nächtenliebe.
Es ist nicht klar, was .1 an Performance bringt. Selbst wenn ist es in sämtlichen Test nahezu egal, wie Karten wie GT 220 oder G 210 abschneiden. Hier kämpft man nicht um 3% mithilfe zig xxxxx$, wenn man sich dadurch der Gefahr auszusetzt kritisiert zu werden.

Sag niemals nie ;)
Und was soll man nicht bezahlen können? Eine Zeile Code wieder einfügen? Was es bringt, wurde schon gezeigt, klar, war auf ATI-Grakas, aber IMO funktioniert dass auf NVIDIA-Grakas genauso. Und dann geht es nicht nur um 3% (vermutlich).

Unyu schrieb:
Dies ist bereits eine harte Unterstellung.
Demnach beschuldigst du, das Nvidia sämtliche Softwarenunternehmen bezahlt hat.
Lässt sich gut entkräften, indem man sich überlegt wie teuer das ist.

Oder damit, das einige Zeit nach dem guten Verkauf der HD4 ein paar .1 Spiele erschienen sind. Scheint wohl an AMD zu liegen, das sie auf einmal etwas Geld locker hatten um zu unterstützen, man sieht es geht auch ohne Nvidia, wenn man nur will.
AMD war zwar etwas zaghaft, aber so kurz vor D3D11 auch verständlich.

NVIDIA „bezahlt“ natürlich alle die, die im TWIMTBP-Programm sind. Mit bezahlen kann natürlich alles gemeint sein, kostenloser Support, Hardware usw. Die Kosten kann man sicher dem Kapitel „Werbung“ im Quartalsreport entnehmen.
Ja, es geht auch ohne NVIDIA, aber mit NVIDIA wäre man mit Sicherheit wesentlich weiter.

Unyu schrieb:
Viele entscheiden nach FPS, das weißt du.
FPS beim Setting 8xAA, 16xLQAF, noAAA/TAA.
Es ist vor allem den Reviewern anzulasten, wie die Kaufentscheidungen ausgefallen sind, dank völlig verzerten und überholten Testbedingungen.
Kleinigkeiten im Kleingedruckten sind da nahezu vollkommen Belanglos.

Ich hab dich schon mal gefragt, ob du nen besseren Vorschlag hast, wie man die Grakas objektiv vergleichen kann, ohne den einen oder anderen Hersteller übermäßig zu benachteiligen. Dann sollte das Ganze noch mit geringem Aufwand zu machen sein und sich auch noch so darstellen lassen, das der DAU damit noch was anfangen kann, was offensichtlich jetzt schon schwer genug ist.
Vorschlag?


Unyu schrieb:
Interessiert sehr wohl weil dieser Fehler Auswirkungen auf die Optik hat.
Müsste KAOZNAKE sehr gut wissen, haben wir imho oft genug durchgekaut.

Les es nochmal.
CB Test mit Geforce Karte? Nö.
CB Test mit optimierten .0 Pfad vs optimierten .1 Pfad? Nö, sehr unwahrscheinlich.
AMDs Architektur = Nvidias Architektur? Nö.

IMO gibt’s da keine Auswirkungen auf die Optik, bis jetzt habe ich jedenfalls noch nix gegenteiliges gesehen/gelesen. Wohl habe ich aber von Leuten gelesen, die keinen Unterschied festgestellt haben. Die offizielle Begründung war 100pro nur Ablenkung, so ungefähr wie beim Krieg gegen den Irak wegen der „Atomwaffen“. :LOL (ist natürlich nur bildlich, ich halte NVIDIA natürlich nicht für Kriegstreiber :DOPPELLOL)

Zum 2.: Test mit Geforce fällt raus, logisch, da gibt’s kein .1 :rolleyes:
.0 vs .1? Gabs doch in meinem Link.

https://www.computerbase.de/2009-04...test/9/#abschnitt_direct3d_10_vs_direct3d_101

Achja, ich vergass. ATI optimiert ja .0 nicht /Ironie aus.
Naja, ausschließen kann mans nicht, genauso wie vielleicht doch noch Atombomben im Irak gefunden werden. ;)

Halt's_Maulwurf schrieb:
Mr. Spock wäre wohl neidisch auf dich...

Komm schon, stell dich doch nicht so doof an :)

Zwei Eisbuden, eine bietet Vanille, die andere nur Schoko an. 50% werden bei der einen kaufen, 50% bei der 2. Wenn jetzt die 1. Eisbude anfängt, beides anzubieten (fürs gleiche Geld), dann rate mal, wo 80% in Zukunft ihr Eis kaufen?

Ich hoffe, du hast es jetzt gerafft, ist doch nicht so schwer :)
 
DA sowieso directx11 kommt, und man Grafikkarten nicht wie Eis kaufen kann, dürfte das so kaum zutreffen können was du konstatierst.
Außerdem gibts directx10.1 nur bei NvidiaKarten, die keine dolle Performance aufweisen. Demnach dürfte sich das kaum lohnen. Eben für den OEm MArkt. Bevor ich mir noch ne directx10.1 Graka hol, warte ich doch viel lieber auf directx11.
 
KAOZNAKE schrieb:
Da ist nix fehlerhaft, zumindest, was die Grafik unter DX10.1 angeht. Wenn, beweise bitte das Gegenteil.
Stell dich nicht so an.
Fehlende Partikeleffekte beim Nutzen von Antialiasing? :rolleyes:

Die offizielle Begründung war 100pro nur Ablenkung, so ungefähr wie beim Krieg gegen den Irak wegen der „Atomwaffen“. :LOL (ist natürlich nur bildlich, ich halte NVIDIA natürlich nicht für Kriegstreiber OPPELLOL)
Unfug.
1. Die Fehler sind Fakt, kein Hirngespinst. Ich kram wegen dir jetzt nicht alte Kamelen aus. Versuchs mal mit "AC fehlerhaft"
2. Angenommen 1. würde nicht zutreffen, was es aber tut: AMD hat natürlich seelenruhig zugesehen, wie .1 aus AC entschwindet. Klar.
3. Reicht es wenn du das Thema einmal niederschreibst, spart Arbeit.

NVIDIA „bezahlt“ natürlich alle die, die im TWIMTBP-Programm sind. Mit bezahlen kann natürlich alles gemeint sein, kostenloser Support, Hardware usw. Die Kosten kann man sicher dem Kapitel „Werbung“ im Quartalsreport entnehmen.
Ja, es geht auch ohne NVIDIA, aber mit NVIDIA wäre man mit Sicherheit wesentlich weiter.
Nvidia zahlt dafür, das im Intro ihr Video abgespult wird. Es hat keinerlei Aussagen darüber hinaus.
Natürlich unterstützt Nvidia Softwarehersteller, wie viel ein beliebiger Unterstützt wird ist dir nicht bekannt. Die goldene Ausnahme bleibt Crysis, da ist es dir bekannt, wie viele Stunden Nvidia investiert hat.

Im Vergleich dazu weißt du auch nicht, wie viel AMD in die .1 Spiele investiert hat. Erstaunlicherweise ist es dir auch egal.

Im Endeffekt tust du so, als ob Nvidia unerschöpfliche Ressourcen zur Verfügung hat, um mit Geld nur um sich zu schmeissen. Im Gegensatz dazu, schwingst du nächste Mal wieder die GT200 Keule und behauptest eine 100$ GPU würde Nvidia bei 1000€ Graifkkarten weh tun, 100€ Grafikkarten werden schlicht ignoriert.

Ich hab dich schon mal gefragt, ob du nen besseren Vorschlag hast, wie man die Grakas objektiv vergleichen kann, ohne den einen oder anderen Hersteller übermäßig zu benachteiligen. [...]
Man kann es praktisch gar nicht schlechter machen als es jetzt ist.
Schwachsinnige "Q" Filterung in Verbindung mit 8xQ und noTAA.
Optisch keinesfalls vergleichbar, dennoch wird im Gegenzug 8xQ genommen. TAA ist wiederum auch nicht vergleichbar, wird auch nicht getestet.

Die Käufer werden schon fehlinformiert. Wesentliche Aspekte einer Grafikkarte werden auf dieses eine/zwei Settings zurückgeschraubt.
Da brauchen wir uns nicht wundern, wenn die BQ in Zukunft immer grottiger wird.
Innovationen wie TAA oder SSOA werden ignoriert.

Ein sehr guten Beitrag zu dem Thema findest du hier:
Die Fachpresse ist schachmatt und gleicht Boulevardmagazinen - oder doch nicht?


Achja, ich vergass. ATI optimiert ja .0 nicht /Ironie aus.
AMD hat keinen Grund den .0 Pfad zu optimieren, wenn es einen .1 Pfad gibt. Wieso sollen sie es tun? :confused_alt:

Da hast du recht, ich gehe aber davon aus, dass es was bringt, sonst könnte man es sich wirklich sparen noch zu implementieren und ne deutliche Aussage in die Richtung machen. Marketing hin oder her.
Du nimmst den falschen Ansatz.
Man implementiert nicht .1 bei den Low-End GPUs für Low-End Karten wegen der Performance.
Man macht es weil die OEMs es wollen.

Wenn dir das nicht als Beweis genügt, dann wenigstens der Umstand, wie tief Nvidia die .1 Unterstützung in den Spezifikationen vergraben hat, weit absseits der Werbefolien, wo Dinge wie PhysX oder Cuda groß und breit verkündet werden.
Dein potentieller Käufer der auf .1 guckt weiß gar nicht, das er diese Karten kaufen muss. So ein Pech aber auch.

Les dir mal durch was Schaffe89 dazu schreibt:
"Außerdem gibts directx10.1 nur bei NvidiaKarten, die keine dolle Performance aufweisen. Demnach dürfte sich das kaum lohnen. Eben für den OEm MArkt."


PS: Hör mit dem Irak und Atomwaffen auf, das ist das falsche Thema.


Lonely Shepherd schrieb:
Wobei ich hier der Vollständigkeit halber sagen muss, dass ich dieser Behauptung von Unyu sogar zum Teil zustimme. Es kann durchaus sein, dass ATi bei DX10.1 Games den DX10 Pfad nicht optimiert. (Wobei man fragen muss, inwieweit der DX10 Pfad nicht direkt mitoptimiert wird, wenn man den DX10.1 Pfad optimiert. So viele Unterschiede gibt es ja nun auch nicht.)
Zurück bleibt völlige Ratlosigkeit.
Die Artikel sind praktisch wertlos, wir wissen: .1 bringt bei AMD Karten durchaus "Performance". Wie viel ist unbekannt.

Ungeklärt bleibt, was dies mit dem Thema zu tun hat, wie AMDs Battleforge Performance aussieht.

Halt's_Maulwurf schrieb:
Lass es bleiben... hat doch keinen Wert.
Es ist nunmal ein ungeschriebenes Gesetz, das AMD immer alles Richtig macht. ;)
Da kommt man auch auf Gedanken wie viel AMD sich die Käufernahe Werbung kosten lässt.
Vielleicht ist es auch einfach der Lauf der Dinge. AMD hat die Narrenfreiheit, an vielen Ecken wird AMDs BQ sogar noch als besser dargestellt, man gucke mal ins Gamestarforum, andererseits ist alles, aber auch alles was Nvidia macht falsch.
Weder dürfen sie neue Grafikkarten bringen, noch sonst irgendwas.
 
Zurück
Oben