News Video: Performance-Vorteil durch DX 10.1

Konti schrieb:
Ich habe das, was du vorhin gequotet hast lediglich als Beispiel zu der dämlichen Aussage des vorran gegangenen AMD/ATI-Fanboys geschrieben. Dies wurde im Posting auch ausdrücklich klar ...
Dann muss ich dir mitteilen, dass es das definitiv nicht wird. So wie es dasteht, hört es sich wie eine konkrete Aussage an, und nicht wie ein Beispiel. Mal abgesehen davon kaufe ich dir diese Ausrede auch nicht ab. ;)


GPU Havok gibt es übrigens. GDC verpasst? Und falls du konkret Spiele ansprichst, ist es letztendlich nur eine Frage der Zeit. GPU PhysX gibt es momentan auch nur in sehr wenigen Spielen. Und dort meistens für unerhebliche Spielereien.
Ausserdem war das gar nicht gefragt. Es ging um generelle strategische Entscheidungen, aktuell und für die Zukunft.

Du scheinst auch nicht zu verstehen, dass CUDA oder Stream SDK irrelevant sind. Wer da wo in welche Gänge kommt, spielt keine Rolle. Entwickler, die wirklich hardwareunabhängig Software schreiben wollen, werden darauf in Zukunft verzichten. Siehe 3dfx. War zwar nett gemeint. Nur blieben Nicht-3dfx-Karten aussen vor. Das Ende der Geschichte ist bekannt. Die verbreitetsten Grafik Schnittstellen sind heutzutage OpenGL und DirectX Graphics, die die Hardware mehr oder weniger sauber abstrahieren. Alles andere ist auch für GPGPU wenig wahrscheinlich.

AMD hätte PhysX auch nicht supporten können. Wann bitteschön hätte das denn geschehen sollen? Das Angebot für PhysX kam wohl ungefähr Mitte letzten Jahres. In diesem Zeitraum hatte sich AMD für Havok entschieden. Und seitdem wird man sicherlich auch daran arbeiten. Ein PhysX Support wäre also nicht nur sinnlos gewesen, sondern auch pure Zeit- und Ressourcenverschwendung. Ausserdem hätte man nVidia hinterherrennen müssen. Mit Havok hat man ganz andere Möglichkeiten und kann den Takt selbst vorgeben. Schliesslich fehlt Intel noch die entsprechende Hardware.

Die kausalen Zusammenhänge bezüglich DirectX verstehst du auch falsch. Die Spezifikationen von Microsoft und Co werden ja nicht zum Spass erarbeitet. So wie das auch bei anderen Standards der Fall ist. Und um volle Kompatibilität zu gewährleisten, muss letztendlich auch alles implemetiert werden. Ob und was letztendlich genutzt wird, spielt dabei keine Rolle. Wenn ich mit Compilern arbeiten müsste, die nur das implementieren würden, was sie für wichtig halten, käme ich in Teufels Küche. So funktioniert das einfach nicht. Und so funktioniert vor allem Standardisierung nicht.
Es geht letztendlich auch nicht darum, sofort sämtliche Spezifikationen zu unterstützen. Deshalb schrieb ich zuvor ja auch zeitnah. Aber wenn ich mich richtig erinnere, wurden die DirectX 10.1 Spezifikationen Mitte 2007 released. Es werden also bald 2 Jahre und bei nVidia hat sich immer noch nichts getan. Und das ist einfach inakzeptabel. Selbst S3 Graphics unterstützt DirectX 10.1 schon länger.

Und es gibt auch mehr als nur "was der kunde davon hat". Das lernst du aber erst kennen, wenn du nicht nur Kunde bist. ;)
 
Also im Bereich Grafik-Karten werde ich sehr wahrscheinlich immer Kunde bleiben. Von daher sehe ich das auch nur von der Kundenseite. Und als ein solcher werde ich auch weiterhin das kaufen, was zum Zeitpunkt X das Produkt mit dem besten Preis/Leistungs-Verhältnis ist. Natürlich schielt man als CB-lesender Kunde auch ein wenig in die Zukunft und behält Sachen wie DX10.1 genau im Auge. ;)

gruffi schrieb:
Mal abgesehen davon kaufe ich dir diese Ausrede auch nicht ab. ;)
Ich würde dich bitten, solche Unterstellungen in Zukunft zu vermeiden. Ich denke, der letzte Absatz meines besagten Postings ist kaum misszuverstehen.
 
@Konti
Eben nicht.
Vista ist mittlerweile sehr weit verbreitet, allein schon weil die RAM Preise so niedrig waren/sind und alle viel RAM kaufen und gleich auf Vista umsteigen.
Außerdem hat jeder Enthusiast Vista drauf, wenn er Wert auf Optik legt.

Nun ist auch noch Windows 7 da und somit ist die Verbreitung doch relativ gut ausgebaut. (die meisten nutzen mehrere OS, XP zum arbeiten und Vista/7 zum Zocken)

Spätestens Ende des Jahres werden ATI Kunden profitieren gegenüber aktuellen nvidia Karten.
Das sei aber dahin gestellt, jetzt bringt es auch schon was denn langsam erscheinen die meisten Spiele in DX10.1, denn es ist einfacher damit zu programmieren und es bringt nur Vorteile.
 
Ich finde es erschreckend, daß hier immer noch Vergleiche zwischen DX 10.1 und PhysX gezogen werden, das sind zwei VÖLLIG verschiedene Paar Schuhe.

DirectX 10.1 (D3D 10.1) ist ein Standard, der von MICROSOFT herausgegeben wird für Grafikkarten. Ich kann mich gut erinnern, daß auch ATi einst versuchte, DirectX 9.0c kleinzureden und dieses als logische Konsequenz nicht supportete. Ergebnis war, daß die X800er Generation mit DX 9.0 gegen die DX 9.0c-Konkurrenz von nVidia (GeForce 6800) abgestunken hat - völlig zurecht! Hat hier übrigens wer mitbekommen, was die Folge ist? Schon seit etwas längerer Zeit gibt es Games, die ab DX 9.0c aufwärts laufen, aber nicht mehr mit DX 9.0; die theoretisch noch immer schnellen X850 XT-PE sind also oft außenvor. Dasselbe wird mit DX 10.0 und DX 10.1 geschehen, da möchte ich wetten (man denke z.B. an Tesselation, Bestandteil von DX 10.1 und DX 11).

PhysX hingegen ist ein Standard für Physikberechnungen, der von Ageia entwickelt wurde, die nun von nVidia aufgekauft wurden. PhysX wurde mittels CUDA auf die GPU übertragen und läuft jetzt so. Das verhält sich so -wie oben schon erwähnt- wie mit 3dfx-Glide damals. Ein Hersteller entwickelt einen Standard, der in Konkurrenz mit einem größeren Standard (hier OpenCL-basierende Physikengines; HavokFX z.B.) tritt und normalerweise zwangsläufig den Kürzeren zieht. Beim 3dfx-Beispiel "gewann" Direct3D a.k.a. DirectX.

Also zurück zum "Blockieren": ATi verweigert sich des PhysX-Standards von nVidia und setzt auf HavokFX, das auf OpenCL laufen wird. Für mich hat ATi da alles richtig gemacht. nVidia verweigert sich dem von Microsoft entwickelten Standard DirectX 10.1 seit 2007. Respekt. Wer jetzt noch behauptet, das wär nicht engstirnig und letztendlich wohlmöglich kundenunfreundlich.........
 
FortissimoIV schrieb:
Schon seit etwas längerer Zeit gibt es Games, die ab DX 9.0c aufwärts laufen, aber nicht mehr mit DX 9.0; die theoretisch noch immer schnellen X850 XT-PE sind also oft außenvor. Dasselbe wird mit DX 10.0 und DX 10.1 geschehen, da möchte ich wetten (man denke z.B. an Tesselation, Bestandteil von DX 10.1 und DX 11).

Tesselation gibt es erst ab DX11, aber nicht in 10.1.
Außerdem ist der Unterschied zwischen 10.0 und 10.1 verschwindend gering verglichen mit dem Unterschied zwischen SM2 und SM3. Ich würde da bedenkenlos gegen dich wetten;).
 
@kisser
Das Ding ist ja, dass ATI bereits jetzt Tesselation in ihre GPUs integriert hat.
Es wird sich dann zeigen ob es dann nutzbar sein wird, oder nur mit DX11 Karten.
Wär natürlich ein enormer Vorteil, wenn es nutzbar sein sollte.
 
nVidia verweigert sich dem von Microsoft entwickelten Standard DirectX 10.1 seit 2007. Respekt. Wer jetzt noch behauptet, das wär nicht engstirnig und letztendlich wohlmöglich kundenunfreundlich.........
Seit G80 war und ist nV in der Leistung führend - auch ohne DX10.1. Das kommt nämlich jetzt erst in Schwung und wird wohl in wenigen Monaten bereits obsolet sein. Engstirnig ist imo daher nicht das richtige Wort. Allerdings hätte nV auch böse auf die Nase fallen können, wenn alle Devs schnell auf DX10.1 gesetzt hätten.

Bei SM3 hat nV fett PR gemacht und machen bis heute viel für PR, AMDs PR dagegen war schon immer ziemlicher Müll. Leider.
 
y33H@ schrieb:
Seit G80 war und ist nV in der Leistung führend - auch ohne DX10.1. Das kommt nämlich jetzt erst in Schwung und wird wohl in wenigen Monaten bereits obsolet sein. Engstirnig ist imo daher nicht das richtige Wort.
Doch. Ob sie bezüglich Performance führend sind oder nicht, spielt keine Rolle. Es geht hier schliesslich um Standardisierung.
 
Dann muss man auch Intel wegen 64 Bit rügen und ATi damals wegen SM3 und heute eben nV wegen SM4.1. In allen drei Fällen profitierte man aber nicht wirklich davon und wenn, dann nur bei ner Handvoll Spielen. Ich sehe das nicht so eng. Zumal ja keiner sich ne Geforce kaufen muss, wenn er meint DX10.1 würde er nicht brauchen.
 
Jo, deshalb sag ich ja:
Das sind Entscheidungen, die Firmen treffen, weil sie glauben, daß sie so am besten fahren. Was ich nicht verstehe ist, warum manche daraus immer gleich ein Drama machen müssen.

Arhey schrieb:
Nun ist auch noch Windows 7 da ...
Ach, das ist schon raus .. Mensch, da leb ich wohl mal wieder völlig hinterm Mond. :rolleyes:
 
@Konti
Naja Beta ist auch ziemlich weit verbreitet....
 
Arhey schrieb:
@kisser
Es wird sich dann zeigen ob es dann nutzbar sein wird, oder nur mit DX11 Karten.

ATIs Tesselationseinheit ist aber nicht DX11-konform und selbst wenn sie das wäre würde das nichts bringen, weil der Rest des Chips kein Dx11 kann.
Für DX11 gilt dasselbe wie für 10(.1): man muss alle Features unterstützen, sonst unterstützt der Chip den jeweiligen DX-Techlevel nicht.
 
y33H@ schrieb:
Dann muss man auch Intel wegen 64 Bit rügen und ATi damals wegen SM3 und heute eben nV wegen SM4.1. In allen drei Fällen profitierte man aber nicht wirklich davon und wenn, dann nur bei ner Handvoll Spielen. Ich sehe das nicht so eng.
Softwareentwickler aber schon, das kann ich dir versichern. ;) Gerade dann, wenn man die aktuellen Spezifikationen auch verwenden möchte. Zu den oben genannten Fällen kann ich dir nicht viel sagen. Niemand verlangt, dass mit dem Verabschieden der Spezifikationen sofort entsprechende Hardware zur Verfügung steht. Das Problem ist einfach, dass nVidia seit 2 Jahren (!) nichts tut. Und das ist mittlerweile vollkommen inakzeptabel. Wie ich oben schon schrieb, selbst das viel kleinere S3 Graphics hat es schon länger hinbekommen, die aktuellen Direct3D 10.1 Spezifikationen zu implementieren. Der G200 Chip wäre eigentlich die Gelegenheit gewesen, dieses Versäumnis nachzuholen. Fehlanzeige! Die gesamte nVidia Entwicklungsabteilung hinterlässt schon seit geraumer Zeit einen leider ziemlich maroden Eindruck.
 
Die gesamte nVidia Entwicklungsabteilung hinterlässt schon seit geraumer Zeit einen leider ziemlich maroden Eindruck.
Naja ... AMD hat seit dem R600 auch nichts tolles vollbracht - sieht man mal von D3D10.1 ab. Allerdings stimme ich dir zu, dass nV hier etwas nachlässig ist. Die werden sich wohl gedacht haben, wir überspringen D3D10.1. Der GT200 kann dafür andere Sachen, die ein RV770 nicht beherrscht - nur ist das für viele Zocker freilich uninteressant.
 
y33H@ schrieb:
Naja ... AMD hat seit dem R600 auch nichts tolles vollbracht - sieht man mal von D3D10.1 ab.
Bitte? Die RV7xx Chips sind spitze, die letzten Chipsätze richtig gelungen. Und mit der Shanghai Generation ist man auch im Prozessormarkt wieder gut vertreten und hat ein äusserst smartes Produkt, kompakter und massentauglicher als Nehalem, moderner als Penryn.

y33H@ schrieb:
Der GT200 kann dafür andere Sachen, die ein RV770 nicht beherrscht
Und die wären?
 
@ gruffi

Vollbracht im Sinne von Neuerungen. Selbst der RV790 ist an sich ja auch "nur" ein R600 mit mehr Funktionseinheiten, höherem Takt sowie D3D10.1. Technisch hat sich da nicht wirklich viel getan - so wie bei Nvidia vom G80 bis hin zum G92b.
Habe ich das mit FP64-DPs falsch im Kopf? Und noch was kann der GT200 - gescheites AF *g*
 
Ja genau, um NVidia sieht's schlecht aus. Die Entwicklungsabteilung bei denen ist total auseinander gebrochen. Deswegen können die auch schon seit Ewigkeiten nicht mehr mit ATI mithalten und kein Schwein besitzt heute noch eine NVidia-Karte. CUDA und diese Ion-Box sind einfach vom Himmel gefallen ... entwickelt wurde bei NVidia schon seit Jahren nichts mehr ... :rolleyes:

Also ich sag's nochmal:
Es ist eine wirtschaftliche Entscheidung gewsesen, DX10.1 auszulassen. Ob die das richtig eingeschätzt haben und damit am Ende gut gefahren sein werden, oder ob sie dadurch nennenswerte Verluste gemacht haben werden, wird sich zeigen.

Wenn die noch dieses Jahr oder Anfang nächsten Jahres ihre ersten DX11-Karten rausbringen, wird der Verlust wohl nicht alzu groß ausgefallen sein. Denn bislang gibt es nunmal kaum Games, die von DX10.1 profitieren.
 
Naja nvidia entwickelt nicht wirklich viel, außer GTX260/280 gab es nichts neues seit mehreren Jahren.

Ich seh es so:
ATI = gute Entwicklungen, aber keine gute PR
nvidia = gute PR, aber keine gute Entwicklungen (relativ)

Das zeigt wiedermal, dass beides wichtig ist.
Tolles Produkt allein reicht nicht aus. (man erinnere sich an die Anfänge von Windows)
Umgekehrt wird man zwar viel absetzen, aber bei Kennern wird man dadurch eben wie in diesem Fall etwas an Boden verlieren. (subjektiv)
 
Naja es mag nichts neues sein, aber damals war 48xx Serie der Knaller ;)
Und was P/L anging waren die nvidia deutlich überlegen.
 
Zurück
Oben