News Video: Performance-Vorteil durch DX 10.1

Kreisverkehr schrieb:
Ja, darum wurden die KArten ja auch ausgebremst.
Die Frage nach dem Sinn stellt sich da schon und hoffe, AMD kann das beantworten...

Das die Karten von Spielen nicht 100% ausgelastet werden liegt an den Vec5 Shadern, man müsste (vereinfacht gesagt) alle Operationen im Shadercode mit 5 Variablen ausführen um eine gute Auslastung zu erhalten, aber das ist nicht überall möglich. Der Treiber wird zwar versuchen zb durch Shadercode Replacement da etwas zu drehen aber alles kann man auch net anpassen.
Siehe dazu auch den programming guide, wenn der Entwickler sich an sowas hält muss das Treiberteam net selber murksen und geht natürlich viel einfacher.
Trotzdem ist eine 100% Auslastung nicht wahrscheinlich, im 3DCenter wurde mal ein Entwickler gequotet der meinte das 70-80% schon eine gute durchschnittauslastung wären (is ausm Gedächtnis, könnte abweichen).
Furmark als rein synthethischer Test hat damit kein Problem, da wurde anscheinend richtig optimiert und er nutzt alle Shader, aber das war auch nie Ziel von DAAMITs engineers.

Whoozy schrieb:
@ Samsonight : Nicht wirklich Nvidia hat Amd/Ati angeboten auch PhysiX nutzen zu dürfen. Da aber Amd/Ati schon mit Intel und Havok zusammen wat auf die Beine Stellen haben sie abgelehnt .

Was bestimmt mit Lizenzgebühren verbunden gewesen wäre, und da man wahrscheinlich schon länger, wenn auch nur auf Sparflamme, selber an sowas arbeitet wundert mich das eigentlich nicht.
 
Zuletzt bearbeitet:
Directx 10.1 ist einfach sinnlos und schrott und das hat nvidia erkannt. Ganz einfach.
Es bringt nur einen minimalen kaum spürbaren vorteil, dafür würde man aber nur einen kleinen markt abdecken, da die alten karten aber noch aktuellen dies eben nicht unterstützen.
Der mehraufwand für so ein minimales feature ist einfach gerechtfertigt. Wäre es ein größerer schritt würde es schon mehr sinn ergeben.
 
So ist es richtig ATI! Jetzt steht, das bis dahin als nutzloses Features gekennzeichnete, DX 10.1 als Kaufgrund bei den aufzählungen.

Und in Zukunft haben wir nicht nur sinnlose Threads wie: "Wechseln wegen PhysX?" sondern auch " Wechseln wegen DX 10.1?"

Genau solche Videos haben PhysX ja auch so wichtig gemacht ;) Die Werbung machts ganz einfach!
 
au ja jetzt wirds zur Troll-Oase GrinderFX hat auch noch gefehlt hier, den Name hatte ich noch vage in Erinnerung. Evtl. Unyu's 2nd Account?

PS: 20% Geschwindigkeitsvorteil halte ich schon für eine sinnvolle Erweiterung, ich freu mich auf zukünftige DX11-Titel die dann evtl. auf meiner HD3870 noch relativ flüssig(, wenn auch in niedrigen Qualitätseinstellungen) laufen im Vergleich zu ner 8800 GT.



Viel Spaß noch beim Trollen das tu ich mir nicht länger an ;-)
 
Unyu schrieb:
AC als existierendes D3D10.1 Spiel, mit nur positiven Eigenschaften zu nennen ist absurd.


Richtig.
Ich finde es auch erschreckend, wie kurzlebig das Gedächtnis einiger ist. Jeder weiß doch, daß 10.1 bei AC fehlerhaft war und bei AA die Partikeleffekte größtenteils nicht dargestellt wurden, was die einzige Ursache für die höheren fps war und daß deshalb der 10.1 Support wieder gestrichen wurde.
 
myopF schrieb:
Das die Karten von spielen nicht 100% ausgelastet werden liegt an den Vec5 Shadern, man müsste (vereinfacht gesagt) alle Operationen im Shadercode mit 5 Variablen ausführen für eine gute Auslastung zu erhalten, aber das ist nicht überall möglich [...]
Furmark als rein synthethischer Test hat damit kein Problem, [...] und er nutzt alle Shader, aber das war auch nie Ziel von DAAMITs engineers.

Das mit Vec5 ggü. Vec1 ist mir bewusst, aber wenn AMD bei Stream die volle Leistung erreichen will um bei GPGPU-Aufgaben ganz vorne dabei zu sein (gabs da mal nicht ein Programm, dass eine X2 optimal nutzt zum knacken?) sollten die Alus maximal ausgelastet werden. Und sowenig Furmark ein guter Indikator für die Auslastung bei Spielen ist (geht nicht Bioshock sogar fast an den Furmark heran, jedenfalls mit mehr Auslastung als andere Spiele?) ist ein Spiel ein guter Indikator für die Auslastung bei GPGPU...

Aber nochmals meine Frage: Wenn man mit 1,3 TFlops wirbt, aber bei Anwendungen die die Vec5-ALUs nutzen, die Hardware ausbremst: Was soll das? Wieso wirbt man dann mit der theoretischen Leistungsfähigkeit?
 
Seb89 schrieb:
...Warum sollte ich einen Bug entfernen der sich nicht bemerkbar macht?! bzw. durch die Entfernung mehr Schaden entsteht als vorher sichtbar ist?!...

nVidia hat bestochen und ATi lässt das einfach so auf sich sitzen? Kein Aufschrei, dass dies bei Assassins Creed quasi unlauterer Wettbewerb wäre? Wieviel hat denn ATi von nVidia bekommen, damit sie ihre Klappe halten?
 
@grinderFX
Klar es mag vielleicht wenig bringen, aber warum soll es deswegen sinnlos und Schrott sein? In meinen Augen ist jeder minimale Fortschritt ein Gewinn.
Man könnte das vielleicht auch wieder sachlich diskutieren.

Warum Nvidia das nicht implementiert ist wohl nicht so leicht zu ergründen. Entweder sahen sie den technologischen Sprung und die zeitliche Spanne zu DX11 als zu klein, so dass in ihren Augen kaum ein Entwickler drauf setzt. Oder man wollte ATI mit diesem Feature schön im Regen stehen lassen.

Aber dass es ein großer Mehraufwand wäre halte ich nicht für glaubwürdig. AFAIK ist der GT200 nicht weit weg um den D3D10.1 Stempel aufgedrückt zu bekommen. Vielleicht weiss da wer näheres.
 
franzbux schrieb:
Ähm, müssten die Vids nicht mit zunehmender Länge ASyncron laufen, wenn links weniger Frames ausgegeben und somit die Szene länger berechnet werden muss?

nö,die erklärung kam wahrscheinlcih schon oft genug^^

JueZ schrieb:
Als würde Nvidia es nicht schaffen einen 10.1 GPU zu bauen, denke sie haben die Entwicklungsstufe einfach übersprungen. Keiner sieht ein sich wegen 10.1 eine neue Grafikkarte zu kaufen, und erst jetzt ein 3/4 Jahr vor DirectX 11 kommen die ersten Spiele die etwas von 10.1 profitieren.

Schneller als mit einer Nvidia Karte ist man mit ATIs 10.1 Unterstützung auch nicht ...

was bringt dx11 aktuellen Graka besitzern, stimmt..nix. somit gilt das DX10.1 argument. Und soweit ich weiß,war in AC zum beispiel eine 4870 seinerzeit mit AA schneller als eine GTX280. Verallgemeinern kannst du es nicht,dass Nvidia karten schneller sind. Fakt ist,dass Radeons mit DX10.1 schneller sind als ohne, somit ist es ein featuere. und ab und zu ist es grad mit schönerem AA das stück,was die GTX vorne ist.

archiv schrieb:
ATI hat schnellere Karten als NVidia

Hä? Da sagen alle Tests aber was anderes. Nvidia ist ja wohl eindeutig schneller...kostet dafür aber auch nen bissle mehr.

DX10.1 ist schwachsinn...die meisten setzen nicht mal auf DX10.

Nvidia machts genau richtig und wartet auf DX11 & Windows 7. :daumen:

ich sag mal PhysX ist schwachsinn^^
Welcher aktuelle Blockbuster setzt nicht auf DX10? welcher zukünftige wirds nicht? und ich glaube die aussage "ati hat schnellere Karten als nvidia" bezog sich auf die Shaderleistung. AMD setzt da auf masse statt klasse und verbaut 800SU´s, welche augrunf der 5D thematik nicht alle angesteuert werden können,und es nach dem prinzip so viel wie möglich gemacht wird. Dort ist mit Treibern optimierungsbedarf.
Nvidia machts mit qualitativen skalaren SU´s, die alle angesprochen werden,und somit eine volle "Shaderauslastung" gewähren. Allerdings ist dafür nicht so ein großer optimierungsspielraum wie bei den AMD´s gegeben.
Genau deswegen ist auch Furmark als synthetischer Test schwachsinnig..genauso wie 3Dmark06 als Leistungsvergleich.

Unyu schrieb:
Blödsinn.
Ich nehme nicht an das du Beweise zur Hand hast?

[grueni] schrieb:
Vorallem könnte man das Problem angehen und bekämpfen indem man weitere Spawas verbaut, also noch eine oder zwei weitere Phasen um die Belastung zu reduzieren. So könnte man dann noch mehr Power aus den TMUs ziehen...

das wurde bei der 4890 gemacht,nur leider will der Kunde nicht für diese 100% nötige Qualität zahlen..lieber spulenfiepen und karten an der leistungsgrenze als paar euros mehr. Da kannste den Firmen nix vorwerfen.

SamSoNight schrieb:
nVidia "verbietet" ATi PhysX zu impletieren. PhysX gehört nVdia. Direct X 10.1 ist aber von Microsoft und steht somit jedem GPU Hersteller zur Verfügung ;)

Nvidia hatts AMD angeboten..allerdings sind da wohl einige Gebühren für notwendig^^

Unyu schrieb:
AC als existierendes D3D10.1 Spiel, mit nur positiven Eigenschaften zu nennen ist absurd.

zeig mir mal den sichtbaren bug^^

GrinderFX schrieb:
Directx 10.1 ist einfach sinnlos und schrott und das hat nvidia erkannt. Ganz einfach.
Es bringt nur einen minimalen kaum spürbaren vorteil, dafür würde man aber nur einen kleinen markt abdecken, da die alten karten aber noch aktuellen dies eben nicht unterstützen.
Der mehraufwand für so ein minimales feature ist einfach gerechtfertigt. Wäre es ein größerer schritt würde es schon mehr sinn ergeben.

wie groß ist denn der PhysX markt..ich sag mal PhysX ist schrott und AMD kann froh sein nicht darauf zu setzen...merkste was?


Ich sag mal,warten wir bis Starcraft 2 oder Diablo 3 raus kommt...evt haben dann AMD besitzer das letzte Wort.


gruß
 
Whoozy schrieb:
@ Samsonight : Nicht wirklich Nvidia hat Amd/Ati angeboten auch PhysiX nutzen zu dürfen. Da aber Amd/Ati schon mit Intel und Havok zusammen wat auf die Beine Stellen haben sie abgelehnt .
Das war afaik nicht mehr als ein Gerücht.
 
@GrinderFX
Wieso denn kleinen Markt?
In den letztem 2 Monaten kamen mindesten 50% aller Spiele mit DX10.1 Support.

Vorteil ist nunmal Vorteil und Vorteile waren noch nie negativ O.o
Genauso könnte man sagen, dass PhysX nur kleinen Markt abdeckt (noch kleiner als DX10.1)

Diesen Fanboy Krieg halte ich für lächerlich.

DX10.1 bringt Vorteile PUNKT.
nvidia nutzt diese Vorteile nicht PUNKT.
Dafür hat nvidia andere Vorteile PUNKT.

Mehr braucht man zu diesem Thema nicht sagen!

@aspro
Es wurde mit HD38xx umgesetzt.
Danach wurde es eingestellt ohne Angabe von Gründen.
Wird sich spätetestens mit der Erscheinung von OpenCL ändern.
nvidia hat sich dazu recht deutlich geäußert, denn man will nicht so einen Vorteil Havok überlassen. (OpenCL basierend und dadurch auf allen Karten lauffähig)
 
Zuletzt bearbeitet:
Schinzie schrieb:
zeig mir mal den sichtbaren bug^^
Nö. Das haben wir oft genug durchgekaut.

Seb89 schrieb:
Evtl. Unyu's 2nd Account?
Wenn du neben einer endlosen Beleidigungskette auch etwas sinnvolles schreiben würdest, so könnte man eine Diskussion führen.
Wikipedia bietet eine kurze Erklärung zu diesem Fremdwort: http://de.wikipedia.org/wiki/Diskussion

natürlich weis das jeder, hast du etwa daran gezweifelt?
Warum streubst du dich gegen etwas, was dir bekannt ist? Weil ich es geschrieben habe?
 
Leute die einzigen Verlierer sind wir. Nämlich die besitzer einer Grafikkarte.

Wenn jeder Hersteller seinen eigenen Weg geht siehe NV mit Physx und ATi mit DirectX.


So hat niemand ein komplettes Produkt womit er alles ausreizen kann.

Finde diese Entwicklung langsam echt traurig, kein Wunder das viele auf Konsole umsteigen!
 
ja, genau das selbe mit Havok und PhysX..leider schaut niemand auf die Kunden. Alle achten nur auf ihr eigenes Produkt und wie sie es von den andern abheben können.. wie gerne hätte ich ne Radeon mit PhysX und AF, bzw eine Geforce mit DX10.1 und Edge Detect^^.


gruß
 
@ Schinzie

Du beschreibst grad nen Traum von mir^^
Wobei ich bei der Radeon mit DX11 und OpenCL relativ optimistisch bin, was AMD und GPU-Physik angeht. Dann fehlt eigentlich nur noch ausreichend TMUs für AF... bzw. wenigstens die Option auf Wunsch besseres AF einzustellen und die Optimierungen zu deaktivieren.
Wobei, der Zwang mit A.I und Crossfire ist auch mies, genauso wie eine Option aus dem Nvidiatreiber definitiv übernommen gehört.
 
Zuletzt bearbeitet:
und die entsprechenenden einstellungsmöglichkeiten im treiber, sowie ein frei einstellbares AAA.
 
@Arhey
Es können auch gerne alle spiele das unterstützen aber es ändert trotzdem nichts daran, dass es keinen ersichtlichen vorteil bringt. Der ist sowas von minimal, dass es auch ruhig weggelassen werden kann. Es gibt ja welche, du bist auch einer davon, die auf diesen hype reinfallen.

@Schinzie
Bei physics sieht man aber einen deutlichen effekt und sinn ergibt es auch also ist es NICHT mit directx 10.1 zu vergleichen.
 
Whoozy schrieb:
@ Samsonight : Nicht wirklich Nvidia hat Amd/Ati angeboten auch PhysiX nutzen zu dürfen. Da aber Amd/Ati schon mit Intel und Havok zusammen wat auf die Beine Stellen haben sie abgelehnt .

Das stimmt nicht, das war nur ein Gerücht. Dieses Angebot hat es nicht gegeben.
 
@ Schinzie

Ach stimmt, bei AAA wird ja vom Treiber bestimmt, welches AA jetzt verwendet wird. Mal SSAA, mal MSAA.
Ich will auf Wunsch endlich Bildquali bekommen, auch wenns verdammt teuer wird.

Auch wenn 24xED-CFAA wirklich traumhaft ist, es besteht immer noch Verbesserungsbedarf und die Hauptbaustelle ist halt das AF und somit A.I.

@ GrinderFX

Hast du eigetnlich den Sinn hinter DX10.1 verstanden? Mehr fps bei gleicher Bildquali oder bei gleichen fps mehr Qualität. Finde ich schon sehr sinnvoll, dahingegen halte ich PhysX für recht blöd. Hier brauchts halt einfach einen einheitlichen Standard, der mit OpenCL und DX11 hfftl auf allen Karten läuft, sonst reagieren die Spielhersteller nur sehr zaghaft darauf.

Hat nicht AMD mit DX10.1 schon die Tesselation etc. eingeführt, die eigentlich nur für DX11 gebraucht wird?
 
Zuletzt bearbeitet:
ich sehe in DX10.1 auch einen eindeutigen Effekt und Sinn. Vor allem kann man damit das uneffiziente DX10 flexibler gestalten, Schatten und AA besser darstellen, ohne horrenden Rechenaufwand.. Scheitern tut es am ende, genau wie bei PhysX, mangels Unterstützung an der Implementierung.

gruß
 
Zurück
Oben