News Video: Performance-Vorteil durch DX 10.1

Jungs und Mädels,

eure Diskussion ist ja wieder mal mehr als peinlich - egal welche Seiten.
Euer Niveau lässt sich schon daran ablesen, wie ihr euch gegenseitig als Fanboys bezeichnet, um dann den Rest eurer Argumentation (darf man das überhaupt so nennen?) so schon mal zu disqualifizieren.

Ich schreib mal schnell meine Meinung, unabhängig davon, welche Grafikkarten ich in meinen PCs werkeln:

1. DX10.1 ist wohl für die AMD-Karten ein klarer Vorteil (zumindest wird das behauptet, man warte bitte auf einen ausführlichen Test der CB), allerdings sind noch viel zu wenig Spiele auf dem Markt, die dieses Feature überhaupt unterstützen. Es ist abzuwarten, wie viele Spiele in den kommenden Wochen auf den Markt kommen, die 10.1 als Option haben.
Bei Assassin's Creed wurde viel gemurkst beim Thema DX10.1, die Unterstützung wurde dann ja auch wieder entfernt. Aber was soll's? Es sind ja jetzt Spiele auf dem Markt, die beweisen, dass DX10.1 einen Bonus darstellen kann...

2. Dieses ewige Gestreite um DX11 ist einfach auch der Oberhammer? Wie kann man sich über etwas streiten, wo noch nicht mal genau bekannt ist, was es denn alles genau kann oder nicht. Woher könnt ihr so sicher sein, dass Physikberechnung durch DX11 Graka-Hersteller-unabhängig wird oder dass DX10.1 dort immer noch einen Vorteil bringt?
Wartet doch bitte einfach ab, bis DX11 auch wirklich ausgereift auf dem Markt ist und haltet euren erbärmlichen Stellungskrieg doch wenigstens auf Fakten beruhend ab.

3. Jetzt hat AMD durch DX10.1 wohl mal einen Stich landen können. Aber wer sagt denn bitte, dass PhysX jetzt in der Schublade verschwinden wird? Es sind jetzt in den letzten Tagen 3 Spiele mit DX10.1 auf den Markt gekommen - viel ist da beider Fülle von Spielen auf dem Markt ja nicht, oder? Also kann man als Nvidia-Besitzer ja genausogut darauf warten, dass PhysX irgendwann in nächster Zeit mal eine kleine Rolle spielen wird. Jeder Hersteller bietet so seine Schmankerl, alles eine Sache des Geschmacks.

4. Für mich ist es eigentlich egal, ob man aktuell AMD oder NVidia kauft. Beide haben ein sehr gutes P/L (HD4870 oder GTX260) und beide reichen selbst für die brandneuen Spiele in hohen Einstellungen. Was will man also mehr? Wieso kann man sich nicht einfach mal freuen an dem was man hat und die anderen in Ruhe lassen? Diese virtuellen Kriege, im Stile von "Ich hab Hersteller A in meinem PC, ich hab den längeren als der, der Hersteller B hat" sind einfach nur lächerlich - aber leider bekommt man die ewigen Quengler nicht ruhiggestellt.

MfG
püpatz

Edit: Solange keine DX10-only Spiele auf dem Markt existieren kann man eigentlich auch gar nicht beurteilen, wie gut DX10 wirklich wäre, wenn das Spiel von Anfang an an die Schnittstelle angepasst wäre. Also ist die ganze Diskussion sowieso müßig. Wartet ab, bis die ersten Hersteller sich trauen, auch mal die ganzen XP-Nostalgiker außen vor zu lassen. Wahrscheinlich wäre der Rechenaufwand nicht einmal mehr so hoch, wie der der "Mehr Schein als Sein"-Implementierung der DX10-Effekte auf DX9-basierte Spiele.
 
Zuletzt bearbeitet:
Sebl schrieb:
Nvidia wird bis Ende des Jahres voll auf DX11 setzen, anstatt sich jetzt noch mit Dx10.1 zu beschäftigen...

Voll auf DX10? Mit Glück kommt gerade mal 2 Karten ala 360/380GTX raus. Bei Mainstream/Midrange karten wirds noch bis mitte 2010 dauern!

Fiona Wildcat schrieb:
Gibt es irgendwo von irgendwem eine seriöse technische Erklärung, warum nun auf einmal aus dem Nichts heraus DX10.1 überall und raumgreifend soooooo viel schneller ist als DX10?
Irgendwas zusammenwursteln und ins Netz stellen kann ich auch. :evillol:
Die nahe Zukunft heisst übrigens DX11.

Effektivere Befehle? Implementierungen? Der selbe Grund warum der Sprung zB. von NV 7xxx auf 8xxx so groß war! Verschiedene Lichteffekte sind in DX 10.1 viel effektiver Programmiert, wenn das die Hardware unterstützt isses halt auch schneller :-)
 
@ Püpatz

Ich sag nur Stormrise als einziges reines DX10(.1)-Spiel...
 
Zuletzt bearbeitet:
Unyu schrieb:
Man achte auf die minFPS Balken.
Min-fps sind genauso Schwachsinnig wie avg. Ein einzelner Frame durch einen kurzen Ruckler, der von einem Hintergrunddienst verursacht wird und du hast 0 fps min...

Unyu schrieb:
Ich dachte eigentlich, dass mit vereinheitlichten, Programmierbaren APIs die Zeit vorbei wäre, in der man für jede einzelne Grafikkarte einen einzelnen Renderpfad schreibt :rolleyes: Carmack lässt grüßen.
 
@Kreisverkehr

kann man nur zustimmen und man merkt auch dass du, verglichen mit manch anderen Pappnasen hier, etwas von der Technik die AMD/ATI udn NV verwenden, verstanden hast.

Fakt ist: NV hat die besser auszulastende Archikektur, welche jedoch inder Leistungsdichte / mm² der von AMD um ein ganzes Stück unterlegen ist (siehe Größe R770/R790 vlg. mit G200/G200b).

Grund. 5D Shader vs 1D Shader - wie bereits erläutert.

5D Shader -> sehr gute Leistung / Fläche, schwerer auszulasten. Viele Shader in Spielen nicht voll aktiv.
AMD kann deshalb viel Optimierung durch Treiber betreiben... die Auslastung erhöhen.
siehe Furmark, Maximaler Stromverbrauch unter Furmmark ist zB total irreal da nie eine 100% Shaderauslastung in Spielen erfolgt.
Deswegen gebe ich der Aussage AMD hat die theoretisch schnelleren Karten Recht.

1D Shader -> Großer, relativ ineffizienter Shader. Leicht voll auslastbar. Wenig Treiberoptimierung möglich. Dafür skaliert die Karte mit zunehmender Shaderzahl nahezu linear. Von Anfang an schnelle Karten.
Aber: Nvidias GPU wird zu groß, effizientere Architektur wird nötig, früher oder später.


AMD fährt mit der 5D Shader Architektur gut, sie haben eine auf ihre Größe gesehen sehr gute GPU, die mit einer viel Größeren G200 GPU mithalten kann.
Auch hat AMD kein Zugzwang außer die Shaderzahl udn Ausführungeinheiten zu erhöhen. Mit zunehmender 5D Shader Zahl wird nämlichs 5D verglichen klein mit der Gesammtshaderzahl -> die GPU wird zunehmend auslastbar. HD3800 war verglichen mit 4800 Serie noch äußerst schlecht auslastbar, bekommt die HD5800er Serie 1600-2000 Shader wird sich das Auslastungsproblem nach und nach selbst beseitigen.


Persönlich sehe ich AMD als Technologieführer was die Archiketur angeht. Nvidia dagegen hat die Performancekrone, 1D Shader ermöglichen zusätzlich gute Stromsparmöglichkeiten und der Last Verbrauch fällt verglichen zur Leistung geringer aus, da die nicht ganz ausgelasteten Shader auf AMD Seite immernoch ordentlich Leistung aufnehmen.
Denkt man jedoch weiter so wird - wie ich vermute, der G300 oder spätestens der G400 auf eine ähnliche Architektur wie AMD setzen, also multiskalage Shader , seines 3D 5D oder XD ^^ Shader...


Soviel dazu.

Nun zum Thema ;):

der Dx10.1 vs 10.0 Vergleich macht insovern wenig Sinn, wenn Spiele die 10.1 unterstützen auch standardmäßig darauf zurück greifen und bei allen Reviews 10.1 also schon immer mit eingebencht wird. Natürlich wird Dx10.1 Vorteile mit sich bringen, aber deswegen muss eine AMD Karte nicht gleich schneller sein als eine NV. Jedenfalls darf man nicht denken auf alle CB Balken im HD4890 Test kann ich getrost 20% Addieren da ich Dx10.1 hab ;)

@riDDi

da muss ich Unyu aber Recht geben, seit wann sind Min Frames irrelevant? ^^

"Min-fps sind genauso Schwachsinnig wie avg." - genau, wieso bencht man überhaupt wenn alle Framezahlen schwachsinnig sind o.O
Wenn bei dir reihenweise Hintergrunddienste 0 Frames / min (eine Minute ohne Frame) würde ich an deiner Stelle überlegen ob ich beim Windows aufsetzen was falsch gemacht habe, oder mir neue Hardware zulegen xD
 
Zuletzt bearbeitet:
Noch nichteinmal DX10 hat sich bis jetzt wirklich durchgesetzt ... die Spiele die wirklich nur unter DX10 laufen und dann auch noch wirklich grafische Vorteile gegenüber DX9 haben (nicht nur ein paar "Blender" Effekte) kannste an einer Hand abzählen ... und bis Ende dieses Jahres kommt DX11 (W7 und NVidia mit iheren Grakas) also was bringts? Naja AMD muss halt mal wieder darauf hinweisen ... Ihre Karten wurden ja wieder getopt ... so ist das eben ... DX10.1 ist ne Totgeburt nur will das keiner wahr haben ...
 
Stimme Arhey vollkommen zu.

dx10.1 bringt etwas und ati kann es nutzen nvidia nicht
aber
Phys x bringt auch etwas und das kann derzeit ati nicht nutzen.

titel für dx10.1 oder phys x gibt es halt eben nur vereinzelt also sind beide technologien bis wind 7 und der entscheidung havok oder phys x eigenlich bei einem grafikkauf zu vernachlässigen in meinen Augen.
Mit der Einführung von dx11(sollte abwärtskombatibel sein zu dx10.1 und den g300 chips sollte der vorsprung von ati in der hinsicht wieder gleichgestellt sein.

Wie es mit havok nd phys x weitergeht muss man sehen wobei ati/amd mit intel einen starken partner an ihrer seite haben.

genauso ati vs nvidia
eine wirklich dominante karte gibt es hier nicht mal is ati vorne in nem game dann nvidia. und wenn man sich 4 verschiedene seiten ansieht mit benchmarks kommen auch unterschiedliche ergebnisse raus. auf 3dguru zb is die gtx 275 schon merklich vorne in den benches bei CB is es wieder eher gleich.

'Denke man kann eher sagen es is derzeit so das es eher ne glaubensfrage ist.

Mein letzte ati war eien 9800. derzeit tendiere ich aufgrund der lautstärke einfach zu nvidia und da ich noch kein vista nutze macht für mich phys x auch mehr sinn. aber das kann sich mit der nächsten generation im winter wieder ändern.Errinert mich ein wenig an die 6600/6800 serie wo sm3 ertmals integriert war und bei splinter cell sah das schon schick aus . ati war dafür mit ihrer x800 karte bei der performance vorne. Ati fanboys meinten sm 3 braucht man nicht, und nvidia fanboys hielten halt mit der sm3 impletierung dagegen. Ich perönlich hab mich zu der zeit für sm3 entschieden. Genauso war ati mal bei af qualität vorne und ati fanboys sind immer darüber hergezogen , und derzeit hat halt nvidia die gering bessere qualität ;)

Das man sich hier immer streiten muss finde ich komisch.Audi ,bmw sind ja von der qualität her auch ca gleich aber beide setzten halt auf andere dinge (front vs. heckantrieb) (audi wohl besseren allrad bmw bietet dafür denke ich mal die besseren motoren r6) und design kommt es auch auf den eigenene geschmack an und was für einen wichtiger ist.
Lcd vs plasma is ja auch so ein typischer streitfall ^^

Mfg
Acce
 
Zuletzt bearbeitet:
@riDDi
;) okay, 0fps min... sry falsch gedeutet, aber ich behaupte, dass die minimalen Frames die von der Graka liefert werden, größeren Einfluss auf die Spielbarkeit eines Titels haben, als die MiniRuckler die durch einen Dienst verursacht werden könnten ...

Minimum Frames unter den Tisch zu kehren wäre schlichtweg falsch. Generell sollten alle Benchmarks bei Grafikkarten auf diese minimum Frames ausgelegt sein. Und ein Dienst verursacht keine 0 fps. Bis auf manche Festplatten und CD/DVD Zurgiffe, die Windows schon seit jeher freezen...
 
Zuletzt bearbeitet:
Denke Nvidia hat dem Kunden keinen Gefallen getan DX 10.1 zu ignorieren.

Viele lamentieren mit "DX 11 kommt eh bald. warum sollte NV das noch mitmachen".

Nunja, ich würde behaupten das sind dann auch alle die dann eine DX11 Karte sofort kaufen wenn diese rauskommen. Was ist mit dem Rest? Tja würde sagen dumm gelaufen für die Karten ohne DX 10.1 Unterstützung.

Denn DX11 wird auf DX 10.1 aufsetzen und entsprechend um die neue Funktionen erweitert. Warum sollte denn auch MS es nicht so machen, wäre ja dumm einen optimierten Stand nicht ins neue DX einfließen zu lassen.

Heißt DX11 Spiele werden DX11, DX10.1 und DX10 unterstützen. Heist also, die alten NV karten laufen weiterhin, jedoch nur mit DX10 und nicht mit DX 10.1 weil diese es nicht können.

...und nun kann sich jeder ausmalen wer mit seiner jetzigen Karte zukünftig besser steht. NV hätte sich keinen Zacken aus der Krone raus gebrochen DX 10.1 einzuführen, spätestens mit dem G200 Chip wäre nicht zuviel verlangt gewesen.

Aber wie man hier lesen kann werden ja alle die gegen DX 10.1 sind eine DX11 Karte kaufen sobald diese raus sind, denn diese unterstützt dann ja 10.1 ;)

Ich weiß was sinnvolleres mit dem Geld anzufangen als alle 6 mon. 200-300€ auf den Kopf zu hauen, nur weil man den Kunden nicht das gibt was aktueller Stand ist.

Ahja, und für anderen "sinnvolle" Sachen wie PhysX und dem "The Way It's Meant To Be Played" hat ja NV ja anscheinend Geld in massen das man dort Millionen verschleudert, geht aber auch nur weil die Kunden alle Nasenlang eine neue karte kaufen :p
 
@Krautmaster: "fps / min" bedeutet "frames per second per minute" :rolleyes:
Du hast mir übrigens grade voll und ganz recht gegeben, denn das globale Minimum an Frames pro Sekunde sagt nichts über die Spielbarkeit aus, da es sich dabei eben um einen einzelnen Ausreißer handeln kann. Viel aussagekräftiger wäre ein gefilterter, gewichteter Durchschnitt, der auch die Varianz mit einbezieht.
 
Zuletzt bearbeitet:
Ähm, müssten die Vids nicht mit zunehmender Länge ASyncron laufen, wenn links weniger Frames ausgegeben und somit die Szene länger berechnet werden muss?

Hä - Nein!
Das sind Bilder die pro SEKUNDE an den Monitor gegeben werden, 25 davon nimmst eh nur wahr aber das ist eh uninteressant!
Da aber die dinger PRO Sekunde sind wird einfach bei 30 FPS 1 Bild länger gezeigt als bei 40FPS!

Also mit 1FPS bist du nicht in ner Slowmotion und hast erst 1 Meter gelaufen, wenn der andre PC mit 40FPS schon 30 Meter gelaufen ist (ne Spielfigur z.B.) :D


Gruß
 
@ .Snoopy.

Ich denke NV hat eingesehen dass die jetzige Architektur grundlegende Änderungen braucht, um weiterhin erfolgreich zu sein. Der G200 war genau wie G92 / G92b nicht viel mehr als ein Shrink oder eine Shadererhöhung. Sowas ist recht einfach zu realisieren. Intern wird man das Augenmerk auf eine grundlegende Änderung gelegt haben, die Aufgrund Dx11 sowieso nicht komplett umgangen hätte werden können. Und in der Zwischenzeit hat man sich mit Shrinks und Umgenamsungen über die Runden beholfen...
Schließlich ist einer der wichtigsten Eigenschaften der GPU ihre Leistung auf die Größe der Die gesehen... G200 ist einfach unwirtschaftlich, schlechte Yields, wenig GPU / Wafer... teuer...
Also spart man an Ram, PCB, Spannungversorgung und Dx10.1.

@ riddi

"Du hast mir übrigens grade voll und ganz recht gegeben, denn das globale Minimum an Frames pro Sekunde sagt nichts über die Spielbarkeit aus, da es sich dabei eben um einen einzelnen Ausreißer handeln kann. Viel aussagekräftiger wäre ein gefilterter, gewichteter Durchschnitt, der auch die Varianz mit einbezieht."

sowas versteht sich von alleine... Schlieslich ist ein FPS schon die Summe an Frames pro Sekunde, also über einen gewissen Zeitraum und nicht auf einen infinitisimal geringen Zeitraum begrenzt, also ausreichend gefiltert und angenähert. Sonst hätte pcgameshardware wohl konstant 0 Frames als Minimum Frame Angaben, aufgrund Hintergrunddiensten.

Richtig aussagekräftig wäre wohl das Integral des Frameverlaufs... jedoch wieder nicht auf die Spielbarkeit da 50 Ruckler durch eine große Spitze kompensiert werden...
Aber darüber kann man sich streiten wie man das nun möglichst gut als Zahl oder Diagramm darstellen kann. Dennoch würde ich nach jetzigem Stand der "Frameanzahlerfassung" die Min Frames den avg Frames vorziehen... ;)
 
Zuletzt bearbeitet:
myopF schrieb:
Trotzdem ist eine 100% Auslastung nicht wahrscheinlich, im 3DCenter wurde mal ein Entwickler gequotet der meinte das 70-80% schon eine gute durchschnittauslastung wären (is ausm Gedächtnis, könnte abweichen).
Furmark als rein synthethischer Test hat damit kein Problem, da wurde anscheinend richtig optimiert und er nutzt alle Shader, aber das war auch nie Ziel von DAAMITs engineers.

Das mag stimmen, mich wurmt nur, dass AMD mit einer Leistung wirbt, die sie eigentlich nie zur Verfügung stellen wollten. DAS kann es ja auch nicht sein...

@topic
DX10.1 hat sicherlich seine Performance-Vorteile. Allerdings investiert AMD nicht so viel in Spieleschmieden wie nVidia. Von daher ist die Unterstützung eben auch nicht großartig, da sich der Zusatzaufwand eigentlich nicht lohnt. Auch ohne eine (vollständige) DX10.1 Unterstützung laufen die Spiele ausreichend schnell. In Anbetracht dessen, dass die Spieleentwicklung immer teurer wird, würde ich hier ebenfalls am ehesten Einsparungen vornehmen.

Da es hier aufkam: Das Verhalten bei AC mutet schon etwas seltsam an. Nach allem was ich gehört habe, waren die produzierten Fehler durch den DX10.1 Pfad rein grafischer Natur. Sofern er also nur die Grafik verändert, aber nicht das System instabil werden lässt und einen CTD verursacht, hätte man die Erweiterung auch beibehalten können. Auf jeden Fall hätte ein ausführliches Statement der Entwickler gleich zu Beginn die Wogen deutlich geglättet. Erst dieses Versäumnis verleitet auch mich zu der Annahme, dass an den ganzen Vorwürfen doch mehr dran ist, als Publisher oder Entwickler zugeben möchten. Allerdings wäre das für mich ein (mittlerweile) normales Verhalten der beteiligten Firmen. Umgekehrt wäre AMD im Fall des Falles wohl auch nicht besser gewesen.
 
Nja ... http://www.pcgameshardware.de/aid,6...-10-Grafikkarten-im-Test/Strategiespiel/Test/ ... finde die Min FPS sagt schon etwas aus. Diese Minimum Frames sind ja kein Zufall sondern spiegeln die Leistung wieder (wenn es zu Engpässen an gewissen Stellen kommt). Man kann sich natürlich auch einreden, dass es das Antiviren Programm war oder ein Schubs gegen den PC ... der nur bei den Tests mit ATI Karten passiert ist.

Die Aussage Karten die jetzt DirectX 10.1 unterstützen laufen später in DirectX 11 schneller als 10.0 Karten halte ich für nicht glaubhaft.
 
Gott sei dank, habe ich ein HD 4870 und ein Ageia Nvidia physx: ich kann von beiden nur in 3D Modus vorteile erzielen!
In 2D Modus habe ich die HD 4870 runtergetaktet und die Ageia deaktiviert!
 
Krautmaster schrieb:
Fakt ist: NV hat die besser auszulastende Archikektur, welche jedoch inder Leistungsdichte / mm² der von AMD um ein ganzes Stück unterlegen ist (siehe Größe R770/R790 vlg. mit G200/G200b).
AMD fährt eine deutlich höhere Packdichte, unabhängig von der Architektur. Siehe HD3 -> HD4

1D Shader -> Großer, relativ ineffizienter Shader. Leicht voll auslastbar.
Bist du dir sicher, das das zweite MUL immer ohne Zutun gebraucht wird?

riDDi schrieb:
Min-fps sind genauso Schwachsinnig wie avg. Ein einzelner Frame durch einen kurzen Ruckler, der von einem Hintergrunddienst verursacht wird und du hast 0 fps min...
Stimmt, deshalb darf nicht jedes Frame mit einfliessen.

Ich dachte eigentlich, dass mit vereinheitlichten, Programmierbaren APIs die Zeit vorbei wäre, in der man für jede einzelne Grafikkarte einen einzelnen Renderpfad schreibt :rolleyes: Carmack lässt grüßen.
Ist doch schön, dann gibts auch in Zukunft genug Leute die auf die bösen Programmierer schimpfen.
 
bensen schrieb:
[...] AFAIK ist der GT200 nicht weit weg um den D3D10.1 Stempel aufgedrückt zu bekommen. Vielleicht weiss da wer näheres.

Soweit ich weiß sind alle GeForce Karten ab dem G80 mit dem selben Featureset ausgestattet.
Und dieses beinhaltet weitaus mehr als "nur" DX10. Es wurden schon damals Befehle eingepflegt, die DX10 gar nicht "benötigte" und erst mit DX10.1 Standard werden sollten. Das Problem an der Sache ist wohl, dass diese Befehle/Features nicht so einfach zu handhaben sind, wie es DX10.1 eigentlich vorschreibt und dass eben nicht alles aus der DX10.1 API hinzugefügt wurde.

Theoretisch sind also GeForce 8 (und jünger) in der Lage einen Teil der (speziellen) DX10.1 Features zu verarbeiten/anzuwenden,
nur stellt das wohl einen erhöhten Programmieraufwand dar.

Ich persönlich habe das aber auch nur vor einigen Monaten mal durch Zufall im Internet gelesen und somit leider keine Quelle parat und weiß auch nicht ob das ganz der Wahrheit entspricht.
 
@jed_ka: Hättest dir das Geld für die Ageia gespart und eine bessere Grafikkarte geholt, hättest du deutlich mehr fps.

@Topic: Auf welche Auflösung haben die denn HAWX gespielt? Also bei 1280x1024 hab ich ja noch über 120fps. da müssen sie ordentlich dran gedreht haben. Oder ist das wieder wie bei Crysis wo plötzlich die Performance in der Vollversion viel schlechter ist?
 
Zuletzt bearbeitet:
Zurück
Oben