News Video: Performance-Vorteil durch DX 10.1

crustenscharbap schrieb:
Aber die Treiber nutzen bloß 70% der maximalen Leistung. Die Nvidia Treiber nutzen ihre Karten voll aus.
Blödsinn.
Ich nehme nicht an das du Beweise zur Hand hast?
 
crustenscharbap schrieb:
Eigentlich ist das klar. ATI hat schnellere Karten als NVidia. Aber die Treiber nutzen bloß 70% der maximalen Leistung. Die Nvidia Treiber nutzen ihre Karten voll aus. Dadurch ist ATI doch nicht im Vorteil. Ich vermute, dass DX 10.1 die Karte mehr auslastet. Ich Vermute z.B. die 8800GT mit DX 10.1 würde nicht schneller sein.

Ein Link bzw. eine Quelle deiner mehr als abenteuerlichen Theorie wäre sehr angebracht.
Das klingt nämlich nach echtem "Bullshit".

@Schaffe89
In naher Zukunft wird es sicherlich mehr DX11 Spiele geben als PhysX Spiele,
aber mehr DX10.1 Spiele? Ich denke das ist unwahrscheinlich.

Ein CB Test wäre klasse, um die Gemüter zu beruhigen die sich zu gerne an Marketing-Videos
hochziehen als wäre der Kampf auf dem Grafikkartenmarkt damit vorbei.
 
crustenscharbap schrieb:
...ATI hat schnellere Karten als NVidia. Aber die Treiber nutzen bloß 70% der maximalen Leistung. Die Nvidia Treiber nutzen ihre Karten voll aus. ...

genau und ein Golf nutz nur 50% seiner Motorkraft und ein Porsche 100%
nur darum ist der Golf langsamer :freak::rolleyes:

gruß
 
Okay, AMD hat gezeigt, dass DX10.1 schneller als DX10 ist. Die Frage ist, wie schnell ist eine vergleichbare Karte von Nvidia in DX10? Gut, dass Computerbase das herausfinden will. Denn viel schlauer ist man jetzt auch nicht, wenn man sich für eine Grafikkarte entscheiden muss...
 
Wenn sich die Zahlen so bewahrheiten wärs doch ne super Sache -> bis zu 25%(!!) Mehrleistung durch DX 10.1 ist doch super. Meiner Meinung nach ist DX10.1 super Feature, weils als Folge hat, das auch günstigere Grafikkarten viel Leistung zeigen können und teurere Grafikkarten ohne DX10.1 ausstechen können. Man muss nur abwarten, ob nicht vielleicht noch 2-3 Spiele mit 10.1 auf den Markt kommen und somit diesen Vorteil noch bedeutender macht.
 
crustenscharbap schrieb:
Eigentlich ist das klar. ATI hat schnellere Karten als NVidia. Aber die Treiber nutzen bloß 70% der maximalen Leistung. Die Nvidia Treiber nutzen ihre Karten voll aus. Dadurch ist ATI doch nicht im Vorteil

Du beziehst dich sicherlich auf die reinen GFlops einer Karte? Ja, da ist die Radeon in der Theorie bedeutend besser.
Aber wie heißt es so schön? Grau ist alle Theorie.

@ Unyu

Die "Beweise" kann man unter anderen über den Stromverbrauch herleiten: Man nehme z.b. ein Spiel, wo die HD4870 1GB und eine GTX 260 216 ungefähr auf gleichem Niveau liegen.

Dann vergleicht man den Stromverbrauch der HD4870 1GB in dem besagten Spiel mit dem Verbrauch derselben im Furmark (umbenannte .exe)...

=> Die HD nutzt nicht die gesamte Shaderleistung, ist daher nicht unbedingt schneller als die 260er Geforce. Lustigerweise brauchts aber für die Grafikleistung a bisl mehr als nur die Shader und z.b. bei den TMUs liegt die Geforce viel weiter vorne, bietet AF auf Wunsch (das A.I. ist mehr ein schlechter Witz und noch nicht mal deaktivierbar)

Zum Thema:

Tja, schönes Video, kannte ich nur schon seit längerem. Trotzdem warte ich lieber auf einen wirkliches Test als diesem Marketinggeblubber zu trauen, auch wenn in der Theorie Vorteile von DX10.1 zu DX10.0 existieren...
 
Unyu schrieb:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7199380&postcount=69
Hoppla...
D3D10.1 Fans dürfen trotzdem jubeln, immerhin gibts über ein ~15 Monate nach D3D10.1 Einführung endlich ein D3D10.1 Titel, der vielleicht mehr bringt als die D3D10 Erweiterungen, die bisher genutzt wurden.

Fünfzehn Monate schon? Wow! Also ich zähle zwölfeinhalb. Und das erste D3D10.1-Spiel kam nur wenige Wochen nach dem SP1: Assassin’s Creed.
Assassin's Creed - First DX10.1 Title?
 
Sebl schrieb:
Nvidia wird bis Ende des Jahres voll auf DX11 setzen, anstatt sich jetzt noch mit Dx10.1 zu beschäftigen...

Und was bringt das den Besitzern von aktuellen Nvidia Karten?
 
Kreisverkehr schrieb:
Dann vergleicht man den Stromverbrauch der HD4870 1GB in dem besagten Spiel mit dem Verbrauch derselben im Furmark (umbenannte .exe)...

da kann man ja nur froh sein, weil sonst würden die dinger ja wahrscheinlich abbrennen
wenn man sieht wie warm die Spawas bei Furmark werden
 
Ja, darum wurden die KArten ja auch ausgebremst.
Die Frage nach dem Sinn stellt sich da schon und hoffe, AMD kann das beantworten...

Wobei ich dachte, im Referenzdesign werden die noch irgendwie ausreichend gekühlt, aber die frühen PCS+ seien dabei abgeraucht?

e:/ Aber mittlerweile soll doch die Lüfterdrehzahl bei den 4870ern an die SpaWa-Temperatur gekoppelt werden, wird also nur schei0e laut bei voller Auslastung..
 
Zuletzt bearbeitet:
Vorallem könnte man das Problem angehen und bekämpfen indem man weitere Spawas verbaut, also noch eine oder zwei weitere Phasen um die Belastung zu reduzieren. So könnte man dann noch mehr Power aus den TMUs ziehen...
 
moethemaster schrieb:
Also ich kann den performancevorteil nur bestätigen. Nividia kann man jedoch nichts vorwerfen. Das ist genau das gleich wie mit Physx und AMD. Die versuchen sich gegenseitig auszustechen in dem sie die einführung von neuen standarts verhindern.

nVidia "verbietet" ATi PhysX zu impletieren. PhysX gehört nVdia. Direct X 10.1 ist aber von Microsoft und steht somit jedem GPU Hersteller zur Verfügung ;)
 
@ [grueni]

Das wurde bei der 4890 getan, vier statt drei Phasen und ein neuer Herstellern, zudem wurde die Kühlplatte nun geriffelt um eine größere Oberfläche zu erreichen.
=> Kostet Geld und die 4870 1GB ist halt billiger, genau wie die GTX 260 ...

Demzufolge kostet die 4890 mehr Aufpreis als es die Taktsteigerung vermuten lässt, nur ändert das leider nix an den TMUs...
 
ATI hat eine teils deutlich höhere Rechenleistung, als Nvidia. Diese haben dafür eine erhöhte Texturleistung, sowie "bessere" Speicherbandbreite. Zwar sind die GB/s gleich, aber Nvidia verwendet einen breiteren Speicherbus und dafür GDDR3-Speicher, der im Vergleich zu GDDR5 (deutlich) bessere Latenzen aufweißen kann.
@Unyu: Und mittlerweilen gibt es wie genannt, schon drei DX10.1 Games, die WIRKLICH davon profitieren: Stormrise, HAWX und Battleforge und einige andere Titel, die eher geringfügig, aber immernoch ein bisschen davon profitieren, wie Assassins Creed, FC2, oder STALKER CS
 
Zuletzt bearbeitet:
rofl, unyu du machst dich immer lächerlicher.

auf PCGH gabs mal n schönen Vergleich:
- viel besseres AA
Nachteile konnten die bei ihrem Test keine finden.

Warum sollte ich einen Bug entfernen der sich nicht bemerkbar macht?! bzw. durch die Entfernung mehr Schaden entsteht als vorher sichtbar ist?!

Ja und jetzt überleg dir irgend n fanboy-geblabber, viel Spaß dabei.
 
Zurück
Oben