News Nvidia setzt auf effizienteres DirectX 11 statt Mantle

Dai6oro schrieb:
Wenn du mich meinst als R290X Besitzer darf ich dir sagen dass mir das grün sicher nicht mächtig gegen den Strich geht. Ich bezweifle nur anhand meiner Ausführungen dass gezeigten Folien die Verbesserungen aufzeigen können die Nvidia gemacht haben will.

das war nicht gezielt gegen dich geschossen ;) wenn jemand sachlich auf was eingeht hab ich da nie was dagegen, wenns dann abdriftet und auf einmal meine Signatur (veraltet) dafür herhalten muss... naja.
:P

Es hat in der Vergangenheit sicher wenig solcher Folien gegeben wo das Endergebnis diese 1:1 bestätigt haben, die Wahrheit liegt wohl meist irgendwo dazwischen, genau deswegen sind die Beschreibungen in diesen Folien auch sehr schwammig gehalten.

Ich denke es ist in einem Flaschenhals Szenario gut möglich 200% rauszukitzeln, wenn der eigene Treiberoverhead eben so massiv limitiert. Kann man das durch geschickte Änderungen eventuell reduzieren, verteilen, dann kann sich das durchaus so auswirken wie in den Folien gezeigt. Mantle machts ja ähnlich, vermutlich aber an noch mehr Stellen (Treiber + API).

PCGH schreibt das ja auch sehr sachlich

Demnach gibt Nvidia zu, dass die Konkurrenz mittels Mantle bisher deutlich performanter rechnet. Mit dem neuen Treiber werde sich das zumindest in den genannten Titeln ändern, in denen Nvidia die Draw-Calls sowie Buffers deutlich effizienter gestalten will. In der Aufschlüsselung scheint man allerdings die R9 290X unter DirectX zu vergleichen, denn ansonsten dürften die Werte mit dem Catalyst 14.2 Beta nicht so gering ausfallen. Wie genau die Leistungssteigerung erreicht wurde, ist uns aktuell ebenfalls nicht bekannt.

Bedacht werden muss hier jedoch, dass es sich um einen Hersteller-Benchmark handelt, also nicht 100 prozentig aussagekräftig ist. Zum anderen stellt Star Swarm einen dynamischen Benchmark dar, das heißt, dass die Anzahl der zu berechnenden Objekte stark variieren kann. Eine Vermutung wäre, dass Nvidia die Systeme ins GPU-Limit hat Rennen lassen, indem hohe Auflösung und eventuell zusätzliche Kantenglättungsmodi genutzt wurden. Unter Full-HD mit Supersampling erreichen wir bereits mit einer Geforce GTX 780 (non Ti) mit aktuellen Treibern rund 65 Fps, die Ergebnisse mit Mantle fallen ebenfalls höher aus.

11 % in Thief und ~60% Mehrleistung bei Swarm klingen jetzt nicht vollkommen aus der Welt wie ich finde.
 
Zuletzt bearbeitet:
Ich war kurz davor mir anstatt ner R9 ne GTX 780 zu holen. Als ich aber gesehen habe wohin der Weg geht nämlich Optimierung der CPU musste ich mit meinem FX schon fast auf die R9 gehen. Der FX ist nicht schlecht aber zu wenige Spielen nützen seine Power/Kerne.

BTT was Nvidia gemacht hat ist legitim aber eben auch Marketing. Da gibts viele AMD Folien bei denen die Balken auch länger und länger werden. Nur sollte man sich davon nicht beeindrucken lassen und das ganze kritisch hinterfragen.

Aussagen wie Täuschung, Fakevidia, zu Lasten der BQ etc. sind völlig daneben. Das hat Nvidia nicht nötig und doof sind sie auch nicht.
 
Toms schrieb:
Denen geht wohl der Arsch auf Grundeis^^

Das habe ich mir gerade auch gedacht! :D
Schon komisch das ausgerechnet jetzt überall Leistungssteigerungen kommen, nur mal schauen ob das nachher auch die Tests bestätigen :P
 
Dai6oro schrieb:
...
Aussagen wie Täuschung, Fakevidia, zu Lasten der BQ etc. sind völlig daneben. Das hat Nvidia nicht nötig und doof sind sie auch nicht.

da sind wir uns doch vollkommen einig, ich würde Stand heute auch eher zu ner 290X mit 4GB tendieren... aber das nur nebenbei. Da ich aber wenig zocke und selbst meine 6950@70 locker Thief auf Max schafft... brauch ich keine neue. Mit Wakü auch immer nen Geficke :D

Snowdrop und TextureMapping mag das ändern ;)
 
Zuletzt bearbeitet:
Lustig wie jetzt auf einmal Dank AMD so einige optimieren müssen. Warum nicht gleich so?

Ich bleib jedenfalls bei AMD und danke denen dafür, dass meine 7970er übertaktet mit einer 780 TI in BF4 problemlos konkurieren kann und das Ganze völlig umsonst! :evillol:

Von den Mondpreisen mal ganz abgesehen würde mich momentan zu einer Nvidiakarte keiner überreden können! :o
 
Und wieder wurde ich bestätigt in meiner Auffassung. Nvidia ruht sich seit ihrer glorreichen 8800GTX u.a. nur noch aus. Warten was andere machen und dann was völlig überteuertes nachschieben. Innovationen sehen anders aus.
Deshalb würde ich nie zu einer neuen Nvidia Karte greifen, denn ich unterstütze keine Innovationslosigkeit und Monopolstellungen.
Meine jetzige GTX 470 habe ich gebraucht gekauft.
Ecki
 
VAN DOOM schrieb:
Lustig wie jetzt auf einmal Dank AMD so einige optimieren müssen. Warum nicht gleich so?

Ich bleib jedenfalls bei AMD und danke denen dafür das meine 7970er übertaktet mit einer 780 TI in BF4 konkurieren kann und das Ganze völlig umsonst! :evillol:

Von den Mondpreisen mal ganz abgesehen würde mich momentan zu einer Nvidiakarte keiner überreden können! :o


Mach dir mal bitte die Mühe und schliess dabei nen Stromzähler an :D
 
Säländ Offsäfri schrieb:
Mach dir mal bitte die Mühe und schliess dabei nen Stromzähler an :D

Na dann rechne mal aus wie lange du zocken musst, bist du den Mondpreis, bzw den saftigen Aufpreis einer Nvidiakarte im Gegensatz zu einer AMD relativiert hast. Denke das würdest du nicht überleben,... ;)

Noch dazu die Kundenverarsche alla Titan,... Nö Danke,...
 
Zuletzt bearbeitet:
Ecki815 schrieb:
Und wieder wurde ich bestätigt in meiner Auffassung. Nvidia ruht sich seit ihrer glorreichen 8800GTX u.a. nur noch aus. Warten was andere machen und dann was völlig überteuertes nachschieben. Innovationen sehen anders aus.
Deshalb würde ich nie zu einer neuen Nvidia Karte greifen, denn ich unterstütze keine Innovationslosigkeit und Monopolstellungen.
Meine jetzige GTX 470 habe ich gebraucht gekauft.
Ecki

Wer die stromfressendste Generation von NVIDIA gebraucht kauft sollte mal im Bereich "Ökonomie" im Lexika nachschlagen.
Ergänzung ()

VAN DOOM schrieb:
Na dann rechne mal aus wie lange du zocken musst bist du den Mondpreis, bzw den saftigen Aufpreis einer Nvidiakarte, im Gegensatz zu einer AMD relativiert hast. Denke das würdest du nicht überleben,... ;)

Ich kann das perfekte Preisleistungsverhältnis für mich bei Bedarf errechnen. Du auch?
 
Ich denke, wenn treiberseitig noch soviel Potenzial da gewesen wäre, wie es Mantle teilweise bieten kann, dann hätte sich AMD/EA die Arbeit an Mantle sparen können, bzw. hätten garnicht damit angefangen. Bei den Treiberoptimierungen werden auch auf längere Sicht(6-12Monate) nicht mehr als ein paar Prozent raus kommen. Nvidia mußte ja mit irgendwas kontern, nachdem sogar MS auf den "Driver-Overhead"-Zug aufgesprugen ist. Da hat AMD ja was losgetreten...!! Uns kann's nur recht :D
 
Ich auch und das heißt ganz klar AMD! 1000 Euro für ne lächerliche Titan! Ju hu gesegnet sei Nvidia,...

Dann bringen wir nochmals eine Titan raus mit 6GB Speicher und Schwerpunkt Gaming. Danach legen wir doch nochmal eine TI nach mit 6 GB Speicher, damit wir die Titan noch teurer verkaufen können lol,... :rolleyes:
Ich finde Mantle jedenfalls geil und den Performanceschub zum Nulltarif merkt man sehr sehr deutlich!
 
Zuletzt bearbeitet:
VAN DOOM schrieb:
Ich auch und das heißt ganz klar AMD! 1000 Euro für ne lächerliche Titan! Ju hu gesegnet sei Nvidia,...

Dann bringen wir nochmals eine Titan raus mit 6GB Speicher und Schwerpunkt Gaming. Danach legen wir doch nochmal eine TI nach mit 6 GB Speicher, damit wir die Titan noch teurer verkaufen können lol,... :rolleyes:
Ich finde Mantle jedenfalls geil und den Performanceschub zum Nulltarif merkt man sehr sehr deutlich!

Du bestimmst aber nicht die Preise sondern der zahlungskräftige Markt, merke dir das.
Und der weiß genau was die Sache wirklich wert ist da gehts um Kohle.
 
VAN DOOM schrieb:
Na dann rechne mal aus wie lange du zocken musst, bist du den Mondpreis, bzw den saftigen Aufpreis einer Nvidiakarte im Gegensatz zu einer AMD relativiert hast. Denke das würdest du nicht überleben,... ;)
Also meine GTX670 "spart" mir im Jahr mehr als 20€, wenn ich die mal mit einer HD7950 vergleichen darf.

Ich verwende aber auch zwei Monitore :D

Letztendlich kauft sich jeder die Karte, die zu seinen Bedürfnissen passt. Aber den kleinen Seitenhieb konnte ich mir nicht sparen.
 
Zuletzt bearbeitet:
Ich finde die Grafiken immer wieder zum lachen :lol:
Marketing Geblubber at its best.
 
Natürlich bestimme ich mit indem ich mich nicht verarschen lasse und mir dann eben was aussuche was ein ordentliches PL-Verhältnis hat. Noch dazu habe ich die 7970er jetzt schon ziemlich lange und wenn ich dazu mit ner Highendkarte von Nvidia in Verbindung mit Mantle auf Augenhöhe konkurieren kann, muss ich schon ordentlich schmunzeln. :king:

Bin weder Nvidia noch AMD Anhänger doch was die Grünen treiben in letzter Zeit ist nicht mehr normal,...
 
Also die Posts trifften hier jetzte aber ganz schön ins OT ab. Bashings gehören hier nicht her. Da sollte mal gewischt werden...
 
Smagjus schrieb:
Also meine GTX670 "spart" mir im Jahr mehr als 20€, wenn ich die mal mit einer HD7950 vergleichen darf.

Ich verwende aber auch zwei Monitore :D

Letztendlich kauft sich jeder die Karte, die zu seinen Bedürfnissen passt. Aber den kleinen Seitenhieb konnte ich mir nicht sparen.

Dann kauf dir mal ne Titan und dann spar mal ein paar Jahre am Strom, ist ja schließlich die ultimative Zockermaschine :lol:. Mehr hat Nvidia auch im Moment nicht entgegenzusetzen außer dem absolut zu vernachlässigenden Stromberbrauch.

Wer kauft High-End und meckert dann am Stromverbrauch ;)

Mantle ist schon ein ordentlicher Schlag ins Gesicht für so manch anderen Hersteller. Klar das hier was getan werden muss, aber kann mir kaum vorstellen das dies so schnell geht.
Wenn ja, sieht man mal das keiner was getan hat um auch mal die Software weiter zu optimieren!
 
Zuletzt bearbeitet:
Das cb.de die Themenüberschrift immernoch nicht geändert hat ist mir ein Rätsel.

Haben sich hier ganz schön ködern lassen.
 
deathscythemk2 schrieb:
Ich finde die Grafiken immer wieder zum lachen :lol:
Marketing Geblubber at its best.

Aber echt.
Die sollen mal aufhören so großspurig zu labern, sondern erst einmal liefern. AMD Mantle ist heute am 24.03.2014 real und verfügbar, Nvidia hat heute genau gar nichts. Entweder beweisen oder den Rand halten. Danke.
 
Tolle Folie. Da fehlt der D3 Pfad von der 290x... wäre dieser da, würde die gesamte Rechnung nicht mehr stimmen.
Zudem im reinsten GPU Limit kann ich entsprechende Werte schönrechnen.

Nebelkerze, wie eingangs erwähnt, sonst nichts. Täuschung trifft es am besten.
Macht AMD mit seinen Folien genauso.
 
Zuletzt bearbeitet:
Zurück
Oben