News Nvidia enthüllt GeForce GTX Titan X mit 12 GByte VRAM

Stehe ich nicht schon lange auf deiner Ignor liste _Cloud_ wieso liest du dann noch meine Beiträge?

_Cloud_ schrieb:
Zitat
Da AMD insbesondere darüber geklagt hatte, frühe Spiele-Reviews würden die Radeon-Nachteile durch geblockten Game-Code-Zugriff offenlegen, war es interessant, dass auch nach inzwischen einem Monat seit dem Watch-Dogs-Launch die just veröffentlichten Beta-Catalyst-Treiber lediglich "Frame-Pacing Improvement" in dieser Hinsicht zu bieten haben. Eine diesbezügliche Anfrage bei AMD läuft noch - eine erste Antwort war der Hinweis, dass es üblicherweise so ablaufe, nicht notwendigerweise in diesem Falle, aber in der Vergangenheit schon. Man will uns noch mit weiteren Informaitonen versorgen.

/zitat

soviel dazu xD

Immer schön das ganze lesen und zitieren:
Pcgh schrieb:
Bei einem der fraglichen Spiele und augenscheinlich um den Auslöser der Kontroverse handelt es sich um Ubisofts Watch Dogs, da das Thema ausgerechnet zu dessen Veröffentlichung und den allfälligen Launch-Tests (wie dem von PCGH) wieder hochgekocht wurde, nachdem Gameworks bereits im November 2013 angekündigt und gegen Jahresende in Zusammenhang mit Batman Arkham Origins und dessen massive Integration von Nvidia-Technik bereits kontrovers diskutiert worden war. Dass Watch Dogs aber wohl lediglich HBAO+ als Teil von Gameworks auch auf AMD-Karten nutze und dies noch optional, ist wohl nur ein Detail am Rande.

Da AMD insbesondere darüber geklagt hatte, frühe Spiele-Reviews würden die Radeon-Nachteile durch geblockten Game-Code-Zugriff offenlegen, war es interessant, dass auch nach inzwischen einem Monat seit dem Watch-Dogs-Launch die just veröffentlichten Beta-Catalyst-Treiber lediglich "Frame-Pacing Improvement" in dieser Hinsicht zu bieten haben. Eine diesbezügliche Anfrage bei AMD läuft noch - eine erste Antwort war der Hinweis, dass es üblicherweise so ablaufe, nicht notwendigerweise in diesem Falle, aber in der Vergangenheit schon. Man will uns noch mit weiteren Informaitonen versorgen.

AMD führt für einen solchen Fall an - man ist bezüglich der Formulierung sehr vorsichtig -, dass Gameworks das Potenzial böte, unlautere Methoden zu verwenden. Die offensichtliche Version, Effekt X läuft auf Hardware Y wesentlich schneller als auf Hardware Z, würde doch schon beim Entwickler auffallen, werfen wir ein, und der will sich ja nicht einen großen Teil seiner Zielgruppe vergrätzen. Die AMD-Vertreter bieten eine alternative Vorgehensweise an: Sogenannter Benchmark-Code wird ausgeliefert. Dabei handelt es sich um sehr wenig optimierte Shader-Routinen, die auf jeder Hardware "nur akzeptabel", aber nicht auffällig unterschiedlich liefen.

Über ein von AMD als Black-Box betiteltes System wie Gameworks ließe sich, genug bösen Willen vorausgesetzt, nun direkt zum Launch eines Spiels im Treiber die nötigen Anpassungen vornehmen], der unoptimierte Shader durch einen leistungsfähigeren ersetzen und so ein entscheidender Performance-Vorteil erzielen. Verschwörungstheoretiker werden dank dieser Methode frohlocken, lässt sie sich doch kaum nachweisen und wenn, dann mit allfälligen Verbesserungen im Code durch aktuelle Entwicklungen erklären.
Quelle:http://www.pcgameshardware.de/Nvidi...98/Specials/Nvidia-Gameworks-Special-1126441/

Schon auffällig das Nvidia zu jedem neuen Spiel neu Treiber raus haut nicht wahr?
 
Zuletzt bearbeitet:
Was soll das heißen? Klar kann NVidia seine Treiber zu jedem neuen Spiel optimieren.
Braucht man wirklich nur einen 6- und einen 8-PIN für die Titan X? Das wären ja wirklich nur 300 W (75 W PCIe, 75 W 6-PIN und nochmla 150 W für den 8-PIN).
 
ja das zeigt das nvidia sich darum kümmert!

was amd ja nur rum posaunt und dann ewig nicht nachliefert ich sag nur watchdogs die probleme der 6990 und 7990 kunden wurden monate lang nicht behoben.

nvidia hat nach ein paar tagen treiber released die richtig was gebracht haben das spiel wurde von etwas zäh zu es läuft sau geil bei 1440p gebracht.

ist halt der unterschied nur weil man mit seiner firma nicht zufrieden ist muss man nicht andre schlecht machen!
nvidia ist leider aber auch nicht immer so schnell giebt auch genug games wo sie genauso wie amd ewig geschlafen haben! was ich nicht gut finde!

hat aber nix mit der titan X zu tun!

den von sowas sind alle karten von low end bis high end oder auch den titan modellen betroffen!


über mier!

warum nicht die uhr Titan die alles wie 2 jahre alte hardware aussehen gelassen hat hatte mir bekannt auch nur 1x8 und 1x6 pin!

ja laut standard 300 watt! das heißt nix ich sag nur 295x2 2x8pin und darüber dann 500watt also warum sollte sich nvidia an die standards halten wens die konkurenz nicht macht?
 
Zuletzt bearbeitet:
So jetzt erklär ich dir mal warum AMD nicht nachliefert. Das liegt daran das sie ewig zeit brauchen um einen Workaround zu schreiben für die Gameworks Features. Das braucht viel Zeit da AMD nicht weiß was da lost ist und das erst mal rausfinden muss. Nvidia gibt ja keine einsicht in den Quellcode und behindern somit die Lösung. Aber na ja Wetbewerbsverzerrung hattet Ihr wohl noch nicht im Unterricht.

Übrigens glaube ich auch das Nvidia künstlich Ihre alten Modelle langsamer macht. Ich glaube nämlich das auch die 780ti / Titan Black die Leistung besitzt um mit der GTX 980 mitzuhalten. Da ist es für Nvidia besser das künstlich per Gameworks zu unterbinden um neue Kaufanreize zu schaffen.
 
ampre schrieb:
So jetzt erklär ich dir mal warum AMD nicht nachliefert. Das liegt daran das sie ewig zeit brauchen um einen Workaround zu schreiben für die Gameworks Features. Das braucht viel Zeit da AMD nicht weiß was da lost ist und das erst mal rausfinden muss. Nvidia gibt ja keine einsicht in den Quellcode und behindern somit die Lösung. Aber na ja Wetbewerbsverzerrung hattet Ihr wohl noch nicht im Unterricht.

Übrigens glaube ich auch das Nvidia künstlich Ihre alten Modelle langsamer macht. Ich glaube nämlich das auch die 780ti / Titan Black die Leistung besitzt um mit der GTX 980 mitzuhalten. Da ist es für Nvidia besser das künstlich per Gameworks zu unterbinden um neue Kaufanreize zu schaffen.

xD das ist reines rote brille gelaber komisch das es umgedreht funktioniert?

also irgent was läuft hier falsch oder?

In den Launch-Reviews vieler Spiele wie Batman Arkham Origins, Assassin's Creed Black Flag, Call of Duty: Ghosts und Watch Dogs, die jeweils Gameworks-Module beinhalten, stehen Nvidias Geforce-Karten besser da als ansonsten vergleichbare AMD-Karten, allerdings zuletzt auch in Grid Autosport, welches mit Forward+ eine von AMD entwickelte Rendertechnik nutzt.

komisch das ich mit meiner 780ti locker bei den 980er mithalten kann :)
weiß ja nicht wo her du dein wissen hast aber ich kann das als kunde einer gk110 nicht bestätigen! ich komm zimlich auf die selben fps zahlen wie freunde mit gtx 980er karten und das aber schon seit über 1 jahr länger als die 980 kunden!

klar giebt es bereiche wo die 980 durch ihre neue architektur schneller ist alles andre wäre auch mies selbe spiel bei den cpu´s neue befehele und ich verkack mit meinem 6 kerner gegen 4 kerner die aktuell sind!

achso übrigens lizenz kunden können den quellcode einsehen :)

muss man halt nur zahlen was so standard ist :)
übrigens mantle das selbe spiel nvidia konnte es komischerweiße mit nur 1 treiber total ausgleichen !

endweder hat nvidia einen böse bösen magier oder einfach fachwissen!
 
@_Cloud_

Das war jetzt 1 Spiel zeig mir noch eins.

Zu Mantle:
Ach ja möchte gerne sehen wie Bettelfield mit einer GTX 980 und einer R9 290x auf einem I5 2300 oder noch besser auf einem i3 läuft.

Schau dir mal den Test an bei AMD kannst du dir einen I3 kaufen und kommst trozdem auf die Leistung eines 4 Kerners während die GTX 980 bei -22% rumdümpelt. Du hast 0 Ahnung was Mantle macht!
http://us.hardware.info/reviews/578...gpus-directx-11-vs-mantle-with-ancore-i3-4330

Es tut mir leid aber ich versuche hier echt Aufklärungsarbeit zu leisten. Ich sag ja nicht das die GTX 980 perse schlecht ist in Sachen HPC ist sie ja äußerlich gut. Nur sollten einige hier echt mal verstehn was Nvidia wirklich macht.

Aber die 3,5gB bei GTX 970 sind ja auch nur Verschwörung.
 
Zuletzt bearbeitet:
Mal ne frage wer postet hier NVidia wundertreiber und hat keine Ahnung von Mantle! Glaubst auch das bald Nvidia den Weihnachtsmann ersetzt bei so vielen Wundern?

Zu deinen Forderungen der Link ist Tod!

Du hast hauptzächlich eins Cloud gefährliches Halbwissen. So und nun ist es bei mir erreicht! Ignore Cloud

So ein ... mit Nvidia Wundertreiber. Ich kann nicht mehr!

So ein ... wie den hier:

_Cloud_ schrieb:
wen man bedenkt eigentlich steht ja
480 vs 5870
580 vs 6970
780ti vs 7970
gm 200 vs 290x
//////////////////////////////////
es giebt noch keinen test zur titan x oder bin ich blind?

Du bist echt voll Profi
 
Zuletzt bearbeitet:
AMD Mantle ist TOT! AMD hat ja selbst gesagt, dass man in Zukunft lieber auf DX12 setzen sollte. Mantle bringt nicht wirklich was, außer man hat eine sehr schelchte CPU, dann hilft Mantle etwas. Aber wieviele Spiele gibt es wo Mantle etwas bringt? BF4 und sonst?
 
Es gibt jetzt DX12 das war das Ziel! So schlägt AMD Intel aus indem nicht unbedingt neue Cpus gekauft werden müssen weil selbst ein i3 zurzeit Ausreicht um die Leistung zu erbringen um Moderne spiele zu Füttern. Zudem ist Mantle nicht ganz Tod sondern wird bei speziellen Spielen wieder reaktiviert die spezielle Bedürfnisse brauchen. So wie es damals bei BF4 und Civ der fall war.

Du sparst dann Locker 100 Euro an CPU kosten die man dann in Spiele oder eine besser Grafikkarte stecken kann. Das war der Antrieb dahinter.
 
Zuletzt bearbeitet:
Foltest schrieb:
AMD Mantle ist TOT! AMD hat ja selbst gesagt, dass man in Zukunft lieber auf DX12 setzen sollte. Mantle bringt nicht wirklich was, außer man hat eine sehr schelchte CPU, dann hilft Mantle etwas. Aber wieviele Spiele gibt es wo Mantle etwas bringt? BF4 und sonst?

Mantle soll im OpenGL Nachfolger Vulkan aufgehen und ist somit keineswegs tot.
 
_Cloud_ schrieb:
ist halt der unterschied nur weil man mit seiner firma nicht zufrieden ist muss man nicht andre schlecht machen!
nvidia ist leider aber auch nicht immer so schnell giebt auch genug games wo sie genauso wie amd ewig geschlafen haben! was ich nicht gut finde!

Ich verstehe nicht, warum man immer so tut, als würde man eine Ahnung von dem haben was andere tun.
Ob sie geschlafen haben oder nicht oder ob dies und das.

Nvidia hat die letzten 3 Monate 3 WHQL Treiber herausgebracht, AMD einen.
In den Games die kürzlich herausgekommen sind, war allerdings AMD sehr gut dabei, manchmal schneller wie eine GTX 980 und immer flotter wie eine GTX 970.

Unterstellt man nun AMD dass sie "schlafen", obwohl die TReiber gut funktionieren, oder unterstellt man Nvidia dass sie immer nachbessern müssen und sonst gar nicht auf AMD Leistung kommen?
Eine sinnlose Debatte, letztendlich zählt was auf der Uhr steht.

Und dass man sich bei der Firma Nvidia immernoch darüber streitet, dass sie unfaire Methoden verwenden, geht mir auch nicht in den Schädel.

Diretx11.1 Skandal, GTX 970 Skandal, Gameworks Skandal, G-sync ( EDP ) Skandal.

Man lieferte nur Directx 11, log aber den Käufern ins Gesicht und sagte wir unterstützen Directx 11.1 voll.
Man fälschte wissentlich die Specs der GTX 970 und nach bekanntwerden log man den Leuten weiter ins Gesicht.
Bei den Gameworksspielen ist es regelmäßig so, dass AMD Karten etwas langsamer laufen.
Wie Nvidia dies tut, wird oben bereits erklärt. ( Ausnahmen wie Evolve bestätigen die Regel ).

HeinzNeu schrieb:
Was soll das heißen? Klar kann NVidia seine Treiber zu jedem neuen Spiel optimieren.

AMD hat ihre TReiber womöglich zu diesen Games schon optimiert gehabt. Im Vorhinein.

In den Launch-Reviews vieler Spiele wie Batman Arkham Origins, Assassin's Creed Black Flag, Call of Duty: Ghosts und Watch Dogs, die jeweils Gameworks-Module beinhalten, stehen Nvidias Geforce-Karten besser da als ansonsten vergleichbare AMD-Karten, allerdings zuletzt auch in Grid Autosport, welches mit Forward+ eine von AMD entwickelte Rendertechnik nutzt.

Batman lief auf AMD zum Release gut.
Beim Rest stimme ich dir zu.
Forward + ist keine von AMD entwickelte Rendertechnik, sondern ist Directx11 Bestandteil.

"AMD Mantle ist TOT! AMD hat ja selbst gesagt, dass man in Zukunft lieber auf DX12 setzen sollte. Mantle bringt nicht wirklich was, außer man hat eine sehr schelchte CPU, dann hilft Mantle etwas. Aber wieviele Spiele gibt es wo Mantle etwas bringt? BF4 und sonst? "

Mantle ist nicht tot, da es im AMD Programm noch weiter unterstützt wird.
Zudem spricht AMD nur von Mantle 1.0 welches nicht mehr weiterentwickelt wird.
Zudem hat AMD sämtlihes Material an OGL herausgegeben und daraus entstand ein Fork namens Vulkan.

Pauschal zu sagen es ist tot, ist wiedermal eine verdrehung der Realität.
 
Mantle um den CPU Overhead zu reduzieren funktioniert zwar, aber ich habe mit meiner R9 290 Battlefield 4 trotzdem per Direct-X gezockt.;)
Mitten im Gefecht gab es immer wieder derbe FPS-Einbrüche 2-8 FPS maximal was ziemlich lange angehalten hat mit Direct-X eben nicht. Was hilft mir also Mantle wenn es immer noch nicht richtig funktioniert. Unter Direct-X ist die Performance der R9 richtig mies in BF4 zum Beispiel.
Meine 980er lacht unter Direct-X nur und liefert deutlich höhere FPS. Mantle hat die Sache ins Rollen gebracht das man endlich auch mal die API optimiert wird und Direct-X 12 wird Mantle höchstwahrscheinlich über kurz oder lang wieder von der Bildfläche verschwinden lassen da AMD und Nvidia angeblich davon ordentlich provitieren sollen.

Bin gespannt was die Titan mit 12 GB Speicher kosten wird... Auf einen Test von CB freue ich mich jedenfalls jetzt schon! :D
 
Zuletzt bearbeitet:
Wenn ich einen Programmier-Kurs anfangen würde, mein erste Skyrim-Dorf modden würde, würd ein kleines Häuslein wahrscheinlich auch 1Gb Vram fressen. Ich weiss nicht genau, was für ein Publikum bei diesen skurillen Mods zugange ist, richtige Programmierer, die die Ressourcen eines Systems nutzen, sind es nicht. Scheinen fast Kinder zu sein. Ich spiel mit 2Gb VRAM Skyrim bei 1680x1050(x2), also DSR, was etwas mhr als 3,5 mio Pixeln und damit der Auflösung von 1440p entspricht, auch, wenns natürlich nicht ganz so gut aussieht wie nativ. Wohlgemerkt mit EINER GPU, dauerhaft 60 fps, CPU und GPU Auslastung sehr wenig, so wie man es von Skyrim kennt, es handelt sich um die legendary Edition mit HD-Textures und allen 3 grossen DLCs. Ich weiss also nicht, was diese Mod-Crowd da mit Skyrim rumwerkelt, dass angeblich ogar 4GB Karten VRam Probleme bekommen. Als Massstab für Vram-Bedürfnisse von Spielen sind diese Mods jedenfalls nicht geignet. Ich verzichte dankend auf diesen Kram, auch, wenn ich Skyrim-Fan bin.
 
Es sind nicht nur die Modder schuld, sondern die Skyrim Engine ist relativ ineffizient.

Und klar bei denen Settings, die das Spiel zum Erbrechen aussehen lassen, ist es kein Wunder, dass du stabile 60 FPS hinbekommst. Und eine andere Frage, warum sollen größenoptimierte 2K Texturen kein Maßstab für VRAM Verbrauch darstellen ?
 
Hm, alleine das offizielle HD-Mod belegt bei mir 3.5GB Speicher.
Ob das auch alles Kinder waren?




Wird immer abstruser die Diskussion hier.
 
HeinzNeu schrieb:
Was soll das heißen? Klar kann NVidia seine Treiber zu jedem neuen Spiel optimieren.
Braucht man wirklich nur einen 6- und einen 8-PIN für die Titan X? Das wären ja wirklich nur 300 W (75 W PCIe, 75 W 6-PIN und nochmla 150 W für den 8-PIN).

könnte könnte könnte...

tatsache ist das gm204 5,2 mrd tranistoren hat und die titanx ca 8mrd haben wird. das sind 1,538461538461538 mal soviel wie im gm204. d.h. man kann erwarten das mit demselben takt die karte um die 250watt fressen wird. da die karte unter den taktraten des gm204 chips an den start geht, nämlich mit ca 1140 MHz wegen den angepriesenen 7 teraflops, bleibt der verbrauch sogar unter den 250 watt. da maxwell sehr effizient bei moderaten taktraten ist, schätze ich den verbrauch ohne OC zwischen 200-225w ein. klar wird die karte bei 1400-1500mhz bestimmt auch 300w fressen, genauso wie der gm204 chip sehr hungrig werden kann bei extremen taktungen.

muss ich eigentlich erwähnen das alle spekulationen über eine nicht erschienene karte kaffeesatzleserei ist? ich glaube nicht...
 
HisN schrieb:
Hm, alleine das offizielle HD-Mod belegt bei mir 3.5GB Speicher.
Ob das auch alles Kinder waren?




Wird immer abstruser die Diskussion hier.

Welche Auflösung ist das ? Davon abgesehen, ich habe schon fast vergessen, wie grauenhaft Skyrim ohne Mods aussieht.

Mit Skyrim wird man auch die Titan X locker in die Knie zwingen können. Dank ENB und ineffizienter Engine gar kein Problem :D
 
Zurück
Oben