News Nvidia Pascal: Countdown für GeForce GTX 1080 endet am 6. Mai

Dieser Sommer wird heiß! Wirklich bemerkenswerter Jahr für GraKas!

Nvidia und endlich AMD liefern was interessantes ab.... Ik bin gespannt
 
Marvomat schrieb:
Kenne ein paar Leute, die direkt von einer 980(ti) auf die neue Gen aufspringen. Die müssen Geld haben....ich nenne sowas Geld verbrennen oder zum Fenster rausschmeißen.


hier einer. ich mache das FALLS: die 1080 mind. 10-20% mehr leistung bringt und dabei gleichzeit nicht so heis wird, weniger WATT verbraucht und leiser ist.

sagen wir mal ich verkaufe meine 980ti für 400 euro und kaufe die neue karte für 500-600 euro. kostet mich dieses sinnvolle, wenn auch nicht noetige upgrade gerade mal 100-200 euro. echt schlimm!!!

meine cpu ist schon keine ahnung wie alt und will und will einfach nicht geupgradet werden da absolut NIX kommt. goenn einem doch den spass wenigstens bei der GPU. du pleite miesepeter:evillol:
 
für mich macht ne gtx1060 nur sinn, wenn sie auch dx12 komplett beherscht. ansonsten bleib ich bei meiner 960
 
noxon schrieb:
Dieses Gerücht ist doch Blödsinn.
DirectX musste erst wieder erweitert werden, damit auch die neusten Features der neuen Karten angesprochen werden können.

Die Karte ist nicht nur einfach ein Refresh der alten, die schneller läuft. Meinst du im Ernst bei der Gelegenheit hat nVidia die Unzulänglichkeiten der älteren Features nicht aus dem Weg geräumt, bevor sie die Neuen implementiert haben?

Abgesehen davon ist es ja nicht so, als ob die jetzigen Karten grundsätzlich gar keine asynchronen Shader beherrschen.

Wie mache ich das einem der treuesten Nvidianer begreiflich, für den alles Blödsinn ist, was nicht grün genug ist?

Soso DirectX 12(?) musste erst einmal erweitert werden, damit Asynchronous-Compute unterstützt wird und Nvidia es deshalb nicht geschafft hat, es vollwertig zu unterstützen? Ist das Deine Aussage? Asynchronous-Compute in DirectX 12 läuft meines Wissens seit t=0 in Windows 10.

Ja, ich meine das im Ernst, dass Nvdia die Asynchronous-Compute-Schwäche in Pascal nicht wirklich aus dem Weg räumen wird, sondern auf die hohe Rohleistung hofft, mit der das Problem unter Umständen kompensiert werden könnte:

One reason that we think that this rumor might be true is the fact that chip design isn’t something that happens overnight. In fact, it takes an architecture many years to go from the drawing board to hit the shelves. Asynchronous Compute was hyped and became a major point of interest in the last year, which is most definitely not enough time for Nvidia to do anything about it. If Asynchronous Compute wasn’t something that was a focus when the Pascal chips were initially designed – then there is nothing Nvidia can do about it at this late in the game. The report further mentions that Nvidia also recently pushed its entire GameWorks SDK into the public domain via GitHub which could be seen as a move to make sure that all games that utilize its technology are fully optimized to leverage Nvidai GPU capabilities (No ASync + Bad Game Optimization = Bad Combo).

Und hier:
What we do know for a fact is that Nvidia has been focusing on its FP64 or double precision performance – which was completely culled in Maxwell to offer superior value to gamers (which are mostly single precision). So whether or not lack of ASync support in Pascal translates into a real world loss depends on how the raw performance of Pascal’s Graphic Cards compares to ASync enabled Pascal graphic cards. Even if this report is true Nvidia could still win the next round by focusing on raw gaming performance of its Pascal GPUs (Techniques like ASync can only help utilize the maximum potential of all its resource, not actually add more power out of nowhere.)
Quelle: http://wccftech.com/nvidia-pascal-trouble-asynchronous-compute/

Die aktuellen Nvidia-Karte "beherrschen" Asynchronous-Compute durch eine platte Emulation unter Hinzuziehung der CPU: http://www.3dcenter.org/artikel/die-fehlenden-asynchronous-shader-bei-nvidia
 
Zuletzt bearbeitet:
gibt es hier Leute mit einer GTX 680? Lohnt sich da der Umstieg?

Meine Historie: GTX 6800 --> GTX 285 --> GTX 480 --> GTX 680
 
15% Leistungplus Sind absolutes Mininum, dann wechsel ich. Preis ist relativ egal solange es nicht ganz aus dem Rabmen fällt. Hobby eben.

Finde dieses Hobby ist eh nicht so teuer auch wenn man sich immer das beste holt...
Fürs Ski fahren hau ich viel mehr auf den Kopf jedes Jahr...
 
Maxminator schrieb:
gibt es hier Leute mit einer GTX 680? Lohnt sich da der Umstieg?

Meine Historie: GTX 6800 --> GTX 285 --> GTX 480 --> GTX 680

Ist das eine ernste Frage? Die GTX 680 gehört schon lange ins Museum...
 
strex schrieb:
Was für ein Schwachsinn, natürlich liegt das an der Architektur und dem Treiber, sonst könnte NV auch nicht so viele FPS aus weniger Rohleistung kitzeln. Einfach weniger Overhead erzeugen, dass hat NV schon früh erkannt. Das man bei AMD hier arbeitet, sieht man mit dem Leitungsgewinn über die Zeit, welches mehr von der Rohleistung freisetzt auch unter DX11. Immer wieder schön, wenn es nicht läuft war ein anderer Schuld.

Der Trollversuch kam aber hier nur von dir.
Ganz ruhig Strex. Er hat genauso reagiert wie ich erwarte habe ;) Habe ihm den Spiegel vorgehalten und sofort hat ihm nicht gefallen was er sieht.
 
Maxminator schrieb:
gibt es hier Leute mit einer GTX 680? Lohnt sich da der Umstieg?
[..]

Wie soll dir das irgendwer vor dem Release und Tests zu 100% Sagen? Kannst du Maximal bei NV anfragen. Deren Aussage wird aber aus ganz normalen wirtschaftlichen Gründen so lauten: Ja.
 
ich habe 2 Stück drin - ich weiß leider nur 2 Gb...

PS: Witcher III läuft mit 2x GTX 680 wesentlich geschmeidiger als mit einer ;)
 
noxon schrieb:
Dieses Gerücht ist doch Blödsinn.
DirectX musste erst wieder erweitert werden, damit auch die neusten Features der neuen Karten angesprochen werden können.
Ja was denn nun? Erst heißt es von Seiten der nvidia Anhänger das nvidias Architektur ja so viel moderner sei, und viel höhere DX12 Level könne, AMDs Architektur sei ja so alt bla blub, und nvidia hätte ja so eng mit Microsoft an DX12 zusammen gearbeitet... Und jetzt wird wieder der Wendehals gemacht?
 
680 2GB SLI - ist schon etwas älter. Die Frage ist was du damit bzw. mit einer neuen GPU machen willst.

680 SLI ist doch stand jetzt schon mit zu wenig VRAM gesegnet.
 
das Problem ist sind doch die Games... Es gibt nur wenig davon wie früher:

Dark Projekt (Thief I und II), Alan Wake, Witcher III, GTA VI usw.....
 
Wer warten kann (auf AMDs Vega mit hardwareseitigem AsyncCompute und HBM2 Speicher erstmals in der Performance-Klasse) ist - wie immer - klar im Vorteil :) ...

.... und dann stellt sich noch die passende Frage zur (Typenbezeichnung) GTX 1080 "... can it run patched Quantum Break at 1080p?" ... und damit meine ich flüssig, wie nur auf einer GTX 980Ti mit großer Übertaktung momentan?

Ich habe die 80er Serie von nVidia immer als überteuert wahr genommen vom Preis-Leistungs-Verhältnis und glaube, dass für das Gebotene es dieses Mal keine Ausnahme wird (schätzungsweise 600-700 Euro für reguläre und 700 Euro+ für Custom Modelle). Die 70er Serie wird wieder die Hauptkarte der nVidia Fanboys sein (das hat sich ja unter Maxwell so etabliert) und ehrlich gesagt finde ich die kleinste Karte (GTX 1060) noch mit Abstand am interessantesten.

Letzteres deswegen, weil es den ersten direkten Vergleich zulassen dürfte zwischen AMD (R9 480(X)) und nVidia (GTX 1060)) Mittelklasse-Karten und das kleine Modell mit GP104 Chip vielleicht noch einigermaßen erschwinglich sein dürfte. Wird nVidia nur 6GB Speicherausbau bieten und AMD schon 8GB in dieser Leistungsklasse (echtes DX12 AsyncCompute gibt es wohl nur bei AMD in dieser Grafikkarten-Generation)? Falls die AMD Karte die nVidia Karte preis-leistungsmäßig im Mainstreambereich aussticht - wovon ich ausgehe - dann könnte das auch ein Fingerzeig Richtung der Karten mit kleinem Vega Chip (R9 490(X)) gegenüber GTX1070/1080 sein, nur mit dem Nachteil, dass man sich eben noch bis Anfang nächstes Jahr gedulden müsste.

oldmanhunting schrieb:
Ich finde es aber auch schade, dass AMD wieder einmal hinterher hinkt und erst 6 Monate später kontert. Bis dahin haben sich viele schon eine Neue GPU gekauft oder warten noch ab bis Titan oder Ti kommen. Irgendwie ist NVidia da schneller und schlauer am Markt.

Mit "sofort kontern können" hat das wenig zu tun, denn bei AMD möchte man in der Performanceklasse eben schon die aktuellere/bessere Speichertechnologie HBM2 den Kunden bieten (die wohl erst zum Anfang kommenden Jahres im ausreichendem Maße verfügbar ist) und nicht am Speicher knausern - wie das bei nVidia i.a. so üblich ist - so dass ich die Entscheidung schon nachvollziehen kann. Da muss man als Käufer eben selber entscheiden, was einem wichtiger ist ... gut Ding will Weile haben ;).
 
Zuletzt bearbeitet:
Schnixus schrieb:
Dass diese Rohleistung nie auf der Strasse angekommen ist, war allerdings nicht das "Verschulden" von AMD, sondern hatte man MS und DX11 zu verdanken...
Dummes Zeug. DX11 hatte absolute seine Berechtigung und hat sie auch immer noch. Darum gibt's ja immer noch DX11.3 parrlalel zu DX12, welche auch die selben Features bietet wie DX12. Nur die wenigsten Entwickler sind überhaupt in der Lage mit einer Low Level API wie DX12 umzugehen. Der Rest verwendet weiterhin Highlevel APIs wie DX11 und OpenGL und die sind immer noch so ineffektiv wie zuvor. Das ist einfach so.


MaLow17 schrieb:
Soso DirectX 12(?) musste erst einmal erweitert werden, damit Asynchronous-Compute unterstützt wird und Nvidia es deshalb nicht geschafft hat, es vollwertig zu unterstützen? Ist das Deine Aussage?
Nein. Natürlich nicht.
Die neuen Features von denen ich spreche sind zum Beispiel die Shader Language 6.0 oder 16 bit Floatingpoint Datentypen und Operationen die jetzt mit den kommenden Karten immer wichtiger werden.

Mein Argument ist, dass nVidia nicht seine ALUs verbessert hätte und all die anderen Arbeiten am Chip durchgeführt hätte bevor sie nicht das grundlegende async compute Problem aus dem Weg geräumt hätten.

Das Problem von nVidia ist ja lediglich, dass der Workload-Verteiler nicht in Hardware implementiert ist, der die Arbeit auf den Warp-Scheduler verteilt. Diese selbst sind ja in Hardware implementiert und führen bisher auch bis zu 32 Warps parallel aus.
nVidia muss also lediglich den Teil, der die Arbeit auf den Scheduler verteilt, was momentan noch per Software geschieht, in Hardware implementieren, so wie es AMD macht. Das dürfte dann Teil der Gigathread Engine sein und da wir da momentan nicht reingucken können was nVidia dort alles tatsächlich geändert hat, ist das alles nur reinste Spekulation ob sich bei Pascal wirklich etwas verbessert hat oder nicht.


Die aktuellen Nvidia-Karte "beherrschen" Asynchronous-Compute durch eine platte Emulation unter Hinzuziehung der CPU
Mit Emulation hat das nichts zu tun, lediglich damit wie der Chip die Aufgaben zugewiesen bekommt. Bei nVidia wird das Scheduling von der CPU übernommen während es bei AMD in Hardware stattfindet.
 
Also ich freue mich schon, denn noch gurke ich mit einer alten 650 herum. Wer da schon das neueste vom neuesten hat, bei dem kann ich verstehen, wenn die Freude da etwas gedämpft ist. :D
 
noxon schrieb:
Mit Emulation hat das nichts zu tun, lediglich damit wie der Chip die Aufgaben zugewiesen bekommt. Bei nVidia wird das Scheduling von der CPU übernommen während es bei AMD in Hardware stattfindet.

Computer sagt nein :):
AMDs Hardware beherrscht Asynchronous Shader rein praktisch unter DirectX 12, nVidias Hardware nur theoretisch – ohne die Möglichkeit der schnellen Aufgabenwechsel für die verschiedenen Datenströme verliert man eher an Performance als daß man welche hinzugewinnen würde. Aus diesem Grunde haben die Programmierer von Ashes of the Singularity in ihrem Spiel auch das Asynchronous-Shader-Feature für nVidia-Grafikkarten (auf Anraten nVidias selber) gleich lieber komplett deaktiviert – was letztendlich die Erklärung für die zu sehende Benchmark-Situation ergibt, wo unter DirectX 12 nVidia nur mager und AMD hingegen herausragend hinzugewinnt. Wie sich inzwischen zudem herauskristallisiert, erreicht nVidia die grundsätzliche Eigung seiner Hardware zu Asynchronous Shader durch eine platte Emulation unter Hinzuziehung der CPU – was dann auch erklärt, warum damit (bei nVidia) keine Performance gewonnen wird. Da der ganze Zweck des Features ausschließlich in einem Performancegewinn besteht und es hierbei nicht um irgendeinen Bildqualitätseffekt geht, reicht diese rein Checklisten-technisch vorhandene Unterstützung aber nicht aus – Asynchronous Shader sind faktisch fehlend bei nVidia.
Quelle: 3dcenter.org

Man kann es drehen und wenden, wie man will. Sobald eine Hardware-Funktion der GPU auf die CPU ausgelagert wird, handelt es sich um eine Emulation.

Ich will mich hier nicht streiten. Was aber am Ende zählt, ist, was hinten rauskommt. Und ich denke Nvidia wird es dann doch auf Umwegen schaffen, sei es mit der Rohleistung von Pascal, dem GameWorksSDK oder der "Bitte" an Entwickler auf einen reduzierten Einsatz von Asynchronous Shadern die Schwächen auszubügeln ;). Nvidia kommt doch immer mit einem grünen Auge davon :).

Apropos, wo bleibt denn nun der Ark: Survival Evolved DirectX 12 Patch?

aktuell ist die DX12 Implementaton für ARK nicht wirklich stabil und wir haben vielleicht 2-3 Ingenieure die daran arbeiten können (also die technisch gesehen dazu in der Lage sind), die aber auch an anderen Themen arbeiten, wie z.B. an dem kompletten Thema Xbox. Unsere aktuelle Prioliste sieht allerdings die DX12 Stabilität nicht vor.

Sie wissen also selber nicht genau, wieviele Ingenieure dazu in der Lage sind und die Stabilität steht erstmal im Hintergrund. Kann man nachvollziehen. Spiele-Performance erst zum Schluß. Machen andere auch so, nicht wahr?

Es wird aktuell das Grundspiel optimiert und erstaunlicherweise profitieren hiervon unter anderem AMD User, da die Konsolen auf AMD laufen und die viele Zeit die wir in die Fehleranalyse auf der Konsole gesteckt haben, kommen dann eben auch den AMD Usern zu gute...

Ich lasse das mal so im Raum stehen.
 
Zuletzt bearbeitet:
ronrebell schrieb:
Schade dass Amd wieder mal hinterher hinkt.

Hätte gehofft dass die Roten diesmal zuvor kommen.

Die Roten haben DX12 Kompatibilität, HBM, und ein besseres P/L Verhätlnis schon in der jetzigen Generation!
8 GB Speicher und ..... jetzt schon höhere Speicherbandbreite sollten auch noch erwähnt werden.

Ich sehe da keinen Rückstand.

evtl. Stromverbrauch

Ich habe nur AMD Karten und werde auf die neuen "Big Chips" --> 2017 warten.

Eine 290X gegen eine GTX 1080 (p) auszutauschen wird wenig Sinn machen.
(unter DX12 evtl. sogar langsamer --> Tests abwarten)

Wer Bock hat 50o EUR+ für eine spätere Notebook Grafikkarte zu zahlen sollte zuschlagen.
 
Hi

die 1080 gtx soll über 700 Euro kosten und die 1070 bei über 500 Euro. Na dann viel Spaß mit den Ladenhütern wenn das so stimmt.
 
Zurück
Oben