News Nvidia GeForce GTX 1080: Pascal-OC-Benchmarks deklassieren Titan X

Nvidia kommuniziert die Änderungen/Optimierungen in dem bereich doch höchst selbst. >Inside Pascal
Genau dort beschreibt Nvidia was bei Pascal in dem bereich geändert wurde. Nvidia ist in dieser Frage immer noch hinter GCN 1.0 zurück und zwar deutlich.
 
IBISXI schrieb:
Was, wo wie?

DX12 Kompatibilität?

Die 1080 ist immer noch nicht DX12 kompatibel.

Ist das jetzt einfach nur Unwissenheit oder absichtlich gelogen?
Ab Kepler sind alle NVidia GPUs DX12-fähig.
Ergänzung ()

Moriendor schrieb:
.... die aufzeigen, dass ASync Compute (mMn im Übrigen ein völlig überbewertetes Feature, da selten praxisrelevant, aber das nur am Rande) auf Pascal nach wie vor nicht unterstützt wird.

Auch wenn ich mich damit wiederhole: AsyncCompute wird von allen DX12-fähigen Karten unterstützt.
 
Ich hoffe nur das die Titan/X nicht künstlich über den Treiber gebremst werden um das Geschäft mit neuen Karten anzukurbeln.
Meine Titan X ist in Doom 1440P noch ganz gut unterwegs:D
 
ToniMacaroni schrieb:
Also rein aus Verbesserungen der Architektur heraus. Das ist bei Pascal vs. Maxwell nicht der Fall, was dafür spricht, dass es sich hier lediglich um einen shrink der Maxwell Architektur handelt.

Schaut man die Blockschaltbilder von der P100 an und vergleicht diese mit Maxwell gibt es schon deutliche Änderungen. Aus diesem Grund kann Pascal nicht einfach ein shrink sein. Sonst gäbe es keine drastischen Änderungen. Es ist eine Weiterentwicklung der Maxwell Architektur.

gp100_block_diagram-1.png
HNJLjHk.png

Andregee schrieb:
Das heißt, du erachtet es als völlig unerheblich, das du zu Zeiten alter Marktstrukturen so um 2011 eine Karte der Titan Kategorie für 500 Euro und eine Karte der 1080 Kategorie für 250 bis 300 hättest erstehen können.

Früher hätte ich damit auch ein Auto bekommen. Früher war alles günstiger..

janeeisklar schrieb:
Nvidia kommuniziert die Änderungen/Optimierungen in dem bereich doch höchst selbst. >Inside Pascal
Genau dort beschreibt Nvidia was bei Pascal in dem bereich geändert wurde.

Und genau dort steht eine architektonische Verbesserung in AS sowie eine Leistungssteigerung.

New asynchronous compute advances improve efficiency and gaming performance.

http://nvidianews.nvidia.com/news/a-quantum-leap-in-gaming:-nvidia-introduces-geforce-gtx-1080

Somit deine Aussage nicht korrekt. Was genau drin steckt sehen wir bei einem Test.

janeeisklar schrieb:
Nvidia ist in dieser Frage immer noch hinter GCN 1.0 zurück und zwar deutlich.

NV ist der GCN 1.0 weit voraus :evillol: Denn ACE läuft erst ab der zweiten Generation von GCN, was selbst AMD so schreibt:

Because the Asynchronous Compute Engines in the GCN architecture are programmable and can manage resource scheduling in hardware, this feature can be enabled on existing GPUs (2nd generation GCN or later) with a driver update.

https://community.amd.com/community/gaming/blog/2016/03/28/asynchronous-shaders-evolved

janeeisklar schrieb:
Von den Karten oder nur vom Treiber? ;)

Natürlich von beiden, sonst würde es ja nicht laufen. Aber das sollte dir wohl klar sein, wenn man über solche technischen Details diskutiert.
 
Zuletzt bearbeitet:
NVIDIA-Maxwell-GM200-GPU-Block-Diagram.jpg

nimm lieber dies als Vergleich :D

Der GM107 schaut nämlich nem Pascal schon sehr ähnlich nur ohne DP Einheiten
 
strex schrieb:
NV ist der GCN 1.0 weit voraus :evillol: Denn ACE läuft erst ab der zweiten Generation von GCN, was selbst AMD so schreibt:



https://community.amd.com/community/gaming/blog/2016/03/28/asynchronous-shaders-evolved
Da geht es um "Quick Response Queue", dies gibt es "erst" mit GCN 1.1 (also schon vorhanden in Hardware ab HD 7790, RX 290/260) Alleine dies wird den vorsprung zu Nvidia weiter vergrößern.

NV ist immer noch bei preemption, also inc Kontextwechsel :O


strex schrieb:
New asynchronous compute advances improve efficiency and gaming performance.
Ja, Nvidia nent preemption (was _mit Treiber_ ohnehin alle GKarten der letzten 10 Jahre können!) Asynchronous Compute. Finde den Fehler ;)

strex schrieb:
Natürlich von beiden, sonst würde es ja nicht laufen. Aber das sollte dir wohl klar sein, wenn man über solche technischen Details diskutiert.
Das ist Stuss, natürlich kann der Treiber (GFX und Compute) annehmen und sobald Compute ausgeführt werden muss wird GFX unterbrochen (=preemption!). Aber klar, das ist kein Asynchronous Shader. ;)
 
Zuletzt bearbeitet:
Ihr könnte nicht einfach nur die Blockschaltbilder nehmen und sagen das sei die "Architektur". Das ist viel zu einfach gedacht. Das Blockschaltbild ist nur ein grober Überblick, was sich auf dem Chip befindet. Wie das alles ausgeführt ist, ist ein anderer Hut. Im Maschinenbau wäre zB eine Prinzipskizze wie so ein Blockschaltbild zu betrachten. Wie aber die fertigen Teile und Baugruppen im Detail aussehen, ist schon wieder eine ganz andere Nummer. Die Details machen hier einen großen Unterschied. Der Aufbau von Wärmekraftwerken oder Otto-Motore hat sich seit 150 Jahren auch nicht oder kaum geändert. Trotzdem sind diese Apparate heute etwas völlig anderes, als vor 100 Jahren.
 
Leute diese Zeichnung ist ja nur ein Veranschaulichung und nicht so wie der chip selbst aussieht IMHO.

Wundern tut man sich schon warum async Compute nicht groß gehypet wird wenns den nun nativ läuft :)
 
Zuletzt bearbeitet:
@Hisn: Ich weiss ja, das ist dein Mantra, aber was zockst du für Spiele?
Mit Battlefield 4 in FHD bekomme ich meine 980ti nicht unter 30fps. Alles maxed out. Immer Anschlag FPS-Limiter 142 Fps.
Nachdem ich den BS jetzt das zehnte mal gelesen hab, hab ich mir mal die Mühe gemacht und von 1440p auf 1080p geschaltet.
Ohne Downsampling ist es wohl kaum möglich eine 980ti oder Titan X “in die Knie zu zwingen“.
Mir fällt da auch kein anderes Spiel ein in dem das möglich wäre. Arma 3 vielleicht.
 
Das Gewäsch .. 1080 deklassiert Titan X ... bla bla .. nix als virales Marketing. Es gibt nicht einen reellen Benchmark bisher.

vor allem: ... es sickern Benchmarks durch ... ich tippe mal da ist ein NVIDIA-PR-Mitarbeiter kurz mal Inkontinent geworden :evillol:
 
Genau. Auf die Benchmarks von objektiven Dritten kommt es an. Dieser NVIDIA-ZIRKUS ist für mich nicht maßgebend.
 
Die Benchmarks kommen doch von objektiven Dritten, nämlich von den Testern, die die Hardware bereits im Labor haben. CB hat doch ebenfalls schon ein Exempler.
 
Jetzt warten wir es doch ab. Bald wissen wir, was die Dinger kosten, was sie leisten und ob das AS Problem gelöst. Dann sehen wir weiter.
 
Nelson Muntz schrieb:
@Hisn: Ich weiss ja, das ist dein Mantra, aber was zockst du für Spiele?
Mit Battlefield 4 in FHD bekomme ich meine 980ti nicht unter 30fps. Alles maxed out. Immer Anschlag FPS-Limiter 142 Fps.
Nachdem ich den BS jetzt das zehnte mal gelesen hab, hab ich mir mal die Mühe gemacht und von 1440p auf 1080p geschaltet.
Ohne Downsampling ist es wohl kaum möglich eine 980ti oder Titan X “in die Knie zu zwingen“.
Mir fällt da auch kein anderes Spiel ein in dem das möglich wäre. Arma 3 vielleicht.
Hisn hatte in dem Zusammenhang auch SSAA erwähnt, was dann wohl eher mit Downsampling Frameraten einher geht - ist jetzt halt mehr als max.out Ingame.
Arma3 wird wohl eher CPU limitiert sein.
 
Das entspricht dann auch nicht mehr FHD.
 
Es ist ja immer schön, wenn der Stromverbrauch sinkt und das sagen ja mittlerweile auch viele, für welche das sonst nebensächlich ist, weil Temperaturen und Lautstärke, sowie gesamtenergie sinken oder wenn sie grün Leben kein Auto nutzen.

Aber was viel zu selten sind die Energie und Rohstoffverbräuche für Produktion, Transport u.s.w von der Schädigung beim Abbau und Gewinnung ganz abgesehen. Jede neue Produktion hat einen unangenehmen Nachgeschmack. Und solange beide Hersteller, was aus unternehmerischer Sicht natürlich verständlich ist, Leistung / neue Technologieen nur scheibchenweise und wohl dosiert anbieten bleibt bei mir die große Freude aus. Von der emotionalen Komponente, sich ständig verarscht zu fühlen mal abgesehen.

Schön, das viele hier von langen Nutzungszeiten sprechen und zufrieden sind und erwähnen, dass man durch den gesunden Konsumverzicht den Anbietern mal zeigen wird, dass man warum auch immer nicht mitmacht. Klingt zwar doof, aber eigentlich kann man auch glücklich über die hohen Preise sein - dann wird wenigstens weniger produziert (ich weiß, dass gebrauchte Karten weiter durch den Markt in Benutzung bleiben)
 
Also wenn die Performance tatsächlich so hoch ist bei dem Preis, dann ist der Name der Architektur in dem Fall wohl Programm, denn NVidia setzt AMD damit ziemlich (Achtung: schlechter Witz incoming) unter Druck. :lol:
 
kisser schrieb:
Die Benchmarks kommen doch von objektiven Dritten... CB hat doch ebenfalls.. .
Daran habe ich große Zweifel. Deshalb will ich noch etwas zuwarten bis ich mir ein Bild mache.
 
...über die Jahre hinaus hat CB immer nur die Leaks wieder gegeben, die dann auch in etwa der Wahrheit entsprachen. Große Überraschungen erwarte ich hier also nicht.
Zumal CB ja bereits die Karte hat und am testen ist!
Fake Leaks wurden in der Vergangenheit meist nicht übernommen - einzige Ausnahme, wenn diese so früh kamen, dass es eben nicht abzusehen war ob richtig oder falsch.

denn NVidia setzt AMD damit ziemlich (Achtung: schlechter Witz incoming) unter Druck.
nicht unbedingt, beide "wildern" doch in einem anderen "Revier"!
Wenn die stärkste AMD Karte die Leistung einer 390(x) hat, dann ist AMD derzeit vielleicht interessant für die Einstiegs- und untere Mittelklassen, aber nicht für die obere Mittelklasse-Karten die nVidia JETZT raus haut!

Richtig interessant wird es, wenn beide den großen Chip (Vega & GP100) veröffentlichen, vermutlich deutlich später in diesem Jahr / Anfang nächstes Jahr.
 
Zuletzt bearbeitet:
Zurück
Oben