Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia GeForce GTX 1080: Pascal-OC-Benchmarks deklassieren Titan X
Nvidia kommuniziert die Änderungen/Optimierungen in dem bereich doch höchst selbst. >Inside Pascal
Genau dort beschreibt Nvidia was bei Pascal in dem bereich geändert wurde. Nvidia ist in dieser Frage immer noch hinter GCN 1.0 zurück und zwar deutlich.
Ist das jetzt einfach nur Unwissenheit oder absichtlich gelogen?
Ab Kepler sind alle NVidia GPUs DX12-fähig.
Ergänzung ()
Moriendor schrieb:
.... die aufzeigen, dass ASync Compute (mMn im Übrigen ein völlig überbewertetes Feature, da selten praxisrelevant, aber das nur am Rande) auf Pascal nach wie vor nicht unterstützt wird.
Ich hoffe nur das die Titan/X nicht künstlich über den Treiber gebremst werden um das Geschäft mit neuen Karten anzukurbeln.
Meine Titan X ist in Doom 1440P noch ganz gut unterwegs
Also rein aus Verbesserungen der Architektur heraus. Das ist bei Pascal vs. Maxwell nicht der Fall, was dafür spricht, dass es sich hier lediglich um einen shrink der Maxwell Architektur handelt.
Schaut man die Blockschaltbilder von der P100 an und vergleicht diese mit Maxwell gibt es schon deutliche Änderungen. Aus diesem Grund kann Pascal nicht einfach ein shrink sein. Sonst gäbe es keine drastischen Änderungen. Es ist eine Weiterentwicklung der Maxwell Architektur.
Andregee schrieb:
Das heißt, du erachtet es als völlig unerheblich, das du zu Zeiten alter Marktstrukturen so um 2011 eine Karte der Titan Kategorie für 500 Euro und eine Karte der 1080 Kategorie für 250 bis 300 hättest erstehen können.
Früher hätte ich damit auch ein Auto bekommen. Früher war alles günstiger..
janeeisklar schrieb:
Nvidia kommuniziert die Änderungen/Optimierungen in dem bereich doch höchst selbst. >Inside Pascal
Genau dort beschreibt Nvidia was bei Pascal in dem bereich geändert wurde.
NV ist der GCN 1.0 weit voraus Denn ACE läuft erst ab der zweiten Generation von GCN, was selbst AMD so schreibt:
Because the Asynchronous Compute Engines in the GCN architecture are programmable and can manage resource scheduling in hardware, this feature can be enabled on existing GPUs (2nd generation GCN or later) with a driver update.
Da geht es um "Quick Response Queue", dies gibt es "erst" mit GCN 1.1 (also schon vorhanden in Hardware ab HD 7790, RX 290/260) Alleine dies wird den vorsprung zu Nvidia weiter vergrößern.
NV ist immer noch bei preemption, also inc Kontextwechsel :O
strex schrieb:
New asynchronous compute advances improve efficiency and gaming performance.
Das ist Stuss, natürlich kann der Treiber (GFX und Compute) annehmen und sobald Compute ausgeführt werden muss wird GFX unterbrochen (=preemption!). Aber klar, das ist kein Asynchronous Shader.
Ihr könnte nicht einfach nur die Blockschaltbilder nehmen und sagen das sei die "Architektur". Das ist viel zu einfach gedacht. Das Blockschaltbild ist nur ein grober Überblick, was sich auf dem Chip befindet. Wie das alles ausgeführt ist, ist ein anderer Hut. Im Maschinenbau wäre zB eine Prinzipskizze wie so ein Blockschaltbild zu betrachten. Wie aber die fertigen Teile und Baugruppen im Detail aussehen, ist schon wieder eine ganz andere Nummer. Die Details machen hier einen großen Unterschied. Der Aufbau von Wärmekraftwerken oder Otto-Motore hat sich seit 150 Jahren auch nicht oder kaum geändert. Trotzdem sind diese Apparate heute etwas völlig anderes, als vor 100 Jahren.
@Hisn: Ich weiss ja, das ist dein Mantra, aber was zockst du für Spiele?
Mit Battlefield 4 in FHD bekomme ich meine 980ti nicht unter 30fps. Alles maxed out. Immer Anschlag FPS-Limiter 142 Fps.
Nachdem ich den BS jetzt das zehnte mal gelesen hab, hab ich mir mal die Mühe gemacht und von 1440p auf 1080p geschaltet.
Ohne Downsampling ist es wohl kaum möglich eine 980ti oder Titan X “in die Knie zu zwingen“.
Mir fällt da auch kein anderes Spiel ein in dem das möglich wäre. Arma 3 vielleicht.
Die Benchmarks kommen doch von objektiven Dritten, nämlich von den Testern, die die Hardware bereits im Labor haben. CB hat doch ebenfalls schon ein Exempler.
@Hisn: Ich weiss ja, das ist dein Mantra, aber was zockst du für Spiele?
Mit Battlefield 4 in FHD bekomme ich meine 980ti nicht unter 30fps. Alles maxed out. Immer Anschlag FPS-Limiter 142 Fps.
Nachdem ich den BS jetzt das zehnte mal gelesen hab, hab ich mir mal die Mühe gemacht und von 1440p auf 1080p geschaltet.
Ohne Downsampling ist es wohl kaum möglich eine 980ti oder Titan X “in die Knie zu zwingen“.
Mir fällt da auch kein anderes Spiel ein in dem das möglich wäre. Arma 3 vielleicht.
Hisn hatte in dem Zusammenhang auch SSAA erwähnt, was dann wohl eher mit Downsampling Frameraten einher geht - ist jetzt halt mehr als max.out Ingame.
Arma3 wird wohl eher CPU limitiert sein.
Es ist ja immer schön, wenn der Stromverbrauch sinkt und das sagen ja mittlerweile auch viele, für welche das sonst nebensächlich ist, weil Temperaturen und Lautstärke, sowie gesamtenergie sinken oder wenn sie grün Leben kein Auto nutzen.
Aber was viel zu selten sind die Energie und Rohstoffverbräuche für Produktion, Transport u.s.w von der Schädigung beim Abbau und Gewinnung ganz abgesehen. Jede neue Produktion hat einen unangenehmen Nachgeschmack. Und solange beide Hersteller, was aus unternehmerischer Sicht natürlich verständlich ist, Leistung / neue Technologieen nur scheibchenweise und wohl dosiert anbieten bleibt bei mir die große Freude aus. Von der emotionalen Komponente, sich ständig verarscht zu fühlen mal abgesehen.
Schön, das viele hier von langen Nutzungszeiten sprechen und zufrieden sind und erwähnen, dass man durch den gesunden Konsumverzicht den Anbietern mal zeigen wird, dass man warum auch immer nicht mitmacht. Klingt zwar doof, aber eigentlich kann man auch glücklich über die hohen Preise sein - dann wird wenigstens weniger produziert (ich weiß, dass gebrauchte Karten weiter durch den Markt in Benutzung bleiben)
Also wenn die Performance tatsächlich so hoch ist bei dem Preis, dann ist der Name der Architektur in dem Fall wohl Programm, denn NVidia setzt AMD damit ziemlich (Achtung: schlechter Witz incoming) unter Druck.
...über die Jahre hinaus hat CB immer nur die Leaks wieder gegeben, die dann auch in etwa der Wahrheit entsprachen. Große Überraschungen erwarte ich hier also nicht.
Zumal CB ja bereits die Karte hat und am testen ist!
Fake Leaks wurden in der Vergangenheit meist nicht übernommen - einzige Ausnahme, wenn diese so früh kamen, dass es eben nicht abzusehen war ob richtig oder falsch.
denn NVidia setzt AMD damit ziemlich (Achtung: schlechter Witz incoming) unter Druck.
nicht unbedingt, beide "wildern" doch in einem anderen "Revier"!
Wenn die stärkste AMD Karte die Leistung einer 390(x) hat, dann ist AMD derzeit vielleicht interessant für die Einstiegs- und untere Mittelklassen, aber nicht für die obere Mittelklasse-Karten die nVidia JETZT raus haut!
Richtig interessant wird es, wenn beide den großen Chip (Vega & GP100) veröffentlichen, vermutlich deutlich später in diesem Jahr / Anfang nächstes Jahr.