Test GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

ChrisMK72 schrieb:
Ja, das mit dem CPU Vergleich war etwas merkwürdig.

Wieso die neue CPU @ 4,5 Ghz mit der alten @ stock verglichen wird: rätselhaft.
Keine Zeit ?

Wäre interessanter wenn man schon ne alte CPU die zum Übertakten gemacht wurde vergleicht, die dann zumindest ebenfalls so übertaktet zu vergleichen, evtl. auch auf 4-4,5 Ghz.
Glaub kaum, dass da die CPU drosselt, vor allem nicht in den höheren Auflösungen Richtung 4k.
Da dürfte doch die GPU ausschlaggebend sein.


Und was ich auch nicht ganz so dolle fand, bei den benchmarks, dass nur die durchschnittlichen FPS gezeigt wurden.
Dass in 4k dann die FPS doch teils deutlich unter die 40 FPS gehen, nix zu sehen.

So viel zur konstruktiven Kritik.

vielleicht damit Leute die eine 2500, 2400 non K CPU haben auch nen Vergleich haben. Aber wenn man sich mal die getesteten Games und deren Ergebnisse anschaut, hätte eine übertaktete 2500k CPU nicht wirklich einen Unterschied gemacht, wenn schon ein übertakter i7 6700k die selben Ergebnisse liefert, aufgrund weil die Games hauptsächlich GPU lastig sind.
 
Zuletzt bearbeitet:
ChrisMK72 schrieb:
Wieso die neue CPU @ 4,5 Ghz mit der alten @ stock verglichen wird: rätselhaft.
Keine Zeit ?

es geht ja an sich nicht um den Vergleich der beiden CPUs sondern um die Leistungsklasse des 2500K, da diese CPU viele noch ihr eigen nennen ;) Der 6700K im Test ist übertaktet damit die schnellen GPUs nicht ausgebremst werden durch den Prozessor ;)
 
Wir werden sehen, waseine 1080ti abliefert. Ist das eigentlich schon klar das die kommt oder setzen alle es einfach voraus?
 
Verkaufe 2x GTX 980 Wassergekühlt (Aus meinem Projekt)! :D

Danke für den ausführlichen Test!

Lohnt sich, obwohl ich eig. warten wollte (auf den Big Chip), umzusteigen wenn die Partner Karten draußen sind (und/oder es Wasserkühler gibt ;) ). Weniger Verlustleistung, und mehr Roh-Leistung für alle Spiele - nicht wie bei SLI, wo nur wenige Unterstützt werden.
 
Ich warte jetzt nur noch auf die 1070er und hoffe die bewegt sich leistungsmäßig in der Nähe der 980Ti.
Dann noch ca. 2 Monate nach Release abwarten und hoffentlich für um die 400€ zuschlagen können.
 
Nach über 420 teils sehr emotionalen Meinungsäußerungen, möchte ich zur Abwechslung mal zwei sachliche Fragen zum Artikel stellen:

  1. Was genau ist jetzt neu an dieser "Simultaneous Multi-Projection"? Man kann doch schon seit den Direct3D 10 / OpenGL 3 Grafikkarten-Generationen in mehrere Viewports gleichzeitig rendern, ohne dass der Vertexshader mehrfach ausgeführt werden muss. Diese Technik ist gang und gäbe, um z.B. in eine Cubemap (mit 6 Perspektiven) zu rendern. Davon abgesehen dass SMP offenbar das Nvidia-SDK benötigt, verstehe ich nicht, wo der Unterschied ist.
  2. Ist das wirklich so gemeint, oder hat sich der Redakteur hier vertippt:
    Während Preemption für Compute grundsätzlich nichts Neues ist [...], kann Pascal es auch für die Graphics-Pipeline durchführen (Pixel Level Preemption) – laut Nvidia als einzige GPU derzeit. Das Umschalten soll in weniger als 100 Millisekunden erfolgen können.
    100 ms? Das ist eine zehntel-Sekunde. Bei 60 Frames pro Sekunde dauert ein Frame 16,67 ms.

So und nun meine unsachliche Meinung: Ich bin von der mangelnden Neutralität des Artikels enttäuscht. Sätze wie diese sind eindeutig eine Meinung und kein Fakt:
Abseits des Kühlsystems ist die GeForce GTX 1080 (Founders Edition) die derzeit mit Abstand beste Grafikkarte am Markt.
Hier mal drei Beispiele, wann die GTX 1080 eindeutig nicht die beste Wahl wäre:
- wenn man wenig Geld hat
- wenn man auf open-source Treiber besteht
- wenn man ein schwaches Netzteil hat (z.B. ohne extra PCIe-Anschluss)

Wenn ihr "schnellste" Grafikkarte schreibt und sich dies durch Benchmarks belegen lässt, ist das in Ordnung. "Beste" Grafikkarte ist immer subjektiv und hängt stark vom Anwendungsfall ab. Leider ziehen sich solche Unsachlichkeiten durch den ganzen Artikel (und die Überschrift). Früher waren eure Tests besser! Ihr nähert euch qualitativ eurem Forum an, was sehr schade ist.
 
Zuletzt bearbeitet:
Oh man in so kurzer Zeit soo viele Kommentare :D

Ich bin jetzt vor allem auf die 1080 Ti und auf die kommenden Partner-Designs gespannt, vielleicht sind dann ja 1,8GHz auch unter Dauerlast drin :)
 
janeeisklar schrieb:
"Preemption Compute" ist kein "Asyncrosus Compute" und es ist schon gar kein Asynchronous Shader.
Nvidia kann nur Preemption Compute.

Deshalb nennt sich auch der zweite Part "Pascal Dynamic Load Balancing". Das sind auch zwei paar Schuhe.

VC-GTX-1080-96.jpg

pastedImage_5.png

Einfach mal beide Bilder vergleichen, was sehen wir, nämlich das die einzelnen Shaders ohne idle zwischen Compute und Graphics wechseln können.
 
strex schrieb:
@Tinpoint

Und der Text sagt das doch genau:

Nix anderes wie bei AMD und somit reduziert AS auch keine Leistung mehr wie es bei Maxwell der Fall war.

ja hab ich doch markiert, nur klingt das so als ob der Redakteur sich nicht festnageln lassen wollte xD
 
cristi_petre schrieb:
Und die die sowas gleich kaufen unterstützen sowas auch noch super weiter so...

naja, das Problem ist schlicht das, dass die Karte heute die einzige 16nm GPU is mit der Effizienz und Leistung. Jeder lässt sich sowas gern vergolden. Deswegen kommt die Normale Version auch erst ca dann, wenn die Konkurrenz zumindest nach unten etwas mehr Auswahl anbietet.
 
Dai6oro schrieb:
Kannst ja gerne die OC Werte einer Custom posten ... wait ...



Wenn der Fullcover nicht auf das Custom PCB passt nützt das leider nix. Außer man wartet ne halbe Ewigkeit bis sich einer erbarmt. Und genau das ist ja immer die Krux an der Wakü. Am besten für OC geeignet dank der Kühlleistung aber leider sind die meisten Fullcover nur für die Referenzplatine geeignet die wiederum oftmals in der Stromversorgung begrenzt sind. Ein Teufelskreis ;-)

Marketingmärchen. Das ist eine Empfehlung von Nvidia gewesen. Stichwort "expected"

Bitteschön: http://www.pcgameshardware.de/Nvidi...arte-262111/Videos/2-1-GHz-OC-record-1195591/

Ich meinte damit nur dass man das OC Potential einer Graka sicher nicht mit dem Referenzkühler festlegt...

EKWB bietet meist relativ schnell Wakü-Blocks an auch für Custom Karten
 
majusss schrieb:
Was habt ihr denn alle mit dem Preis?! Nur die Founders Edition ist doch auf 699 USD gesetzt! Die normalen Partnerkarten haben einen Preispunkt von 599 USD sind also 100 USD günstiger. Die 980 kostet auch 570 € beim Launch, also wird die 1080 auch nicht sooo viel teurer... Bei der FE bezahlt man doch extra für die frühe Auslieferung...

Das glaubst du doch selber nicht? Der Preis wird sich dort oben festsetzen.
 
So wie es ausschaut ist der Referenzkühler doch nicht so brauchbar wie ich dachte. Wird also mein Accelero Xtreme 4 draufgeklatscht. Denke mal die 2GHz sollten da gut drin sein dann. Dem Powertarget kann man mit ein paar Anpassungen im Grakabios auf die Sprünge helfen.
 
@Tinpoint

Dazu müsste er sich ja nur AoS Benches mit und ohne AS anschauen, so wie es etwa HWLuxx tat. Ebenfalls vergleicht hier HWLuxx, dass NVs DX11 mit DX12 ebenbürtig ist, was für einen hochoptimierten DX11 Treiber spricht..

http://www.hardwareluxx.de/index.ph...-pascal-architektur-im-xxl-test.html?start=32

Zusammengefasst ist jetzt NV mit AMD bezüglich Umsetzung in DX12 gleich auf. Nur der Vorteil in DX11 bleibt noch.
 
Zuletzt bearbeitet:
Das sind rund 190€ Aufpreis gegenüber einer GTX 980 Ti, welche an sich schon überteuert ist.

Nachdem ich mir die Tests von einigen Seiten angeschaut habe; Komplett überzogener Preis.
Aber gut, wer jetzt zuschlägt ist, meines Erachtens nach, eh selber Schuld und dumm, wenn die Custom Karten um die Ecke sind und dann ~100€ weniger kosten.

Wie schon viele hier, zum Glück, gesagt haben, ist das absolut kein Paukenschlag. Aber gut, mit objektiven Formulierungen habt ihr es ja eh nicht mehr so, oder?
Das Fazit von Hardwareluxx ließt sich z.B. viel neutraler und es wird weniger "Hurra-Patriotismus" verwendet.
 
TheOpenfield schrieb:
Nicht mit der ref. Platine...

sag das nicht ;)

Schau mal die ersten OC Results der GTX TITAN an und nun auf die mit Modbios.

120% Powerlimit is ja lächerlich. Das PCB hat ne bessere Versorgung als die GTX 980bei weniger TDP. 300W kann das locker ab wenn die Spawas anständig gekühlt sind und sicher auch 1,2V. Da lacht der Chip trotzdem drüber und kann mit passendem Kühler gut gekühlt werden.
 
10% schneller als die TI? Wozu die ganze Aufregung?
 
var const schrieb:
So und nun meine unsachliche Meinung: Ich bin von der mangelnden Neutralität des Artikels enttäuscht. Sätze wie diese sind eindeutig eine Meinung und kein Fakt:
Hier mal drei Beispiele, wann die GTX 1080 eindeutig nicht die beste Wahl wäre:
- wenn man wenig Geld hat
- wenn man auf open-source Treiber besteht
- wenn man ein schwaches Netzteil hat (z.B. ohne extra PCIe-Anschluss)

Wenn ihr "schnellste" Grafikkarte schreibt und sich dies durch Benchmarks belegen lässt, ist das in Ordnung. "Beste" Grafikkarte ist immer subjektiv und hängt stark vom Anwendungsfall ab. Leider ziehen sich solche Unsachlichkeiten durch den ganzen Artikel (und die Überschrift). Früher waren eure Tests besser! Ihr nähert euch qualitativ eurem Forum an, was sehr schade ist.

In der Tat eine unsachlich Meinung, denn "Beste Wahl" impliziert immer ein Szenario, "Beste" ist die derzeit top Grafikkarte ;)
 
Zurück
Oben