Test GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

finde wer jetzt schon 4K spielen will, einfach ne OC GTX 980 TI rein, paar Regler einfach nach links (fällt meist eh nicht so extrem auf) und voila... es geht.

Auflösung > Grafikdetails (solange man nicht auf Medium muss) meine Meinung!
 
Faker2004 schrieb:
finde wer jetzt schon 4K spielen will, einfach ne OC GTX 980 TI rein, paar Regler einfach nach links (fällt meist eh nicht so extrem auf) und voila... es geht.

hm ja, in vielen spielen geht das so, sofern man bereit ist in dem ein oder anderen spiel mit 30fps zu leben.

https://www.youtube.com/watch?v=j2ruBPNeJnk

das ist jetzt zwar "nur"3135*1764 und damit 50% weniger pixel als 4k, aber die 980ti ist ja auch mal eben ~60% schneller.

mit 30fps in witcher 3 kann man sich sicherlich arrangieren, 30fps in rainbow six siege sind dann allerdings schon wieder echt doof^^
 
@Faker2004
Die erste Sparmaßname bei UHD ist das herunterdrehen vom Antialiasing und wer dennoch nicht darauf verzichten will lann es erstmal mit FXAA und Co. versuchen. Man sieht durch die hohe Auflösung ganz einfach ohnehin schon weniger Kanten.
Ist SSAA im Spiel würde ich den Leistungsbedarf für die UHD Auflösung ohne FSAA mit 4x SSAA bei 1080p vergleichen.
 
Wadenbeisser schrieb:
Es macht auch keinen Sinn erst den Vergleich zu Pro Duo zu verweigern weil sie ach so teuer wäre und dann erneut den Vergleich zu einer günstigeren Alternative zu verweigern die auf vergleichbare Werte kommen würde

Pro Duo -> Crossfire 2 GPUs 1 Platine
2x Nano -> Crossfire 2 GPUs 2 Platinen
1080 -> 1 GPU 1 Platine

Wo ist da jetzt der Vergleichsgrund? Die reine Verfügbarkeit?
Wenn es weder nach Preis noch nach Stromverbrauch, sondern nach Verfügbarkeit ginge, wäre folgende Aufstellung angemessen:

Pro Duo -> Crossfire 2 GPUs 1 Platine
R9 295x2 -> Crossfire 2 GPUs 1 Platine
2x Nano -> Crossfire 2 GPUs 2 Platinen
2x 1080 -> SLI 2 GPUs 2 Platinen
Titan Z -> SLI 2 GPUs 1 Platine
2x 780Ti -> SLI 2 GPUs 2 Platinen

Sunjy Kamikaze schrieb:
Da würde doch AMD den längsten Balken haben und das darf unter gar keinen umständen passieren...

Die würden allerdings nicht nur bei der Leistung den längeren Balken haben ;)
 
Wadenbeisser schrieb:
Schon eigenartig das hier immer wieder von der schnellsten Karte geredet wird obwohl es die Pro Duo gib, welche interessanter Weis ein keinem mir bekannten Test als Vergleichsmodell auftaucht. Der Preis scheint ja laut Aussage diverser User keine Rolle zu spielen.
hier: http://www.ashesofthesingularity.co...enchmark/overall/Medium_1080p?viewType=myself

kannst dich austoben. benches gabs schon vorm release der karte (von nv selbst)
die 1080 ist langsamer übrigens - was btw auch nicht verwunderlich ist.
 
ist schon legitim die pro duo mit zu testen.

muss nur jemand zum test bereitstellen und meckern darf dann niemand wenn sich im test parkour das ein oder andere spiel befindet das nicht oder nicht gut mit crossfire funktioniert.
 
@DocWindows
Sag doch einfach das dir nicht klar ist was eine Grafikkarte und was eine GPU ist.
Eine Grafikkarte besitzt idR. eine Platine und belegt heutzutage einen PCIe Slot.
Auf einer Grafikkarte können mehrere GPUs sitzen.
Anzahl der GPUs für die Frage nach der schnellsten Grafikkarte? Irrelevant

Warum der stellvertretende Vergleich mit 2 Nanos?
Tja, wer lesen kann dem wäre aufgefallen das es dabei um das Gejammer ging das die Pro Duo ach so teuer ist und deshalb nicht in den Tests wäre, wobei 2 Nanos auf vergleichbare Werte kämen.


@cruse
Verwunderlich ist das ganz sicher nicht aber es ging ohnehin nur um die hohle Rechtfertigung des Preises mit der Begründung der schnellsten Grafikkarte.


@sTOrM41
Vollkommen korrekt denn die Skalierung und die stärkere Abhängigkeit vom Treiber ist nunmal das Problem von multi GPU Konfigurationen.
 
Zuckerwatte schrieb:
Ich sehe bei anderen auch Links (z.b. bei mir...........) 2 Andere Forenmitglieder geben ihre eigene Erfahrung an - wie will man dazu einen Link bekommen?

joa wenn iwas nicht optimal läuft dann muss das langsame 512mb segment schuld sein, ist natürlich auch so wenn der vram überhaupt garnicht so weit gefüllt ist :freak:

musste grade herzlich lachen als ich den thg test zur 1080 gelesen habe und beim gta abschnitt gelandet bin, der mob steht doch so auf frametimes xD
http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111-6.html
"Interessanterweise zeigen die Radeon R9 Fury und die Radeon R9 390X – beide von AMDs Board-Partnern – scharfe Frame-Time-Spikes, die man während des Spielens als Ruckeln wahrnimmt. Die Referenzkarte Radeon R9 Fury X zeigt dieses Verhalten nicht."

bezüglich der treibergeschichte:
es ist nicht so das nvidia ältere karten langsamer macht, sie werden mit der zeit nur nicht unbedingt schneller.
http://www.babeltechreviews.com/nvidia-forgotten-kepler-gtx-780-ti-vs-290x-revisited/view-all/

bin so nett und erkläre ich dir sogar noch warum deine 290x heute besser läuft als bei release und unter dx12 ordentlich zulegen kann: grund dafür ist der dx11 overhead und das damit verbundene früher eintretende cpu limit bei den roten.
amd ist mittlerweile dabei das ganze etwas zu bekämpften, wobei die rot-rote kombo in gta auch heute noch keine schmucken fps produziert.
http://www.golem.de/news/directx-11...r-im-cpu-limit-beschleunigen-1502-112537.html
http://www.hardwareluxx.de/communit...-entwickelt-haben-1118284-8.html#post24583371
http://www.hardwareluxx.de/communit...ne-performance-im-dx11-cpu-limit-1089150.html
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Sag doch einfach das dir nicht klar ist was eine Grafikkarte und was eine GPU ist.
Eine Grafikkarte besitzt idR. eine Platine und belegt heutzutage einen PCIe Slot.
Auf einer Grafikkarte können mehrere GPUs sitzen.
Anzahl der GPUs für die Frage nach der schnellsten Grafikkarte? Irrelevant

Ich frage mich nur was du dir von dem Vergleich erhoffst.
Und wenn du konsequent sein möchtest und die schnellste Grafikkarte suchst, musst du halt auch die 2x 780Ti im SLI nachfordern, die dann als leistungsmäßiger Ersatz für die nicht vorhandene Titan Z agieren. Wenn du nicht so konsequent bist, dann gehe ich davon aus dass du nur ein Trostpflaster für irgendwas haben möchtest und das soll mir dann auch egal sein.
 
Der 16nm-Prozess schlägt ein wie eine Bombe. Hier hat Nvidia alles richtig gemacht: Hohe Taktfrequenzen sind nun möglich, wie es bisher keiner gesehen hat. Und dann eben die bestehende Maxwell-Architektur verfeinert. Perfekt!

Aber aus Sicht von uns Konsumenten: Der Geschwindigkeitsvorteil wird genauso auf den Kaufpreis draufgeschlagen. Das ist natürlich erstmal bitter. Drei Faktoren könn(t)en in naher Zukunft für bessere Preise sorgen:

1) Sobald die Karten überhaupt mal verfügbar sind und erste Partnermodelle auf den Markt kommen, könnte eine erste Konsolidierung der Preise einsetzen
2) Konkurrenz von AMD mit den Polariskarten
3) Release nächstes Jahr der High-End Karten

Zu 1) - Hier hat bereits 3dcenter.org korrekterweise darauf hingewiesen, dass auf Grund der langen Zeitspanne bis zum Release der High-End-Karten Anfang nächsten Jahres die 1070/1080 konkurrenzlos dastehen und dementsprechend gar kein Druck für Nvidia da ist, die Preise zu senken.

Zu 2) - Die Polariskarten von AMD könnten evtl. gar keine Konkurrenz für die GTX1070/80 werden, weil bspw. AMD die Packdichte zu sehr forciert und bei den Taktraten nicht mithalten kann. Mal schauen, wie gut auch die GCN2-Architektur sich schlagen wird. Falls es jedoch ein Flop wird... und dann gilt dasselbe wie unter 1)

Zu 3) - Mit den High-End-Karten nächstes Jahr wird ein neues Preissegment eröffnet, und zwar das 1000€+ Segment. Etwa in der Form, wie es Intel in den nächsten Wochen mit dem 10 Kerner von Broadwell-E machen wird.

Warten wir es ab... es bleibt spannend :D
 
Zuletzt bearbeitet:
sTOrM41 schrieb:
bin so nett und erkläre ich dir sogar noch warum deine 290x heute besser läuft als bei release und unter dx12 ordentlich zulegen kann: grund dafür ist der dx11 overhead und das damit verbundene früher eintretende cpu limit bei den roten.

Wo ist jetzt die Neuigkeit? DX 11 Overhead bei AMD ist größer ja und das ist doch schon länger bekannt?! (oder für dich etwa neu? ;) )- relativiert sich desto mehr desto stärker die CPU.

Ist ja auch der Grund wieso AMD Mantle gepusht hat .... du bist nicht der Nabel der Welt und auch nicht der Einzige der News lesen kann.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
Warum der stellvertretende Vergleich mit 2 Nanos?
Tja, wer lesen kann dem wäre aufgefallen das es dabei um das Gejammer ging das die Pro Duo ach so teuer ist und deshalb nicht in den Tests wäre, wobei 2 Nanos auf vergleichbare Werte kämen.

oder man testet einfach keine Pro Duo / 2 Nanos was in jedem Fall das Sinnvollste ist. ;)
 
@DocWindows
Was war an dem Posting so schwer zu verstehen?
Grafikkarte = ein PCB in einem Slot aber du kannst gern versuchen die 2 Grafikkarten in einen Slot zu pressen.

Die Titan Z unterlag übrigens nur allso oft der R9 295X2 weil sie einfach zu stark gedrosselt werden mußte um auf die TDP einzuhalten wärend die GPUs der Radeon voll takten konnten und die Karte dementsprechend viel Strom fraß. Zudem basiert sie noch auf 2 GK110 der bereits mit den Hawaii Karten zu kämpfen hatte.
Ergänzung ()

@Krautmaster
Wenn man sich den Blödsinn mit der Rechtfertigung des Preises mit der schnellsten Karte verkneift, ja. ;)
 
Keine Ahnung von was du träumst aber die 980 TI reicht für WHQD allemal. Doom läuft zum Beispiel in WHQD mit allen Einstellungen auf Ultra bzw Alptraum mit höchster Kantenglättung absolut flüssig.

Ich habe eine GTX 980 Ti und für mich reicht die definitiv nicht für 1440p. Es soll auch Leute mit Ansprüchen geben.

komich spiele mit meiner r9 390x alles auf fast ultra in 1440p

Jungs, ich glaube ihr kennt die falschen Spiele. Doom als Referenz nehmen? Lol. Probiert es mal mit GTA5, Rise of the Tomb Raider, oder Witcher 3 zum Beispiel. Die drei genannten Spiele sind unmöglich mit einer 980 Ti zu spielen auf 1440p und max Details. Aber gut, manchen reicht auch ein Smart...
 
Zuletzt bearbeitet:
bei pcgamer hat man sich übrigens die mühe gemacht und die pro duo in form von zwei nano nachgestellt

d92hxs24d04l7cuf2.jpg

http://www.pcgamer.com/gtx-1080-review/
 
Wadenbeisser schrieb:
Was war an dem Posting so schwer zu verstehen?

Wenn man sich den Blödsinn mit der Rechtfertigung des Preises mit der schnellsten Karte verkneift, ja. ;)

Ich verstehe jetzt was deine Postings bezwecken. Du forderst einfach irgendwas was keinen Sinn macht um eine Aussage indirekt zu kritisieren die dir nicht passt.
Klassisches Trollen. Schande über mich dass ich darauf reingefallen bin und ernsthaft argumentiert habe. Passiert mir nicht nochmal.
 
Zuletzt bearbeitet:
Wadenbeisser schrieb:
@Faker2004
Die erste Sparmaßname bei UHD ist das herunterdrehen vom Antialiasing und wer dennoch nicht darauf verzichten will lann es erstmal mit FXAA und Co. versuchen. Man sieht durch die hohe Auflösung ganz einfach ohnehin schon weniger Kanten.
Ist SSAA im Spiel würde ich den Leistungsbedarf für die UHD Auflösung ohne FSAA mit 4x SSAA bei 1080p vergleichen.

Bei 1080p ist es ja noch einfach den da nimmt man einfach DSR 4x zum testen.
 
Zuletzt bearbeitet:
Marzee schrieb:
Bin ich der einzige der die Kommentare hier nur zu Unterhaltungszwecken liest?

nein...
hab zwar gehofft das sich einer meiner frage bezueglich des leistungsgewinn durch die SLI-HB Bruecke annimmt...
aber naja so hab ich wenigstens was zum kopfschuetteln :D
 
sTOrM41 schrieb:
musste grade herzlich lachen als ich den thg test zur 1080 gelesen habe und beim gta abschnitt gelandet bin, der mob steht doch so auf frametimes xD
http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111-6.html
"Interessanterweise zeigen die Radeon R9 Fury und die Radeon R9 390X – beide von AMDs Board-Partnern – scharfe Frame-Time-Spikes, die man während des Spielens als Ruckeln wahrnimmt. Die Referenzkarte Radeon R9 Fury X zeigt dieses Verhalten nicht."

Du bist so witzig mit deinem "Mob" ich warte noch auf "Lügenpresse!"

Was genau hat die Fury jetzt auf einmal hiermit zu tun? oder versuchst du nur Gegenbeispiele bei AMD zu finden wo es auch solche Probleme gibt? Ich bin eigentlich nicht auf rot - grün bashing aus du aber anscheinend schon - warum auch immer.

Spiel einfach mal ein sehr modded Skyrim wo es keinen optimierten Treiber gibt - dann merkst du auch die Hardwareschwäche der 970, was die 0,5GB angeht. Frameeinbrüche können auch Treiberbedingt ( Beta Treiber etc) verursacht werden. Ich versuche hier auf das Architekturproblem hinzuweisen und alles was von dir kommt sind Softwareprobleme....

Ich spreche davon:http://www.3dcenter.org/dateien/abbildungen/nVidia-GeForce-GTX-970-3,5-GB-Problem.png http://s2.postimg.org/3rzewj3ll/GTX970.png

Und nicht von Treibern aka Softwarelösungen für Hardwareprobleme. Das Problem bleibt in Hardware auch wenn es zur Zeit per Software(Treiber) abgefangen wird. Und nochmal - ja in 97% aller Fälle gibt es da stand jetzt keine Probleme, da der Treiber das abfängt.
 
@Vitec
Kommt von den Anforderungen her ca. auf das gleiche raus allerdings gefiel mir bei meinem Selbstversuch das Bild in UHD dennoch besser weil das Bild durch die kleineren Pixel einfach ruhiger wurde.

@DocWindows
Wenn in deinen Augen das Widerlegen sinnloser bzw. falscher Aussagen trollen ist dann bin ich für dich gern ein Troll.
 
Zurück
Oben