Test GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

xexex schrieb:
Werbewirksamer Marketinggewäsch von NVidia. Microsoft bietet mit Windows 10 ähnliche Präsentationmodelle an.

Interessant. Sind das Sachen, die in UWP Spielen angewandt werden? Das wäre ein dicker Pluspunkt.
 
Kasmopaya schrieb:
Eine 8800GTX 768MB hat den vollen Vram mit bekommen, alles was geht, genau wie zb. eine HD 7970 3GB. Solche Karten sind Dauerläufer und richtig gut ausbalancierte Karten was Rohleistung und Vram Menge betrifft. Die 1080er könnte locker mit 16GB Vram umgehen über die Jahre, hat aber nur 50% also 8GB bekommen. Du und CB haben das anscheinend nicht mal mit bekommen.
Ja, so ganz Unrecht hast du damit nicht. Immerhin setzt man so eine Karte nicht nur 1 Jahr ein bei dem Preis sondern möchte sie wohl, wenn man schon so viel Geld ausgibt, auch sicherlich 3, wenn nicht 4 Jahre verwenden - und wer weiß, was in 3 Jahren aktuell ist. Deswegen hoffe ich ja auch, dass AMD mit dem VRAM bei den Polaris-Karten etwas spendabler sein wird. Meine 7970 reicht mir zwar theoretisch noch, aber da ich mir wohl in naher Zukunft auch noch einen 144 Hz Monitor holen möchte, wird diese dann nicht mehr reichen.
 
morksig schrieb:
Verstehe immer noch nich, warum man unbedingt mehr FPS als Hz haben will.

Wegen dem geringeren output-Lag.

Mir ist das z.B. wichtiger, daher kann ich auch gut mit Tearing leben. Fällt bei hohen FPS sowieso weniger auf.
 
Finde mit dieser Karte geht mal wieder kräftig was in Sachen Leitung weiter:hammer_alt:

~ 30% schneller als die 980TI und Fury X, ~60% schneller als die 980 - alles @Stock

Bei der Fury X wird das Ergebnis durch deren faktisch nicht vorhandene übertaktbarkeit noch ricchtig übel werden wenn mal Zotac mit der GTX 1080 AMP Extreme nachlegt. Mit einem weiteren 6Pol. Anschluss werden die 2 GHZ+ fallen.:D

Natürlich kann NVIDIA preislich jetzt mangels Mitbewerber verlangen was sie möchten. Wenn so eine Leistung ja eh kein Problem (wie viele User hier rausposaunen) darstellt wo bleibt dann AMD mit ihren Karten? Anscheinend doch nicht alles so Easy.

Für mich der sich fast schon die 980TI gekauft hätte die perfekt Karte um aufzurüsten. Auch wenn ich befürchte das Zotac zwischen 700-800 Euro für die AMP Extreme verlangen wird. Aber alle 3 Jahre geht das schon.
 
Alkcair schrieb:
Ja, so ganz Unrecht hast du damit nicht. Immerhin setzt man so eine Karte nicht nur 1 Jahr ein bei dem Preis sondern möchte sie wohl, wenn man schon so viel Geld ausgibt, auch sicherlich 3, wenn nicht 4 Jahre verwenden - und wer weiß, was in 3 Jahren aktuell ist. Deswegen hoffe ich ja auch, dass AMD mit dem VRAM bei den Polaris-Karten etwas spendabler sein wird.

http://videocardz.com/amd/radeon-rx-400

Hier siehst du doch den VRAM der Polaris Karten, dass stimmt schon zu 99%.
 
morksig schrieb:
Lese grad noch den Artikel.



Also hardwareseitiges Triplebuffering wie man es softwareseitig aus OpenGL kennt? Das wäre in der DirectX-Spezifikation besser aufgehoben imo. Trotzdem schön wenns mal jemand einführt. Kombiniert mit nem FPS-Limiter dann vielleicht die Rundum-sorglos-VSync Option. Verstehe immer noch nich, warum man unbedingt mehr FPS als Hz haben will.

Hab ich auf Seite 6 auch schonmal angemerkt, hat aber keinen interessiert. https://www.computerbase.de/forum/t...8-ghz-und-gddr5x.1585434/page-6#post-18809087

Das ist nichtmal hardwareseitig, sondern ist nur im Treiber, soll wohl auch noch für Maxwell kommen.

NVidia verkauft mal wieder steinalte Technik unter neuem Namen als ihre neue Supdupererfindung. OpenGL Triple Buffering macht das so seit Jahrzehnten und der Windows Desktop Manager seit Windows 7 wenn eine Anwendung im Fenster läuft.

Go NVidia :rolleyes:

Auch schön hier im Video als bei 16:12 genau die Frage kommt: https://www.youtube.com/watch?v=WpUX8ZNkn2U

"Ist das nicht einfach Triple Buffering" "Neinnein, Triple Buffering funktioniert gaaaaanz anders, wir haben da wieder was ultratolles hervorgezaubert" Is klar, ne :freak:

Der hätte sich mal über das informieren sollen was er da erzählt, bevor man so jemanden auf die Bühne und die Journalisten für dumm verkaufen lässt.
 
Zuletzt bearbeitet:
klabur1 schrieb:
Natürlich kann NVIDIA preislich jetzt mangels Mitbewerber verlangen was sie möchten. Wenn so eine Leistung ja eh kein Problem (wie viele User hier rausposaunen) darstellt wo bleibt dann AMD mit ihren Karten? Anscheinend doch nicht alles so Easy.
AMD bedient erst das wichtigste Segment im GPU-Markt, nämlich Low- bis Mid-End. Besser gesagt Mainstream, also dort, wo sich die meisten Kunden aufhalten und wo man zu angemessenen Preisen eine gute Leistung erhält.

klabur1 schrieb:
Für mich der sich fast schon die 980TI gekauft hätte die perfekt Karte um aufzurüsten. Auch wenn ich befürchte das Zotac zwischen 700-800 Euro für die AMP Extreme verlangen wird. Aber alle 3 Jahre geht das schon.
Bei den Custom-Designs denke ich, dass man mit ~850€ anfangs rechnen kann. Warum die (deutlich) besseren Varianten für weniger verkaufen, als das Referenzmodell?
 
Also die Leistung ist schon ziemlich gut. Nur glaube ich wäre viel mehr drin gewesen, Nvidia und AMD werden diese Strukturgröße bis aufs letzte auslutschen, dadurch entsteht soviel Profit wie irgendmöglich. Schon Merkwürdig dass NV den Highend Markt bedient und AMD nur den Low-Middle Bereich, wirkt alles kalkuliert.
 
Dark_Knight schrieb:
Da ich den Test jetzt erst gelesen habe und im Moment nicht die Lust verspüre 26 Seiten Kommentare zu lesen. Hier mal meine Meinung im spezielllen zu Async Computing.

Ich lese immer noch nicht heraus ob Pascal das jetzt Hardwaremäßig kann oder ob es Softwaremäßig emuliert wird. Meine Vermutung ist aber, das Softwaremäßig emuliert wird, anders kann man sich die doch geringen Sprünge nicht erklären, die man hat, wenn Async Computing eingeschaltet ist. Genug Zeit hatte nVidia jetzt es ein zu binden. Somit ist es nicht Hardwaremäßig bei Pascal integriert.

Schade, aber wenn es sich bewahrheitet, ist die Karte zwar die neue schnellste. Aber auf lange Sicht gesehen, kauft man bei nVidia wieder zweimal, weil wichtige Kernfeatures fehlen.

Es ist in Hardware, wie oft denn noch. Anders wäre es kaum ohne idle zu lösen. Das man nicht wie AMD solche Sprünge macht ist einfach erklärt. Bei NV arbeitet DX11 fast so gut wie in DX12. NV setzt bei DX11 die Rohleistung fast komplett um, was AMD nicht kann oder will. Nur weil AMD solche grottigen Treiber/Architektur für DX11 hat kann NV da noch lang nichts dafür.

Die 1080 liegt in AoS mit AS vor der Fury X. Das ist einfach erklärt, nämlich durch die 0,4 Tflops (8,6 zu 9,0) mehr zur Fury X. Somit arbeiten beide in DX12 mit AS gleich.

Sunjy Kamikaze schrieb:
Sorry aber.. die Aussage... Nvidia wird mit Pascal bei DX zumindest nicht langsamer als Positiv zu bezeichnen ist ja schon ein wenig lächerlich oder?

Ich meine das is genau das wofür dich mir eine sehr teure Karte kaufe.. Das DX12 anständig supportet wird... und was hab ich dann jetzt bei nvidia davon... meine Karte wird wenigstens nicht langsamer... das is ja wohl das mega Featuere schlecht hin.
Hoffe wirklich das AMD dort nochmals zulegen kann.

Der nächste der es nicht verstanden hat. Warum diskutieren, wenn man es nicht versteht. NV kriegt die Rohleistung auf die Straße, AMD aktuell nur mit DX12. Nicht umsonst hat die Fury X 8,6 TFlops..die 1080 hat auch nur 9 TFlops.
 
Zuletzt bearbeitet:
Warum die (deutlich) besseren Varianten für weniger verkaufen, als das Referenzmodell?
...weil die anderen Hersteller auch Karten verkaufen wollen und so gibt es Konkurrenz bei einem Modell von verschiedenen Herstellern. Natürlich werden die early-Birds erst mal abgegriffen, aber dann gehts bergab, solange die Verfügbarkeit gewährleistet ist!
Ferner sind da ja dann auch noch die Verkäufer wie Alternate mit zackzack und Mindfactory mit ihren Sonderangeboten - wenn von einem Modell das Lager voll ist, wird für kleinen Gewinn abverkauft!
Das gab es schon zu Titan Zeiten als jede Karte das gleiche kostete und dennoch Schnapper unterwegs waren!
Das wichtigste ist, dass man keine Hektik beim Kauf an den Tag legt und sich bei den einschlägigen Seiten häufiger umsieht!
 
Zuletzt bearbeitet:
Was ist denn der unterschied zwischen hdmi 2.0a und 2.0b :S.

Sicher gute graka, allerdings finde ich persönlich die Leistung für 4k nicht ausreichend. 2,5k find ich ausreichend. Vermute aber in 2-3ahren sind wir relativ gut im 4k löst full hd ab stadium angekommen.
 
Puh, da werden ja die knapp unter 600€ (laut Geizhals) für eine 980Ti fast zum Schnapper.
Die Karte ist gut - Der Preis ist eine Frechheit!
Aber gut, so lässt man AMD noch etwas Luft zum atmen.

600€ hätte ich für angemessen gehalten. So wird man häppchenweise wieder die Kunden melken.
~800€ Founder 1080, in 2 Monaten ~750€ Custom, in 4-5 Monaten dann die 1080 Ti, dann die Titan kurz vor oder nach Weihnachten.
Immer in 10 - 15% Sprüngen.
 
mr_andersson schrieb:
Wegen dem geringeren output-Lag.

Mir ist das z.B. wichtiger, daher kann ich auch gut mit Tearing leben. Fällt bei hohen FPS sowieso weniger auf.

Wurde das mal irgendwo untersucht? Solange kein Doublebuffering im Spiel ist, das Frames verzögert, sehe ich keine Latenzquelle. Und Tearing gibt es unabhängig von den FPS immer, wenn das Befüllen des scanout buffers asynchron zum Lesen läuft.
 
Auch wenn der Core i5-2500K immer noch schnell genug ist, in den meisten Spielen der GeForce GTX 1080 genügend Daten zu liefern, gibt es genauso Fälle, wo der Prozessor mittlerweile schlicht und ergreifend zu langsam für solch eine Grafikkarte wird. In XCOM 2 verlieren Spieler zum Beispiel 58 Prozent Leistung gegenüber dem übertaktete Core i7-6700K im Testsystem.
Kann mir jemand mal diesen Absatz erklären?
Weshalb wird der i5 2500k @ Stock getestet und soll gegen den i5 6700k @ 4,5 GHz antreten?
Es wäre doch deutlich sinnvoller, den i5 2500k auch auf 4,5 GHz zu übertakten.

So ist doch der Vergleich mit Stock vs OC total sinnbefreit.
?
 
Ich hoffe richtig, dass bei der neuen Generation was sinnvolles rauskommt. Am besten so im GTX 970 Preissegment.
 
Der Preis ist mehr als saftig. Schauen wir mal wie die Preisentwicklung wird!
 
Kann mir jemand mal diesen Absatz erklären?
Weshalb wird der i5 2500k @ Stock getestet und soll gegen den i5 6700k @ 4,5 GHz antreten?
..das wurde hier in diesem Thread schon 10x erklärt, lest doch mal bitte ein paar Seiten bevor ihr immer wieder die gleiche Frage stellt!
 
strex schrieb:
Es ist in Hardware, wie oft denn noch. Anders wäre es kaum ohne idle zu lösen. Das man nicht wie AMD solche Sprünge macht ist einfach erklärt. Bei NV arbeitet DX11 fast so gut wie in DX12. NV setzt bei DX11 die Rohleistung fast komplett um, was AMD nicht kann oder will. Nur weil AMD solche grottigen Treiber/Architektur für DX11 hat kann NV da noch lang nichts dafür.

Die 1080 liegt in AoS mit AS vor der Fury X. Das ist einfach erklärt, nämlich durch die 0,4 Tflops (8,6 zu 9,0) mehr zur Fury X. Somit arbeiten beide in DX12 mit AS gleich.



Der nächste der es nicht verstanden hat. Warum diskutieren, wenn man es nicht versteht. NV kriegt die Rohleistung auf die Straße, AMD aktuell nur mit DX12. Nicht umsonst hat die Fury X 8,6 TFlops..die 1080 hat auch nur 9 TFlops.
Dass Nvidia die Rohleistung unter DX11 auf die Straße kriegt hat nix damit zu tun, dass es unter DX12 mit Async quasi überhaupt keinen Zugewinn gibt.
 
GamingWiidesire schrieb:
Kann mir jemand mal diesen Absatz erklären?
Weshalb wird der i5 2500k @ Stock getestet und soll gegen den i5 6700k @ 4,5 GHz antreten?
Es wäre doch deutlich sinnvoller, den i5 2500k auch auf 4,5 GHz zu übertakten.

So ist doch der Vergleich mit Stock vs OC total sinnbefreit.
?

Wobei es auch mehr der Realität bzw. der Praxis entsprechen würde, wenn der 2500k übertaktet gegen den 6700k im stock antreten würde.
 
Zurück
Oben