Test GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

AnkH schrieb:
Bei einem solchen Preis dies nicht als grosser Negativpunkt aufzuzeichnen ist schon fast eine Frechheit seitens CB. Aber überraschen tut mich das nicht wirklich, in letzter Zeit wird immer offensichtlicher, wie wenig die HW oder auch Software-Magazine ihrer journalistischen Verantwortung nachkommen. Hier und da mal ein kritisches Wörtchen zur Updatepolitik von M$ bezogen auf W10, hier und da ein kritisches Wörtchen bei überteuerter Hardware, aber im Grossen und Ganzen wird alles, was von AAA Publisher und AAA Hersteller kommt unisono abgenickt, gefeiert und gehypt. Lächerlich...

Willkommen im Kapitalismus oder um es milder auszudrücken in der freien Marktwirtschaft.

Für Geld bekommt mann ja wortwörtlich alles ja sogar Meinungen, nicht gewusst?

Ironie Off
 
rentex schrieb:
Da machen die 4,5 GHz das Kraut auch nicht fett. Viele Seiten testen mit stärkeren Systemen.

es schadet aber auch nicht ;)
 
Nette Karte. Hätte ein schönes Upgrade von meiner 970 G1 Gaming sein können. Aber ganz ehrlich....der Preis !!!
Ein Referenz Modell will doch keine Sau, also wartet man auf ein Custom Modell.
Und das kostet dann schon fast Richtung nen Tausender ?? Wahnsinn. Nvidia macht auf Apple.


Frage an die Community :
Meine aktuelle CPU ist ein 4770K, dieser lässt sich trotz Alpenföhn Brocken nur wenig übertakten, ist aber auch nicht geköpft.
Glaubt ihr diese CPU würde für eine 1080 komplett ausreichen, oder limitiert die CPU in solchem Maße, das die Karte ihr Potenzial nicht voll ausschöpfen kann ?
Danke
 
Hm die Preise sinken hoffentlich noch mit den Custom-Designs.
Die Karte ist zwar fast doppelt so schnell wie meine R9 290, aber auch doppelt so teuer wie die R9 290 neu gekostet hat -und die R9 290 ist von Ende 2013...

ralf1848 schrieb:
Frage an die Community :
Meine aktuelle CPU ist ein 4770K, dieser lässt sich trotz Alpenföhn Brocken nur wenig übertakten, ist aber auch nicht geköpft.
Glaubt ihr diese CPU würde für eine 1080 komplett ausreichen, oder limitiert die CPU in solchem Maße, das die Karte ihr Potenzial nicht voll ausschöpfen kann ?
Danke
Seite 8 lesen und selbst ein Urteil bilden. Der i7 4770K ist noch meilenweit von zu langsam entfernt.
 
Zuletzt bearbeitet:
strex schrieb:
Was soll denn da inakzeptabel sein? Setzt unter DX11 und DX12 die komplette Rohleistung um. Besser kann es nicht gehen.

schön und einfach gesagt. Manche wollen nicht kapieren dass AS in erster Linie die GPU-Auslastung erhöht und nicht persé die GPU Leistung nach oben schraubt :rolleyes:

Meistens is das dann noch der gleiche Haufen der meint DX12 funktioniert nur wenn mehr FPS hinten bei rauskommen, dabei wird in erster Linie die CPU des Grafikoverheads entlastet was eben wie AS für eine bessere GPU Auslastung sorgen kann (sofern die CPU limitiert und die GPU Auslastung dadurch nicht gut ist, wie eben oft bei AMD und DX11).

CPU Entlastung und Reduzierung des Overheads funktioniert auch in allen DX12 Titeln bisher 1a, bedeutet aber nicht zwingend mehr FPS (und wenn dann vor allem bei schwachen CPU). Es kann sogar die raus-purzelnden FPS bei einem High End System leicht reduzieren, während zB ein Celeron zugleich locker 50% zulegen kann je nach Titel da er nicht mehr limitiert und die GPU ausbremst.



Diesen Umstand scheinen manchmal sogar die Technikseiten wie CB usw nur unzureichend klarzustellen.
 
Zuletzt bearbeitet:
pupsi11 schrieb:

Nein, ich verstehe auch nicht warum man zur Information nicht auch den 2500K auf 4,5Ghz getestet hat. Offenbar hätte das hier allein bzgl. X-COM sehr viele interessiert. Das man ihn Stock auch testet ist doch ok, hab ich nix gegen gesagt.
 
Fast Sync ist mal eine sehr interessante Technik, da der Trend eh zu 144/120hz gaming geht finde ich das für mich nützlicher als GSync/Freesync. Das ist für mich fast schon ein Kaufgrund aber diese UVP...
 
ralf1848 schrieb:
Frage an die Community :
Meine aktuelle CPU ist ein 4770K, dieser lässt sich trotz Alpenföhn Brocken nur wenig übertakten, ist aber auch nicht geköpft.
Glaubt ihr diese CPU würde für eine 1080 komplett ausreichen, oder limitiert die CPU in solchem Maße, das die Karte ihr Potenzial nicht voll ausschöpfen kann ?
Danke

ohne deine spiele, grafiksettings und auflösung zu kennen kann dir das genau gar niemand beantworten.

gta v mit ultra settings in 4k, joa da da kriegst du die 1080 an die kotzgrenze.
arma low settings in 720p, da langweilt sich die karte.
 
IDukeI schrieb:
ich verstehe auch nicht warum man zur Information nicht auch den 2500K auf 4,5Ghz getestet hat.

Der Grund, warum der 2500K getestet wurde ist, gezielt ein Szenario mit einer nicht mehr ganz aktuellen, verglichen mit aktuellen Top-CPUs schwächeren CPU zu haben. Daran kann dann jeder, der etwas grob in der Nähe dieser Leistungsklasse hat (das könnte z.B. auch ein FX von AMD sein), abschätzen, ob sich z.B. eine GTX1080 für ihn überhaupt lohnt, oder ob die CPU die Karte zu sehr ausbremst.
Den 2500K stark zu übertakten, würde diesen Sinn wieder zunichte machen. Wie die GTX1080 sich ohne CPU-Limit schlägt, sieht man ja an den Test mit dem übertakteten 6700K.
 
ralf1848 schrieb:
Meine aktuelle CPU ist ein 4770K[...]Glaubt ihr diese CPU würde für eine 1080 komplett ausreichen
ja. nein. vllt. kommt drauf an was und wie du zockst. "überschüssige" grafikpower lässt sich aber meistens einfach in höhere bildqualität, sprich AA/AO/AF/DSR, investieren. bei der fülle an infos die du uns gibst (moment, stimmt ja gar nicht) kann man da kein konkretes urteil fällen. allgemein gilt aber: CPU ist flott genug.
 
IDukeI schrieb:
Nein, ich verstehe auch nicht warum man zur Information nicht auch den 2500K auf 4,5Ghz getestet hat. .
es wurd dir und den anderen schon zur genüge erklärt. siehe 42 z.b.
 
Also ist das eine geshrinkte Maxwell mit weniger Fehlern und einer Verbesserung für AsyncCompute. Das Ganze mit GDDR5X garniert.

Klingt nicht danach als ob da viel Entwicklungsressourcen von Nvidia verschwendet wurden. Und dafür, daß man eine bessre YieldRate durch 16nm bekommt, verlangt man dann auch noch mehr Kohle. Olé Olé, Nvidia!
 
Was ich jetzt in den letzten 40 Seiten immer wieder gelesen habe, sind die Beschwerden über die "Kastrierung" des Chips. Aber so richtig verstehe ich nicht, worüber sich die Leute da aufregen. Es ist doch im Grunde völlig egal, ob das nun der Vollausbau ist, oder ein abgespeckter Chip. Das sind doch nur Zahlen. Was zählt, ist doch nur die Leistung am Ende und der Preis.
 
Minutourus schrieb:
Interessant das hier einige erwarten das die Partner Karten mit eigenen Kühlkonzepten einen günstigeren Preis erwarten als das NV Modell mit dem speziellen Kühler....

Warten wir ab, ich

Der MSRP liegt jedenfalls $100 unter der Founders Edition
 
Der UVP sagt noch gar nichts aus:

- Customer Karten abwarten
- 1070 Vorstellung abwarten
- AMD abwarten
- danach noch 2-3 Wochen ins Land ziehen lassen

Und dann können wir uns über Preise unterhalten
 
w00tw000t schrieb:
Damals die GTX 280 für ~330€ gekauft und lange nachgedacht, so viel Geld für eine Grafikkarte auszugeben.
damals lag der euro/Dollar kurs bei ~1,55:1. grob geschätzt hättest du nach heutigen Maßstäben 410 € gezahlt. die karte hier ist referenzdesign bzw "FoundersEdition" und kostet allein durch den Umstand 100€ mehr.
Aber was laber ich - liest eh keiner, interessiert keinen und merkt sich auch keiner. Alle quatschen nur irgendwelchen Bullshit. 80% der comments hier sind wieder grober, halbwissender mist.
 
Die Leute regen sich auf, wenn es sich um einen abgespeckten Vollausbau handeln sollte, das nvidia diesen Chip als voll aktivierten Chip in ein paar Monaten als Update raushaut für entsprechendes Geld und jetzt auch schon kassiert.

Da sage ich mir: Spiel nicht mitspielen, Konsumverzicht. Aber scheinbar haben einige ja Geld zu verschenken und werden nicht müde zu erwähnen das ihnen Aufpreis X es wert wäre.
 
Fabian_otto schrieb:
wer hat denn die möglichkeit mit gefrorener luft zu kühlen? oder seinen chip zum kühlen in einen bach zu halten.

Dazu reicht ein 0815 Klimagerät ;)
 
Ist wie mit Battlefront, solange genug Leute diese horrenden Preise bezahlen werden sie auch verlangt.
 
Zurück
Oben