Test GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

cruse schrieb:
die karte hier ist referenzdesign bzw "FoundersEdition" und kostet allein durch den Umstand 100€ mehr.
Eine künstliche Verteuerung eines Produktes garniert mit einem weiteren Kunstnamen. So nennt man diesen Umstand der Gewinnmaximierung.
Alle quatschen nur irgendwelchen Bullshit. 80% der comments hier sind wieder grober, halbwissender mist.
Man sollte sich nicht höher satteln...
 
15% und ein "Paukenschlag"? Naja..... 15% finde ich ehrlich gesagt für eine neue Generation sehr sehr wenig. Aber wir müssen uns wohl an die "Leistungssprünge" gewöhnen (egal ob AMD oder Nvidia).....
 
zum 2500K Test:

Andere Seiten zeigen auch wie es geht, dort werden gängige CPUs mit und Ohne OC werten getestet, einfach aus dem Grund das man es a) kann und b) den Unterschied sieht und zwar aufpassen "genau" mit der selben Hardware die man verbaut hat und auch übertaktet hat.

Was interessiert mich ein Standard 2500K, wenn ich ihn nicht habe?

Was interessiert mich ein 6700K@4,5 Ghz, wenn ich ihn nicht habe?

Meine Hardware ist ein i52500K@4,5 GHZ rein zufällig und ich würde gern wissen was meine CPU mit diesen OC werten und mit DIESER Grafikkarte kann bei spiel a) b) oder c) XCOM ist das so schwer zu verstehen das ein Test dafür mehr als hilfreich gewesen wäre?
 
Zuletzt bearbeitet:
IDukeI schrieb:
Es ist doch aber nicht so schwer einfach neben den Stock 2500K-Werten das Ding zu übertakten und die selben Tests nochmal zu machen. Der Aufwand scheint mir überschaubar, also einfach 6700OC , 2500Non-OC UND 2500OC, zumindest bei XCOM 2 Man muss sich nicht für eins von beiden entscheiden sondern macht einfach beides und alle wären glücklich und diese Diskussion wäre unnötig.[...]
Nein, nicht alle wären glücklich sondern du oder einige wenige wären glücklich. Denn dann kommen ja noch die mit den i3-CPUs oder den CPUs von AMD....

Wenn ein Stock-2500K ein gewisses Minimum repräsentiert und der OC-6700K das Maximum, kann man mit ein wenig Eigenhirnschmalz erraten, daß ein OC-2500K die GTX1080 ein wenig mehr befeuern kann und der Balken ein bisschen nach oben klettert. :rolleyes:
Denn eines sollte man nicht vergessen: Das ist hier weder ein CPU-Generationsvergleichstest noch ein Sonderartikel über gegenseitige Limitierung von CPU und GPU, sondern ein Grafikkartentest, dessen Abhängigkeit von CPU grob eingerahmt wurde.
 
Also wenn ich Leistung und Leistungsaufnahme betrachte, ist das schon eine deutliche Steigerung.
Verglichen mit der 980 Ti unter 2160p satte 30 % schneller bei 20 % weniger Verbrauch... Das ist schon ne Hausnummer.
 
Conceptions schrieb:
Die Leute regen sich auf, wenn es sich um einen abgespeckten Vollausbau handeln sollte, das nvidia diesen Chip als voll aktivierten Chip in ein paar Monaten als Update raushaut für entsprechendes Geld und jetzt auch schon kassiert.

Der Chip ist nicht kastriert oder abgespeckt. Man sollte sich nur im klaren darüber sein das es sich nicht um den High-End-Chip handelt.
Es ist der Performance-Chip, der High-End-Chip (GP100) kommt erst noch. Er wird zwar schon produziert und die Eckdaten sind bekannt, aber er wird erst im HPC-Markt verkauft bevor er dann Anfang 2017 in die neue Titan bzw. GTX 1080 Ti wandert.
 
Ich finde den Vergleich zwischen dem betagten 2500k und dem aktuellen 6700k mit der Grafikkarte ja grundsätzlich sehr begrüßenswert.
Warum allerdings wird nur der 6700k dabei übertaktet und anschließend noch der Benefit bei einem einzelnen der getesteten Games so hervorgehoben?

Sinn hätte es hier nur ergeben wenn beide in Werkstaktung, oder aber mit ähnlicher Übertaktung am Start gewesen wären.
 
Wolfsrabe schrieb:
Nein, nicht alle wären glücklich sondern du oder einige wenige wären glücklich. Denn dann kommen ja noch die mit den i3-CPUs oder den CPUs von AMD....

Für mich selbst ist das weniger relevant, da ich wieder einen 6700K noch einen 2500K habe. Aber ich kann viele mit älteren OC CPUs verstehen, die genau der Vergleich interessiert.
Und geschadet hätte es sicher nicht den 2500K zusätzlich auf 4,5Ghz zu testen.
Sorry versteh ich nicht warum man sich da so anstellt. Der Aufwand wäre viell. 5-10min.
Ich hätte hätte einfach die 3 Szenarien genommen.
 
cruse schrieb:
damals lag der euro/Dollar kurs bei ~1,55:1. grob geschätzt hättest du nach heutigen Maßstäben 410 € gezahlt. die karte hier ist referenzdesign bzw "FoundersEdition" und kostet allein durch den Umstand 100€ mehr.
Aber was laber ich - liest eh keiner, interessiert keinen und merkt sich auch keiner. Alle quatschen nur irgendwelchen Bullshit. 80% der comments hier sind wieder grober, halbwissender mist.

Den Kurs hatte ich nicht beachtet, pardon!

Alle quatschen nur Bullshit? Korrekt, aber das ich für meine Karte damals ~330€ bezahlt habe ist Fakt! :D

Jetzt beachte mal: Die Karte hat damals unter Beachtung des Umrechnungskurses 410€ gekostet. Angenommen, die Karte hier kostet als nicht Founders Edition 700€, sind wir noch immer bei 290 Euro mehr. Soweit passt ja alles, da der Konsument bereit ist dafür zu zahlen.
Der geniale Schachzug seitens Nvidia ist aber, die echten Highend Karten erst viel später zu veröffentlichen und an den Namen ein Zusatz wie TI oder Titan zu packen.
Die GTX 1080 ist dann aus der Sicht von Nvidia eine "Mittelklasse" Karte, da die richtig dicken Schiffe erst noch kommen. Dafür dann dennoch so viel Geld zu verlangen ist heftig.
 

wie oft muss das jetzt noch erklärt werden?! z.b post 868 und auf seite 42 auch schon . @Meetthecutthe
 
pupsi11 schrieb:
das schon schon länger so bekannt. siehe auch geizhals.de

Und ab wann werden die Karten dann gelistet,ich mein warum macht man sowas.
 
9% mehr Leistung in UHD gegenüber der 980ti sind schon enttäuschend. Vielleicht wirds was mit der 1080ti in 6 Monaten.
 
Nanatzaya schrieb:
Also wenn ich Leistung und Leistungsaufnahme betrachte, ist das schon eine deutliche Steigerung.
Verglichen mit der 980 Ti unter 2160p satte 30 % schneller bei 20 % weniger Verbrauch... Das ist schon ne Hausnummer.
Naja, man muss aber auch bedenken das dies vor allem dem Fertigungsprozess zu verdanken ist, demnach TSMC. Imho wurde von TSMC gesagt das bei gleichem Chip die 16nm 70% weniger Verbrauch bei gleicher Leistung bringen.
 
Also ist ein i7 6700K im Standardtakt, ein Kandidat für ein CPU Limit?! Muss mich aber berichtigen: Viele Sites haben mittlerweile ein 6700K System.
 
Mugi schrieb:
9% mehr Leistung in UHD gegenüber der 980ti sind schon enttäuschend. Vielleicht wirds was mit der 1080ti in 6 Monaten.

Dann warte auf die 1080ti denn diese wäre der korrekte Nachfolger, wie oft denn noch ?
 
Laut meiner Meinung muss die 1080 doch garnicht gegen die 980TI antreten - das wird doch wohl die 1080TI richten. Vergleicht man die 980 mit der 1080 ist der Unterschied schon gut, man muss auch berücksichtigen das man irgendwann an ein Entwicklungsende kommt andem man (nur ein Beispiel) nicht jedes Jahr die Leistung verdoppeln kann.
 
Wardaddy schrieb:
Und ab wann werden die Karten dann gelistet,ich mein warum macht man sowas.

dieses mal wars so das die board partner schon ihre karten anpreisen durften. nennt man marketing.

guck bei geizhals nach, da steht seit wann die karten gelistet sind.
 
Zurück
Oben