Test GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

hamsi61 schrieb:
...für einen markt der immer kleiner wird, sind das wucherpreise.

Wenn der Markt also kleiner wird, sollte man den Preis senken? Weil die ganze Entwicklung und die neue Fertigung sich besser rechnen, wenn man weniger los wird?
Aber stimmt schon, wenn man weniger Karten los wird, dann sollte man pro Stück auch weniger verlangen, um den entgangenen Gewinn zu fördern. :freak:
Manch einer vergisst eindeutig, dass wir uns in einer Marktwirtschaft bewegen, in der Produkte von Unternehmen entwickelt und verkauft werden, die damit Gewinn erwirtschaften möchten.
 
GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

Würde nicht besser passen:
GeForce GTX 1080 im Test: Nvidia dreht an der Taktschraube in 16 nm mit 1,8 GHz und GDDR5X


Oder?
 
Oho - ein stock 2500K verliert doch wirklich mit wenigen Prozent gegen einen 6700K mit 4,5Ghz. Das ist ja mal eine Aussage.:o
 
@ Idon
Wow, Fremdschämen pur bei Deinem Kommentar... :(

Nvidia macht es mir einfach: wenn AMD was Gutes für 200-350 € bringt, ist die Entscheidung für mich als Gelegenheitsspieler denkbar simpel. Würde mich nicht wundern, ginge es vielen anderen ebenso. 500 bzw. 800 € für eine midrange GraKa... zu heftig imo. Wie schon andere geschrieben haben: wer kauft das? Wieviele bauen sich denn schon einen 1,5k Rechnern zusammen? meist ("idealer Gaming PC FAQ") finden sich dich Anfragen für 800-1100 € Rechner. Da ist für solch teure Karten kein Platz.
Auch dieses unsägliche Founders Edition Gebahren verstehe ich schwerlich. Passt irgendwie zu "Nvidia" :D
 
"Core i5-2500K immer noch schnell genug ist, in den meisten Spielen der GeForce GTX 1080 genügend Daten zu liefern, gibt es genauso Fälle, wo der Prozessor mittlerweile schlicht und ergreifend zu langsam für solch eine Grafikkarte wird. In XCOM 2 verlieren Spieler zum Beispiel 58 Prozent Leistung gegenüber dem übertakteten Core i7-6700K im Testsystem"


Warum vergleicht man hier einen Core i5-2500K/Basistakt 3.30GHz mit einem I76700K übertaktet auf 4,5 <GHZ ?

Hätte man da nicht auch den I5-2500k zumindest auch auf 4,5 GHZ übertakten sollen für einen Vergleich ?

Von dem abgesehen fand ich die Unterschiede nicht so sehr groß wenn man davon ausgeht das der I7 übertaktet wurde und der I5 im Basistakt rudern mußte ..

Verstehe ich nicht so richtig ... Aufforderung zum (unnötigen) Kauf einer neuen CPU ?
 
Pizza! schrieb:
Von DirectX12 bin ich enttäuscht, ein Leistungsplus von 1-3% ist nix, liegt ja fast im Bereich der Messungenauigkeit. War zu befürchten auch Pascal schafft keinen großen Nutzen aus DirectX12 zu ziehen (guter DirectX11 Treiber hin oder her).
AMD macht auch nur den großen Leistungssprung wenn man keinen I7-6700K@4,5Ghz nimmt sondern stattdessen einen Krüppel als CPU. DX12 ist das Plus für die CPU und nicht die GPU.
 
Ich habe Fragen und Kritik zum Test bzw. Methodik-Artikel:

  • Wie kann es denn sein, dass die GTX 1080 im Standardtakt(!) bei den beiden Tests zur Übertaktbarkeit auf Seite 10 durchgängig signifikant schlechter abschneidet als im gleichen Test zur Übertaktbarkeit auf Seite 12? Wohlgemerkt bei den Werten zum Standardtakt der Karte:
    Standardtakt.png
    Vor allem, da sich (s. Punkt hier drunter) für den Test auf S. 12 die gemessenen FPS von Seite 7 übernommen wurden. Wo kommen dann die verschiedenen Standardtakt-Ergebnisse von S. 10 her?
  • Wie berechnet sich der Wert für das Kapitel "Übertaktbarkeit"? Im Methodik-Artikel steht zu diesem Kapitel nicht, welche Auflösungen hier nun in die dort gezeigten Werte einfließen: https://www.computerbase.de/2016-05/grafikkarten-testsystem-2016/3/#abschnitt_uebertaktbarkeit
    Wenn man ein wenig die Werte von S. 7 vergleicht, scheinen die Werte von 2160p Auflösung und der Max-Variante der Karte genommen worden zu sein.
    Das wird aber von vornherein und auch im Methodikartikel nicht klar! Dabei wird in den Erklärungen zu den Lautstärke- und Performancemessungen darüber im o.g. Artikel die Auflösung genannt, die dabei verwendet wird. Bitte ergänzen.
 
GERminumus schrieb:
Ist ganz einfach:

Die Karte wird zum Enthusiasten Preis verkauft, also muss sie sich auch einen Vergleich in diesem Bereich stellen.

Selbst wenn man 1080 gegen 980Ti stellt sind die 30% von Referenz zu Referenz im Vergleich zu den letzten 3-4 Generationen noch führend. :freak:

@nato44
Die Werte sind alle konsistent. Nur die Bezeichnung etwas verwirrend.
Seite 12 sind OC-Tests, wo bei allen PT/TT maximiert sind. Heißt S.12 "Standard" = Max (Standard) auf Seite 10. Geht auch aus Text und Werten im Vergleich hervor, steht aber nicht nochmal explizit an der Grafik. Da OC-Tests ohne max PT/TT im Vergleich der OC-Varianten ziemlich witzlos wären, wurde wohl hier drauf verzichtet den Standard-Takt mit maximierten Targets extra auszuweisen.

Wenn du vergleichst, wirst du sehen, dass sich die Werte alle auf 4K beziehen und z.B. Anno 2205 auf S.10 @Max = 51,3 = @Standard S.12 = @Max 4K S.7.
Du hast lediglich die falschen Werte auf S.10 Markiert. Unter 4K sind S.10 und S.7 bereits komplett identisch (und hier auch eindeutig gekennzeichnet).
 
Zuletzt bearbeitet:
Hätte mehr erwartet, ist im Endeffekt nicht viel mehr als ein etwas modernisierter Shrink.
Finde bei dem Preis das 256bit Speicherinterface recht mager und die Refkühlung mit dem Radiallüfter...

Hoffe mal Polaris bringt ~ 2/3 der Leistung bei 1/3 des Preises, ähnlicher Leistungsaufnahme, Vram.
 
Zuletzt bearbeitet:
Pizza! schrieb:
Von DirectX12 bin ich enttäuscht, ein Leistungsplus von 1-3% ist nix, liegt ja fast im Bereich der Messungenauigkeit.
lol
Ein Codebeispiel aus Microsofts SDK, dass Async Compute maximal an seine Grenzen treibt und nichts anderes macht als das ist nicht DX12.
Das ist eine Feature-Demo. Das macht 1% von DX12 aus.

Das lustige ist, dass von Async Compute eigentlich nur 10-15% zu erwarten sein sollen.
This sample shows how to take advantage of multiple queues and is has not been tuned to maximize the overlap. In particular, the rendering is unchanged and rather cheap, which limits the amount of overlap where both the graphics queue and the compute queue can be busy. The expected speed-up from the asynchronous version is around 10-15%.

Es wäre mal interessant den Test mit dem NoAsync Parameter laufen zu lassen und zu gucken, ob AMD dort grundsätzlich schneller ist als nVidia.
Dann wäre das nämlich nicht gerade der beste Test um Async Compute zu benchmarken.
 
Zuletzt bearbeitet:
Wow.
15% mehr Leistung als eine 980ti.
Ich bin überwältigt...nicht :freak:

Also nach dem Tamtam um die Grafikkarte habe ich etwas mehr erwartet.
Mehrleistung...ja, ein bisschen. Energieeffizienz angesichts des riesen Sprung in der Lithografie niedriger als erwartet.

Die Karte ist OK, aber der Preis ist eine absolute unverschämtheit, dafür müsste sich nVidia in Grund und Boden schämen, sowas loszulassen.
Ich sehe einen realistischen Marktpreis deutlich unter 500€, wer darüber kauft ist nicht nur selbst schuld, er trägt auch noch dazu bei, dass es so weiter geht.

Ich weiß schon mal, wo ich erst mal gut drauf verzichten kann...mal schauen was der große Chip, Polaris und Vega bringen.
 
Gefällt mir alles sehr gut :) . Der Nachfolger für meine GTX 980 steht fest. Jetzt wird nur noch ein paar Wochen (ca. August) gewartet bis sich die besten custom Modelle herauskristallisieren und die Preise ausgeschüttelt haben (early adopter Deppenpreise zahle ich nicht :D ) und dann wird zugegriffen.
Würde mich freuen, wenn MSI mit TwinFrzr oder Palit SuperJetStream die Erfolge der 980er Reihe fortschreiben können. Dann wird es vermutlich eine von den beiden Karten. Aber vielleicht kann ja auch ein anderer Hersteller mit einer besonders effizienten und leisen Kühlung bei gleichzeitig hohem Out-of-the-Box OC überzeugen. Ich hoffe die AIB geben alles! :D
 
Mhhh, da hätte ich mehr erwartet nachdem was alles so geschrieben wird. (Im Bezug auf DirectX 12, interessiert mich am meisten)

Ich versteh immer das Gejammer über den Preis nicht, sollen die Leute es halt nicht kaufen wenn es

einem zu teuer ist. Ich persönlich bin zu geizig für ne 700€ Karte obwohl ich mir die ohne Probleme

kaufen könnte, nimm ich dann lieber das gesparte Geld und fahr mal ein Wochenende weg oder so.

Ich hab Bekannte die kaufen alle halbe Jahr für 600€ und mehr die aktuellsten Handys usw.

Soll doch jeder selber entscheiden.

Die 1070 ist eh interessanter für mich, aber ohne Launch oder Test der AMD Karten wird eh nix Entschieden, außer das die 970 raus fliegt, das is schonmal sicher.
 
Zuletzt bearbeitet:
So, endlich ist sie draußen, die erste Grafikkarte in der neuen Struckturbreite und nach dem die Erwartungen riesig waren (zum Teil wohl sogar unrealistisch), muss ich sagen, dass sie sich wacker geschlagen hat.

50% bis 60% im Durchschnitt schneller als der direkte Vorgänger (je nach dem welche Version man nimmt), bei etwa selben Verbrauch. Dazu schlägt man auch die letzten High End Karten, welche dagegen aussehen wie Schluckspechte.

Zwar vermisst man den WOW Effekt, aber wie CB richtig schrieb: "eine beeindruckende High-End-Grafikkarte ohne gravierende Schwachstellen[FONT=arial, sans-serif]". Wobei ich das eher nur für die GPU an sich sagen würde, denn die größte Schwäche würde ich zur Zeit im Kühler sehen.

Wie gut die Karte bzw. GPU nun wirklich ist, wird man wohl aber erst sehen, wenn AMD das Gegenstück raus bringt und man die beiden vergleichen kann.

Bis zu dem Punkt ist Pascal in der Leistungsklasse zur Zeit unangefochten das beste was es gibt.
[/FONT]
 
Mein Fazit: Gute Karte mit Performance im erwarteten Bereich. Der Preis ist aber vollkommen überzogen und lässt sich in keiner Weise rechtfertigen bei einem 314mm² Chip. Nun liegt es an den Kunden darüber zu befinden. Sollten diese zögern, dürfte der Preis rasch runtergehen, denn Spielraum hat nVidia bei dem Preispunkt mehr als genug.
 
Schönes Ding! Preislich für mich absolut uninteressant aber nachvollziehbar. Wieso sollte nVidia ihren eigenen Absatz künstlich beschneiden, indem sie ihre eigenen Topkarten ohne Zwang günstiger verkaufen? In dieser Preiskategorie schlagen wohl eh nur Leute zu, denen es auf 100€ mehr oder weniger nicht ankommt, wenn sie dafür State of the art bekommen. Eine nachträgliche Preissenkung ist immer problemlos machbar. Preiserhöhungen lassen sich nur schwer "verkaufen"😉. Technisch wären aktuell bestimmt auch Singlechip-Grakas mit 80% Mehrleistung gegenüber der 1080 drin aber warum sollten Entwickler das machen?

Jm2c😃
 
Linmoum schrieb:
PCGH hat mit dem Accelero Xtreme IV gerade so mehr als 2,0GHz geschafft, bei knapp unter 2,1GHz kam es selbst damit zu Grafikfehlern, weil das Teil ins Powerlimit läuft.

sagte ja, wenn das Power Limit beseitigt ist.
 
NachtkindFX schrieb:
...

Besonderen dank für den 2500K Test. Immer wieder schön zu sehen, inwiefern eine CPU bremsen kann. ...

Ich habe mich da nur gefragt wo die Bremse denn nun war?
22% Mehrtakt zum 2500K aber eine nur geringe Mehrleistung ausser bei X-COM 2. Genau das ist allerdings komisch und wohl eher ein Fehler, denn die CPU Leistung bei X-COM 2 hat CB hier https://www.computerbase.de/2016-02...kkarte-prozessor/2/#diagramm-xcom-2-3840-2160 untersucht und festgestellt, dass es nicht besonders CPU abhängig ist.
 
Zurück
Oben