News Nvidia GeForce: GTX 1080 schneller als 980 SLI, 1070 so schnell wie 980 Ti

Klingt ja erst mal nicht schlecht.

Jetzt bin ich mal gespannt, wann und was AMD zur Konkurrenz raushaut. Ein günstiges Modell damit der Markt unter 300$ bedient werden kann muss auch her, nicht jeder will 400$ oder mehr für eine neue Grafikkarte ausgeben.
Und dann zu vergleichbaren Preisen etwas das mithält.

Nach allem was passiert ist, ist nVidia eigentlich unkaufbar geworden. Da lasse ich wie bei Apple lieber die Finger von.

Freue mich dennoch auf erste Tests, endlich geht es mal weiter.
Wobei 20% mehr als das, was derzeit geht, auch nicht so berauschend klingen. Mal schauen.

Für mich macht es aber eigentlich kaum einen Unterschied, die R9 290 hält immer noch oben mit und die CPU wird in immer mehr Spielen zum Flaschenhals, entsprechend muss die als erstes getauscht werden. Da kann ich auch auf Vega warten.
 
Zuletzt bearbeitet:
Finde den neuen Preis für die x70 einfach viel zu teuer. Die 350€ für die GTX 970 waren für mich schon grenzwertig, der Preis einer jetzigen GTX 980 für die 1070 ist für mich ein No-Go.
 
Endlich kann ich meine 770 in Rente schicken :)

Jetzt muss man nur noch auf die ganzen Partnerkarten warten und sich eine Gute raus picken, sobald der Preis stimmt und schon ist man pünktlich zum Start der nächsten Games Saison fit dafür ;)
 
@etek_2
@ChrisMK72
@CloakingDevice

Danke Euch, dann warte ich natürlich erstmal die Benches ab.
 
Dp 1.4 ist doch erst für 2017 geplant oder später? Oder wird 1.3 übersprungen 😄. Gut fände ich das schon dp 1.4 bringt die leistung die ich in zukunft haben möchte, dann wechsel ich auch von dvi-d nächstes jahr.
 
Zuletzt bearbeitet:
zero389 schrieb:
Dp 1.4 ist doch erst für 2017 geplant oder später? Oder wird 1.3 übersprungen 😄. Gut fände ich das schon dp 1.4 bringt die leistung die ich in zukunft haben möchte, dann wechsel ich auch von dvi-d nächstes jahr.

Die karte ist DP 1.2 certified und DP 1.3/1.4 "ready" steht schon auf pcgh und da sie ready ist wird natürlich gleich groß 1.4 hingeschrieben
 
S.Kara schrieb:
Beitrag #118 gepflegt überlesen?

Ach von diesen "Benchmarks" sprichst du also die ganze Zeit... :freak:
Joa ganz nett wa, die Realität sieht aber anders aus.
 
Speedchecker schrieb:
Der Einzige, der weder Text noch Grafik verstanden hat bist du. :)
Klar, man merkts. :rolleyes:
Guck in's Diagramm Junge, da steht sogar noch "lower is better". Und, wo sind die Werte niedriger?
Du kannst dir das Programm sogar runterladen wenn du den Werten nicht vertraust.

zeedy schrieb:
Joa ganz nett wa, die Realität sieht aber anders aus.
Wohl wahr, zumindest was Games angeht. Das liegt aber nicht an den Karten sondern an der Implementierung.
Wenn dann wieder ein Spiel mit diesem Feature kommt wo Nvidia dran beteiligt war sieht es dann umgekehrt aus. Und alle Welt wird auf Nvidia schimpfen.
 
Zuletzt bearbeitet:
Jetzt muss ich doch meinen Senf dazu geben, weil hier teilweise doch recht wenig hinterfragt wird.
Zuallererst gebe ich zu bedenken dass wir es hier wieder "nur" mit dem Mittelklassechip zu tun haben. Das war zu erwarten, und angesichts der Probleme mit dem GF100 mache ich NVidia auch keinen Vorwurf (ebenso wenig AMD wenn sie nicht direkt einen 500+mm² Chip raushauen).
Der Chip soll also nicht in neue Leistungssphären vorstoßen sondern primär die Effizienz verbessern und zeitgleich die Vorgänger leicht überflügeln.
Mit einer TDP von 180W und ca. 20-30% Mehrleistung im Vergleich zur 980Ti hat NVidia diesen Zweck scheinbar erfüllt. Wie gut nun wirklich wird man wie üblich erst nach Tests sehen. Dass die TDP nun nicht wirklich Aussagekräftig ist und allenfalls einen Richtwert für Karten eines Herstellers darstellt sollte mittlerweile ja bekannt sein.

Dass wir bei der Mittelklasse keinen teuren HBM2 Speicher sehen werden war demnach eigentlich auch zu erwarten. Zumal wir mit GDDR5X eine meiner Ansicht nach sinnvolle Alternative auf der 1080 bekommen. Die 1070 mit normalem GDDR5 sollte so hoffentlich auch ohne Speicherbeschneidung wie gewünscht hinter der 1080 liegen.
Was ihr aber nicht vergessen dürft: Mehr Bandbreite lässt den Speicherbedarf nicht sinken! Was nützt es mir wenn ich meinen gesamten Festplatteninhalt in 0,1 Sekunden von der GPU in den Speicher ablegen kann wenn der Speicher voll ist? Nichts. Auch Speichermanagement hilft da nicht unbegrenzt. Es gibt ein gewisses Minimum an Daten welche für ein flüssiges Spielerlebnis im Speicher liegen müssen. Fehlen da Daten, muss aus dem RAM oder noch schlimmer von der Platte geladen werden und es gibt Ruckler im Spiel. Und zu der deutlich geringeren Bandbreite kommt hier auch noch die gesteigerte Latenz die auch nicht unterschätzt werden darf.
Sobald meine Karte irgendwelche Daten aus einem anderen Speicher als dem eigenen benötigt weil dort nicht alle Daten Platz haben gibt es Probleme. Das ist bei einer Titan so, bei einer Fury und auch bei einer 1080. Die Bandbreite ermöglicht lediglich dass mehr Daten in der selben Zeit auf der Strecke GPU-Speicher übertragen werden können. Das ist nicht unwichtig, aber selten der limitierende Faktor.

Der Speicher, der vor allem zu Beginn heiß diskutiert wurde ist meiner Meinung nach ausreichend dimensioniert. Nicht üppig, aber vollkommen ausreichend. NVidia folgt ja seit Kepler immer einem simplen Schema beim Speicher was sicherstellt dass sie die Karten nicht zu klein dimensionieren. 104er Chip mit einer 2er Basis (2,4,8,16,...) an Speicher gefolgt vom Bigchip mit einer 3er Basis beim Speicher (3,6,12,24,...), wobei die Titan zuletzt immer doppelt so viel Speicher hatte wie der "normale" Bigchip und das dreifache des 104ers. Bei Release reicht der Speicher der NV Karten definitiv aus.
Wer von der 1080 auf die 1180 usw. wechselt wird wohl auch keinerlei Speicherprobleme haben, aber wer dies nicht tut wird früher oder später Speicherfressende Features herunterstellen müssen: Anti-Aliasing oder Texturen, beides fällt recht schnell auf. Limitiert hingegen rein die Leistung kann man über das Deaktivieren von Spielereien wie SSAO viel Leistung einsparen ohne das optische Erlebnis stark zu beinträchtigen. Texturen hingegen fallen je nach Spielgenre recht schnell auf, ebenso wie fehlende Kantenglättung.
Zukunftssicher sind 8GB jedenfalls nicht. Die reichen sicherlich für 2016 und wahrscheinlich auch für 2017, aber danach wird man anfangen müssen Kompromisse einzugehen. Das war bei der 680 z.B. genau das gleiche Spiel.
Einen Speicherkrüppel stellt meiner Ansicht nach keine der beiden Karten dar, aber "langfristig" betrachtet sind 8GB etwas wenig im Relation zur Rohleistung der GPU.

Wer derzeit nun eine 980Ti sein eigen nennt hat denke ich keinen Grund zu wechseln, außer die VR-Performance ist wirklich annähernd zu gut wie NV es ankündigt und man nutzt VR selbst. Andernfalls reden wir hier von bestenfalls 30% Mehrleistung. Klar, wer nun eine 980Ti für den Neupreis einer 1080 verkaufen kann, dem mache ich keinen Vorwurf ;)
Ansonsten haben wir halt wieder den üblichen 104er Chip vor uns der einem vor Augen führt was die neue Fertigung so drauf hat. Mit dem Bigchip werden wir dann sehen was man bei gleichem Verbrauch an Leistung durch die neue Fertigung & Architektur rausholen kann.

Was mich mal interessieren würde was es nun mit der Founders-Edition auf sich hat? Early-Bird Aufschlag solange es nur das Referenzdesign gibt? Selektierte GPUs? Hochwertigeres Board? Ich lasse mich mal überraschen.
 
Schick schick. Die 1070 ist für mich interessant. Aber auch ich bin gespannt wie die Antwort von AMD lautet und werde warten. Ich bin nach vielen Jahren bereit denen eine Chance einzuräumen ;)
 
zero389 schrieb:
Dp 1.4 ist doch erst für 2017 geplant oder später?

Hatte ich auch nie mit gerechnet.
Vorher hieß es DP 1.4 kommt erst frühestens 2017.
Ich hab fest damit gerechnet, dass erst mal DP 1.3 wieder häppchenweise durchgezogen wird, um dann wieder einen Aufrüstgrund für 1.4 zu haben ;)

Aber wenn das echt so kommt, freu ich mich auf DP 1.4. ( Plus natürlich die passenden Monitore dazu ! )

edit: Für mich wird's somit ab Weihnachten herum erst mal richtig interessant.
Neuer DP 1.4 Monitor und dann die passende GPU (Titan oder Ti) dazu holen. :)

edit2:
Thanok schrieb:
Dass wir bei der Mittelklasse keinen teuren HBM2 Speicher sehen werden war demnach eigentlich auch zu erwarten.

Yes.
Und ich hoffe bei der 1080Ti, oder zumindest bei der Pascal Titan, auf eine Karte, mit 16 GB HBM2, die dann als erste "richtige" 4k Karte was die Leistung und Speicher angeht, durchgeht.
Die mit DP 1.4 an einen passenden neuen DP 1.4 Monitor 75Hz+, 4k+, mit Gsync und HDR.
Ein Traum ! :)
 
Zuletzt bearbeitet:
v_ossi schrieb:
Wie sich schon wieder alle die Köpfe einschlagen...
Wartet doch erst mal unabhängige Benchmarks ab und werft euch danach wieder Beleidigungen an den Kopf.

Bis dahin, abwarten und hoffen, dass die Werte stimmen und gucken, was AMD dagegenzusetzen hat.

Das geht doch Heutzutage nicht mehr, muß doch sofort geflamet werden und alles schlecht geredet werden !
 
Conceptions schrieb:
Wie unkritisch hier erstmal alles geschluckt wird. Erstaunlich.

Ist quasi wie bei einer Appleankündigung hier. Wie viele Leute hier die Karte schon "gekauft" haben ohne auch nur einen Test gesehen zu haben :P Nvidia hats echt geschafft...
 
Das wär doch mal n Slogan, "so much performance, you can literally hear your frames". Hat ja dann schon was von 4D.
 
sehr nice.. die 1070er kauf ich mir dann so im oktober !! [...] weil meine uralt 670er leistungsmäßig noch gut mithalten kann solange hält sie noch. gut das ich gewartet hab und nich die 900er serie gekauft hab war mir von vorn herein klar das die 900er serie nen riesen fail ist
Letztes Jahr im Januar war ich kurz davor, eine 970 zu kaufen. Die Leistung hätte ich schon gerne gehabt, aber dann kam die Sache mit dem Speicher raus und... nunja. :D

Anyway, ich warte jetzt erstmal Polaris ab und dann wird entschieden. Die 1070 hört sich doch interessanter an als gedacht.
 
1070 in da house. Die 970 hat die 780ti auch in vielen Games weggemacht, von daher keine allzu große Überraschung...ff. foll Fett.
 
Faust2011 schrieb:
Und wie stehts nun um das Killer-Feature Asynchronous Shader?
Kannst du hier im Whitepaper auf Seite 9 - 12 nachlesen.
Der Scheduler ist es, der die Performance der Async Shader im Maxwell Chip so in den Keller drückt. Den haben sie im Pascal angeblich gründlich überholt. Welche Ausmaße das letztendlich in der Realität haben wird, das wird sich dann wohl in den Benchmarks zeigen.
 
Zuletzt bearbeitet:
Zurück
Oben