News Micron GDDR5X: Start der Massenfertigung rechtzeitig zur GTX 1080

Andergast schrieb:
als ob der GDDR5X nur auf der 1080 zum Einsatz kommen wird ...

Mittlerweile Frage ich mich, ob ein fiktiver GP 102 Chip, nicht eventuell mit 386Bit Si und GDDR5X statt HBM auf den Markt kommen könnte. Ich kann mir nicht vorstellen, dass NV nur mit der 1080 extra einen GDDR5X Speicher beziehen würde. NV müsste da schon einiges beziehen, sonst wird das doch teuer. Oder vllt wird der PS4 Neo Chip, NX usw auch GDDR5X statt GDDR5 ausgestattet ? Über der PS4 Neo soll die GPU ja doppelt si breit sein, aber her vermute ich, dessen die Architektur weiterhin GCN 1.1 sein.(Kompatibilität)
Und trotz 128 Bit Si der GP106, glaube ich nicht, dass diese den teueren GDDR5X Speicher bekommt. Dann würde die GPU doch einiges teurer als Polaris. Auch wird das eine reine 1080P GPU.
Also 386 Bit GDDR5X Pascal ohne DP Unit bis zu 500-550 mm^2 wäre schon ne interessante GPU. Dann wären auch 12 und 24 GB VR Speicher möglich.
 
Zuletzt bearbeitet:
GDDR5X juckt mich wenig. Unterschied zu gddr5 zu gering von daher werde ich die kompletten gddr5x karten überspringen. da lohnt es sich selbst als gtx 970 besitzer doch nicht, vorallem wenn man bei full hd zufrieden ist.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Sowas von einfach der 1080 16GB GDDR5X zu verpassen, man hat nur mal wieder keine Lust dazu und verbaut einfach mal 50% vom Vram. War so klar... Gewinnmaximierung zum Schaden der Kunden, die solche Karte so lange wie möglich im Rechner behalten wollen.
Bei deinem Gemecker die letzten Tage bekomme ich Zweifel, dass du deine gerade mal 1 Jahr alte Karte "so lange wie möglich im Rechner behalten willst". Scheinst ja recht wechselwillig zu sein. ;)
 
Cohen schrieb:
Scheinst ja recht wechselwillig zu sein. ;)

Beim Titan X Release klang das noch anders:
Kasmopaya schrieb:
meine GPU Zyklus geht aber über 4 Jahre+, da geht nix unter 12GB und die sind genau im Soll. Guggst du hier meine GPU Hystorie mit Vram Steigerungsfaktor:

32MB GPU
2003: 5900FX 128MB x4
2007: 8800 GTX 768MB x6
2011: GTX 580 3GB x4
2015: Titan X 12GB x4
ca. 2019: Titan XYZ 48GB x4

Ich wüsste aber ehrlich gesagt nicht, wieso man als TitanX-Besitzer jetzt von 12GB GDDR5 auf eine GTX 1080 mit 8GB GDDR5X und reduziertem Interface wechseln sollte. Insbesondere, wenn sich deshalb auch noch die Bandbreite von 336GB/s auf 320GB/s reduziert.
 
Zuletzt bearbeitet:
DrToxic schrieb:
Ich wüsste aber ehrlich gesagt nicht, wieso man als TitanX-Besitzer jetzt von 12GB GDDR5 auf eine GTX 1080 mit 8GB GDDR5X und reduziertem Interface wechseln sollte. Insbesondere, wenn sich deshalb auch noch die Bandbreite von 336GB/s auf 320GB/s reduziert.

Weil die Rohleistung der GPU und die Energieeffizienz höher sind?! Wer kauft denn eine Karte schon nach der Größe des SI? Das SI ist sowieso kein limitierender Faktor, oder ein Vorteil, sonst wären die vergleichbaren AMDs mit dem größeren SI ja Welten schneller!?
 
@Biggunkief

In 6 Monaten gibt's aber die nächste 1080Ti oder Titan xyz und bis dahin reicht eine Titan X noch dicke.

Biggunkief schrieb:
Wer kauft denn eine Karte schon nach der Größe des SI? Das SI ist sowieso kein limitierender Faktor, oder ein Vorteil
Bei meiner GTX 970 konnte ich nur durch Speicher-OC mehr knappe 6% mehr fps rausholen.

Die GTX 1080 hat gegenüber einer 980 Ti jetzt 48% mehr Rohleistung bei 5% weniger Bandbreite. Ich bin immer noch skeptisch, dass das wirklich nichts ausmacht. Das würde bedeuten, dass die 980 Ti nur die Hälfte der möglichen Bandbreite benötigt, wenn noch ~50% Luft nach oben sind..

nvidia Mittelklasse halt, da wird irgendwie immer mit Speicher(-bandbreite) gegeizt.
 
@DrToxic Ich wette da kommen dann noch Versionen die nicht den langsamsten GDDR5X verbaut haben wie die ersten die sie auf den Markt werfen werden dann sollte die Bandbreite auch von 320 auf 384 GBit steigen. Momentan sind ja nur die 10Gbit Version verfügbar.
 
Zuletzt bearbeitet:
"....dass GDDR5X-Speicher Datenraten von bis zu 16 Gbit/s erreichen könne. Die ersten Speicherchips arbeiten aber noch mit 10 Gbit/s...."

Also werden die Käufer der Founder Edition doppelt bestraft? 100 Dollar mehr und Speicher der sich schlechter (über)takten läßt. Bzw deshalb mehr Strom/Spannung braucht. Naja, wenigstens wissen die FE Käufer jetzt das sie wirklich Early Adapter sind, soll keiner sagen sie wurden nicht gewarnt. 970 läßt grüssen.
 
Edward Newgate schrieb:
Da stellt sich wieder die Frage, für welche Real World Situation der schnellere Speicher sinnvoll ist.

Selbst bei Spielen würde ich ebenfalls gerne wissen, wann denn bei einer GTX1080 alter Speicher (GDDR5 - ohne das X) limitieren würde.

Hito schrieb:
Seit wann sind 320GB/s High-End? 390X kann bereits 384GB/s und das Grundgerüst der Karte ist die 290X von 2013...

Heutige Chips (Tonga, Fiji, Maxwell, Pascal) nutzen Kompression der Daten bei der Übertragung der Daten. Dementsprechend ist das nicht 1:1 mit den alten Karten vergleichbar (Hawaii - 390X).

DrToxic schrieb:
Bei meiner GTX 970 konnte ich nur durch Speicher-OC mehr knappe 6% mehr fps rausholen.

Ich hatte ein ähnliches Ergebnis für meine R9 290 - Speicher-OC bringt nichts, Core-OC jedoch ordentlich viel, siehe hier.
 
Die Größe der Speicheranbindung hat nichts mit HighEnd zu tun, die HD 2900 XT hatte bereits eine 512 bit große Anbindung. Das wichtige ist immer das Zusammenspiel zwischen GPU-Leistung, Speicherinterface, VRAM-Takt und Kompression.

Ein zu großes Speicherinterface bei zu schwacher GPU hat kaum einen Nutzen, siehe eben die HD 2900 XT. Auch die Furys könnte man da nehmen, die kaum einen Vorteil aus dieser riesigen Bandbreite ziehen konnten. Mit GDDR5X wäre (vermute ich) die gleiche Leistung bei rumgekommen, aber immerhin hat HBM noch ein paar andere Vorteile.
 
Necareor schrieb:
aber immerhin hat HBM noch ein paar andere Vorteile.

Ja, nämlich die Senkung der Energieaufnahme gegenüber GDDR5. Dem ist jedoch bei GDDR5X nicht so... weshalb mich der Sinn für diesen schnellen (zu schnellen?) Speicher für die GTX1080 nicht erschließt.
 
Wenn man bei karte xy speicher oc betreibt bekommt man meistens eine Steigerung , jedoch nicht eine überhöhte Steigerung.
Aber auch wenn ich die Rohleistung ohne si steigere bekomme ich mehr Leistung .
Würde das si also merklich bremsen oder limiteren dürfte ich ja gar keine Leistung mehr bekommen bei oc der shader.
Und wenn ich speicher oc und shader oc zusammen mache bekomme ich auch keine addierte Leistungsteigerung der beiden werte vom getrennten oc.
Daher gibt es einfach nur Sweetspots was Verbauch, Shader oc und Bandbreite betrifft und die passt NV eben an.

Wäre es euch lieber die 1080 würde mit einem 384 bit si kommen und 400+ gb/s dafür aber nur 6gb vram weil nv keine 12gb verbauen will da das zu sehr an der titan wäre?
Der kompromiss der hier vorhanden ist ist schon ok denke ich und es wir ja keiner gezwungen die 1080 zu kaufen von NV.

Wer Bandbreite will kann ja gerne ein Fury oder 390 kaufen .
Wer Vram braucht kann eine Titan kaufen.

Alle anderen 95% werden wohl mit der 1080 glücklich werden zumal hier wenn die 500 mhz Speicher-OC bei allen Karten möglich sind noch ein wenig rauszuholen ist.

Am 17.5 wissen wir dann wie sehr die Bandbreite limitiert, da das sicher auch getestet wird.

Bleibt nur die Frage wie schnell Micron es schafft die 14 oder auch 16 gb zu erreichen. Den 500gb/sec wäre ganz passabel zumal bei der Rohleistung bis zum nächsten shrink sich nicht sonderlich viel bewegen dürfte.
 
Zuletzt bearbeitet:
@Faust2011:
Der Sinn hinter GDDR5X ist ganz einfach der Preis. Eine GTX1080 mit 8GB HBM2 (wenn schon verfügbar) würde vermutlich deutlich mehr kosten. Und das ohne wirkliche Leistungsvorteile. Ein Vorteil wäre das kleinere PCB, was aber nur MiniITX-Besitzer interessieren dürfte, und vielleicht die Stromaufnahme. Obwohl auch hier erstmal gezeigt werden müsse, von wie viel wir da wirklich reden.

Bei HBM ist ja nicht nur die reine Anschaffung teurer, sondern auch die integration des Speichercontrollers in den Chip. Bei GDDR5X wird der ganz normale, schon ewig entwickelte und bewährte GDDR5-Speichercontroller verwendet.
 
Zuletzt bearbeitet:
Necareor schrieb:
@Faust2011:
Der Sinn hinter GDDR5X ist ganz einfach der Preis

Wenn es nur der Preis ist, warum dann nicht einfach bewährten GDDR5 (ohne X) nehmen? Das gibt es dann auch nicht das Risiko, dass die Serienproduktion von GDDR5X eventuell Probleme macht und sich die Zeitpläne nach hinten schieben.
 
Weil GDDR5 eben nicht mehr genug Bandbreite liefern kann, oder zumindest schon stark an der Grenze ist.
 
Das ist mir zu pauschal, womit wir wieder zurück zu meiner Ausgangsfrage kommen: In welchen Fällen limitiert der Speicher?
 
Also die Diskussionen und Milchmädchenrechnungen hier sind wirklich der Hit. Es gibt keinen Zusammenhang zwischen Speicherbandbreite und theoretischer Rechenleistung. Die Rechenleistung kann sich auch verzehnfachen ohne dass die Bandbreite erhöht werden muss. Wenn diese schlicht ausreicht um Daten in den Speicher zu schreiben. Weiterhin komprimieren GPUs ihre Daten immer, gerade NVidia ist hier sehr gut darin.
Was am Ende zählt ist die Performance im Feld (in Spielen) und nicht ob da GDDR5(X) oder HBM (2) drauf ist. Und nein, 4k brauch nicht zwangsläufig mehr Bandbreite und auch nicht zwangsläufig mehr Grafikspeicher.
 
@Faust2011:
Ganz einfach: Wenn du deinen GDDR5-Speicher übtertaktest, und davon einen Leistungsvorteil hast.

@projectneo:
Es gibt keinen Zusammenhang zwischen Speicherbandbreite und theoretischer Rechenleistung.
Natürlich gibt es den. Genauso wie der Zusammenhang zwischen CPU-Takt und Rechenleistung oder Anzahl an Shader und Rechenleistung und und und...
Man kann natürlich keine pauschalen Aussagen machen, da eine Anwendung das auch auslasten können muss.

Und nein, 4k brauch nicht zwangsläufig mehr Bandbreite und auch nicht zwangsläufig mehr Grafikspeicher.
Natürlich benötigt 4K das, zeig mir bitte mal ein Beispiel, bei dem ein Spiel unter 4K genau die gleiche Bandbreite und den gleichen Speicherbedarf hat als bei FullHD.
Klar gibt es ja nach Anwendung Unterschiede bei der Effizienz, aber eine größere Auflösung benötigt immer mehr Bandbreite und mehr Speicher.

Die Rechenleistung kann sich auch verzehnfachen ohne dass die Bandbreite erhöht werden muss.
Was ist denn das für eine Aussage... Klar, wenn die GPU zehn mal schneller wird, und keinerlei Grafikverbesserungen in den Spielen vorgenommen werden, welche die Bandbreitenauslastung erhöhen, wäre das theoretisch machbar. Aber das ist absolut unrealistisch. Es hat schon seinen Grund, warum mit jeder Generation zur GPU-Leistung auch die Speicherbandbreite steigt.
 
Zuletzt bearbeitet:
@Vitec
Das sehe ich differenziert. Imho lohnt sich der Kauf der 1080 nur, wenn man in höheren Auflösungen als FHD unterwegs ist. Klar bietet sie auch sonst mehr Leistung als z.B. die 980, aber das besondere Feature der 1080 ist ja der bessere Speicher, dieser kann imho aber erst bei Auflösungen ab 1440p ausgespielt werden. Natürlich ist die Frage auch, woher man wechselt. Hätte ich eine 970 / 390 und einen FHD Monitor, würde ich persönlich auf keinen Fall wechseln. Und bevor jetzt wieder einer mit ABER ALLE HABEN SCHON QHD UND UHD kommt: Nein die allermeisten sind bei max. FHD.
 
@Edward:
Da hast du schon Recht, solange man unter FullHD spielt mit den Ingame-Settings, und kein Downsampling oder andere extrem fressende Zusatzeinstellungen nutzt, ist eine GTX 1080 wohl nicht nötig. Da ist die GTX 1070 vermutlich die sinnvollere Wahl.
 
Zurück
Oben