News „HBM2“: Spezifikationen für bis zu 32 GB Grafikspeicher veröffentlicht

ManPon schrieb:
Denn gerade bei den Konsolen-Games wird Geld verdient, und kein Hersteller wird für den PC den teuren Mehraufwand finanzieren wollen.

GTA 5 sieht auf dem PC noch mal deutlich besser aus als auf der One oder PS4.
 
@Shoryuken94_

Ja, so sah ich das auch - früher. Aber besagte R9700Pro, 8800GTX (und vlt. noch die 5870 von 2009, mit der man auch heutige Spiele auf medium spielen kann) waren eben übelst gute Kandidaten. Am besten den Sweetspot finden, kurz bevor High-End absackt, aber alle 3-6 Monate wechseln ist auch etwas viel ^^
Deine ist meist der sinnvollere Weg.

BTW, könntest ja von 3dcenter stammen, offensichtlich gutes KnowHow
 
Der VRam ist zwar seit der NextGen (inzwischen Current?) etwas wichtiger geworden, wird aber meiner Meinung nach ziemlich überbewertet. Selbst bei 4K reichen die 8GB der 390(X) in der Regel dicke aus und auch 4GB HBM scheint nicht wirklich zu limitieren... Ich würde jederzeit die Chipleistung dem VRam vorziehen. Außerhalb des Gaming-Gebiets sieht es natürlich anders aus.
Sehr gespannt warte ich aber auf HBM bei den APUs, obwohl da auch 8GB reichen sollten ;)
Aber gut zu Wissen, dass die Technik erstmal noch viel Spielraum nach oben erlaubt :)
 
Wie schauts mit Verfügbarkeit aus? HBnM1 war ja schon im Dez 14 gelistet... Bietet Hynix derweil HBM 2 an?

Spezifikationen sind das eine... Verfügbarkeit das wichtigere...
 
Ich hätte ja schon Bock auf ein extrem kompaktes System ohne Grafikkarte in dem eine Zen APU mit HBM Speicher sitzt und mit dem man flüssig spielen kann. Muss ja nicht mit Grafik auf Ultra sein, aber irgendwas so im Bereich Mittel-Hoch dürfte da eigentlich drin sein.
 
^^ Und wenn du dann die Preise siehst fängst du an zu weinen.
Das HBM kein billiger Spaß ist sieht man an den Preisen der FURYs.
Das eine 1080TI mit 8GB HBM2 für unter 800€ zu haben sein wird halte ich für Wunschdenken :cool_alt:
 
Zuletzt bearbeitet:
Cool Master schrieb:
@Don Kamillentee

Ganz so pauschal darf man es nicht sehen. Früher war das Programmieren auch nicht so komplex wie heute. Es muss viel mehr beachtet werden. Dazu kommt es läuft sehr viel im Hintergrund ab was Leistung frisst wie z.B. AA, KI und Physik. Dazu kommen die Modells welche heute zum teil Millionen Polygone haben.

AA kann man sich bei 4k ja angeblich sparen. Zu den Millionen polygone. Nein, es wird sehr ddarauf geachtet das es wenig polygone sind millionen sind es nicht. Ryse hat schon ein sehr hohen polygon anteil aber bei knapp 160k noch nicht ansatsweise an 1mille.

MC-Poly.png

außer du meinst das gesamte spiel, das sind dann schon ein paar :D aber wieviel is schwer zu sagen. Vorallem wieviel geladen wird und was abgeschnitten ist...also gta hat sicher auch einiges, man sieht aber das sie auch wenig polygone einsetzen bei den menschen usw die sind relativ grob.

Wichtig sind noch die texturen und die werden oft irgendwie von konsole zum pc rübergerotzt und das sieht dann relativ schlimm aus undd frisst auch gut speicher...
 
Zuletzt bearbeitet:
@zero389

Ja ich meinte ein gesamtes Spiel z.B. Wolrd of Warcraft. Wenn man da mit rund 25 Leuten im Raid unterwegs ist kommt da schon einiges zusammen, vor allem seit dem nun alle Modells überarbeitet wurden. Ob man bei 4k noch AA brauch kann ich nicht sagen. Ich habe bei 1440p 4x an und das langt. Ich erkenne aber eh kein Unterschied zwischen aus, 2x oder 4x. Mit 4x hab ich immer noch flüssige 60 FPS also juckt es mich nicht.

Texturen sind so eine Sache oftmals gibt es entweder vom Hersteller HD Texuturen oder von der Community.
 
Seby007 schrieb:
@Shoryuken94_

Ja, so sah ich das auch - früher. Aber besagte R9700Pro, 8800GTX (und vlt. noch die 5870 von 2009, mit der man auch heutige Spiele auf medium spielen kann) waren eben übelst gute Kandidaten. Am besten den Sweetspot finden, kurz bevor High-End absackt, aber alle 3-6 Monate wechseln ist auch etwas viel ^^
Deine ist meist der sinnvollere Weg.


BTW, könntest ja von 3dcenter stammen, offensichtlich gutes KnowHow

Danke :D

Ja jede Generation hat so ihre kleinen Highlights, welche den besten kompromiss aus Preis / Leistung bilden. Hängt natürlich auch davon ab, was man vor hat, sprich welche Auflösung man fahren will. Da gab es immer sehr wegweisende Karten wie die GTX460, 5870, 6870 aber auch Karten die für den highend Bereich einfach super Angebote waren, da sie zum ähnlichen Preis deutlich mehr boten wie die 8800GTX oder teils auch die 5970.

Natürlich gibt es heute auch mehr als die reine fps/€ Rechnung. Ich wollte z.B. übertakten und habe mir deshalb ne 780ti Matrix geholt (was Overclocking angeht, ist der GK110 einfach immer noch ein monster).


Ich finde heute lohnt sich das mehr als denje. Heute kommen ja nur noch alle 1,5 Jahre ne neue Generation und die Preise sind enorm stabil. Ne 970 / 980 kostet heute fast noch das gleiche wie zu Release. Heute kosten High end Modelle einfach zuviel Aufpreis. Langfristig gesehen ist man mit AMD aber auch meistens besser gefahren (OC außer Acht gelassen). Die 7970(Ghz) ist heute der GTX680 weit überlegen, die 290x der 780ti (die kann höchstens durch oc ausgleichen). Ich denke auch, dass man von der R9 390(x) länger was haben wird, als von einer GTX970/980. Aber mal abwarten.

Mit 14nm werden die Karen neu gemischt und es wird spannend. Vielleicht kommen da ja auch wieder extrem gute Karten bei rum :D
 
Die geilste 14nm Karte dürfte die Fury Nano 2 werden denke ich.
Wenn die die gleiche TDP wie die jetzige Nano hat, bei doppelter Leistung und mindestens 8 GB HBM2 dann wird das eine äusserst interessante Karte. Und selbst wenn die 700,- € kostet, dürfte man da trotzdem sehr lange was von haben.
 
herliTz_234 schrieb:
Stimmt so ein Interposer ist ja eine total unkomplexe Angelegenheit sowas Designt man einfach mal im Schlaf oder mit einem Auge während dem Duschen.

Und was genau ist jetzt da anders in meiner Aussage?

AMD hat den Interposer schon, der sich mit HBM wahrscheinlich nur geringfügig ändern wird ... nVidia bisher nicht.
 
Ich empfehle dem Autor sich mal die ersten Seiten der JESD235 (Nov. 2015) anzusehen. Schon dort sind 32Gb pro Channel und bis zu 8 gestackte DRAM Dies spezifiziert. Wenn ich nichts übersehen habe gibt es auch beim DRAM Takt keine Unterschiede. Ein Stack verfügt auch nicht zwangsläufig über 1024DQs, es können 4-8 Channel (mit jeweils 128DQs) zum Einsatz kommen. JESD235A hat nichts mit der von SK Hynix künstlich eingeführten Differenzierung von HBM "1" und "2" zu tun!
d804ff6e99.PNG9ab11779a8.PNG
 
Cool, jetzt kann Pascal ala GTX 1070 mit 8 GB HBM2 kommen. :)

Oder es wird endlich mal wieder ein AMD-System: Zen CPU mit 16 GB HBM2 Speicher und einer Polaris mit 8/16 GB HBM2. :evillol:

Natürlich reicht man System noch. Aber durch HBM2, der hoffentlich auch bei Middle-GPUs ala GTX 970 oder 390 eingesetzt werden, also den Nachfolger. Da werden wir ordentlich mehr Leistung alleine wegen den Speicher erwarten können. Siehe Fury. :)
 
Das könnte interessant werden. Nicht nur für die Grafikkarte, sondern für AMD´s Zen. Kein DDR4, sondern gleich HBM 2 mit 32gb Speicher und 500gb/s bis 1Tb/s Übertragungsrate. :D
 
Mehr als 16GB auf der neuen Titan kann ich mir nicht vorstellen. Selbst das empfinde ich als totalen Overkill.

Für die normalen high end Karten scheinen 8Gb HBM2 sehr wahrscheinlich den mehr dürfte wieder die kosten zu sehr steigern und wird auch von zu wenigen dann noch gebraucht als das es für die Hersteller interessant wäre. Vielleicht wenn HBM2 gut erweiterbar ist noch in nem Jahr nen Refresh mit 12GB aber auch das glaube ich nicht.

Für den mid range berreich tippe ich auf 6GB (384), minimal 5GB bei einem 320 bit design oder was vielen entgegenkommen würde auch hier 8GB mit 256 bit und GDDR5X um die Bandbreite über takt zu erreichen. Vielleicht pokern aber die Hersteller auch und bringen hier HBM 1 mit nur 4GB was ich schon arg wenig finden würde.

Und im 200€ Berreich sollte es dann hoffentlich auch 4Gb als minimum geben.

Und zu den APU`s sag ich nur das wäre viel zu teuer im Consumerbereich. Evtl wird man 2GB HBM 1 sehen können auf den APUs, vielleicht auch 4GB aber sicher nicht mehr, da es dann zu teuer für die APU Klientel wird. Wobei ich hier kommende APU`s für die Next gen Konsolen mal aussen vor lasse.
 
Zuletzt bearbeitet:
32 GB ... dann hätte meine nächste High-End-Grafikkarte mehr Speicher als meiner CPU RAM zur Verfügung steht.

Warum bauen wir eigentlich noch Grafikkarten als Erweiterungskarten? Bauen wir doch lieber die GPU aufs Mainboard und steken die CPU als Erweiterungskarte dazu :D
 
So wie es jetzt auch schon 16GB Firepros gibt, wird es später auch HPC Karten mit 32GB geben, aber nicht im Consumerbereich.

Ein Titan X Nachfolger muss ja "zwingend" 16GB bekommen, bei den AMD GPUs wär ich mir gar nicht so sicher, außer sie bringen auch mal ein Pendant was den Prestigefaktor angeht.

Interessant wäre noch, was teurer kommt, 4 mal 4-Hi Stacks, oder 2 mal 8-Hi. Es ergeben sich aber durch HBMv2 durchaus sehr witzige Kombinationen, die eigentlich alle Sinn ergeben würden.
 
Cool, wenn ich hier manche Kommentare lese muss ich lachen. Da denken einige Leute wenn ich 16GB HBM auf der Grafikkarte habe, das ich dann 4K in maximalen Einstellungen mit unglaublichen Frameraten zocken kann^^
Selbst wenn das ein sehr großer Schritt in der Entwicklung im Grafikspeicher-Bereich ist, die Entwicklung im GPU-bereich kann da nicht mithalten, sei es jetzt Polaris oder eine kommende GTX 1080 Ti ( wie immer sie heißen möge^^) und auch die Kreativen wären erst mal überfordert in der Entwicklung (sprich eine Grafikengine zu haben, die diese Power auf den Monitor zaubert) !
8 Mio. Pixel pro Frame mit maximaler Kantenglättung und Anisotropischen Filter in 3 stelligen FPS Bereich wird auch ganz klar nicht die kommende Generation packen. Man sagte ja auch vor 10 Jahren das die Fotorealistischen Games in 10 Jahren erscheinen........seltsam hab bisher noch keines gesehen !
 
Zuletzt bearbeitet:
Ich könnte mir vorstellen das zumindest im Consumerberreich eher 4x4 kommt so wie bei der fury, da so die Wärme sich besser aufteilt und abführen lässt.
Platz sollte ja kein Problem sein da man ja sowiso sehr viel spart im gegensatz zu bisherigen gddr5 Karten.
Einzig für Nano karten die wirklich das letzte an Platz einsparen wollen / müssen könnte ein 2x8 sinnvoller sein.
 
Zurück
Oben