Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Radeon R9 390(X): AMD spricht über den HBM-Grafikspeicher von Fiji
- Ersteller Wolfgang
- Erstellt am
- Zur News: Radeon R9 390(X): AMD spricht über den HBM-Grafikspeicher von Fiji
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Nur das 2016 alle Karten mit 8-16 GB HBM kommen werden, diese haben dann auch entsprechende Treiberverbesserungen, besseres Streaming und Kompression, falls wie in diesem Gespräch verlautbart wurde überhaupt umgesetzt wird.
An dem Problem ändert sich nichts. Eine 4 GB Karte würde, egal wie lang der Balken wird, nicht vom Markt für 700$ oder mehr angenommen werden. Und eine 2016 erscheinende Generation der Karten würde aus der 390X 4GB dennoch sofort einen Speicherkrüppel machen. Man muss eben nur zu der 770 GTX, HD 285, 570 GTX und 580 GTX schielen.
An dem Problem ändert sich nichts. Eine 4 GB Karte würde, egal wie lang der Balken wird, nicht vom Markt für 700$ oder mehr angenommen werden. Und eine 2016 erscheinende Generation der Karten würde aus der 390X 4GB dennoch sofort einen Speicherkrüppel machen. Man muss eben nur zu der 770 GTX, HD 285, 570 GTX und 580 GTX schielen.
Zuletzt bearbeitet:
B
BlauX
Gast
@Jesterfox,
der Controller @Hawaii macht da mehr Probleme, als die Software. Dein Schwenk zu pCars ist daher völlig deplatziert und falsch.
der Controller @Hawaii macht da mehr Probleme, als die Software. Dein Schwenk zu pCars ist daher völlig deplatziert und falsch.
@Draco Nobilis:
Die GTX 580 ist wirklich ein gutes Beispiel, habe zwei Bekannte mit den Karten. Der eine hat die Zotac AMP² mit 3GB, der andere die AMP mit 1,5GB. Und der mit 3GB hat auch heute in noch keinem Spiel Probleme (bei mittleren bis hohen Einstellungen) während der andere stark mit FPS-Drops zu kämpfen hat, selbst bei Low-Settings.
Die GTX 580 ist wirklich ein gutes Beispiel, habe zwei Bekannte mit den Karten. Der eine hat die Zotac AMP² mit 3GB, der andere die AMP mit 1,5GB. Und der mit 3GB hat auch heute in noch keinem Spiel Probleme (bei mittleren bis hohen Einstellungen) während der andere stark mit FPS-Drops zu kämpfen hat, selbst bei Low-Settings.
Jesterfox
Legende
- Registriert
- März 2009
- Beiträge
- 44.484
pCars war nicht auf den VRAM bezogen sondern eher auf fehlende Optimierung auf beiden Seiten (danach sieht es in dem Fall zumindest aus).
Verschwendung von Speicher schön und gut. Aber was bringt es das zu wissen wenn dann trotzdem so weiter gemacht wird? Das ist die Frage (und Befürchtung)
Verschwendung von Speicher schön und gut. Aber was bringt es das zu wissen wenn dann trotzdem so weiter gemacht wird? Das ist die Frage (und Befürchtung)
B
BlauX
Gast
@Jesterfox,
kostet bzw. spart halt Zeit als Entwickler. Gewisse Dinge können aber einfach nicht optimiert werden, das sind dann die Ausreißer-Games wo mehr als 4GB verbraucht wird, auf 4GB Karten, sobald man MSAA+1440p++ usw drauf klotzt. Ryse z.B. da kann man mehr Einsparen als es bisher tut, läuft aber auch so gut, also hat man sich die Zeit gespart.
Speicher generell wird seit DX10 Verschwenderisch benutzt. Mit DX12 hört das auf. Allerdings, was nicht aufhören wird: Konsolen-Ports und die daraus resultierenden Downgrades.
kostet bzw. spart halt Zeit als Entwickler. Gewisse Dinge können aber einfach nicht optimiert werden, das sind dann die Ausreißer-Games wo mehr als 4GB verbraucht wird, auf 4GB Karten, sobald man MSAA+1440p++ usw drauf klotzt. Ryse z.B. da kann man mehr Einsparen als es bisher tut, läuft aber auch so gut, also hat man sich die Zeit gespart.
Speicher generell wird seit DX10 Verschwenderisch benutzt. Mit DX12 hört das auf. Allerdings, was nicht aufhören wird: Konsolen-Ports und die daraus resultierenden Downgrades.
Jesterfox schrieb:Verschwendung von Speicher schön und gut. Aber was bringt es das zu wissen wenn dann trotzdem so weiter gemacht wird? Das ist die Frage (und Befürchtung)
AMD geht genau diese Art von Problemen schrittweise an (Siehe Mantle/DX12 Enforcement & HBM).
Btw. "Speichermanagement". Ohne AMD gäbs keine 64bit Consumer CPUs, welche nun sogar in der APU Sparte zum Standard geworden sind
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
Zwar schon ein paar Jährchen her, aber es wird wenigstens was gemacht
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
mfg,
Max
Zuletzt bearbeitet:
B
BlauX
Gast
AMD geht vieles an, was auch voll in Ordnung und spitze ist. Hut ab dafür, und das mit den Begrenzten Mitteln.
Bringt aber nix, wenn AMD zu FRÜH in die Zukunft schaut. Für jetzige Verhältnisse müssen es dennoch 8GB sein. Ich hoffe, dass AMD das bedacht hat, möglich ist es ja, auch ohne Black Magic.
Wenn nicht, ist es schlicht zu teuer. Sind womöglich andere Interposer nötig.
Bringt aber nix, wenn AMD zu FRÜH in die Zukunft schaut. Für jetzige Verhältnisse müssen es dennoch 8GB sein. Ich hoffe, dass AMD das bedacht hat, möglich ist es ja, auch ohne Black Magic.
Wenn nicht, ist es schlicht zu teuer. Sind womöglich andere Interposer nötig.
Das ist ja auch wirklich toll und lobenswert. Aber dir bringt das beste Speichermanagement nichts, wenn der Entwickler aus Bequemlichkeit große Mengen an Daten in den Speicher auslagert und diese als "dauerhaft und schnell verfügbar" deklariert. Speichermanagement funktioniert nur dann optimal, wenn die Entwickler auch die Daten unterschiedlich deklarieren, damit man die auch unterschiedlich behandeln kann.max_1234 schrieb:AMD geht genau diese Art von Problemen schrittweise an (Siehe Mantle/DX12 Enforcement & HBM).
Btw. "Speichermanagement".
Ob man will oder nicht, man ist immer ein Stück weit abhängig von der Programmierung der Software.
BlauX schrieb:Für jetzige Verhältnisse müssen es dennoch 8GB sein.
Ganz ehrlich - ich fände es auch schöner
![Lächeln :) :)](/forum/styles/smilies/smile.gif)
ABER - und dieses aber hat es in sich - VRAM wird größtenteils nur gecacht, sprich mit Zeugs gefüllt was evtl. irgendwann mal benötigt wird. Alle Game Engines sind schon lange klug genug um z.B. Texturen nachzuladen wenn diese benötigt werden und noch nicht im Cache sind.
Ich lass mich gerne überraschen ob es hier mit HBM @4k (alles darunter hat locker mit 4GB platz) einen spürbaren bzw. messbaren GAP gibt.
Die ersten Tests werden extrem interessant.
mfg,
Max
B
BlauX
Gast
Gibt es alles. Bringt aber auch nichts, wenn man die Pommesbuden-Entwickler nicht dabei berücksichtigt, und nur Müll fabrizieren. Da muss man halt, eine Art Auffangbecken sein, als Hersteller.
Oder man muss dem Buden-Fritzen stetig unter die Arme greifen. Das käme teurer, als nochmal 4 Stacks drauf zu tun.
Denn diese Pommesbuden gibt es einfach überall. Und wenn die scheiße bauen, fällt das dann auf den Hersteller zurück.
Oder man muss dem Buden-Fritzen stetig unter die Arme greifen. Das käme teurer, als nochmal 4 Stacks drauf zu tun.
Denn diese Pommesbuden gibt es einfach überall. Und wenn die scheiße bauen, fällt das dann auf den Hersteller zurück.
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.466
JNS-K schrieb:Was man bei dieser Diskussion nicht vergessen sollte, ist, dass der Maxwell der in der 980 verbaut wurde nur Nvidias Mittelklasse Chip ist - die korrekte Bezeichnung wäre eigentlich 970 evtl. sogar nur 960.
Fijii neue High-End Chip => Hawaii Mittelklasse
Weißt du was das war, Magie. PS, nur weil du bei NV mit GX XX4 und GX XX0 eine Möglichkeit hast, GPUs zu unterscheiden, bedeutet das nicht, dass bei AMD das anders läuft. Hier ist es eben mit Hawaii und Fijii als Codenamen nicht ersichtlich.
Aber die Denkaufgabe wird noch schwerer. Nämlich Hawaii ist ca 39 mm^2 größer als FM204, als dein Mittelklasse Chip.
Fijii ist sogar ca 50 mm^2 kleiner als Gm200, also der Big Maxwell. Beide AMD Chips haben DP-Einheiten, wie sieht es bei NV aus ? Nicht vorhanden ?
Also machst du Mittelklasse dadurch aus, dass sie kleiner ist und keine DP-Einheiten hat ? Was ist dann GM200 ? High-End weil er größer ist ? Der hat aber keine DP-Einheiten. Was ist also GM200 ?
Du siehst, so einfach ist das alles nicht. Hawaii kann genauso eine Mittelklasse GPU gewesen sein die für so und so lange Zeit dann als High-End genutzt wurde ect.
Dieses, Geblabbere von, AMD kann nicht mit High-End mithalten ist einfach nur Stuss, AMD fährt eine andere Strategie und dadurch ist das ein Birnen Äpfel vergleich.
Necareor schrieb:Das könnte eine Erklärung sein, oder eine Ausrede. Schwer zu sagen. Die Sache ist doch die, wenn du nur 4GB Speicher anbietest, weil man eigentlich nicht mehr benötigt, wenn man ordentlich optimiert, die Entwickler das aber nicht tun, hat die Karte das Nachsehen gegenüber einer anderen mit 8GB. Wer daran Schuld ist, spielt für den Kunden ja keine Rolle...
Erinnert mich ein bisschen an die MultiThreading-Thematik: Wenn die Software-Entwickler ihre Software mehr auf viele Threads optimiert hätten, würden die AMD-CPUs nicht so schlecht dastehen. Haben sie aber nicht...
Natürlich kann man da sicher einiges per Software machen, aber die geben sich aktuell schon keinerlei Mühe für AMD zu optimieren, und das wird wohl auch in Zukunft so bleiben.
Das ist mittlerweile kein Geheimnis mehr, und ich rede auch die ganze Zeit nicht von der RAM-Auslastung, die im Afterburner angezeigt wird, sondern von der tatsächlichen. Das ist natürlich schwer zu messen, aber mittlerweile wird es doch des Öftere in den Reviews gemacht.max_1234 schrieb:ABER - und dieses aber hat es in sich - VRAM wird größtenteils nur gecacht, sprich mit Zeugs gefüllt was evtl. irgendwann mal benötigt wird. Alle Game Engines sind schon lange klug genug um z.B. Texturen nachzuladen wenn diese benötigt werden und noch nicht im Cache sind.
Ergänzung ()
Das hat mit AMD nicht viel zu tun. Für viele Threads zu programmieren ist aufwändiger als für wenige, genauso ist es aufwändiger, effizient den VRAM auszunutzen. Das ist eine reine Kosten <-> Aufwand - Frage.Sinnfrei schrieb:Natürlich kann man da sicher einiges per Software machen, aber die geben sich aktuell schon keinerlei Mühe für AMD zu optimieren, und das wird wohl auch in Zukunft so bleiben.
Jesterfox
Legende
- Registriert
- März 2009
- Beiträge
- 44.484
BlauX schrieb:Bringt aber nix, wenn AMD zu FRÜH in die Zukunft schaut. Für jetzige Verhältnisse müssen es dennoch 8GB sein.
Das ist eben auch meine Befürchtung. Dann hock ich mit ner 850$ Grafikkarte da und muss Details reduzieren weil ihr der VRAM ausgeht... toll. Vor allem wenn ich dann noch in Richtung meines aktuellen Lieblingsspiels schau und das Gameworks Logo sehe (würg). Obwohl, gerade dann müssten sie ja auf 3,5GB optimieren damit die ach so tolle 970 nicht so schlecht dasteht ;-)
Ich befürchte auch das der Grund gegen die 8 Stacks die Herstellungskosten sind. Eigentlich sollte man eh nie zur ersten Generation einer Neuerung greifen du eben auch bei HBM noch abwarten. Aber ich brauch einfach mal ne neue Karte... und wenn man von ner 3GB Karte kommt ist der Sprung auf 4GB einfach lächerlich. Dann noch eher ne 380X mit 8GB wenn sie den Stromverbrauch von dem Chip noch etwas in den Griff bekommen.
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Ich kann mir auch vorstellen das 4GB vram mit entsprechendem Treibergewurschtel und Anpassungen seitens der Softwareentwickler des Spieles ausreichend sind.
Aber es wird wieder keiner auf Spieleentwicklerseite machen. Auf wieviele Speichergrößen soll man den optimieren? 2GB? 3GB? 4GB? Und dann meckern alle das ihre 8GB nicht genutzt werden. Dann kommt also der HD Texturpatch und Schwupp meckern alle 4GB Besitzer das es bei ihnen in 4k wieder nicht mehr geht. Konsolenspieleentwickler haben es da einfacher, feste Größen mit denen ihre Streaming Module/Engine arbeiten können.
Schlimmer noch ist das es einfach niemand kaufen wird. 4GB für 700$ wird nicht gekauft, egal wie sachlich ausreichend das wäre. NVIDIA hat dem Markt zu diesem preis an entsprechende (teilweise sinnlos hohe) vram Mengen gewöhnt. Das gerade die Karten die es brauchen keinen vram bekommen hat ja Methode(980) und Tradition. Selbst wenn dann der Markt 4GB annehmen würde. Jeder der sich für solche Produkte interessiert wird doch sehen das nächstes Jahr dank HBM 2 einfach alles mit 500$ Grafikkarten @ 8GB/16GB geflutet werden wird. Wie sich dann eine 4GB Karte 2017 schlägt wenn alle Entwickler für 16GB Grafikkarten entwickeln ist wohl klar.
AMD macht auch wieder den Fehler eine neue Technologie einzubauen wenn es gerade überhaupt nicht sinnvoll wäre. Jetzt hat NVIDIA Monatelang zu Mondpreisen die Kunden abgegraben die die Leistung der 390X benötigen würden. Denn der Kunde kauft immer dann wenn es eine neue Leistungsstufe zu kaufen gibt, egal von wem. Dafür hat AMD dann HBM und öhm... ja was genau außer vlt. Erfahrung mit der Technologie? Wie wir ja wissen lässt sich NVIDIA öfter mal AMDs Firmengeheimnisse und Pläne "zustellen". Also bringt es NVIDIA am Ende mehr AMD bei ihren ersten HBM Schritten zu beobachten und währenddessen den Markt zu bedienen. Ohne HBM wären die Karten längst auf dem Markt und AMD hätte nicht wieder alles an NVIDIA abgeben müssen.
Aber es wird wieder keiner auf Spieleentwicklerseite machen. Auf wieviele Speichergrößen soll man den optimieren? 2GB? 3GB? 4GB? Und dann meckern alle das ihre 8GB nicht genutzt werden. Dann kommt also der HD Texturpatch und Schwupp meckern alle 4GB Besitzer das es bei ihnen in 4k wieder nicht mehr geht. Konsolenspieleentwickler haben es da einfacher, feste Größen mit denen ihre Streaming Module/Engine arbeiten können.
Schlimmer noch ist das es einfach niemand kaufen wird. 4GB für 700$ wird nicht gekauft, egal wie sachlich ausreichend das wäre. NVIDIA hat dem Markt zu diesem preis an entsprechende (teilweise sinnlos hohe) vram Mengen gewöhnt. Das gerade die Karten die es brauchen keinen vram bekommen hat ja Methode(980) und Tradition. Selbst wenn dann der Markt 4GB annehmen würde. Jeder der sich für solche Produkte interessiert wird doch sehen das nächstes Jahr dank HBM 2 einfach alles mit 500$ Grafikkarten @ 8GB/16GB geflutet werden wird. Wie sich dann eine 4GB Karte 2017 schlägt wenn alle Entwickler für 16GB Grafikkarten entwickeln ist wohl klar.
AMD macht auch wieder den Fehler eine neue Technologie einzubauen wenn es gerade überhaupt nicht sinnvoll wäre. Jetzt hat NVIDIA Monatelang zu Mondpreisen die Kunden abgegraben die die Leistung der 390X benötigen würden. Denn der Kunde kauft immer dann wenn es eine neue Leistungsstufe zu kaufen gibt, egal von wem. Dafür hat AMD dann HBM und öhm... ja was genau außer vlt. Erfahrung mit der Technologie? Wie wir ja wissen lässt sich NVIDIA öfter mal AMDs Firmengeheimnisse und Pläne "zustellen". Also bringt es NVIDIA am Ende mehr AMD bei ihren ersten HBM Schritten zu beobachten und währenddessen den Markt zu bedienen. Ohne HBM wären die Karten längst auf dem Markt und AMD hätte nicht wieder alles an NVIDIA abgeben müssen.
Zuletzt bearbeitet:
Lass doch diese Anspielungen weg, keine der beiden Firmen sorgt sich um unser Wohlbefinden, die wollen beide nur unser Geld. AMD hat genauso sinnlose VRAM-Größen, siehe die R9 285.Draco Nobilis schrieb:NVIDIA hat dem Markt zu diesem preis an entsprechende (teilweise sinnlos hohe) vram Mengen gewöhnt. Das gerade die Karten die es brauchen keinen vram bekommen hat ja Methode(980) und Tradition.
Ich finde eigentlich überhaupt, dass Nvidia bisher kaum sinnlos große VRAM-Mengen an den Mann gebracht hat, eher zu wenig VRAM. Die Titanen sind ja die einzigen Karten, die mehr als 4GB haben.
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.466
Necareor schrieb:Es gibt ja zwei Varianten, Fiji und Fiji XT. Ich glaube auch, dass Fiji (Non XT) nur mit GDDR5 kommen wird. Gerade am Anfang der Entwicklung hat AMD sicherlich noch nicht mit HBM getestet/entwickelt, also ich glaube schon, dass die da nicht extra im Nachhinein einen Ableger mit GDDR5-Controller entwickeln müssten. Den gab es wahrscheinlich schon vor der HBM-Variante.
AMD arbeitet seit 7 Jahren an dem Standard. Es gab übrigens schon letztes Jahr erste Tests mit einem offensichtlich kleineren Chip :
http://www.tomshardware.com/news/amd-captain-jack-rumor,28129.html
"Captain Jack", schon vergessen ?
Das dürfte Fijii Pro sein, denn der ist genau in der Mitte von 980 GTX und R9 295X (Fijii XT soll ja gleich schnell sein). Und dieser Leak ist vom NOVEMBER 26, 2014.
Fijii gibt es sicherlich schon lange genug, dass Gerüchte über Fijii Revision 2.0 nicht mal unrealistisch sind und dass es mittlerweile auch 8 GB Edition gibt, aber aktuell eventuell zuerst die 4 GB Version den Vortritt haben könnte.
Sowohl Fijii als auch Maxwell werden noch eine "Zeit" lang am Markt sein.
Das bezieht sich nicht auf dich, aber viele tuen hier immer so, als ob Ende des Jahres schon die neue Generation in 14nm kommt. Diese Karten wird es vor Ende 2016 nicht geben und so wie es aussieht, wird sogar wenn dann AMD früher 14nm verfügbar haben.
Ja sinnlos wie bei der 960 GTX anfangs. Der Unterschied ist aber, NV hat keine Grafikkarte in der Performance Klasse als Konkurrenten im alten Line Up.AMD hat genauso sinnlose VRAM-Größen, siehe die R9 285.
Hätte man die R9 285 mit 4 GB gebracht, müsste diese deutlich teurer verkauft werden, oder die R9 280 (X) hätte man noch "billiger" machen müssen. Es war also durchaus ein bewusstes "beschränken". Sieht man ja, dass bei der R9 380 Tonga Pro mit 4 GB ausgestattet ist.
Zuletzt bearbeitet:
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
@Necareor
Ich sage nicht das AMD viel besser ist mit ihrer 285. Die habe ich ja auch selbst Speicherkrüppel genannt.
Aber bei NVIDIA hat es leider mehr Tradition. Sinnlose Speichermengen sind bei NVIDIA einfach einfacher zu finden als bei AMD. bsp. TITAN X, 570, 580, 770
AMD dagegen macht eben ganz andere Fehler, bsp beim Marketing, oder der Produktreleasezeiträume (immer Monate nach NVIDIA oder eben so das NVIDIA sofort kontern kann). Auch der AF Fehler der 6xxxer Generation war unglaublich dämlich.
Beides ist Doof, nur bei AMD kommen immer BESONDERS ungünstige Sachen aus betriebswirtschaftlicher Sicht. beide wollen unser bestes, das Geld. Aber nur weil jemand mein Geld will heißt das nicht das er mir Mist verkaufen kann(GTX 970 Speicherproblem oder Radeon 6950 AF Problem).
Ich sage nicht das AMD viel besser ist mit ihrer 285. Die habe ich ja auch selbst Speicherkrüppel genannt.
Aber bei NVIDIA hat es leider mehr Tradition. Sinnlose Speichermengen sind bei NVIDIA einfach einfacher zu finden als bei AMD. bsp. TITAN X, 570, 580, 770
AMD dagegen macht eben ganz andere Fehler, bsp beim Marketing, oder der Produktreleasezeiträume (immer Monate nach NVIDIA oder eben so das NVIDIA sofort kontern kann). Auch der AF Fehler der 6xxxer Generation war unglaublich dämlich.
Beides ist Doof, nur bei AMD kommen immer BESONDERS ungünstige Sachen aus betriebswirtschaftlicher Sicht. beide wollen unser bestes, das Geld. Aber nur weil jemand mein Geld will heißt das nicht das er mir Mist verkaufen kann(GTX 970 Speicherproblem oder Radeon 6950 AF Problem).
Zuletzt bearbeitet: