News ve.ga: Offizielle Vorschau auf AMD Vega am 5. Januar

Chillaholic schrieb:
Nein, die Masse der Kundschaft ist so bescheuert, dass sie immer wieder Grafikkarten mit zu wenig VRam kaufen. Und das wiederholt sich alle 1-2 Jahre mit ner neuen Generation. Dann sind wieder alle geschockt, wie viel VRam aktuelle Spiele so verbraten, es wird über schlechte Konsolenports gemeckert und der Spass fängt von vorne an.

Naja. Das sehe ich eher als eine jüngere Entwicklung der letzten Jahre. Früher war es jedenfalls nicht so, dass der VRAM-Bedarf so rasant gewachsen ist bzw. übergroßes VRAM wirklich nennens-/sehenswerte Vorteile brachte. (Unter anderen auch eben weil die älteren Konsolengenerationen im Vergleich zu gängigen PC-Grafikkarten nur sehr kleines VRAM hatten. Ein schlechter Konsolenport zeichnete sich deshalb dadurch aus, dass er mit seinen matschigen SD-Rexturen nicht mal den normalen VRAM einer PC-Karte ausnutzen konnte. Geschweige denn den von Modellen mit doppelten Ausbau.)

Ich habe mir seinerzeit eine GTX580 mit 3GB VRAM gekauft. Rückblickend wäre ich für die ganze Lebensdauer der Karte auch gut mit den standardmäßigen 1,5GB ausgekommen. Als Spiele herauskamen, die wesentlich mehr als 1GB VRAM benötigten oder auch nur nutzen konnten, war die GPU-Leistung der 580 (trotz OC) auch schon lange nicht mehr ausreichend, für Top-Titel mit höchsten Details und hohen Auflösungen.

Deswegen ist es eben keine historische Tatsache, dass bei VRAM immer "viel hilft viel" gilt. Im Gegenteil. In der Vergangenheit waren VRAM-Riesen in aller Regel eher Blender. (Auf der anderen Seite gab es natürlich auch schon immer einzelne VRAM-Krüppel, die schon von Anfang an unterdimensioniert waren.) Der Aufpreis für doppeltes VRAM lohnte sich eigentlich nie, es sei denn, man hatte spezielle Anforderungen. Z.B. weil man sehr auf inoffizielle Textur-Mods wert legte.

Das hat sich in den letzten Jahren geändert. Spiele können standardmäßig in höchsten Qualitätseinstellungen immer mehr VRAM ausnutzen und insgesamt gehen die Anforderungen für ein gutes Spielerlebnis auch entsprechend nach oben. Wie gesagt, bin ich derzeit auch der Meinung, dass man sich eher für etwas mehr VRAM entscheiden sollte, wenn man sich jetzt ein neues High End-Modell zulegt.
Wobei sicher bald auch wieder ein Punkt erreicht ist, an dem VRAM-Größe wieder in den Hintergrund rückt und für Jahre nur ein langsameres Wachstum stattfindet.

Ich muss mir nur die 32GB RAM anschauen, die ich meinem Gaming-PC 2011 gegönnt hatte, weil ich es für möglich hielt, dass auch die RAM-Anforderungen in den nächsten Jahren weiter nach oben gehen (und weil RAM gerade spottbillig war ;) ). Heute käme ich immer noch locker mit der Hälfte oder sogar einem Viertel davon aus.
Manche Entscheidung in Sachen Zukunftssicherheit stellt sich als unnötiger Overkill heraus. Leider weiß man das immer erst rückblickend. :)
 
Zuletzt bearbeitet:
Asiatische quellen gehen davon aus das die 1080ti 12gb vram hat. Soviel dazu. Man darf nicht vergessen das es für die konsole optimiert wird und für den pc nicht. Daher steigt das vllt ons unermessliche. Nachdem kommt dann die scorpio und die ps5 und es geht immer weiter.
 
Herdware schrieb:
Aber mehr als 4GB haben doch auch die aktuellen Konsolen nicht für VRAM über. Eher weniger.
Die 8GB von PS4 und XBoxOne sind ja shared. Da geht also auch der normale Arbeitsspeicher (Spiel + Betriebssystem inkl. diverser Hintergrundprozesse) von ab.
Das Spielkonsolen heutzutage auch nichts groß anderes mehr sind als PCs, fällt es mir schwer mir vorzustellen, dass der Bedarf an Arbeitsspeicher bei aktuellen Konsolenspielen deutlich kleiner als 4GB ist.

So ein winz OS wie es eine PS4 hat braucht keinesfalls mehr als 2GB. Damit wären wohl mindestens 6GB für die GPU verfügbar.
 
Mr.Smith schrieb:
Titan X Pascal:
480
11

Radeon Vega:
512 -> +6.66%
14 -> +27,27%

Klingt schonmal ziemlich geil!! Sofern die Leistung aus einem einzelnen Chip kommt und ver Verbrauch <250W in der Spitze ist.
Ergänzung ()

du weißt schon, dass AMD Grafikchips und nicht Grafikkarten herstellt?!

ok wenn du schon verbesserst dann auch richtig: AMD designt Grafikchips (cpu' und ne Menge mehr)

Aber Gerstellen lassen die , machen die nicht mehr selber
 
modena.ch schrieb:
So ein winz OS wie es eine PS4 hat braucht keinesfalls mehr als 2GB. Damit wären wohl mindestens 6GB für die GPU verfügbar.

Ich meine mich zu erinnern, dass bei der PS4 überhaupt nur 5 GB für die Entwickler nutzbar sind. Den Rest reserviert sich das OS und seine diversen Subfunktionen. (Erst die Pro gibt glaube ich dank Optimierungen 1 GB mehr frei.)
Darauf kommt dann noch der RAM-Bedarf des Spieles selbst. Mehr als 4GB dürften in der Regel also nicht für VRAM übrig bleiben. Wohl eher noch weniger. Wobei es halt in der Natur von Shared Memory liegt, dass das dynamisch schwanken kann. Theoretisch könnte ein Spiel zeitweise praktisch den ganzen verfügbaren Speicher (5-6GB) als VRAM nutzen. Ein schlampig programmierter PC-Port könnte seinen VRAM-Bedarf an diesem Extremzustand festmachen.
 
Jan schrieb:
Sie enthält unter anderem die Bestätigung, dass NCU in „Vega with NCU“ Next Generation Compute Unit bedeutet.
Wo seht ihr denn das bitteschön???
In der Tag-Cloud kommt einmal die Abkürzung "NCU" vor und dann der Begriff "Next Generation Computer Engine".
Von einer "Next Generation Compute Unit" sehe ich zumindest da weit und breit nichts...
 
Schnitz schrieb:
Moment mal:

https://www.msi.com/Graphics-card/N640-4GD3.html

das war ja dann damals eine zukunftstaugliche Karte? :evillol:

Nein, weil es DDR3 war und der die Leistung der Karte begrenzt hat. DDR3 hat eigentlich kaum was mit dem für GPUs hoch spezialisierten GDDR5 zu tun. (Ja, ich weiss, dass GDDR5 aus DDR3 entstanden ist..)

Um auch nach deinem kleinen Spasskommentar noch eine korrekte Aussage bezüglich VRam zu haben:

Bei VRam gleicher Geschwindigkeit ist immer die grössere handelsübliche Menge zu bevorzugen, da langlebiger.

Interessant wird es erst mal wieder, wenn nVidia einen GDDR5X-Speicherkrüppel bringt und eine weitere Version mit doppeltem normalen GDDR5. Dann hätte zwar Modell Krüppel den längeren Balken (und deswegen alle DAUs hinter sich), Modell doppelter GDDR5 dafür die besseren Frametimes und bessere Spielbarkeit. Aber jetzt lass ich dieses Gedankenspielchen lieber, bevor hier noch jemand mitliest.
 
BookerDeWitt schrieb:
Nein, weil es DDR3 war und der die Leistung der Karte begrenzt hat.

Er trollt doch nur, geh da gar nicht drauf ein nächstes mal.
 
BookerDeWitt schrieb:
Interessant wird es erst mal wieder, wenn nVidia einen GDDR5X-Speicherkrüppel bringt und eine weitere Version mit doppeltem normalen GDDR5. Dann hätte zwar Modell Krüppel den längeren Balken (und deswegen alle DAUs hinter sich), Modell doppelter GDDR5 dafür die besseren Frametimes und bessere Spielbarkeit. Aber jetzt lass ich dieses Gedankenspielchen lieber, bevor hier noch jemand mitliest.

Gute Erklärung, Danke :daumen:

Aber: http://www.evga.com/articles/00845/#3748

Die Rohleistung ist jedoch auch hier lächerlich, diese Bauernfängerei wird aber wieder an fahrt aufnehmen, da VRAM früher gerne als Augenwischerei genutzt wurde, dann aber in kompetenten Foren abgeraten wurde.
Werde nie vergessen wie meine Radeon 9000Pro mit 128 MB von ner Geforce 2 GTS mit 32 MB geschlachtet wurde.
Jetzt hat VRAM aber wieder einen anderen Stellenwert.

Chillaholic schrieb:
Er trollt doch nur

Ne, beim trollen mache ich kein :evillol: dahinter :lol:
 
Zuletzt bearbeitet:
Musste bei dem "Build to last" Schild lachen, meine 6870 ist 2 Tage nach Ablauf der Garantie kaputt gegangen :D
 
Strikerking schrieb:
...außer Xbox Scorpio bekommt mehr Grafikspeicher.

Davon wirst Du wohl ausgehen können/müssen, zumal es bis Herbst/Winter dieses Jahres (voraussichtlicher Marktstart der Scorpio von MS) nicht mehr lange ist.

Herdware schrieb:
Es fällt mir aber trotzdem schwer zu glauben, dass die heutigen Spiele so miserabel entwickelt werden, dass sie auf allem außer exotischer High End-Hardware, die nur einen winzig kleinen Marktanteil ausmacht, wesentlich schlechter aussieht, als ältere Titel. Ganz besonders nicht bei AAA-Titeln, die sich in rieisgen Mengen verkaufen müssen, um die Entwicklungskosten wieder reinzuholen. Dafür reichen die paar High-End-Enthusiasten mit >8GB-Karten nicht annähernd aus.

Solche Schlamperei könnte doch kein Publisher durchgehen lassen. Nicht aus Mitleid mit Spielern mit kleinerem Geldbeutel, die sich nicht jedes Jahr eine neue Grafikkarte für >500€ kaufen können, sondern aus eigenem Profitinteresse. ... Was für eine Logik steckt dahinter?

Die Logik dahinter ist die gleiche wie zu Zeiten von Quake 1 oder Crysis 1, dass am Anfang auch bei der großen Masse nicht vernünftig/flüssig lief, weil "über Nacht" die Anforderungen drastisch gestiegen sind. Manchmal werden Spiele/Entwicklerstudios auch dadurch erst bekannt, als erste auf "Abwärtskompatibilität" bzw. die Spielbarkeit bei der großen Masse zu pfeifen.

Ansonsten gäbe es ewigen Stillstand, wenn Anforderungen an die Hardware nicht irgendwann erhöht würden und wer würde sich dann noch neue Hardware kaufen wollen, wenn die alte ewig reichen würde.

Das ist ja nicht gerade neu und durch VR und 4K/UHD liegt es nur nahe, dass neue Mindeststandards bei der Hardware (und darunter fällt nun 'mal der Grafikkartenspeicher ganz klar; beim RAM ist das ja mittlerweile auch so, dass bei aktuellen AAA Titeln unter 8GB nur noch sehr wenig geht, auch wenn ein nicht kleiner Teil immer noch weniger als 8 GB RAM zur Verfügung hat) gezogen werden.

6 GB sind eine Nischenspeichergröße genauso wie 10 GB es sein werden, mit dem absehbaren Fall von 4 GB werden dann 8 GB vorerst eine ganze Weile reichen für Standardanforderungen (da Massenspeichergröße, was sich durch die Anzahl der Kartenmodelle beider Chip-Entwickler ergibt, die die Speichergröße schon jetzt unterstützen und zukünftig noch unterstützen werden), aber nicht für Maximaleinstellungen (Texturdetails, etc.).

12 GB (als vermutlich kommende Massenspeichergröße) wären zu empfehlen bei Neukauf kommender GPUs (selbst für Full-HD schon, weil einige Spiele schon jetzt 8 GB fordern) und 16 GB eigentlich schon fast für WQHD und mit Sicherheit für 4K/UHD anzuraten (auch wenn man dafür vermutlich exorbitant tief in die Geldbörse wird greifen müssen, aber der Luxus kratzt wahre Enthusiasten/Early-Adopter i.d.R. nicht).

Wenn es ressourcentechnisch in den kommenden Monaten und Jahren so weiter geht wie derzeit und man nicht auf den Speicherausbau (mit Puffer für die nahe Zukunft) beim GPU-Neukauf achtet, wird man sonst nur sehr kurze Freude damit haben, die Grafikkarte in aktuellen Spielen voll ausfahren zu können und das bei stetig steigenden Preisen.
 
Zuletzt bearbeitet:
Herdware schrieb:
Ich habe mir seinerzeit eine GTX580 mit 3GB VRAM gekauft. Rückblickend wäre ich für die ganze Lebensdauer der Karte auch gut mit den standardmäßigen 1,5GB ausgekommen. Als Spiele herauskamen, die wesentlich mehr als 1GB VRAM benötigten oder auch nur nutzen konnten, war die GPU-Leistung der 580 (trotz OC) auch schon lange nicht mehr ausreichend, für Top-Titel mit höchsten Details und hohen Auflösungen.

Ja gut, das war vor über 6 Jahren. Seit dem hat sich einiges geändert und es gab 4 neue GPU-Serien. :D Spätestens seit der GTX 970 sollte aber jeder gerafft haben, was Phase ist.
Meine GTX 760 mit 2GB z.B. war ne große Fehlentscheidung.

Herdware schrieb:
Ich muss mir nur die 32GB RAM anschauen, die ich meinem Gaming-PC 2011 gegönnt hatte, weil ich es für möglich hielt, dass auch die RAM-Anforderungen in den nächsten Jahren weiter nach oben gehen (und weil RAM gerade spottbillig war ;) ). Heute käme ich immer noch locker mit der Hälfte oder sogar einem Viertel davon aus.
Manche Entscheidung in Sachen Zukunftssicherheit stellt sich als unnötiger Overkill heraus. Leider weiß man das immer erst rückblickend. :)

Hab immer noch 8GB Ram und brauch endlich mehr.
16GB wären aktuell optimal, warte aber auf Zen. ;)
 
Zuletzt bearbeitet:
MrBackslash schrieb:
... habe mir vor Jahren für teuer Geld eine GTX 780 mit 6GB gekauft, weil damals auch jeder sagte mehr ist besser. Trotzdem kann ich bei neueren Spielen keinen Gewinn mehr daraus ziehen, weil die Karte einfach nicht mehr schnell genug ist. Das Geld hätte ich mir damals sparen können und stattdessen lieber heute in eine neue GPU investieren sollen.

Die Enttäuschung kann ich nachvollziehen und es liegt auch daran, dass damals zu Kepler-Zeiten sich nVidia den Extra-Speicher vergolden ließ und die Mehrkosten in keiner gesunden/lohnenden Relation standen.

Ich stand auch vor der Wahl eine GTX 670OC mit 4 GB anstelle meiner 2 GB zu kaufen, aber für die 200 $ bzw. 50% Aufpreis hätte ich dann gleich zu einer übertaktet geringfügig stärkeren 680 greifen können. Gelohnt hätten sich beide Optionen aber nicht wirklich, aber bei den aktuellen Mittelklasse-GPUs lohnt es sich zweifelsohne in jedem Fall eine 8 GB anstelle einer 4 GB (RX 480/470) Version oder eine 6 GB anstelle einer 3GB (GTX 1060) Variante für etwas mehr Geld zu kaufen.

Die Zeiten haben sich dahingehend schon geändert, auch wenn keiner weiss, wie die Aufpreise für mehr Speicher in den großen GPUs ausfallen werden, aber das sind ja Luxuskarten und da werden diese eben auch bezahlt ohne dass die Klientel mit der Wimper zuckt.
 
Zuletzt bearbeitet:
Chismon schrieb:
Vor 2019 wird nVidia vermutlich auch nicht mehr als 20 GB (nicht 24 GB, denn nVidia hat nichts zu verschenken bzw. wird geizig bleiben was den Speicherausbau angeht) mit den Volta-basierenden Titan-Karten anbieten, vielleicht werden es sogar nur 16 GB (denn für die Titan X(P/rev.2) gab es deutlich später auch nicht mehr als für die GTX Titan X(M/rev.1) und für die dieses Jahr evt. erscheinende Titan X Black erwarte ich definitiv nicht mehr als 16 GB).

Nvidia hat halt den Vorteil des Preises auf ihrer Seite. Ich denk HBM 2 ist schnell doppelt und dreifach so teuer wie GDDR5X. Die nächste TITAN X düfte wohl 24GB haben. Ich denke Nvidia wirft passend zu AMDs Vega eine vollaktive GP102 GPU auf den Markt, mit höherer Taktzahl und 24GB. Allein über vollaktiv und mehr Takt hat man durch die Handbremse an der aktuellen TITAN X ja noch ~30% Luft nach oben, und lässt sich immer noch vergleichsweise günstig fertigen. Zudem ist der Entwicklungsaufwand bereits geleistet.

Hängt natürlich auch davon ab was AMD auftischt - wenn da eine vollaktive GP102 GPU nicht reichen sollte wirds spanned :)

Vielleicht gibs zeitnahe ne kleine Vega mit 8GB (vllt als RX490) und typischerweise kurz davor die GTX 1080 TI, später dann die Vega groß mit 16Gb zB unter Namen "Fury X II" und als Kontrahent die GTX TITAN Pascal Black 24GB.
 
Zuletzt bearbeitet:
zeedy schrieb:
War Kasmopaya eigentlich schon hier mit seinem Zettel? :D
Wenn nicht, übernehme ich das für ihn: 8GB dass ich nicht lache! Ein Speicherkrüppel wie die Fury X einer ist! 8GB sind das absolute Minimum für Mittelklasse Karten! Meine GTX580 mit 3GB war genau richtig, ebenso wie meine Titan X Maxwell mit 12 GB. Im Jahre 2017 müssen High End Karten eigentlich 24GB haben. 16GB sind das absolute Minimum! Wer mir nicht glaubt dem ist nicht zu helfen! Mein Zettel müsste eigentlich allen die Augen geöffnet haben!
:D

Kannst Du das bitte unterlassen!? Nich das Du ihn nun verschreckt hast und wir bekommen den Zettel nicht zu sehen..

Ohh, Warte..
12052015492.jpg
 
Sturmwind80 schrieb:
Wenn AMD wirklich vergleichbare Produkte im Highend Bereich liefert, dann sicher auch zu den Preisen von nvidia und Intel. Warum sollte AMD weit darunter liegen? Die wollen auch verdienen und wie man sieht, sind sehr viele Leute bereit die Preise zu zahlen.

Kokurrenz belebt das Geschäft. Wenn Vega der totale Müll wird, steht Nvidia noch mehr ohne Konkurrenz da und kann die Preise ins Endlose machen. Vega muss gut werden. Bitte! Ryzen auch!
 
Krautmaster schrieb:
Nvidia hat halt den Vorteil des Preises auf ihrer Seite. Ich denk HBM 2 ist schnell doppelt und dreifach so teuer wie GDDR5X. Die nächste TITAN X düfte wohl 24GB haben. Ich denke Nvidia wirft passend zu AMDs Vega eine vollaktive GP102 GPU auf den Markt, mit höherer Taktzahl und 24GB. Allein über vollaktiv und mehr Takt hat man durch die Handbremse an der aktuellen TITAN X ja noch ~30% Luft nach oben, und lässt sich immer noch vergleichsweise günstig fertigen. Zudem ist der Entwicklungsaufwand bereits geleistet.

Hängt natürlich auch davon ab was AMD auftischt - wenn da eine vollaktive GP102 GPU nicht reichen sollte wirds spanned :)

Vielleicht gibs zeitnahe ne kleine Vega mit 8GB (vllt als RX490) und typischerweise kurz davor die GTX 1080 TI, später dann die Vega groß mit 16Gb zB unter Namen "Fury X II" und als Kontrahent die GTX TITAN Pascal Black 24GB.

AMD wäre gut geraten so wie Nvidia zu verfahren. Das setzt allerdings auch voraus, dass Vega wirklich die Leistung bringt, die erwartet wird.

Sie sollten viel eher den kleinen Vega so hinstellen, dass eine kolportierte RX490 8GB HBM2 liefert, der Chip aber beschnitten ist. Dann einen vollaktiven kleinen Vega, der als RX490X mit 8GB HBM2 an den Start geht. Dafür muss die Leistung aber min. GTX1070/GTX1080 Niveau erreichen.

Und Groß Vega einmal beschnitten als Pendant zur GTX1080ti und als Vollausbau ein direkter Konkurrent zur Titan X. Mit Fury X haben sie sich damals gar nicht mit der Titan duelliert. Wenn kein Pendant zur Titan X kommt, ist Vega direkt ab Start bereits eine Krücke. Das kauft kein Enthusiast.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Nvidia hat halt den Vorteil des Preises auf ihrer Seite. Ich denk HBM 2 ist schnell doppelt und dreifach so teuer wie GDDR5X. Die nächste TITAN X düfte wohl 24GB haben. Ich denke Nvidia wirft passend zu AMDs Vega eine vollaktive GP102 GPU auf den Markt, mit höherer Taktzahl und 24GB. Allein über vollaktiv und mehr Takt hat man durch die Handbremse an der aktuellen TITAN X ja noch ~30% Luft nach oben, und lässt sich immer noch vergleichsweise günstig fertigen ... hängt natürlich auch davon ab was AMD auftischt - wenn da eine vollaktive GP102 GPU nicht reichen sollte wirds spanned :). Vielleicht gibt's zeitnahe ne kleine Vega mit 8GB (vllt als RX490) und typischerweise kurz davor die GTX 1080 TI, später dann die Vega groß mit 16Gb zB unter Namen "Fury X II" und als Kontrahent die GTX TITAN Pascal Black 24GB.

Der Preisvorteil liegt jetzt noch bei nVidia, sehe ich auch so, aber wird nVidia es sich leisten können Volta Titan- und Ti-Karten billigst mit (höher taktendem) GDDR5X auszustatten oder wird man dort mit HBM2 nachziehen müssen, was den allgemeinen Speicherhunger erst einmal etwas ausbremsen würde wegen der steigenden Kosten?

Da kommen dann neben der Speichergeschwindigkeit auch geringerer Platzbedarf und vor allem Effizienz zum tragen, wenn die Konkurrenz (AMD) dann plötzlich im Premiumbereich bzw. bei den Enthusiasten-GPUs technologisch vorne liegen würde, weil nVidia den Umstieg auf den besseren Speichertyp aus Geiz/Profitgier hinaus zögern würde.

Das sind insgesamt sehr spannende Konstellationen im Premium-Bereich, die natürlich alle darunter liegenden Kategorien beeinflussen werden. Was wäre denn, wenn nVidia auch 16GB HBM2 (in Anlehnung an die P100) bei der Titan X Black bringen würde? Wenn Vega (inkl. Instinct-Modelle im Profi-Bereich) gut gehen sollte, dann wird es auch mehr Nachfrage nach HBM2 geben und dessen Preis sinken, sollte man meinen, zumal der Herstellungsprozess jetzt schon um einiges effizienter und günstiger sein dürfte als zu P100 Zeiten und AMD als Mitentwickler vermutlich deutlich weniger zahlt als nVidia.

Ich denke AMD hat für 2018 noch etwas/ein Ass in der Hinterhand (größte Vega-Ausbaustufe), bevor man dann ab 2019 mit Navi vorhaben könnte wieder Parität bei den GPU-Marktanteilen herzustellen, das hat nicht unbedingt mit dem Werbespot/"poor Volta" zu tun, sondern basierend auf der Roadmap, dem gerüchteweisen Vega 20 in 7nm, so dass AMD nicht direkt das ganze Pulver in 2017 verschießen wird.

Ich könnte mir neben den Spekulationen über 8 und 16 GB Versionen von Groß-Vega (ähnlich wie bei RX 470 und 480) auch vorstellen, dass der Vollausbau nur 16 GB bekommt und die beschnittene Variante (die dann zwar beim AMD Vorzeige-Titel Doom aber mit nicht-optimierten Treibern eine GTX 1080 aussticht) 8 GB.

Irgendwie kann ich mir nur schwer vorstellen, dass Groß-Vega (voll oder beschnitten) die RX 590 werden wird, sondern RX Fury bzw. Fury 2 (und evt. Rage, wenn man den Namen denn ausgraben/nutzen will). Ich denke, dass eine RX 590, wenn sie denn so heißen wird, von Klein-Vega (im Vollausbau) her rühren wird und "nur" mit GDDR5X (aber 12 GB davon in der höher taktenden High-End Version) kommen könnte, was schon ziemlich ideal für WQHD (Downsampler) sein könnte, aber wir werden es hoffentlich bald erfahren.

Wie gesagt, mehr als 16 GB halte ich abseits des (semi-)professionellen Markts (in den eine mögliche Radeon Pro Duo 2 auch fallen würde) vor 2018 eher für unwahrscheinlich, aber gut möglich, dass ich mich dahingehend irren werde.
 
Zuletzt bearbeitet:
Zurück
Oben