News AMD Radeon RX 590?: Gerüchte um Polaris 30 in 12 nm verdichten sich

Sleight88 schrieb:
20 % mehr League of Legends und Fortnite FPS ist für manche schon ein Kaufargument. Aber die 1060 ist eh ein Auslaufmodell. Die 2060 ohne RT Cores wird wohl um einiges günstiger sein als die größeren Brüder und das go to in der Mittelklasse.

Und für manche sind 2GB mehr Vram, Freesync etc. ein Argument. Jeder möchte halt andere Dinge. Die 2060 lässt wohl noch einige Monate auf sich warten. Wie genau sie dann aussehen wird, was sie leistet und was sie kostet... mal schauen.

Kann mir auch gut vorstellen, dass Nvidia dieses mal wieder eine 2060Ti bringt (abgespeckter TU106 Chip, was sollen sie sonst mit Teildefekten TU106 machen?)

Dann könnten Sie:
649€ - 2070 - GTX 1080 Leistung
469€ - 2060Ti (vermutlich 7GB) - GTX 1070-1070Ti Leistung
329€ - 2060 (6GB) - zwischen 1060 und 1070 (ist ja eine große Lücke)

Würde in Nvidias aktuelles Preisschema ganz gut passen. Durch die völlig überzogenen Preise wirken so auch 300 Plus Euro für die 2060 mit moderater Mehrleistung ganz okay.
 
Wenn AMD schlau wäre dann würden die neue Polaris auf einem sehr ähnlichen Taktlevel wie die bisherigen 5.x daherkommen aber den Stromverbrauch bei Standardtakt um ~10% reduzieren. Dann könnte man ggf die Turbotakte etwas erhöhen ohne wie bisher so massiv an der Spannungsschraube zu drehen.
Ggf noch eine RX x85 nachlegen mit Verbrauch der bisherigen 580 aber Mehrtakt und schnellerem Speicher, sowas wie die 1060 9Gbps Edition von NV.
 
Sleight88 schrieb:
In wie weit soll AMD mit 7nm Kosten sparen? Sie produzieren nicht selber und 7nm Fertigung kosten unmengen da die Forschungskosten erst eingespielt werden müssen.

Weil bei 7nm der DIE kleiner ist und somit mehr aus einem Wafer purzeln können ;-)
Dadurch wäre es günstiger, aber da von uns niemand die Ausbeute und die Waferkosten kennt, kann die Frage leider niemand beantworten.
Vermutlich wird es ungefähr auf das gleiche hinauslaufen, da der neue 7nm noch teurer ist und somit lohnt sich der Schritt nicht wirklich.
Sieht eher so aus als hätte Glofo noch Kapazitäten im 12nm Prozess frei und AMD versucht diese bestmöglichst auszunutzen.
 
Bärenmarke schrieb:
Sieht eher so aus als hätte Glofo noch Kapazitäten im 12nm Prozess frei und AMD versucht diese bestmöglichst auszunutzen.

Vielleicht hat AMD auch eine bestimmte Abnahmemenge vertraglich garantiert und erfüllt so nur seine Verträge, bevor man mit Ryzen 3000, Vega 7nm und Navi zu TSMC zieht.
 
Sleight88 schrieb:
Nvidia ist Momentan in der High Class lustigerweise wirklich ca 100% Leistungsfähiger als AMD.

Da haste mich falsch verstanden. Meinte die Mainstream-Karten.
Das wird dann ausnahmslos als super Karte propagiert, obs dann eine GTX 1050 oder Ähnliches ist,
interessiert nicht.
Die Luxus Karten sind ohne Frage sehr leistungsfähig aber auch überteuert.
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Vielleicht hat AMD auch eine bestimmte Abnahmemenge vertraglich garantiert und erfüllt so nur seine Verträge, bevor man mit Ryzen 3000, Vega 7nm und Navi zu TSMC zieht.

Das kann natürlich auch sein, nur wie es genau aussieht, weiß leider keiner von uns. Aber das noch Kapazitäten verfügbar waren und AMD diese dann bestmöglichst nutzen wollte, macht am meisten Sinn. Persönlich denke ich, dass der 7nm noch zu teuer ist und man deswegen Vega für den Profibereich zuerst dort auflegt.
 
Shoryuken94 schrieb:
Vega 12 nm wäre ziemlich nutzlos, da kaum schneller. Auch eine richtig eingestellte Vega 64 kommt nicht an die RTX2080 ran (außer vielleicht in 1-2 Ausnahmetiteln) mit 12 nm reist man da nicht viel. Auch der HBM ist kein Problem (lässt sich auf so ziemlich jeder Vega 64 mit 1100mhz Plus takten). Was für Bugs meinst du genau?

Das Problem von Vega ist ein ganz anderes und das nennt Sicht Frontend. Die Schäferleistung Mal wieder nicht vernünftig ausgelastet, was die Karte unnötig einbremst. Deshalb ist die Vega 56 meistens auch nicht viel langsamer. Die vielen Shader bringen einem die meiste Zeit eh nichts.

12nm wäre garnicht "nutzlos" sondern eine dringend nötige produktpflege. du vergisst, dass 14nm lpp auf 12nm lp quasi copy+paste ist - das kann man auch einfach mal so zwischendurch machen, aber man bekommt:

1. bessere effizienz bei gleichen taktraten
2. höhere max taktraten
3. die möglichkeit die hardware zu aktualisieren

es wäre dringend nötig besseren hbm2 speicher zu verwenden. der aktuell verbaute hbm2, vorallem der von hynix, ist stock einfach zu lahm - und stock werden die karten getestet. zudem ist vega ziemlich kompliziert, CB hats bis heute nicht geschafft vega so einzustellen, dass sie tatsächlich weniger strom braucht ODER schneller als die stock vega ist.

der memory controller von vega ist, wenn ich mich recht entsinne, auf etwas um die 1300 mhz ausgelegt. da ist verdammt viel luft nach oben, vorallem mit vega 56 und ihren 800 mhz takt.
man muss sich auch vor augen führen, dass fiji mit hbm gen 1 eine höhere bandbreite hat als vega, so lahm ist der neue hbm2 - und so langsam sollten die hersteller das mal in den griff bekommen haben.

nur kann man nicht im laufenden produktzyklus auf einmal den speicher höher takten, da brauchts schon ne neue modellnummer.

alleine der hbm2 oc bringt vega (vorallem 56) 8-10% leistung, die stock einfach auf der strecke bleiben. bis ca 1050-1100 mhz hbm2 takt ist vega im speicher bottleneck. hier lässt sich per oc nachhelfen, aber wie gesagt, die karten werden stock getestet und hier zieht der hbm2 vega unnötiger weise runter - das muss einfach nicht sein.

die zweite baustelle ist coretakt + vcore. die karten sind grauenhaft eingestellt. mit dem neuen 12nm prozess kann man hier einiges optimieren, um den verbrauch bei selber leistung zu senken. das ist immerhin der größte kritikpunkt an vega. der 12nm LP prozess verträgt höhere taktraten, ohne dass der stromverbrauch in die höhe schießt - der sweetspot liegt weiter oben. vega läuft SEHR weit außerhalb des sweetspots des 14nm LPP prozesses.

weniger stromverbrauch = weniger core power throttle, weniger hitze = bessere hbm2 timings + höherer core takt.

ab 65°C hbm2 temp lockert der verbaute speicher nämlich schon die timigs, der ist sehr hitzeempfindlich. und ich würde mal sagen, neben einem core mit ca 250w abwärme, ist das auf einer luftgekühlten karte eher die regel als die ausnahme.

gleichzeitig kann man noch ein paar "bugs" beheben, wie nicht funktionierende hardware features. und sicherlich haben die ingenieure bei amd bei vega noch ein paar andere baustellen gefunden.

wenn man das richtig angeht, könnte man mit einem 12nm refresh mit besserem hbm2 speicher und besserem tuning out of the box vega ca 10%-15% schneller machen, und dabei den verbrauch um 50-80w senken, während alle pcb layouts und kühler weiterhin passen

wenns das nicht wert ist, weiß ich auch nicht.

zwischen v56 und v64 liegen je nach auflösung (wqhd/4k) 15-20% - das ist nicht "kaum", das ist der abstand von der 1070 zur 1070 ti/1080. der abstand ist zwar zum teil dem hbm2 taktdefizit (und auch etwas core) geschuldet, aber der abstand ist ziemlich groß, dafür, dass es quasi der selbe chip ist, der angeblich nicht anständig ausgelastet werden soll. was allerdings in den meisten "the way its meant to be played" spielen auch tatsächlich der fall ist - in gut optimierten spielen liegt vega 64 aber immer ein gutes stück vor v56.
würden die 64 CUs von V64 wirklich nichts bringen, sollte der abstand von v56 zu v64 eher dem der gtx 1070 ti zur gtx 1080 entsprechen.
 
  • Gefällt mir
Reaktionen: s0UL1 und v_ossi
Shoryuken94 schrieb:
[...]Was das angeht ist Vega wirklich spannend. Ich habe noch nie eine Grafikkarte mit so einer starken Spreizung gesehen und mit so einem Taktverhalten. Bin gespannt, was 7nm wirklich bringen.

Sehr stimmiger Beitrag, aber du sprichst das Problem ja selber an; Vega @Stock, @Sweetspot und @Max fühlt sich einfach an, wie drei verschiedene Karten.
Da in den meisten Fällen* aber nicht groß an den Einstellungen herum gespielt wird, ist der Unterschied out-of-the-box am Entscheidendsten.

Ich kann mir einfach gut vorstellen, dass man mit dem 12nm Polaris Aufguss die Mittelkasse bedienen will und im nächsten Jahr mit Navi in 7nm das eigene Polaris Portfolio um 2 oder 3 Grafikkarten ergänzt, die die Vega 56 und 64 ablösen und im Vollausbau noch "einen oben drauf setzt".

Allein, weil das eigene Line-Up sonst mMn wenig Sinn ergibt.

Ab hier nur Wunschvorstellungen meinerseits :D
RX 660 (12 nm Polaris 30 teildeaktiviert / +5% Leistung zur 570 bei -5% Leistungsaufnahme)
RX 670 (12 nm Polaris 30 Vollausbau / +5% Leistung zur 570 bei -5% Leistungsaufnahme)
RX 680 (7nm Navi in der PS5 Variante / Leistung zwischen Vega 56 und 64 bei 150 Watt)
RX 690 (7nm Navi Vollausbau / Leistung knapp unterhalb der 1080Ti, 2080 bei 200 Watt)

duskstalker schrieb:
[...]wenn man das richtig angeht, könnte man mit einem 12nm refresh mit besserem hbm2 speicher und besserem tuning out of the box vega ca 10%-15% schneller machen, und dabei den verbrauch um 50-80w senken, während alle pcb layouts und kühler weiterhin passen. [...]

Auch wenn deine Aussagen durchaus nachvollziehbar sind, würde sich das mMn mit der spekulierten 7nm Mittelklasse Navi Karte im nächsten Jahr 'beißen'.
Navi muss zwangsläufig schneller als die RX 580 sein, wird aber gleichzeitig keine High End Karte sein, also unterhalb der 2080Ti enden. Das lässt mMn wenig Raum für einen Vega 12nm Refresh.

*wir im Forum sind eben nicht der Durchschnittsuser
 
Der 12nm refresh für vega war ursprünglich für Anfang 2018 vorgesehen. Und selbst wenn der noch diesem Jahr kommen würde, wäre noch genug Zeit bis Navi, das ding kommt nämlich frühestens h2 2019,wenn nicht q4.

Ohne eine neue vega, ob 12 oder 7nm, steht AMD komplett nackig da bis Navi. Und das obwohl eine 12nm vega zum greifen nah wäre.

Man muss nvidia ja nicht schlagen, aber man brauch ein gutes Produkt - mehr kann AMD sowieso nicht machen. 14nm vega 10 ist aber überhaupt nicht rund, das ding ist eine bastelbude mit haufenweise verschenktem Potenzial.

Realistisch betrachtet ist der Zug für eine 12nm vega mit der fast fertigen vega 20 auf 7nm abgefahren. Sieht bei AMD also mittlerweile eher nach gähnender leere für ein weiteres Jahr aus - ausser 7nm vega kommt doch noch für Gamer.

Die 12nm vega hätte jetzt mit dem Unmut über die rtx Karten ganz gut laufen können.

Chance verpasst.
 
  • Gefällt mir
Reaktionen: s0UL1
das problem ist nicht vega 7 oder nicht 7 sondern hbm2
hbm2 ist tot im konsumer bereich er ist einfach nicht bezahlbar ca 80-120$ oem preis für 8gb (angestrebt waren mal unter 40$)
deswegen wird es auch keine neuen vegas im konsumer bereich geben ... punkt aus
 
  • Gefällt mir
Reaktionen: cypeak und Shoryuken94
v_ossi schrieb:
Sehr stimmiger Beitrag, aber du sprichst das Problem ja selber an; Vega @Stock, @Sweetspot und @Max fühlt sich einfach an, wie drei verschiedene Karten.

AMD müsste einfach wie bei Fiji 3 Karten bringen. Es lässt sich schlecht alles gleichzeitig umsetzen. Neben der 64 und 56 fehlt eine Art Nano. Vega 64 betrieben im Sweetspot

v_ossi schrieb:
Ab hier nur Wunschvorstellungen meinerseits :D
RX 660 (12 nm Polaris 30 teildeaktiviert / +5% Leistung zur 570 bei -5% Leistungsaufnahme)
RX 670 (12 nm Polaris 30 Vollausbau / +5% Leistung zur 570 bei -5% Leistungsaufnahme)
RX 680 (7nm Navi in der PS5 Variante / Leistung zwischen Vega 56 und 64 bei 150 Watt)
RX 690 (7nm Navi Vollausbau / Leistung knapp unterhalb der 1080Ti, 2080 bei 200 Watt)

Klingt nach einem halbwegs realistischen Lineup. Ich frage mich aber auch, was AMD bei Navi für ein Speicherausbau wählt. Ich denke anders als Polaris wird man wahrscheinlich 384 Bit wählen und dann wahrscheinlich 12GB Vram verbauen.

Vega in 12nm bringt ind er Summe halt zwar ein runderes Produkt, aber keins was sich deutlich von der bisherigen Lösung absetzen kann. Der Absatz von Vega an Gamer wird wohl so gering sein, dass sich da keine Neuauflage lohnt (anders als Polaris) und für die Profis hat man ja einen deutlich überarbeiteten Vega 7nm in Arbeit. AMD würde durch 12nm Vega wohl nicht nennenswert mehr Karten verkaufen. Da Vega für Gamer eh eher eine Randerscheinung ist, konzentriert man sich lieber auf den Pro Markt und bringt da ein richtiges Update raus, was sich auch lohnt.

Selbst in der jetzigen Form kann Vega mit der RX 2070 konkurrieren (bezogen auch die klassische Gamingleistung). Ohne weitere Anpassungen wird man in 12nm auch nicht an die 2080 kommen und mehr optimierung wäre für Gamer und den geringen Absatz schlicht zu teuer

Gorgone schrieb:
deswegen wird es auch keine neuen vegas im konsumer bereich geben ... punkt aus

Ja denke ich auch. Mit 4 Stacks wird es ja auch noch teurer. Auf Vega hat der HBM2 ja auch keinen riesigen mehrwert für Gamer. Die geringen Latenzen sind nett, aber in Spielen nicht entscheidend, den Speicherdurchsatz mit 2 Stacks kann man auch mit herkömmlichen GDDR Speicher realisieren und viele Features wie der HBCC sind den Aufpreis im Consumermarkt nicht wert. Die Strom und Platzersparnis ist nett aber auch nur ein tropfen auf dem heißen Stein. Erst mit 4 Stacks hätte HBM2 wirkliche Leistungsvorteile und damit wird es eindeutig zu teuer für Consumer. Wahrscheinlich wird Vega 7nm daher auch nicht für Gamer kommen.
 
alle speicherpreise sind extrem gestiegen, das ist kein exklusives problem von hbm2 alleine. da könnte man genau so gut sagen "ddr4 hat sich im preis vervierfacht, in consumerbereich gibts deshalb nichts mehr oberhalb von 2x4gb, punkt aus.". das wird auch wieder anders und die speicherpreise fangen jetzt wieder an zu sinken.

vega war die erste karte mit hbm2, das ist quasi vorserien hbm2. je mehr karten hbm2 nutzen, und je ausgereifter die fertigung wird, desto günstiger wird das. hbm speicher ist die zukunft für high end gpus - oder gpus im allgemeinen. bis auf den preis hat hbm nur vorteile. hbm bleibt. freundet euch damit lieber schon mal an.
 
@duskstalker lesen und verstehen sind nicht so deins oder ?
ein prozess wie hbm2 der in so geringen mengen hergestellt wird wie hbm2 und dann auch nur von 2 firmen
davon noch 50% an nvidia geht (titan V zb) und das bei einem fast VERVIERFACHTEN Preis da kann es keine preissenkungen geben , jedenfalls nicht in dem umfang das es für den KONSUMERMARKT ausschlaggebend wäre
 
  • Gefällt mir
Reaktionen: Shoryuken94
duskstalker schrieb:
vega war die erste karte mit hbm2, das ist quasi vorserien hbm2.
Nö das stimmt nicht! Auf der Tesla GP100 hat Nvidia schon 2016 HBM2 verwendet. Da kann man wohl kaum von Vorserienhardware reden. HBM2 ist bis 1000mhz (1,35V) spezifiziert, da liegt Vega mit 945mhz in der Serie auch nicht so weit entfernt. Bzw. mit 800Mhz bei 1,2 Volt, was bei der Vega 56 genau eingehalten wird.

HBM ist eine tolle Technonologie und Ihr gehört schon heute der absolute High End GPU Bereich (AMD und Nvidia setzen bei ihren Profiprodukten da drauf). Aber Kosten sind genau der Punkt, der im Consumermarkt enorm wichtig ist, da die Margen deutlich geringer sind.

HBM wird in der Produktion immer teurer sein, da mehr Arbeitsschritte nötig sind. HBM ermöglicht tolle Sachen und das potential wird kaum ausgenutzt (aufgrund des hohen Preises). Auf Consumerkarten macht er aber nur bedingt sinn, da man (G)DDR ähnliche Ergebnisse günstiger erreichen kann.
 
Sleight88 schrieb:
Zum Vega release gab es einen Artikel zur Vega und wieso sie nicht auf HBM verzichten kann. Ohne HBM würde die Vega nochmals mehr Strom verbrauchen bei geringerer Leistung.

Das war damals, da gab es auch noch keine Vega-basierenden Mobil-APUs, die ohne HBM2 auskommen ;), somit boete sich GDDR6 durchaus an und der Stromverbrauch waere auch wegen eines Shrinks auf 12nm und weil die GPU dann eben im Sweet Spot getaktet (und undervolted) betrieben kann - anders als die oft im Markt erhaeltlichen (nicht undervolteten und) deutlich ueber dem Sweet Spot getakteten AMD/RTG GPUs - durchaus zu verkraften.
 
@duskstalker Danke nochmal für die Mühe um die RX 580 bzw alle Polaris 10/20 Vollausbau-varianten mit einzubauen.
So ist der Gesamtüberblick besser, auch wenn mir klar war dass das jetzt nicht viel raus reißt.
 
  • Gefällt mir
Reaktionen: duskstalker
Gorgone schrieb:
@duskstalker lesen und verstehen sind nicht so deins oder ?

gesittete umgangsformen sind nicht so deins oder?

Gorgone schrieb:
ein prozess wie hbm2 der in so geringen mengen hergestellt wird wie hbm2 und dann auch nur von 2 firmen
davon noch 50% an nvidia geht (titan V zb) und das bei einem fast VERVIERFACHTEN Preis da kann es keine preissenkungen geben , jedenfalls nicht in dem umfang das es für den KONSUMERMARKT ausschlaggebend wäre

offenbar war amd mit vega anderer meinung, denn hier sah man sich durchaus im stande 8gb hbm2 + monsterchip + monster vrm für 399$ an gamer abgeben zu können. und dann kam die preisexplosion. das hat nichts im dem konzept "hbm" zu tun - das ist einfach pech.

in der ursprünglichen kalkulation hat der hbm2 speicher für vega etwa die hälfte gekostet vom höchststand der speicherpreise. auf normalem preisniveau ist auch hbm2 absolut massentauglich - nicht für das budget gerümpel, aber karten in der performanceklasse von vega vertragen das.

du kannst dir ja weiter was zusammendichten von wegen "hbm2 geht nicht für gamer, nur für 5000€ workstation gpus" - aber amd straft dich lügen. es geht. es ging damals, es geht sogar heute noch, trotz exorbitant hohen speicherpreisen.

ich weiß nicht, an was du herumdiskutieren willst, wenn jetzt im moment vega mit hbm2 zum üblichen preis kaufbar ist. :rolleyes:

hier, vega 64 nitro für 499,-

https://www.mindfactory.de/product_...Aktiv-PCIe-3-0-x16--Full-Retail-_1235216.html

alles hat mal klein angefangen - fiji war eine machbarkeitsstudie. jetzt wird hbm2 schon bei einigen high end karten eingesetzt. das zeug wird irgendwann billiger.

bei nvme ssds haben auch alle geschrien: "das braucht kein mensch, das ist nur für mobile, das ist eine niche".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0UL1
Chismon schrieb:
Das war damals, da gab es auch noch keine Vega-basierenden Mobil-APUs, die ohne HBM2 auskommen

Und die massiv am Bandbreitenlimit laufen. Sieht man sehr gut, mit der Shaderzahl und dem Core Takt skalieren die sehr schlecht, mit Ram bandbreite aber extrem gut.

Chismon schrieb:
somit boete sich GDDR6 durchaus an und der Stromverbrauch waere auch wegen eines Shrinks auf 12nm und weil die GPU dann eben im Sweet Spot getaktet (und undervolted) betrieben kann

Der Vega Chip hat aber keinen GDDR6 Speichercontroller. Du musst also die GPU deutlichst umbauen! Es müssten mindestens 384 Bit sein, um nicht hinter HBM zu fallen. Der Chip wird also deutlich größer. Dazu benötigst du völlig neue PCBs.

Und du überschätzt 12nm. Sieht man bei Ryzen 2000 super. Mehr Leistung und weniger Verbrauch ist schwer realisierbar bei gleicher Architektur. Dazu wird die Chipgröße durch das Speicherinterface wachsen. Features wie HBCC kann man dann auch vergessen.

duskstalker schrieb:
offenbar war amd mit vega anderer meinung, denn hier sah man sich durchaus im stande 8gb hbm2 + monsterchip + monster vrm für 399$ an gamer abgeben zu können. und dann kam die preisexplosion. das hat nichts im dem konzept "hbm" zu tun - das ist einfach pech.

Welcher Monsterchip? Der Vega Chip ist nun nicht außergewöhnlich groß (486mm²). Das ist für eine High End GPU nun nichts monströses. Zudem waren die Vega Preise limitierte Einführungspreise. Viel anderes als Minimargen zu fahren blieb AMD schließlich auch nicht übrig, wenn man sich die Konkurrenzsituation mal zu der damaligen zeit angeguckt hat.

duskstalker schrieb:
du kannst dir ja weiter was zusammendichten von wegen "hbm2 geht nicht für gamer, nur für 5000€ workstation gpus" - aber amd straft dich lügen. es geht. es ging damals, es geht sogar heute noch, trotz exorbitant hohen speicherpreisen.

Hat man ja super bei Fiji und Vega gesehen... Fiji war niemals wirklich gut verfügbar, bei Vega sah es auch ewig schlecht aus und ist über ein Jahr später mal zu normalen Preisen kaufbar. Davon ab ist Vega im Vergleich zum Gesamtmarkt ein Nischenprodukt in einer Nische! Wirklich großen Nutzen konnte AMD aber nie aus HBM für Consumer ziehen. Auf Vega hat man sogar die Stackzahl halbiert, damit die Preise nicht explodieren und noch weniger Karten verfügbar sind.

duskstalker schrieb:
bei nvme ssds haben auch alle geschrien: "das braucht kein mensch, das ist nur für mobile, das ist eine niche".

Hat sich aus Gamersicht ja auch kein Stück geändert. Bei normalen Workloads sind die Vorteile minimal durch nvme. Warum sie jetzt für Mobile besonders geeignet sein sollen erschließt sich mir nicht oder setzt du nvme mit m.2 gleich? Das stimmt so nämlich nicht.
 
  • Gefällt mir
Reaktionen: Gorgone
ach komm, fängt jetzt das widersprechen des widersprechenswillen an?

~500mm² in 14nm - größer als die 1080 ti in 16nm. das ist ein riesen-chip für 399$.

amd bleibt auch heute nix anderes übrig als minimargen zu fahren - ist schon einige jahre so. vega kam direkt im wiederaufflammenden mining hype auf den markt und wurden direkt von den minern verschluckt. die preise haben sich jetzt erst (mitte 2018) langsam erholt - für alle gpus. das ist kein argument gegen die vega preise oder verfügbarkeit. natürlich senken die händler die preise für vega nicht oder nur langsam, wenn miner dafür bis zu 1200€ bezahlt haben.

die vorteile von hbm sind nicht nur die potentiell höhere leistung, sondern der niedrige stromverbrauch, die einfache und effiziente kühlung über den gpu kühlblock und man spart sich extrem viel platz auf dem pcb für die memory ics und deren stromversorgung. das kurze pcb lässt dann genug platz für einen überhängenden kühlkörper oder mini-karten.

es muss nicht immer alles in fps resultieren, damit es besser sein darf. gddr ist nur eines: günstig. das macht gddr nicht zum besseren speichertyp - nur zum billigeren.

nvme ssds kommen in erster linie im m2 format, was ein standard für mobilgeräte ist. pcie-nvme gibts quasi nicht mehr. das ist haarspalterei.
 
Cpt.Willard schrieb:
AMD sollte für die Zukunft nur noch bis knapp unter Oberklasse Karten anbieten, für die Hochleistungsgamer kann man dann ja die 2000€ Karten, angeboten von Nvidia, nehmen.
So wie manche whynen, würde ich das AMD sogar raten...

Aber davon mal ab: Kann Polaris theoretisch GDRR5X? Damit würde man ja, die Bandbreite erhöhen oder?
Vllt kommt der neue RX x70 dann mit GDDR5X oder sowas und hat dann 580 Leistung bei 570 Verbrauch.. Mal schauen.
Als Option zu einer "nicht vorhandenen GTX 2050ti) aber ne gescheite Option. Vermutlich dürfte Appel daran schuld sein
 
Zurück
Oben