Bericht Radeon RX Vega 64 & 56: Details und erste Benchmarks zu den Vega-Grafikkarten

thebagger schrieb:
Gibt es eigentlich einen Grund warum AMD GDDR5X nicht verbaut? Dürfen sie das nicht (Irgendwelche Lizenzen/Verträge) oder war das einfach eine Entscheidung es nicht zu nutzen?`

Wollten nicht, was meiner Meinung nach eine sehr schlechte Entscheidung war. 8 GB sind in 2017 meiner Meinung nach etwas zu wenig, vor allem wenn man in 1440p oder 2160p unterwegs ist. Es ist ja schön dass der RAM super schnell ist und die Karten dadurch kleiner werden können aber HBM2 ist meiner Meinung nach einfach noch nocht Marktreif bzw. bietet keine echten Vorteile gegenüber 5X.
 
Wie sieht es eigentlich mit dem HBM2 aus? Verbaut AMD wirklich 2x 4GB Module bei den RX Referenzkarten oder sind das nur wieder kleingeflashte FE 2x8GB Chips?
 
Was regen sich eigentlich so viele hier auf? Die meisten werden sich doch eh vor einem Jahr ne Pascal gekauft haben, da kann man sich doch getrost zurücklehnen, die Entwicklung beobachten und Vega überspringen.
 
derfledderer schrieb:
Also generell hat AMD ein Problem mit der geplanten Stückzahl, weder ihre "midrange" GPU's für die Massen, noch ihre High-End Karten sind, bzw. werden kaufbar sein.

Da gehts um ganz was anderes und zwar um die Marktposition, die Miner kaufen sämtliche Low-Mid Karten von AMD auf das bringt zwar umsatz allerdings steigert das nicht die Marktposition da die Karten nicht bei Gamern landen sondern zweck entfremdet werden.

Thats it und da kann man AMD durchaus verstehen wenn man bedenkt das Sie einmal 50% Marktanteil hatten und jetzt bei 20% herumdümpeln ...

SirSilent schrieb:
Was regen sich eigentlich so viele hier auf? Die meisten werden sich doch eh vor einem Jahr ne Pascal gekauft haben, da kann man sich doch getrost zurücklehnen, die Entwicklung beobachten und Vega überspringen.

die Leute regen sich auf weil man von AMD erwartet hat eine Architektur vorzustellen die die Polaris Optimierungen weiter optimiert und das mit HBM wie man sieht haben Sie (12,7TFLOPs > Leistung einer 1080 mit 8,8TFLOPs vs. 5,8TFLOPS 580 vs 5,0TFLOPs 1060) was sehr viele entäuscht da man den faden Beigeschmack eines Fiji Refresh bekommt vor allem 30% Mehrleistung bedeuten auch 30% mehr Leistungsaufnahme >> das ist aus meiner sicht kein Vortschritt sondern ein gewaltiger rückschritt im vergleich zu Polaris.

Traurig und wütend macht das viele weil NV jetzt wiedermal als alleiniger Monopolist herumdümpelt und machen kann was Sie wollen >> siehe Intel CPU Monopolstellung >> siehe die Jahrelange Stagnation mit saftigen Preisaufschlägen ...

daher muss man wohl oder über sagen es ist ein Fail :( trotzt Vortschrittlicher Technik ist die Architektur nicht auf Polaris stand.
 
Zuletzt bearbeitet:
@SirSilent

Ich sehe nicht, dass sich jemand aufregt? Wir sind nun mal Enthusiasten, da kann man doch drüber diskutieren was einem nicht passt.

Benji18 schrieb:
Da gehts um ganz was anderes und zwar um die Marktposition, die Miner kaufen sämtliche Low-Mid Karten von AMD auf das bringt zwar umsatz allerdings steigert das nicht die Marktposition da die Karten nicht bei Gamern landen sondern zweck entfremdet werden.

Selten so ein Stuss gelesen... Wenn mehr verkauft wird steigt natürlich auch der Marktanteil.... Wer das nutzt juckt die Aktionäre am Ende kein Stück.
 
SirSilent schrieb:
Was regen sich eigentlich so viele hier auf? Die meisten werden sich doch eh vor einem Jahr ne Pascal gekauft haben, da kann man sich doch getrost zurücklehnen, die Entwicklung beobachten und Vega überspringen.

ich erwarte mit offenen Armen was Neues, und wenn da was bei ist, dass ok aussieht, dann wird gekauft.
 
Zuletzt bearbeitet:
Darkseth88 schrieb:
Nur denke ich.. Wenn man sich entscheiden MUSS, würde ich mich eher für Nvidia entscheiden. G-Sync läuft oft besser, und Nvidia ist AMD einfach zu weit vorraus... Zumindest was Leistung pro Watt angeht....

Gab es nicht hier auf CB einen Test, wo FreeSync als besser wie G-Sync eingestuft worden ist in Bezug auf Leistungsverlust und Inputlag?
Ist ja auch logisch, weil ein extra Modul zwischen Grafikkarte und Monitor geschalten werden muss, während bei A-Sync der Monitor direkt angesprochen wird.
G-Sync hat zwar eine bessere Range nach Unten aber wer tatsächlich seinen Monitor auf 30 Hz laufen lässt, der wird mit dem Flimmern der guten alten Röhrenmonitore belohnt. Wer will das schon haben ?
Wenn man dann noch bedenkt, das A-Sync(FreeSync) ein freier Standrad ist den jeder kostenlos nutzen kann und so eigentlich nichts mit AMD zu tun hat, die es einfach nur nutzen, dann frage ich mich, warum manche hier immer noch von proprietär reden? :rolleyes:
NVIDIA könnte es einfach softwareseitig implementieren und von mir aus auch Matrox und Intels iGPUs!
Ich meine, es ist schon recht bitter, wenn man sich für 1300 Euro eine Titan kauft, die noch nicht einmal die Hardwarespezifikation des Monitors erfüllt! Wer das mitmacht ist selber schuld.

Zudem ist doch gerade A-Sync/G-Sync genau dafür gemacht um günstigeren Karte, die weniger Leistung haben nun durch die Glättung der Frametimes, höhere Einstellungen in den Game-Settings zu ermöglichen. Entweder durch höhere Auflösung oder bessere Qualität.
Genau da greift doch eine AMD Karte nun richtig zu, da G-Sync, mit seinem Aufpreis, den gesparten Aufpreis einer leistungsstärkeren Grafikkarte komplett annulliert. Es macht einfach keinen Sinn sich einen teuren G-Sync-Monitor zu kaufen nur um mit einer günstigeren Grafikkarte besser Zocken zu können.
Deshalb meinen jetzt die Leute, G-Sync/FreeSync wären Randerscheinungen für kleine Gruppen. Aber dies gilt eben nur für das G-Sync mit seinem teuren Aufpreis!

Hier wird nun die kommende RX Vega schon als absoluter Fail dargestellt, obwohl sie in Kombination mit FreeSync ein 4K-Gaming-Setup darstellt. Daher hat AMD bei ihrer Produktvorstellung eben nur die minimalen FPS als Benchmarks aufgezeigt um zu verdeutlichen, das RX VEGA mit ihrem günstigen Preis und dem freien Adaptiv-Sync eine schlagkräftige 4K Gaming-Hardware darstellt.

Das ist doch der Punkt bei der ganzen Diskussion hier! Keiner scheint zu begreifen, was AMD da eigentlich versucht auf zu zeigen. AMD ist mal wieder 10 Jahre in der Zukunft und alle zeigen erst einmal den Vogel. :freaky:
In 5 Jahren schreien dann die Leute alle bei ihrem Fernseher nach Adaptiv-Sync und sobald NVIDIA es dann doch implementiert ist NVIDIA natürlich wieder das NoPlusUltra und alle vergessen ganz schnell, wer diese Technik auf den Weg gebracht hat.

Ich freue mich auf die RX VEGA. Endlich 4K-Gaming in günstig! :D
 
Cool Master schrieb:
Selten so ein Stuss gelesen... Wenn mehr verkauft wird steigt natürlich auch der Marktanteil.... Wer das nutzt juckt die Aktionäre am Ende kein Stück.

Er hat nicht ganz unrecht. Die Aktionäre bzw. AMD haben dieses Jahr vielleicht ihren Spass. Aber was bringt es ihnen, wenn die Hauptkundschaft nächstes mal wieder zu Nvidia greift, weil sie letztes Mal keine AMD Karte bekamen?

Der AMD GPU Marktanteil bei den Gamern wird sich vermutlich kaum ändern. Die Statistiken bei Steam und co. werden es schon zeigen.
 
Cool Master schrieb:
Selten so ein Stuss gelesen... Wenn mehr verkauft wird steigt natürlich auch der Marktanteil.... Wer das nutzt juckt die Aktionäre am Ende kein Stück.

Verkaufsanteile vs. Marktdurchdrinung ist sehr wohl ein unterschied. Da die Karten für Gaming gedacht sind und nicht für Mining gibt es dann am ende wiederum nur einen geringen Marktanteil im Gaming Bereich und das wird dann ein Problem weil die Entwickler wiederum den Hersteller mit größerem Marktanteil in diesem Bereich den Vorzug geben ...

und das wird zwar Aktionäre nicht viel Juken die kein hirn haben aber Aktionäre die ein Langfristiges Investment haben wird das sehr wohl interessieren. Mining ist kein Dauer Gewinn sondern eher als kurzfristig zu betrachten bis die Karten dann kostengünstig den Markt überschwemmen und das gibt dann aber keinen Gewinn mehr für AMD einziger Vorteil wäre dann eventuell einige % mehr Marktanteil, könnte allerdings auch wieder zum Problem werden da dann Leute AMDs gewinn von "neukarten" minimiert also wiederum eine Auswirkung im nächsten Geschäftsjahr >> sprich weniger Gewinn da weniger neukarten verkauft wurden.
 
Zuletzt bearbeitet:
DarkerThanBlack schrieb:
Gab es nicht hier auf CB einen Test, wo FreeSync als besser wie G-Sync eingestuft worden ist in Bezug auf Leistungsverlust und Inputlag?
Ist ja auch logisch, weil ein extra Modul zwischen Grafikkarte und Monitor geschalten werden muss, während bei A-Sync der Monitor direkt angesprochen wird.
G-Sync hat zwar eine bessere Range nach Unten aber wer tatsächlich seinen Monitor auf 30 Hz laufen lässt, der wird mit dem Flimmern der guten alten Röhrenmonitore belohnt. Wer will das schon haben ?
Wenn man dann noch bedenkt, das A-Sync(FreeSync) ein freier Standrad ist den jeder kostenlos nutzen kann und so eigentlich nichts mit AMD zu tun hat, die es einfach nur nutzen, dann frage ich mich, warum manche hier immer noch von proprietär reden? :rolleyes:
NVIDIA könnte es einfach softwareseitig implementieren und von mir aus auch Matrox und Intels iGPUs!
Ich meine, es ist schon recht bitter, wenn man sich für 1300 Euro eine Titan kauft, die noch nicht einmal die Hardwarespezifikation des Monitors erfüllt! Wer das mitmacht ist selber schuld.

Zudem ist doch gerade A-Sync/G-Sync genau dafür gemacht um günstigeren Karte, die weniger Leistung haben nun durch die Glättung der Frametimes, höhere Einstellungen in den Game-Settings zu ermöglichen. Entweder durch höhere Auflösung oder bessere Qualität.
Genau da greift doch eine AMD Karte nun richtig zu, da G-Sync, mit seinem Aufpreis, den gesparten Aufpreis einer leistungsstärkeren Grafikkarte komplett annulliert. Es macht einfach keinen Sinn sich einen teuren G-Sync-Monitor zu kaufen nur um mit einer günstigeren Grafikkarte besser Zocken zu können.
Deshalb meinen jetzt die Leute, G-Sync/FreeSync wären Randerscheinungen für kleine Gruppen. Aber dies gilt eben nur für das G-Sync mit seinem teuren Aufpreis!

Hier wird nun die kommende RX Vega schon als absoluter Fail dargestellt, obwohl sie in Kombination mit FreeSync ein 4K-Gaming-Setup darstellt. Daher hat AMD bei ihrer Produktvorstellung eben nur die minimalen FPS als Benchmarks aufgezeigt um zu verdeutlichen, das RX VEGA mit ihrem günstigen Preis und dem freien Adaptiv-Sync eine schlagkräftige 4K Gaming-Hardware darstellt.

Das ist doch der Punkt bei der ganzen Diskussion hier! Keiner scheint zu begreifen, was AMD da eigentlich versucht auf zu zeigen. AMD ist mal wieder 10 Jahre in der Zukunft und alle zeigen erst einmal den Vogel. :freaky:
In 5 Jahren schreien dann die Leute alle bei ihrem Fernseher nach Adaptiv-Sync und sobald NVIDIA es dann doch implementiert ist NVIDIA natürlich wieder das NoPlusUltra und alle vergessen ganz schnell, wer diese Technik auf den Weg gebracht hat.

Ich freue mich auf die RX VEGA. Endlich 4K-Gaming in günstig! :D

Ach so redet man sich heute die Dinge schön, na gut. Eine 1080 kostet quasi genauso viel, ein günstiger 4k Monitor mit GSync ist auch kaum teurer. Dafür läuft die GTX1080 schneller. Du hast 180W Verbrauch statt 300W oder mehr. AMD hat nur eine Fury X mit weniger Effizienz gebaut. Das ist ein absolutes Desaster!
 
@projectneo

du bist auch einer die wohl nicht daran denken das kaum jemand eine NV Referenzkarte kauft ... ;) somit sind die 180Watt TDP komplett zu ignorieren den eine 1080OC Karte kommt auch durchaus je nach OC auf 250Watt wenn man Sie voll Auslastet >> daher sind die Verbräuche nicht so weit auseinander (wenn man den Punkt ignoriert das die 1080 OC dann deutlich schneller sein wird als die Vega).

Soweit ich weiß gibt es ein paar Probleme mit Freesync bzw. Tearing da nicht jede Freesync Implementation ordentlich optimiert wird (da gibt es durchaus viel Spiel raum, mein Monitor hat z.b. 2 Freesync Engines die Standard Spec. und eine Optimierte die deutlich besser läuft >> warum man das überhaupt auswählen kann weiß ich nicht ... da sehe ich noch viel Optimierungspotential bzw. ist das wahrscheinlich bei Gsync besser handhabbar).
 
Cool Master schrieb:
Selten so ein Stuss gelesen... Wenn mehr verkauft wird steigt natürlich auch der Marktanteil.... Wer das nutzt juckt die Aktionäre am Ende kein Stück.

Das erinnert mich an eine alte Computer-Geschichte aus den 80ern.

Commodore hatte damals in den USA eine Aktion, dass man einen neuen C64 $100 billiger bekam, wenn man dafür seinen alten Computer bei Commodore einschickte. Commodore ertrank darauf hin in Bergen von fabrikneuen Sinclair ZX81 bzw. Timex-Clonen, die man damals für ca. $60 bekam. Die kleinen Billigcomputer der Konkurrenz waren danach bei Commodore noch viele Jahre weit verbreitet im Einsatz... als Türstopper. :lol:
Ich bin mir nicht sicher, ob Sinclair/Timex sich über diese Verkäufe wirklich uneingeschränkt gefreut haben. ;)

Ernsthaft: Ich schließe mich der Meinung an, dass die Verkäufe an Miner für AMD nicht ansatzweise so wertvoll sind, wie die an echte Gamer. Es ist zwar kurzfristiger Profit, aber keine wirkliche Vergrößerung des Marktanteils. Im Gegenteil. Der kann sogar schrumpfen, wenn dadurch die Verfügbarkeit schlecht wird und/oder die Preise nach oben gehen.
 
Zuletzt bearbeitet:
DarkerThanBlack schrieb:
Das ist doch der Punkt bei der ganzen Diskussion hier! Keiner scheint zu begreifen, was AMD da eigentlich versucht auf zu zeigen. AMD ist mal wieder 10 Jahre in der Zukunft und alle zeigen erst einmal den Vogel. :freaky:
In 5 Jahren schreien dann die Leute alle bei ihrem Fernseher nach Adaptiv-Sync und sobald NVIDIA es dann doch implementiert ist NVIDIA natürlich wieder das NoPlusUltra und alle vergessen ganz schnell, wer diese Technik auf den Weg gebracht hat.

Ich freue mich auf die RX VEGA. Endlich 4K-Gaming in günstig! :D

Nö. Die min. FPS waren nur in EINEM Spiel besser, das war dann gleichzeitig das definierende Minimum. ;)
Und in diesem Spiel gab es offenbar seit kurzem einen Treiber von Nv, der dort einen Fehler gefixt hat.

Und nein, AMD ist nicht 10 Jahre in der Zukunft. Im Gegenteil, sie haben sich mit ihrem Design verrannt. Es ist ineffizient (Kosten sowie Energie) und zudem auf den Support von etlichen Buzzword Features angewiesen, um konkurrenzfähig zu sein.
 
Ich seh das Problem nicht ganz. Der Lock-in Effekt bei Grafikkarten ist nur durch die Monitore gegeben und dieser Effekt dürfte ziemlich gering sein. Sobald AMD mal wieder eine richtige Knallergrafikkarte raushaut, werden sie sofort wieder Marktanteile gewinnen.
Man kann sich auch fragen, wie sehr Gamer für AMD überhaupt im Zentrum standen bei der Entwicklung von VEGA. Mir scheint als wurde da sehr viel eingebaut, das primär für den Professionellen Markt einen Nutzen hat und bei Gaming dann einfach als Ballast mitgeschleppt wird. Das würde auch sehr gut zur neuen AMD Strategie passen, dass sie sich auf Bereiche mit hohen Margen konzentrieren wollen.
 
projectneo schrieb:
Ach so redet man sich heute die Dinge schön, na gut. Eine 1080 kostet quasi genauso viel, ein günstiger 4k Monitor mit GSync ist auch kaum teurer. Dafür läuft die GTX1080 schneller. Du hast 180W Verbrauch statt 300W oder mehr. AMD hat nur eine Fury X mit weniger Effizienz gebaut. Das ist ein absolutes Desaster!
Machst du doch auch? Woher weißt du was Vega kostet? Du kennst nur die UVP!
Ein 4K Monitor ist "kaum" teurer ? Sorry aber das ist absoluter quatsch. Mal ganz abgesehen davon das es kaum G-Sync Monitore in 4K gibt, sind diese locker doppelt so teuer.
Eine GTX 1080 ist schneller? Schon richtige Benchmarks gesehen ? Wenn ja bitte her damit! Wenn nein, geschlossen halten ;)
Du kennst schon den echten Verbraucht oder sprichst du gerade von der TDP. Dazu braucht sogar die 1080 FE mehr als 180 Watt, von costom gar nicht zu sprechen....

Man man man...wenn man im Glashaus sitzt ne....
 
ODST schrieb:
Aber was bringt es ihnen, wenn die Hauptkundschaft nächstes mal wieder zu Nvidia greift, weil sie letztes Mal keine AMD Karte bekamen?

Im Schlimmsten Fall wären AMD da wo sie jetzt sind hätten aber deutlich mehr Umsatz und Gewinn gemacht welchen man investieren kann. Wer sagt das der AMD Karten Käufer beim nächsten mal nicht zu Nvidia greift weil Nvidia das bessere Angebot hat?

Benji18 schrieb:
Verkaufsanteile vs. Marktdurchdrinung ist sehr wohl ein unterschied.

Klar nur juckt das nicht. Ein Miner ist genau so ein Kunde wie ein Gamer. Für was die Karten am Ende benutzt wird kann AMD egal sein. Oder juckt es ein Autohersteller ob das Auto auf der Straße oder auf der Rennstrecke bewegt wird? AMD sollte sich nicht so anstellen und glücklich sein, dass die Karten verkauft werden und das sage ich als Aktionär von AMD... Mir ist es dabei völlig egal ob das ein Miner, Gamer oder Künstler ist der eine Karte kauft.

Benji18 schrieb:
Da die Karten für Gaming gedacht sind und nicht für Mining gibt es dann am ende wiederum nur einen geringen Marktanteil im Gaming Bereich und das wird dann ein Problem weil die Entwickler wiederum den Hersteller mit größerem Marktanteil in diesem Bereich den Vorzug geben

Nö wird es nicht. Nvidia unterstützt aktiv die Entwickler sprich Nvidia Mitarbeiter helfen bei der Optimierung mit. Das muss AMD eben auch anbieten für einen Preis welchen Nvidia auch verlangt. Dazu kommen die Konsolen sowohl XBox als auch PS 4 laufen mit AMD HW ergo ist das Know-How bereits bei diesen Spiele-Herstellern da um Titel besser auf AMD zu optimieren.

Benji18 schrieb:
und das wird zwar Aktionäre nicht viel Juken die kein hirn haben aber Aktionäre die ein Langfristiges Investment haben wird das sehr wohl interessieren.

Langfrisitges Investment geht weder bei AMD, Intel oder Apple. Die Kurse sind längst viel zu hoch um da langfrisitg einzusteigen. Der Preis wird in ~5 Jahren keine rießen Sprünge mehr machen. Schau dir Intel an vor 5 Jahren auf 26 € jetzt auf 36 € das ist nichts. Hätte man 5000 € investiert wäre man nach 5 Jahren auf 6900 €. Darauf kommen natürlich noch Steuern also ist das lächerlich wenig... für 5 Jahre.

Benji18 schrieb:
Mining ist kein Dauer Gewinn sondern eher als kurzfristig zu betrachten bis die Karten dann kostengünstig den Markt überschwemmen und das gibt dann aber keinen Gewinn mehr für AMD einziger Vorteil wäre dann eventuell einige % mehr Marktanteil.

Klar ist es kein Dauergewinn aber Miner sind, wie ich weiter oben ja schon schrieb, genau so Kunden wie Gamer, Künstler oder was auch immer. AMD kann es egal sein für was die HW eingesetzt wird. Sich auf ein hohes Ross setzen und zu sagen "wir verkaufen nur an Gamer" ist total lächerlich und sogar gefährlich da AMD nicht die Marktmacht hat zu bestimmen an wen sie verkaufen.

Markt überschwämmen juckt AMD auch nicht da der Markt hier regeln wird.
 
@Cool Master

mag sein das ich es etwas anders sehe allerdings ignorierst du den Punkt das man die "jetzigen" Kunden nicht bedienen kann (was die Marktanteile bei Gaming >> wofür man Polaris eigentlich optimiert hat) nicht steigen. Das nächste Problem ist das zwar nach einiger Zeit viele AMD Karten gebraucht abgestoßen werden allerdings nimmt das wiederum den "neukarten" Gewinn von AMD Anteile weg (da wir hier sehr wahrscheinlich von großen Mengen Gebrauchter Karten reden) das wiederum schmälert den Gewinn von AMD in nächsten Geschäftsjahr bzw. in diesem.

Aktionäre die im Vorstand sind haben da sicherlich Millionen/Milliardenbeträge investiert (ich spreche nicht von "neueinsteiger" oder kleinanläger sondern von Großaktionären irgendwo muss das Geld von AMD ja herkommen da sind einige dabei die sich einen langfristigen Gewinn versprechen). >> und diese haben sicherlich kein Interesse an kurzfristigen Verkäufen die langfristig den Gewinn schmälern bzw. Marktanteile gefährden.
 
@ralf1848

So So AMD verarscht Dich? Als Kunden gewinnen Sie Dich eh nicht, da Du Dich für eine 1080ti entschieden hast. Nebenbei die schnellste Karte ist immer noch eine Titan Xp.

Was Nvidia gemacht hat ist keine Verarsche, das ist schlichtwech Betrug !

Aber extrem verkackt, sprich Sie sollten am besten den Betrieb schliesen weil Sie verkacken eh ?

Arbeitest Du vielleicht in der Abfall/Entsorgungwirtschaft, das so viel verkackt und verarsche drin vor kommt ?
Magst Du vielleicht etwas sachlicher schreiben ?

mfg
 
Zuletzt bearbeitet:
Ich hab halt keine Anwendung für eine GraKa jenseits der 1060/580 klasse, aber viele Beiträge hier verstehe ich überhaupt nicht.

Wenn Vega ne gute Konkurenz zur 1070 und 1080 ist, ist das doch nur zu begrüßen. Jetzt heißt es erstmal detaiierte Tests abwarten.

Das einzige was AMD wirklich verbockt hat, ist zu hohe Erwartungen zu wecken. Aber im Massenmarkt (komplett PC) werden die sich sicherlich gut schlagen.

Leider ist durch die teure Technik halt nicht besonders viel Marge zu erwarten.
 
@Ned Flanders

wie ich schon gesagt habe ist das eigentliche Problem das VEGA eher ein Rückschritt ist wenn man die TFLOPs der Polaris (580 vs 1060) zu VEGA (64 vs 1080) betrachtet. Das Problem ist so wie ich es sehe scheinbar das man die Optimierungen von Polaris (bessere Shader Auslastung) nicht berücksichtigt hat was wiederum dazu führt das man mehr TFLOPs braucht (weniger Effizient) um mit NV mitzuhalten. Genau das hat man ja versucht mit Polaris zu optimieren was scheinbar auch durchaus geglückt ist.

Aus meiner Sicht ist die Karte daher ein Fail bzw. die viel gepriesenen neuen Architektur NCU (aus Leistungs/Effizienz Sicht).

Es heißt aber nicht das es keine alternative ist, ich schätze aber das der umsatz von Vega eher mau sein wird.
 
Zuletzt bearbeitet:
Zurück
Oben