News GeForce GTX 11xx: Board-Partner nennt Termine für GTX 1180, 1170, 1160

Was bringt der Vergleich von AMD und nvidia? AMD hat keine Karte die mit der 1080Ti mithält.
Und warum sollte man sich eine Vega-Karte kaufen wenn Sie quasi nichtmal günstiger ist als eine 1080..

Und als wenn die Vega-Karten an der 1080 in neuen Spielen vorbei ziehen, was fürn Unterschied soll das sein?
2 FPS?
 
Ich bin gespannt, ob mit den neuen GPUs 3840 x 2160 und hohen/höchsten Details > 144Hz flüssig möglich sind ( abgesehen davon, dass solche Monitore Mangelware sind).
Ansonsten bleibt nur abwarten bis irgendwann nach 2020...
 
Nightmare09 schrieb:
Ich bin gespannt, ob mit den neuen GPUs 3840 x 2160 und hohen/höchsten Details > 144Hz flüssig möglich sind ( abgesehen davon, dass solche Monitore Mangelware sind).
Ansonsten bleibt nur abwarten bis irgendwann nach 2020...
Wie soll das gehen selbst eine 1080Ti schaft es mit Max OC nur bei ein Paar Games die 60FPS zuhalten und dur redest von 144HZ.
Oder versteh ich den Text eventuell vollkommen falsch.
Die Aktuelle Schalmauer die es zu brechen gilt sind konstante 60FPS in 4K also 60HZ.
Das wird mit der GTX1180 vielleicht bedingt möglich sein.
Die einzigste Karte die das derzeit schaft die 60FPS konstant in 4K zu liefern ist meines Wissens die Titan V mit Wasserkühler bei ca. 2000MHZ die ja auch bekantlich um die 5130 Shader hat.
 
DocWindows schrieb:
Mag sein. Viele andere interessiert es aber schon, und dann muss man das akzeptieren und nicht wegdiskutieren wollen. Ich akzeptiere ja auch wenn sich jemand ne Vega kaufen will, weil er AMD gut findet und nVidia nicht. Sind dann halt nicht meine Beweggründe Hardware zu kaufen. Und es ist auch besser dass jemand die Karten kauft als sie einfach wegzuschmeißen.

ich akzeptiere es doch, ich sag ja nur, dass es bei vielen keine Rolle spielt und generell spreche ich da hauptsächlich ja auch von meinen ansichten

DocWindows schrieb:
Ich bezog mich eher auf die Konkurrenzsituation zu anderen Karten, aber selbst wenn man auf die Vorgängergeneration schaut, so hat die Existenz von günstigen 980Ti-Karten dem Absatz der neuen Pascal-Karten auch nicht wirklich geschadet. Zumindest soweit ich das beurteilen kann. Wenn etwas neues da ist, kaufen die wenigsten Leute das Alte.

Und ich bezog mich ganz am Anfang auf Karten der Vorgenerationen, da wurde halt nur der Teil mit dem stromverbrauch zitiert ^^

Na klar hat das dem Absatz nicht geschadet, die 980Tis waren ja auch Auslaufmodelle und wurden eingestellt. Ändert nichts daran, dass jeder der wollte eine absolute High End Karte (In Bezug zum Kühler und Platinenlayout) für unter 350€ haben konnte... die 1070 war zu dem Zeitpunkt meistens deutlich teurer und un Customsdesigns schlechter verfügbar.

DocWindows schrieb:
Im zitierten Urpsrungsbeitrag wurde doch auch nur auf den Verbrauch eingegangen und ein Autobeispiel gebracht. Warum darf ich jetzt nicht auch so gegenargumentieren?

Darfst du, macht nur nicht wirklich Sinn macht der Vergleich nicht wirklich, da der verbrauch bei einem Auto von vielen Faktoren abhängt, aber das führt zu weit.
DocWindows schrieb:
Sollten sich zwei Karten nur durch 50W unterscheiden und durch nichts anderes (rein hypothetisch), würden die Leute die Karte kaufen die 50W weniger verbraucht. Einfach weil es keinen logischen Grund gäbe die Karte zu kaufen die 50W mehr verbraucht. Das hat weder etwas mit Nachteil/Vorteil zu tun oder einem Betrag auf irggendeiner Stromrechnung, sondern einfach damit dass die Karte die weniger verbraucht besser erscheint als die die mehr verbraucht.

Was interessiert mich ein solch theoretischer Sachverhalt... Ja wenn es bis auf den Stromverbrauch keinen unterschied gibt, nimmt man die mit dem geringeren verbrauch.

Ich habe im Ursprungsbeitrag gesagt, dass den meisten Leuten der Mehrverbrauch relativ egal ist und das eindeutig auf den vergleich zwischen neuer und Vorgeneration bezogen.

Was das jetzt mit irgendwelchen Konkurrenzkarten und theoretischen Gedankenspielen zu tun hat... kein Plan.
 
Visualist schrieb:
Wie soll das gehen selbst eine 1080Ti schaft es mit Max OC nur bei ein Paar Games die 60FPS zuhalten und dur redest von 144HZ.
Oder versteh ich den Text eventuell vollkommen falsch.
Die Aktuelle Schalmauer die es zu brechen gilt sind konstante 60FPS in 4K also 60HZ.
Das wird mit der GTX1180 vielleicht bedingt möglich sein.
Die einzigste Karte die das derzeit schaft die 60FPS konstant in 4K zu liefern ist meines Wissens die Titan V mit Wasserkühler bei ca. 2000MHZ die ja auch bekantlich um die 5130 Shader hat.
Mein Beitrag war durchaus etwas provokant gedacht. ;) Natürlich sind 4K 60 FPS zunächst das Primärziel für die 1180. Von einer 1180Ti (oder welche Bezeichnung die auch immer tragen wird) erwarte ich dennoch einen deutlichen Vorsprung im Vergleich zu einer 1080Ti hin zu klar >60 FPS in 4K.

Und WaKü ist bei einer solchen Karte ohnehin fester Bestandteil der Anschaffung :daumen:
 
snickii schrieb:
Was bringt der Vergleich von AMD und nvidia? AMD hat keine Karte die mit der 1080Ti mithält.
Und warum sollte man sich eine Vega-Karte kaufen wenn Sie quasi nichtmal günstiger ist als eine 1080..

Und als wenn die Vega-Karten an der 1080 in neuen Spielen vorbei ziehen, was fürn Unterschied soll das sein?
2 FPS?

Ich bin wiederum sehr glücklich mir vor ein paar Jahren einen Monitor mit 4K-IPS mit FreeSync gekauft zu haben. Da ist das Zocken mit der VEGA64 ein Genuss. Bei NVIDIA bräuchte ich erstmal einen neuen Monitor...
 
Edelgamer schrieb:
Wird die 1160 eigentlich 8GB Vram haben??
Plausibel ist eine 4GB und eine 8GB Variante, aber die 8GB Variante ist aufgrund der Chipbestückung wahrscheinlicher. Bei der 1170 sind 8,12 und 16GB denkbar.
 
DarkerThanBlack schrieb:
Bei NVIDIA bräuchte ich erstmal einen neuen Monitor...

Andersrum wäre es genauso. ;) Und in 4K wäre Vega kein Genuss für mich, auch die 1080 wäre kein Genuss.
Selbst die Ti würde mir wahrscheinlich nicht mal reichen
 
Ich möchte nochmal anmerken, dass eine 1180+ (wie auch immer sie heissen wird) ziemlich viel Spielraum bei den Cuda Cores haben wird. Da die 1180 wahrscheinlich 3584 davon hat. Könnte der Vollausbau aka 1180+ bei 4096 Cuda Cores liegen. (-20% im Vergleich zur Titan V)
 
Das wäre natürlich Top wen die mehr Cuda Cores hätte die + aber irgendwie glaub ich das es einfach nur eine Abkürzung für entweder Custom Karten ist oder für Doppelten Ram steht.
Das würde sonst doch stark von der Vergangenheit abweichen.
Wo bei bei NV ist nichts unmöglich.
 
Zuletzt bearbeitet:
snickii schrieb:
Was bringt der Vergleich von AMD und nvidia? AMD hat keine Karte die mit der 1080Ti mithält.
Und warum sollte man sich eine Vega-Karte kaufen wenn Sie quasi nichtmal günstiger ist als eine 1080..

Und als wenn die Vega-Karten an der 1080 in neuen Spielen vorbei ziehen, was fürn Unterschied soll das sein?
2 FPS?

das ist mal wieder ein typischer anti-amd trollpost. 2 fps? du meinst vega 56?

pro veg aktuell.jpg


15% abstand von vega 64 zur 1080 ti; referenz vs referenz bedeuten in fps:

wenn vega 64 60 fps hat, hat die 1080 ti 69. wenn vega 64 144 fps hat, hat die 1080 ti 165 fps.

ist das mehr? ja - ist das spürbar? bei 69 fps ein bisschen, über 144fps nicht.

die 1080 ti ist in diesem spieledurchschnitt 15% schneller und die FE kostet bei nvidia 699€ - vega 64 referenz kann also 600€ kosten, und hat damit immernoch eine leicht bessere preis/leistung als eine 1080 ti.
wieviel hat vega referenz gekostet? 499€ wenn man glück hatte, ansonsten 550€.

für den preisunterschied zwischen den zwei karten kann man sich schon fast nen wqhd 144hz freesync monitor kaufen. und sobald adaptive sync für vega ins spiel kommt sind die paar extra fps einer 1080 ti wirklich wurst.

und jetzt will ich mal wissen, wieso vega so schlecht ist, dass man meint, permanent so ein affentheater veranstalten zu müssen. "aber vega verbraucht so viel strom hurr durr". 8700k oc frisst in avx fast 200w. beschwert sich da jemand? eine custom 1080 ti oc verbraucht auch >300w - interessiert das jemanden? nein.
der asus pg27uq 4k 144hz gsync monitor verbraucht 180 w wegem dem verbauten Intel Altera Arria 10 GX 480 FPGA für gsync - ein freesync 2 monitor verbraucht die hälfte. juckt das jemanden? nicht die bohne.

jetzt ist halt der mehrverbrauch vom asus pg27uq zu freesync monitoren so hoch, dass die kombi aus vega 64 + freesync weniger strom verbraucht als eine 1080 ti + pg27uq. aber was juckts, ist doch hardware für enthusiasten. aber vega ist durch den hohen stromverbrauch nicht kaufbar.

und wieso soll vega günstiger sein als eine 1080? schonmal die hardware auf den karten verglichen? vega kostet in der produktion grob das doppelte. MRSP von vega ist der absolut niedrigste preis, den man für eine vega verlangen kann, ohne die karten mit einem riesen verlust zu verkaufen - wobei ich mir nicht mal sicher bin, ob vega durch die hohen hbm2 preise nicht so schon ein minusgeschäft für amd ist.

amd tut sich mit vega keinen gefallen - der einzige grund vega so zu verkaufen, wie amd es getan hat, ist der unbedingte wille damit marktanteile zurückzuholen.
anstatt, dass man sich über die option freut, eine etwas hinter den erwartungen zurückgebliebene vega kaufen zu können, die trotzdem noch "ok" ist, wird von allen seiten mit maximaler gewalt dreck geschmissen.

die salonfähigkeit von permanentem, blindem vega-gebashe, abseits jeder faktenlage, ist das erbärmlichste, was ich hier in den letzten jahren erlebt habe.
 
  • Gefällt mir
Reaktionen: Yar, Agit4869, BestinCase und 2 andere
Du vergleichst die FPS von der Vega zur Ti, aber vergleichst nicht die FPS von der Vega zur normalen 1080 (darum ging es in meinem Post)

Das sind ganze 13%, nu erklär mir mal wo das der große Vorteil in neuen Games ist. Es ging eigentlich immerzu um den Vergleich zwischen 1080 und Vega.

Die Ti habe ich nur so aufgeführt, ist nunmal die stärkste Karte und bevor ich eine Vega 64 kaufe, würde ich zur Ti greifen weil da sind mir die 100€ egal.
Zumal mein Monitor eh G-Sync hat.

Find dich damit ab das nvidia derzeit immer die schnellste Karte hat, ist einfach Tatsache.
Übrigens interessiert mich der Stromverbrauch nicht.

Du hast intel und nvidia in deiner Signatur durchgestrichen, mit dir macht eine solche Diskussion mMn keinen Sinn.
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
ich akzeptiere es doch

Indem du den Punkt Stromverbrauch als Fanboyargument bezeichnest?

Shoryuken94 schrieb:
Ändert nichts daran, dass jeder der wollte eine absolute High End Karte (In Bezug zum Kühler und Platinenlayout) für unter 350€ haben konnte... die 1070 war zu dem Zeitpunkt meistens deutlich teurer und un Customsdesigns schlechter verfügbar.

Ja, haben konnte. Trotzdem haben die Leute nVidia die Bude eingerannt um eine 1070 kaufen zu können.
Auch für mehr als 350 Euro. Deutlich mehr. Und zwar weil sie neuer war und Vorteile bot, die über Frames Per Second hinausgehen.

duskstalker schrieb:
der asus pg27uq 4k 144hz gsync monitor verbraucht 180 w wegem dem verbauten Intel Altera Arria 10 GX 480 FPGA für gsync - ein freesync 2 monitor verbraucht die hälfte. juckt das jemanden? nicht die bohne.

Einen Freesync 2 Monitor mit den gleichen oder wenigstens ähnlichen technischen Daten wie den PG27UQ gibts noch gar nicht aufm Markt.. Juckt das @duskstalker? Nicht die Bohne.

duskstalker schrieb:
und jetzt will ich mal wissen, wieso vega so schlecht ist, dass man meint, permanent so ein affentheater veranstalten zu müssen. "aber vega verbraucht so viel strom hurr durr". 8700k oc frisst in avx fast 200w. beschwert sich da jemand? eine custom 1080 ti oc verbraucht auch >300w - interessiert das jemanden? nein.

Weil man beim 8700K und der 1080Ti auch Gegenleistung für den Mehrverbrauch bekommt und nicht nur so schnell ist wie ein Konkurrenzprodukt, das die Hälfte schluckt.

PS: Der Dateiname deiner Cherrypicking Grafik ist echt witzig: pro-veg-aktuell-jpg LOL. Damit willst du ernsthaft argumentieren? Kann ich auch:

pro-nvi-aktuell.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan
snickii schrieb:
Du vergleichst die FPS von der Vega zur Ti, aber vergleichst nicht die FPS von der Vega zur normalen 1080 (darum ging es in meinem Post)

die argumentation ist zwar sehr fragwürdig. ok, cherrypicken wir halt mal "moderne spiele" und machen keinen 50/50 split, reichen 30%?

vega cherrypick.PNG


snickii schrieb:
Das sind ganze 13%, nu erklär mir mal wo das der große Vorteil in neuen Games ist. Es ging eigentlich immerzu um den Vergleich zwischen 1080 und Vega.

du hast gesagt vega 64 ist in modernen spielen "vielleicht 2fps schneller" - 13% sind aber ein kleines bisschen mehr als 2 fps (benches in wqhd). jetzt ist aber die 1080 ti auch nur 15% vor der vega 64 - und das ist ein "konkurrenzloser" abstand? also müsste nach deiner argumentation die vega 64 auch "konkurrenzlos" vor der 1080 liegen. ist es nicht so?

ich habe damit lediglich deine aus der luft gegriffene behauptung "in modernen spielen 2 fps" widerlegt. jetzt willst du mir in den mund legen, ich hätte behauptet, dass vega die bessere gaming karte ist. das hätte ich gerne mal zitiert. ich habe nur die fakten dargelegt, was der einzelne für schlüsse daraus zieht, ist jedem selbst überlassen.

wie vega 64 im best case (unrealistisch für einen spieledurchschnitt, aber die einzelergebnisse sind eben auch da) die 1080 zerstört, kann man sich oben anschauen.

snickii schrieb:
Die Ti habe ich nur so aufgeführt, ist nunmal die stärkste Karte und bevor ich eine Vega 64 kaufe, würde ich zur Ti greifen weil da sind mir die 100€ egal.
Zumal mein Monitor eh G-Sync hat.
snickii schrieb:

alles klar :D danke für den lacher.

snickii schrieb:
In deiner Signatur sieht man schon weshalb du ein AMD Fanboy bist, find dich damit ab das nvidia derzeit immer die schnellsten Karten hat, ist einfach Tatsache.

Du hast intel und nvidia in deiner Signatur durchgestrichen, mit dir macht eine solche Diskussion mMn keinen Sinn.

wieso bin ich ein amd fanboy? weil ich die missstände dieser firmen dokumentiere? wenn ein sinn für gerechtigkeit und ethik mich zu einem amd-fanboy macht; man reiche mir meinen finewine.

mit mir macht diskutieren keinen sinn? behauptungen aus der luft greifen und andere als fanboy bezeichnen sind natürlich die eigenschaften, die einen guten diskussionsteilnehmer ausmachen. wieviele behauptungen hast du nochmal mit quellen belegt? keine?

die 1080 ti / titan xp / titan v sind unstrittig die schnellsten gaming karten. nvidia hatte über die meiste zeit der letzten jahre/jahrzehnte immer die schnellste (und teuerste) grafikkarte. ich würde auch mal gerne zitiert haben, wo ich das in frage gestellt habe. du bist jetzt als erstes mit dieser behauptung angekommen um deine position zu verteidigen "nvidia ist schneller wäääääh lass mich".

snickii schrieb:

;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Yar, Agit4869 und gesperrter_User
moderne Spiele, die Spiele sind nichtmal aus diesem Jahr, man man man. :freaky: Warum nimmst du eigentlich ein Spiel von EA als Vergleich? Ist das nicht etwas Paradox? :heilig:
Fanboy? mir gehts nur um den Aspekt der stärksten Karte und wenn ich aktuell Neu kaufen würde, würde ich die stärkste Karte kaufen. Da sind es mir die 15% Wert, aber bei Karten die irgendwo in der mitte rumpimmeln wären mir 15% eben nicht egal. ;-) So legt jeder seine Prioritäten.

Warum bin ich ein Fanboy wenn ich die stärkste Karte kaufen würde wenn ich jetzt kaufe? Wie gesagt, hätte AMD die stärkste, würde ich auch AMD kaufen wenn ich kein G-Sync hätte.
Eine neue CPU würde ich derzeit wahrscheinlich auch von AMD bevorzugen.

Du dokumentierst Missstände der Firmen: Wieso hängt AMD denn immer hinterher? Ich finds schade, aber es ist doch leider so. Irgendwo haben die ja auch was verpasst..

Warum ich immer von der aktuell leistungsstärksten Karte spreche? Weil ich merke das meine derzeitige nicht mehr ausreicht um so zu spielen wie ich möchte. Spiele auch in WQHD. mMn brauch man die beste Karte um wirklich mal die 140 FPS zu erreichen. (So wie es mir grafisch auch gefällt)


Das ist mMn ein aufwendiges Spiel:

Subnautica.PNG


und da kotzt meine 1070 auch, das wäre zb. ein Spiel aus diesem Jahr.
 
Zuletzt bearbeitet:
DocWindows schrieb:
Indem du den Punkt Stromverbrauch als Fanboyargument bezeichnest?

Jepp, in den meisten Threads die man hier liest, ist es nichts anderes... Bevorzugt irgendwelche Nvidia Fanboys, die seit Keppler total überzeugt sind, dass der Stromverbrauch ja so enorm wichtig sei und man kaum eine andere Karte kaufen kann. Bei Fermi sah es noch anders aus, da hat Nvidia immer auf den Deckel bekommen, wie ineffizient sie doch sind. Da haben die Nvidia Fanboys wieder argumentiert, dass es doch nur auf die maximale Performance ankommt.... Je nachdem wie das eigene Produkt abschneidet, ändert sich die Meinung halt fix. Mal ist die absolute Leistung das wichtigste, mal die Effizienz, und meistens ist es am ende doch das Logo auf dem Karton. Wenn ein Produkt meine Anforderungen genau erfüllt, dann kaufe ich es halt. Aber diese Verbrauchsdiskussion seit einigen Jahren nervt ziemlich. Nicht weil sie unnötig ist, nei. Weil sie oft als scheinargument herangezogen wird.

DocWindows schrieb:
Ja, haben konnte. Trotzdem haben die Leute nVidia die Bude eingerannt um eine 1070 kaufen zu können.
Auch für mehr als 350 Euro. Deutlich mehr. Und zwar weil sie neuer war und Vorteile bot, die über Frames Per Second hinausgehen.

Und die Lager liegen nicht mehr Voll mit alten 980Tis... scheinen also genau so ihre abnehmer gefunden zu haben ;) Bestreitet ja keiner, dass die 1070 insgesamt die bessere Karte ist... nur ob sie einem damals den hohen Aufpreis wert war? Einigen Ja, einigen Nein. Es gibt halt verschiedene Entscheidungskriterien. Der häufigste Kaufgrund wird wohl (abgesehen vom OEM markt und Herstellerpräferenzen ) Performance pro € sein. Und nein, dass heißt nicht, dass es bei allen so ist.
 
  • Gefällt mir
Reaktionen: duskstalker
duskstalker schrieb:
wie vega 64 im best case (unrealistisch für einen spieledurchschnitt, aber die einzelergebnisse sind eben auch da) die 1080 zerstört, kann man sich oben anschauen.

Von einem Chip mit der Leistung (Vega64: 13.352 SP-GFLOPs) der 1080Ti (12.881 SP-GFLOPs) würde ich sowas nicht nur im Best Case erwarten.
Können wir nur hoffen das mehr Entwickler auf Low Level APIs setzen werden so das AMD ihre Rohleistung dauerhaft auf die Straße bekommt und wieder eine ernste Konkurrenz wird oder besser noch nVidia überholt.
 
  • Gefällt mir
Reaktionen: Nightmare09
snickii schrieb:
Das ist mMn ein aufwendiges Spiel:
[subnautica]
und da kotzt meine 1070 auch, das wäre zb. ein Spiel aus diesem Jahr.

dieses jahr?

Das Spiel wurde erstmals im Dezember 2014 im Rahmen von Valves Early-Access-Programm auf Steam veröffentlicht
https://de.wikipedia.org/wiki/Subnautica

DMorpheus schrieb:
Von einem Chip mit der Leistung (Vega64: 13.352 SP-GFLOPs) der 1080Ti (12.881 SP-GFLOPs) würde ich sowas nicht nur im Best Case erwarten.

das stimmt, es kommt viel zu selten vor. die frage ist halt, wieso vega in manchen spielen nichts auf die kette bekommt - und das lässt sich auch relativ einfach beantworten: die anderen radeonkarten sind in den spielen auch alle schlecht. d.h. der grund wieso vega nicht gut performt, ist der selbe grund, weshalb alle anderen radeonkarten nicht gut performen.

jetzt kann man natürlich hergehen und alles auf GCN schieben. jetzt ist es ja aber auch so, dass GCN in anderen spielen hervorragend funktioniert. ist die architektur also schuld? bestimmt ein bisschen, aber nicht ausschließlich. vielmehr muss man bei den spielen selber nach den ursachen suchen - und das ist in den meisten fällen eben ein schlecht optimiertes DX11, oder noch schlimmer: openGL - amd ist mit dem hardwarescheduler unbedingt auf optimierung im spielecode angewiesen, und kann das nicht (oder nur sehr begrenzt), wie nvidia, über den treiber regeln.

bei doom kann man sehr schön sehen, dass hier GCN karten, die es vor dem spielerelease gab (polaris, fiji) unglaublich stark abschneiden (lasst euch nicht von dem von CB künstlich durch nightmare settings provozierten vram bottleneck auf fiji täuschen) - aber vega hier nicht viel abstand zu fiji und polaris schafft - und der grund hierfür dürfte sein, dass vega während der entwicklung von doom noch nicht relevant war und man nur die vorhandenen grafikkarten berückstichtig hat, und man für vega keinen patch mehr nachgeschoben hat.

in wolfenstein - ebenfalls IdTech 6 und Vulkan - ist wieder eine ganz andere geschichte - sicher, hier spielt auch RPM mit rein. das lässt sich aus der ferne kaum beurteilen.
 
Zuletzt bearbeitet:
@Shoryuken94

Also mal ganz ehrlich wen die Vega64 max OC 300W zieht und die sagen mal 15-20% schneller gewesen wäre als eine 250W GTX1080 max OC zum selben Kurs dann hätten sehr viele damals zur Vega gegriffen.
Das ist absoluter Blödsinn das AMD immer ohne Grund durch den Kakao gezogen wird.

Wenn die über mehrere Generationen Mehrleistung abliefern würden als NV würde das Blatt sich auch mal langsam wenden.
Es gab nun mal auch keine Vega 76 als konter zur Ti aber auch selbst wen dan hätte sie schneller sein müssen.
Amd ist an ihrer Situation selbst Schuld.
Wäre der Mining Boom nicht gewesen hätten sie Vega so richtig in den Mist gefahren.

Die Kunden werden durch Leistung angelockt und nicht durch ewig 2ter.
 
Zuletzt bearbeitet:
@Visualist

Die wenigsten Vegas sind wohl an Miner gegangen... Vega war aufgrund des Preises für die selten spannend, anders als RX 470, 570, 480, 580. Generell wird AMD die meisten Vegas wohl in den Professionellen bereich verkaufen, ein paar für das Gaming. Aber insgesamt denke ich nicht, dass Vega gerade viel Masse bei AMD macht.
 

Ähnliche Themen

Zurück
Oben