News AMD Vega: Radeon Vega kommt Ende Juni, aber nicht für Spieler

ZeroCoolRiddler schrieb:
75% von 1440p wären dann wieder 1080p. So kann man es auch machen...:lol:

Grund war das ich günstig an einen 144Hz Freesync 1440p Monitor gekommen bin, den ich bei Erscheinung von VEGA sowieso eingeplant habe. Zwar ist mir beim Testen direkt der Unterschied zwischen 1080p und 1440p aufgefallen aber dann hab ich direkt die resolution scale angepasst, sodass ich mich gar nicht erst daran gewöhne BEVOR VEGA kommt. :D
 
@Leli 0,75*1440=? | 0,75*2560=? | 1,34*1080=?
Kommt ja aber drauf an wie man rechnet. BF1 bezieht auch auf die Breite und nicht auf die gesamte Pixelzahl. Sonst hätte ich nicht identische FPS

Bei 1920*1080 vs 2560*1440 hättest du Recht
 
Zuletzt bearbeitet von einem Moderator:
Es geht hier um Auflösung einer Fläche und nicht einer Kante. 1920 * 1080 = 0,56 * 2560 * 1440. So schwer ist Mathe nicht.

Um es also noch einmal deutlich zu sagen (auch für diejenigen die meinen 1440p sei ja nur marginal mehr als 1080p): 1440p bietet fast die doppelte Auflösung (sprich Pixelanzahl) wie 1080p.

Edit: Offenbar ging es nicht um die Fläche sondern nur um die Kantenlänge.

Gruß
 
Zitiere mich mal selbst :
derbe schrieb:
Man man man, macht zwar Spaß hier zu lesen, aber paar Leute haben echt eine Schraube locker ;D

Ich packe mal aus dem Keller die Glaskugel aus und sage folgendes:

Ab ca.~August:

Vega (1) - kleinste Version 8GB HBM2 - ~450€ - Leistung 1080 +/- 0%
Vega (2) - mittlere Version 8GB HBM2 - ~550€ - Leistung 1080 +20%
Vega (3)- größte Version 16 GB HBM2 - ~699€ - Leistung 1080 Ti +10%

So schaut es wohl im Q1 - Q2 2018 aus:

Vega (1) - kleinste Version 8GB HBM2 VS GTX 2070 16GB XDDR6 +/- 0%
Vega (2) - mittlere Version 8GB HBM2 VS GTX 2080 16GB XDDR6 +/- 0%
Vega (3) - größte Version 16 GB HBM2 VS GTX 2080 32GB XDDR6 Ti denke hier wird NVIDA die Korne behalten mit 15%-20% mehr FPS


So jetzt geht die Glaskugel wieder in den Keller ;)

Ich persönlich strebe die "mittlere Version 8GB HBM2" an sollte mir reichen :)
 
@derbe
In meiner Glaskugel ( ;) ) sehe ich aber eher, dass AMD mit dem bisschen HBM2, der zur Verfügung steht, weise umgeht... deshalb werden sie die 16GB Varianten erstmal nur für die professionellen Karten verwenden und wenn sich dann wieder mehr angesammelt hat, die "Masse" mit Vega füttern und damit lieber 2 Karten mit 8GB an Gamer verkaufen, als eine teure mit 16GB. Wenn dann HBM2 in Massen vorhanden ist (scheint ja eher erstmal nicht der Fall zu sein), dann kann es gut sein, dass auch für Gamer dann noch ein 16GB Modell nachkommt (ansonsten hätte er auch nicht "wir werden darüber nachdenken" geantwortet, sondern "ist in Planung" oder "später ja").

Aber an sich ist das auch kein Drama, ich denke, dass man mit 8GB auch sehr gut klarkommen kann, Fury X hat sich ja auch lange noch mit den knappen 4GB gut geschlagen. Deswegen wird vermutlich auch nVidia nicht wie von deiner Glaskugel vorhergesagt, schon Anfang nächsten Jahres mit einem 32GB Modell antworten...

Allgemein ist das mit dem massenhaft Speicher für die "Zukunftssicherheit" ein ein bisschen Murks, denn eh die 32GB bei einem normales Setup (und da zählte ich dann schon 4K mit max. Details) wirklich ausgenutzt werden, vergehen locker 4-6 Jahre und wenn die vergangen ist, ist man vielleicht vom VRAM ideal aufgestellt, aber die Grafikkartenleistung selbst hinkt bei gleichem Setup (4K, max Details) deutlich hinterher ^^

Was bringt es mir, wenn ich mir als Single ein Auto mit riesigem Kofferraum für Familienurlaube kaufe, diese Familie aber erst in 6-8 Jahren da ist? Wenn es dann soweit ist und sich der Kofferraum auszahlen könnte, stottert das Auto, springt manchmal nicht an und viele tolle neue Features fehlen (ähnlich wie bei Grafikkarten) ;)
 
Übrigens statt die Aussage von Koduri zu verfälschen (" laut Kudori zu wenig Luft nach oben mit einem Sechs- und einem Acht-Pin-Anschluss") hätte Wolfgang eher erwähnen sollen, dass HBM2 sowohl von Hynix als auch von Samsung geliefert wird ;)
 
Darkscream schrieb:
... bin da nicht so optimistisch, in der Vergangenheit war die Steigerung zu über 80% dem höheren Takt geschuldet. 30% mehr Takt sehe ich aber nicht mehr als realisierbar, hier müssten die Referenzkarten schon über 2000MHz boosten. Wenn sie das tun, sehe ich so gut wie keinen Spielraum mehr ...

Naja, ich gehe von Stock auf Stock aus und natürlich nicht von OC auf Stock oder auch OC auf OC ;), schon möglich, dass der OC Raum bei Volta einfach dahinschmelzen wird, weil es technisch ohne generalüberholte Architektur nicht möglich sein wird. Für Übertakter/Enthusiasten wäre das eher ärgerlich, aber die große Masse übertaktet sowieso nicht oder kauft von Werk aus übertaktete Karten; gut möglich, dass der Spielraum dann ähnlich gering wie bei AMD mittlerweile ausfallen wird.

Noch kann man ja der Hoffnung sein, das die Volta GPUs nicht nur durch weiteres Tuning bzw. den "Shrink" auf 12nm (der eigentlich kein richtiger sein soll, sondern nur eine höhere Optimierungsstufe bei der Fertigung) an Rohleistung dazu gewinnen werden und es kein Maxwell 4.0 wird sondern eher im besten Fall vergleichbar mit der Fermi zu Kepler Weiterentwicklung (was ein ziemlich großes umkrempeln/aufbrezeln der Architektur wäre) ist.

Geld und Ressourcen dürfte nVidia dafür eigentlich mehr als genug haben, stellt sich die Frage ob der Zeitpunkt schon der richtige ist (die angekündigte "saftige" Preiserhöhung mit Volta könnte eine Indiz dafür sein) und nach einem Umstieg auf HBM-Speicher sieht es bei den nVidia Gaming GPUs ja auch nicht aus (wäre aber auch nicht unbedingt Voraussetzung dafür).

Des Weiteren denke ich auch, dass nVidia um die in Foren bei Ihnen und anderweitig kursierenden,/negierenden Maxwell Shrink Bezeichnungen wissen und das könnte dazu beitragen mehr als letztes Mal zu tun was die Architektur und Einbringung echter/relevanter Innovationen angeht, schau'n wir einfach 'mal.

yummycandy schrieb:
... ich glaub nicht, daß AMD mal so schnell 100 Entwickler dafür abstellen kann. Mittleres Model und dann über 1080 Niveau, wäre das nicht eher die 1070? :D .. bei Volta sind ne Menge Einheiten dazugekommen (Tensor Cores). Das dürfte eine hohe Packdichte ergeben und somit weniger OC-Potenzial. Da wird wohl auch erst die 2. Generation so richtig optimiert sein. (Maxwell -> Pascal)

Ob das noch so ist und 80% von RTG mit den Treibern hantieren und da rotieren, weiss ich natürlich nicht, die Aussage ist schon ein paar Monate her, aber ich sehe da nicht bisher nicht so viel Fortschritt gegenüber den ersten Star Wars Battlefront und Doom (4) fps-Demos, was die Rohleistung angeht, man bewegt sich immer noch im selben Rahmen, lass es 5 oder 10% mehr sein bestenfalls die man auf eine GTX1080Ti Leistung aufholt und es ist ja nicht so, dass nVidia nicht evt. bei Treibern auch noch optimieren kann.

Alleine per Treiber Wunder zu generieren geht ja auch nicht, aber Zeit sollten sie eigentlich genug gehabt haben, zudem Koduri ja neulich von Klasse statt Masse Ihres Personals sprach, was man natürlich etwas widersprüchlich zu seiner 80% Aussage sehen kann, wenn man denn will.

Nun, Mitte trifft es da (bei der "Eclipse") schon, denn die unterteste/schwächste Ausführung ("Core") wäre der Einschätzung nach leicht über GTX 1070 Niveau, könnte preislich aber gar darunter liegen, eine 4 GB HBM2 Version davon nicht unwahrscheinlich ist neben einer 8 HB HBM2 Version.

Eine GPU, unterhalb von GTX1070 anzusiedeln und oberhalb von RX 580, macht profittechnisch dann keinen Sinn und auch nicht im Hinblick auf die einige Monate später kommenden Volta GPUs, die der Maßstab für RX Vega bis zu Navi in 2019 (ca. 2 Jahre) sein werden, nicht Pascal. Da wird man schon so stark wie möglich herüberkommen wollen, zumal in dem Bereich (zwischen GTX 1070 und 1080 eine Menge Käuferpotential/Umsatz/Gewinne steckt und es für AMD viel wichtiger sein dürfte als eine GTX 1080Ti (knapp) zu schlagen).

So gesehen erwarte ich für die unterste ("Core") und die mittlere ("Eclipse") Version die verhältnismäßig besten Leistungsdaten und nicht für das Flagschiff, aus dem man vermutlich mit aller Macht das letzte Quäntchen Leistungsreserven herauspressen wird um evt. vor einer GTX 1080Ti Titan Xp (Stock) auch bei den meisten DX11 Spielen zum Marktstart zu liegen (auch wenn das massiv auf Kosten der Effizienz gehen sollte, für das die verbauten Stecker ein Indiz sein könnten).

Natürlich ist das alles noch Spekulatius, aber woran soll man sich sonst halten und Sinn macht es ja, wenn man den Chip doppelt beschneiden kann oder man bereit wäre Vollausbau einfach heruntergetaktet und "nur" luftkühlt als mittlere Version bieten zu können. Für die Kundschaft wäre das schon klasse ;) und AMD wäre breit aufgestellt, auch wenn das zu etwas Lasten des eigenen Profits geht.

Gewiss ist es natürlich auch schwer einzuschätzen auf Basis der V100 GPU - die gar nicht auf Gaming ausgelegt ist - auf die GeForce Volta GPUs zu schließen. Daher bleibe ich auch nur bei 40% momentan und ja, das kann sicherlich (gravierend) auf Kosten des OC Raums gehen, aber von Stock zu Stock GPU denke ich schon, dass man ca. 40% Leistungszuwachs wird sehen können. Irgendwie wird man die höheren Preise ja rechtfertigen müssen und die Leistungskrone sichern wollen und das ist seit Einführung der Titanklasse/-serie bisher immer gelungen.
 
Ich vermute dass die Vega FE nicht der Vollausbau ist, sondern ein 4096 Shader Chip der auf 3968 Einheiten beschnitten ist, was zumindest die abgerundeten 13/25 DP/SP Leistung erklärt bei 1600MHz.

Ein Vollausbau mit 4096 Shadern im Gaming Segment mit 1800 MHz wären dann zumindest fast ~15 TF an Rohleistung, entscheidend ist nur noch die Architektur ^^ (das ist schließlich fast so schnell wie der Volta big Chip mit 800mm²)
 
Auch die Customer Vega wird vorerst nicht der Vollausbau sein.

Schon alleine HBM² läuft noch nicht rund.

Es kommt wahrscheinlich die 8 GB Version die in optimierten Spielen die 1080 ti schlagen kann, und wenn Volta auftrifft kommt der VEGA Vollausbau mit 16 GB HBM² der dann auch voll takten kann.

So die Theorie.
 
AMD hats nach wie vor nicht im Griff. Die kommen immer zu spät, bis dahin hab ich dreimal zu nVidia gegriffen, weil AMD einfach nichts vergleichbares in Petto hat.

Seit Jahren will ich mal wieder ne AMD Graka im System verbauen, aber im High-End Segment wird da leider seit Jahren nichts brauchbares angeboten.
 
Roche schrieb:
Puh... also Vega für Consumer erst im dritten Quartal ist echt eine herbe Enttäuschung. Ende Juni wäre ja noch ok gewesen, aber NOCH länger warten. Nee, da werden wohl auch die Letzten zur NVidia Konkurrenz greifen.

er hat doch nur gesagt das sie in der selben woche der computex noch nicht im laden zu finden sein werden?
 
Du hast es verstanden. Nicht in der selben Woche. Heisst ja nicht, dass eventuell die Karten eine Woche später kommen
 
Zuletzt bearbeitet:
Jap und alle die zu NV greifen sollten dann nächstes ja für Maxxwell 4.0 *lach* mal bitte dass doppelte zahlen. Ach ja bitte nicht jammern wenn dann eine Geforce GT2030 ultimo Gaming Karte dann 150€ kostet. ;-)
 
@Mcr-King
Woher die Schadenfreude? Sauer wegen irgendetwas? :rolleyes:
Mal ehrlich, ich glaube einige verstehen nur einfach nicht, dass sich sehr, sehr viele Leute die Karten einfach ganz simpel nach den für sie wichtigen Kriterien aussuchen und dazu zählen Dinge wie Leistung, Preis, Preis/Leistungs-Verhältnis, Lautstärke, Größe/Länge/"Dicke" der Karte, Verbrauch und Features ... und denen ist es herzlich egal, ob die nun rot oder grün angehaucht ist, weil sie einfach nur Konsumenten sind, für etwas Geld ausgeben und dafür nun mal das ihren Kriterien am besten entsprechende Produkt haben möchten... es geht ja hier nicht darum, welcher Wohltätigkeitsorganisations man das Geld zuerst gibt ^^ (so kommt es einem nur manchmal vor bei solchen Formulierungen)

Aber sicher werden nVidia-Käufer keine GT2030 für 150€ kaufen, denn 1. macht selbst nVidia nicht solche Preissteigerungen und 2. reguliert sich der Markt doch von alleine... wenn etwas für die meisten dann nach mehreren Preissteigerungen doch etwas zu teuer wird, dann wird es nicht gekauft und der Preis muss sinken oder es müssen eben etwas abgespeckte Versionen erscheinen.

Da du aber anscheinend dir das Einsteigersegment für die Kritik ausgesucht hast, kannst du ja vielleicht erzählen, warum man dann zB lieber eine RX550 wählen sollte, anstatt einer GT1030?!
Für die RX550 spricht die vermutlich etwas bessere Leistung, für die GT1030 der deutlich niedrigere Verbrauch, die komplett passiven Modelle usw.
Man kann es ja nicht nVidia vorwerfen, dass nicht AMD früher auf die Idee gekommen ist, dass der gesamte Einsteigerbereich von beiden großen Anbietern sehr lange außen vor gelassen wurde und viele Interesse an einer sehr kompakten, im Idealfall passiven Einsteigerkarte haben, die trotzdem besser als die iGPUs sind und gleichzeitig sämtliche neuen Vorteile für HTPCs mitbringt (HDMI 2.0, HEVC De-/Encoding usw.)

Aber wenn du die Karten vergleichst, hat es AMD selbst mit den 50W TDP RX550er Karten nicht hinbekommen, eine sehr kompakte und vor allem passiv gekühlte Karte im Angebot zu haben ... die MSI ist mit 15,5cm die kürzeste, dabei aber auch wieder Dualslot und mit Lüfter... kann man dann nVidia vorwerfen, dass AMD da nicht den einen Schritt weitergedacht hat? Oder gar den Leuten, die sich dann eben deshalb lieber eine GT1030 kaufen? Zumal man ja auch sagen muss, dass die RX560 für 10-12 euro mehr zu haben ist, somit ergibt sich eh kein großer Vorteil für die RX550, denn sie ist ja nicht mal kompakter oder passiv gekühlt

Im Gegensatz dazu gibt es zB von Gigabyte eine GT1030, die nur 15cm lang ist und gleichzeitig ein Single Slot und Low Profile Design ist... so ein Ding kriegt man damit eigentlich so ziemlich überall rein, egal wie wenig Platz ist ^^ Trotzdem muss man natürlich festhalten, dass sowohl RX550, als auch GT1030 noch etwas teuer sind, allerdings kann sich das auch noch geben in einigen Wochen.
 
Zuletzt bearbeitet:
Dass war jetzt nur zufällig gewählt und nein ich halte die Leute nicht für so intelligent die kaufen meistens NV. Warum ganz einfach Media Markt und co und zumindest kann die RX550 netflix 4K was die GT1030 nicht kann oh warum wohl. ;-)
Des weiteren ist es ja nicht AMDs schuld was die Boardpartner machen und für Karten produzieren. Bei NV sieht dass schon wieder etwas anderes aus die machen knallharte Vorgaben was ich nicht verstehen kann.
Zum einen warum sich die Boardpartner dass gefallen lassen zum anderen warum NV das macht.

Ach noch was der Markt kann auch manipuliert werden siehe Intel, dann regelt er nix mehr alleine.
 
forumuser05 schrieb:
Aber wenn du die Karten vergleichst, hat es AMD selbst mit den 50W TDP RX550er Karten nicht hinbekommen, eine sehr kompakte und vor allem passiv gekühlte Karte im Angebot zu haben. Im Gegensatz dazu gibt es zB von Gigabyte eine GT1030, die nur 15cm lang ist und gleichzeitig ein Single Slot und Low Profile Design ist.

Fragt sich, ob es diese baldigen "Ultranischenprodukte" noch braucht bzw. diese sich rechnen, wenn Raven Ridge APUs auf den Markt kommen (mit kolportierter RX 460 Leistung) und für Einsteiger/Neukäufer die GT 1030 und RX 550 redundant machen.

"Single slot" sowie "low-profile" Modelle gibt es von der RX 550 bei XFX übrigens auch, bei passiven oder gar kombiniert single-slot-passiv-ausgelegten GPUs bin ich mir nicht sicher (auch derzeit zu faul nach der Nischensuche :evillol:).

So gesehen finde ich jedenfalls beide Lösungen sehr begrenzt interessant/sinnvoll (eigentlich nur für Besitzer mit Altrechnern als günstigste Nachrüstoption) ;).
 
Zuletzt bearbeitet:
So wie wir AMD die ganzen Jahre kennen, werden Neue Produkte Monate vorher schon geteasert. Von der zocker Vega hört man aber (leider) nichts.
Wenn AMD auf dem FAD eine Zocker Vega zum hochhalten und mit ungefährem Release Datum gehabt hätte, dann wäre die auch erwähnt worden. Warum sollte AMD mit Vega einen Überraschungsangriff starten? Macht doch keinen Sinn und wer soll denn noch überrascht werden?

Einmal etwas weiter gedacht:
Wenn Vega so gut oder besser wie eine 1080Ti wäre und auch vom Preis gegen eine 1080Ti antreten könnte, dann würde AMD alles machen um diese GPU so schnell wie möglich auf den Markt zu bringen, weil hier kann man richtig Geld verdienen. Warten ja genug Leute darauf. Alleine das wäre ein sehr guter Grund gewesen, Vega auf der FAD zu zeigen.
Diese Geschichte mit Vega kommt wegen HBM2 später kann ich einfach nicht glauben. Ich denke, dass es da andere Gründe gibt, die wir evtl. nie erfahren werden.

@Mcr-King
Du denkst also, dass Leute die NVidia kaufen generell Dumm sind? :rolleyes:
Hätte nicht gedacht, dass ich so einen blöden Spruch noch einmal lese.
 
@Chismon
Stimmt schon, irgendwann werden diese Einsteigerlösungen auch bisschen überflüssig ... aber solange HDMI 2.0 bei Mainboards noch alles andere als selbstverständlich ist und gleichzeitig CPUs ohne iGPU rauskommen (Ryzen zB), gibt's für solche kleinen Grafikkarten immer noch eine gewisse Daseinsberechtigung, ob sie sich nun wirklich "lohnen" ist dann wieder eine ganz andere Geschichte.
übrigens, diese RX550 von XFX sind auch die einzigen beiden, die etwas in diese Richtung tun, eine ist low profile, aber dual slot und mit fast 18cm recht lang und die andere ist single slot, aber dafür mehr als 12cm breit und trotzdem 17cm lang ... und beide natürlich auch nur aktiv gekühlt. Ansonsten sieht es da sehr schlecht aus, die meisten sind alle dual slot und aktiv gekühlt und auch nicht kürzer als die RX560er Karten ... somit gibts eigentlich bei den 10-15 Euro Unterschied fast keinen Grund für eine RX550 anstelle einer RX560.
Wenn ich mich richtig erinnere, konnten früher auch 50W Grafikkarten recht ordentlich passiv gekühlt werden, zB so hier:
(https://geizhals.de/asus-radeon-r7-240-90yv04t3-m0na00-a1094910.html)

@Mcr-King
Aha, also halten wir fest, die Leute, die nicht nachdenken, kaufen nVidia? Eigenartige Logik... natürlich wird aufgrund des Bekanntheitsgrades und vermutlich auch mehr Werbung oder was auch immer, eher zu nVidia gegriffen, aber mit Dummheit hat das dann auch wenig zu tun und trotzdem wird es zusätzlich noch viele geben, die eben die Karten auch nach den von mir genannten Kriterien aussuchen und da bietet nunmal zB die GT1030 das etwas bessere Gesamtpaket gegenüber der RX550 durch die flexiblere Auswahl an Karten (passiv, low profile, unter 15cm länge usw.), den günstigeren Preis und eine ähnliche Anschluss-Auswahl bzw. Multimedia-/Hardware-Beschleunigung.
Dass nun aber nVidia deiner Meinung nach den Bordpartnern die Designs aufzwingt ^^ während sie sich dann ja anscheinend nicht "trauen", es ähnlich mit ihren AMD-Karten zu machen, glaube ich eher weniger. Das liegt wohl einfach daran, dass die 30W der GT1030 leichter passiv zu kühlen sind, als die RX550, die vermutlich typisch für AMD 50W als TDP angegeben hat, aber wohl auch wieder etwas drüber verbrauchen wird, sodass es dann schon deutlich schwieriger wird, das ohne ordentlichen Lüfter und nur auf kleinstem Raum zu kühlen.
Aber wer weißt das schon so genau, kann natürlich auch sein, dass nVidia wieder an allem Schuld ist...

@oldmanhunting
Eben, so sehe ich es auch. Wenn AMD die Gamer-Vega Karten nur 1-2 Wochen danach rausbringen würde, dann würde man das auch dementsprechend kommunizieren und auch schon etwas zeigen. Aber gerade wenn so mystisch umschriebene Formulierungen gewählt werden, die 1 Woche, aber auch 2 Monate heißen können, gehe ich nicht davon aus, dass es unmittelbar nach den "Profi-Vegas" passieren wird.
Zu wünschen wäre es AMD aber schon und so würde dann auch endlich Ruhe in der Gerüchteküche sein ^^ Schließlich arten die überpositiven Wünsche/Vermutungen ja schon wieder aus, 1600MHz Base-Clock, gutes OC-Potenzial "dank" 2x8Pin, 16GB Variante der Gamer-Vega schon für 650€ usw.
So sah es ja auch vorm Polaris-Release aus, OC-Potenzial bis auf GTX1080 Niveau machte da die Runde ... und dann gabs beim tatsächlichen Produkt in Sachen OC eher nichts als heiße Luft.

Also warten wir einfach mal ab, hoffen wir, dass die Karten bald kommen und gut werden, damit man dann bald zwischen 2 Topprodukten wählen kann, Vega und Pascal/Volta
 
Zuletzt bearbeitet:
Zurück
Oben