News AMD Vega: Radeon Vega kommt Ende Juni, aber nicht für Spieler

Wer spricht von drei 1080 Ti? SLI = zwei Karten da es kein Tripple SLI mehr gibt.
 
Chismon schrieb:
Hm, ich nicht und wenn man eine GTX 980 mit einer GTX 1080 vergleicht (da diese die gleiche Leistungsklasse abbilden, eben nicht GTX 980Ti Enthusiasten-Einstiegsklasse zu GTX 1080 Oberklasse), dann hat man auch wegen des großen Shrinks 50-60% von der Maxwell Generation zur Pascal Generation an Rohleistung zugelegt.

Daher sehe ich 40% mehr Rohleistung von Pascal zu Volta (analog zum Anstieg bei den Profimarkt-GPUs P100 zu V100) durchaus als ziemlich realistisch/machbar (in der Oberklasse) an.
Ich bin da nicht so optimistisch, in der Vergangenheit war die Steigerung zu über 80% dem höheren Takt geschuldet. 30% mehr Takt sehe ich aber nicht mehr als realisierbar, hier müssten die Referenzkarten schon über 2000MHz boosten. Wenn sie das tun, sehe ich so gut wie keinen Spielraum mehr für die Boardpartner.
 
Mustis schrieb:
... Aber es war klar, dass AMD unterstellt wird, dass sie das nur tun, der USer willen, weil der gute Raja das so sagt. :rolleyes:

Und nun?

Genug gebasht?
 
Ach so is bashing wenn man drauf hinweist, dass Äpfel mit Birnen verglichen wird. Danke, macht mir einiges klar. ;)
 
Ozmog schrieb:
Kleiner Gedankengang, was da auch noch für die Zukunft interessant sein könnte: Infinity Fabric. Während Nvidia gigantische Chips fertigen lässt, könnte es dann von AMD MCM mit Vega geben. Statt Dual-GPU-Karten könnten einfach zwei Dies zusammengeschaltet um die CUs zu verdoppeln. Also so wie mit Naples und Threadripper.

Das wurde ein paar Seiten vorher schonmal besprochen. Der PLX dürfte doch dann wegfallen, oder?
 
Ozmog schrieb:
Während Nvidia gigantische Chips fertigen lässt, könnte es dann von AMD MCM mit Vega geben.

Du weißt aber schon, dass nVidia mit NVLink bereits einen Highspeed Interconnect für GPU-GPU oder GPU-CPU Kommunikation hat und im Profibereich auch einsetzt, oder? Den müsste man lediglich auf Consumerprodukte übertragen. Easy Job.
 
Als ob jemand 50Watt mehr Verbrauch interessiert bei der Leistungsklasse... Die Leute Moden ihre Ti das sie auf 350Watt kommen um Stabil 2300 Ghz fahren zu können. Also bitte....
 
Chismon schrieb:
Wenn angeblich 80% der RTG seit einem halben Jahr an den Treibern für RX Vega arbeiten, wäre das ein ziemliches Armutszeugnis für AMD, wenn RTG jetzt (nach den letzten Demos) für den Marktstart immer noch nicht einigermaßen passabel dahingehend aufgestellt wäre, wie lange sollen die denn noch brauchen (?) ... daher denke ich, dass Deine "nicht in die Karten schauen" These zutreffender sein könnte, aber irgendwie kann daraus auch ein "Trick 17 mit Selbstüberlistung" werden, warten wir es ab.
Raja schrieb gestern, daß die Treiberentwicklung eines der schwierigsten Aufgaben eines GPU-Herstellers ist. Insofern es sich bei Vega um etwas wirklich neues handelt, dürfte das ne Menge Arbeit bedeuten. Und ich glaub nicht, daß AMD mal so schnell 100 Entwickler dafür abstellen kann.

[–]gfxchiptweeterIn Raja We Trust 87 Punkte vor 12 Stunden

Developing drivers for new architecture is one of the most complex and difficult engineering tasks for a GPU company...In fact this is one of the reasons why there are only so few GPU companies.
Chismon schrieb:
Naja gut, mich interessiert zugegeben vorwiegend nur ein luftgekühltes mittleres Modell bzw. die als "Eclipse" kolportierte Variante (hoffentlich leicht über GTX 1080 Niveau schon ab Start).

Mittleres Model und dann über 1080 Niveau, wäre das nicht eher die 1070? :D

Chismon schrieb:
Hm, ich nicht und wenn man eine GTX 980 mit einer GTX 1080 vergleicht (da diese die gleiche Leistungsklasse abbilden, eben nicht GTX 980Ti Enthusiasten-Einstiegsklasse zu GTX 1080 Oberklasse), dann hat man auch wegen des großen Shrinks 50-60% von der Maxwell Generation zur Pascal Generation an Rohleistung zugelegt.

Daher sehe ich 40% mehr Rohleistung von Pascal zu Volta (analog zum Anstieg bei den Profimarkt-GPUs P100 zu V100) durchaus als ziemlich realistisch/machbar (in der Oberklasse) an.
Möglich, aber 2 Gedanken dazu. Bei Volta sind ne Menge Einheiten dazugekommen (Tensor Cores). Das dürfte eine hohe Packdichte ergeben und somit weniger OC-Potenzial. Je gravierender die anderen Änderungen gegenüber Pascal sind, desto weniger Spielraum wird sich ergeben. Da wird wohl auch erst die 2. Generation so richtig optimiert sein. (Maxwell -> Pascal)
 
Zuletzt bearbeitet:
Krautmaster schrieb:
dann kommen die 1600Mhz wohl hin und die Wakü wie bei der Fury X wohl auch. 6+8 Pin zu wenig "Headroom" is schon satt, ich mein mich stört es nicht, aber dass 300W, die mit 6+8 Pin gegen, zu eng sind - das überrascht mich dann doch.

Das stimmt doch gar nicht, hier wird vom Redakteur schon wieder (wie schon im Originalartikel) zu viel interpretiert.
Raja sprach davon, dass 6 + 8 Pin einwandfrei laufen und sie für die Profianwender "more headroom" bereitstellen. Wo das jetzt heißt, dass 6+8 nicht reichen, sehe ich nicht. Die 1080 Ti customs mit 2x8 Pin ziehen ja auch unter 300W.
Wenn man Karten zu 100% auslastet, wie es bei Gamingkarten eigentlich nur künstlich mit Furmark o.ä. geschieht, ziehen sie halt deutlich mehr Strom als beim Spielen. Auf den endgültigen Verbrauch würde ich daher nicht vorschnell schließen.
 
Uff jetzt geht wieder das Hirngespinst, herum dass eine High End Karte effizient sein muss.

Im Gegenzug schreiben sie, dass die Karte schnell sein muss teuer sein darf, aber nicht viel verbrauchen darf......

zumindest kommt diese Aussage von vielen Leuten die Nvidia im Highend besitzen, schon was von Tellerand gehört ??


Das die GTX 1080 TI soviel wie verbraucht wie Fermi damals und etwa soviel wie eine Fury X hat wohl kein Nvidianer gemerkt ????

Aber ja, AMD muss mal wieder auf den Stromverbrauch achten.

Inzwischen hab ich das Gefühl, dass sich die Leute hier nur beschweren, damit sie günstig Nvidia kaufen können :D

WÄRE JA eine Frechheit !, wenn ein Chip mit ~13 TFlop mehr als 300 Watt verbrauchen würde.........

Leute machen sich nicht einmal mehr über Physik gedanken sondern beschweren sich einfach, das ist unglaublich und zeigen auf AMD.

Während sie im selben Moment, ihre achso tolle Effizienten Big Chip übertakten der bei hohen Frequenzen ineffizient ist, bockt aber kein Schwein, weil NV und effizient, auch wenn die Effizienz durch die Übertaktung flöten geht, hat man das Gefühl, dass
die Besitzer der Karten immer noch der Ansicht sind ein Nvidia Perpetuum Mobile gekauft zu haben., was für sie Strom produziert.....:lol:

Diesen Sarkasmus kann jeder behalten :D

BTW:

HEADROOM heißt in meiner Sprache Spielraum!

Wenn AMD von 8+8 Pin redet und von einem höheren Spielraum für den Konsumenten, bleibt da wohl nur der Takt und Verbrauch als Variable.

Als Parameter haben wir 1600 MHz und bisher 300 Watt als Angabe ????? ALs MINIMAL Angabe, dh. Vega könnte tatsächlich schneller als die Ti oder neue Titan werden, wenn die ROhleistung ausgespielt werden kann, ( Erwähnenswert ist das aber nicht, schließlich hat Nvidia schon Produkte auf dem Markt....)

Was wohl passieren, wenn man das PL von 300 auf 350Watt erhöht ??? der Takt sinkt sicher nciht und Nvidia wird auch nicht effizienter, nein dh. die 13 Teraflop ist tatsächlich die minimale Leistung von Big Vega ??

Aber doch nicht, dass die Karten ineffizient sind ??? wie Nvidia beeinflusst muss an sein um so Polarisieren schreiben zu müssen?????

BTW2: 1600 MHz @ 300 Watt @ 13 TF ist ziemlich genau dasselbe Level an Effizienz und Leistung wie bei der GTX 1080 Ti, wenn die Rohleistung von Vega richtig ankommt.

Ich wollte nur anmerken, dass Nvidia nur mit Wasser kocht.
 
Zuletzt bearbeitet:
Mustis schrieb:
Ach so is bashing wenn man drauf hinweist, dass Äpfel mit Birnen verglichen wird. Danke, macht mir einiges klar. ;)

Geht nicht nur um diesen Beitrag ... sondern es zieht sich wie ein roter Faden durch deine Beiträge.
AMD wird schlecht geredet, Konkurrenz gelobt. Einwände?

Oder gar was positives übrig für AMD?


Aber gut, mach weiter ... bei mir wirds ignore.
 
DocWindows schrieb:
Du weißt aber schon, dass nVidia mit NVLink bereits einen Highspeed Interconnect für GPU-GPU oder GPU-CPU Kommunikation hat und im Profibereich auch einsetzt, oder? .

Naja, nur weil sie es haben, heißt es nicht dass es praktikabel ist :D

Das MCM Design von Threadripper ist wesentlich praktikabler, der Konsument würde nicht einmal merken, dass 2 Dies auf einem Substrat Package liegen würden.

Bei Nvidia wäre der Kunde definitiv pleite.
 
DocWindows schrieb:
Du weißt aber schon, dass nVidia mit NVLink bereits einen Highspeed Interconnect für GPU-GPU oder GPU-CPU Kommunikation hat und im Profibereich auch einsetzt, oder? Den müsste man lediglich auf Consumerprodukte übertragen. Easy Job.

Naja, n bisschen fehlt da schon noch. Bei Vega ist der Speicher über die fabric verbunden, die muss also mindestens die möglichen Bandbreiten der verschiedenen HBM2 Konfigurationen packen. Da werden die max. 192 GB/s von NVlink aber arg knapp. ;)
 
aivazi schrieb:
Das MCM Design von Threadripper ist wesentlich praktikabler, der Konsument würde nicht einmal merken, dass 2 Dies auf einem Substrat Package liegen würden.

Bei Nvidia wäre der Kunde definitiv pleite.

Interessiert es den Kunden was auf welchem Substrat in welcher Anzahl liegt? Oder vielleicht doch eher die Leistung der Karte und das Gesamtpakets drumherum? Bei den Quarcoreprozessoren hat sich auch keiner dafür interessiert ob es 4 einzelne Kerne oder 2 zusammengepappte Dualcores sind.

Und natürlich wäre der Kunde bei nVidia definitv nicht pleite.
Das kann man nur behaupten wenn man nicht weiß wie sich Preise bilden.

Mracpad schrieb:
Da werden die max. 192 GB/s von NVlink aber arg knapp. ;)

NVlink entwickelt sich aber sicherlich auch weiter. Die Frage ist auch: knapp wofür?
 
Zuletzt bearbeitet:
Inxession schrieb:
Das Bashing wegen überlasteter Stromzuführungen bei Polaris möchte sich AMD sicherlich auch nicht mehr geben. Dann baut man halt besser gleich vorausschauend.
Trotzdem kommt der Zug langsam (!) ins Rollen ..
Hoffen wir mal, das das der Grund ist. Es könnte aber auch wie bei Polaris schon daran liegen, dass die Karte bis an die Grenzen gebracht wird, um konkurrenzfähig zu sein, was wiederum kein gutes Zeichen wäre.

Eigentlich bisschen schade, dass da mal die wirklich positiven News fehlen...
HBM2-Produktion stockt und verzögert sich, die Gamer-Karten dürfen sich hinten anstellen, ganze 2 8Pin Stecker trotz des effizienten HBM2-Speichers und angeblich deutlich verbesserter Effizienz, der Release ist vielleicht halbwegs im Plan der Ankündigungen, jedoch scheinen die Gamer-Karten laut den Aussagen später zu kommen und 16GB Modelle wird es bei der vagen Aussage bei Reddit auch erstmal nicht geben (weil 16GB Modelle teuer als Profi-Karten verkauft werden und bei den Gamern lieber 2x 8GB Karten verkauft werden, anstatt 100-150€ mehr für ein einzelnes 16GB Modell verlangen zu können)

Und dann muss man diese News halt auch im Kontext sehen... das heißt, 2x 8Pin ist definitiv eine Hausnummer! Vermutlich wird man die TDP wieder wie bei Polaris sehr niedrig ansetzen (250W wie 1080TI?), um auf dem Datenblatt ebenbürtig zu sein, allerdings wird der tatsächliche Verbrauch wieder durch die Decke gehen, bei AMD muss ja dann eh noch der Verbrauch von allen den Chip umgebenden Strukturen dazugerechnet werden... und die 1080TI verbraucht laut vieler Tests sogar weniger als die 250W TDP, nicht mehr! Ob dann viele potenzielle Käufer bereit sind, sich so eine "Heizung" einzubauen, ist fraglich, denn der Trend geht eher zu 1. leisen Karten (ist schonmal sehr schwierig bei dem Verbrauch) und 2. kleineren Gehäusen (mit schlechter Belüftung).
Hinzukommt, dass es aus Gamer-Sicht nun erstmal eher keine 16GB Variante gibt (wäre ein Alleinstellungsmerkmal gewesen), ein vermutlich hoher Verbrauch dazu kommt, der Release sich "mal wieder" verzögert (zum Glück nur "just a litle moment" ^^) und wir dann ziemlich sicher wieder einen Release wie bei Polaris erleben... also Kartenknappheit ohne Ende und das mehrere Wochen lang, weil so viel HBM2 nicht geliefert werden kann. Damit einher geht dann natürlich auch wieder wie bei Polaris ein etwas zu hoher Preis, was der Konkurrenzfähigkeit auch nicht dienlich ist.
Und je mehr sich der "Gamer-Release" verzögert und mit geringer Verfügbarkeit schleppend vorangeht, desto mehr taucht Volta schon am Horizont auf und die potenziellen Käufer warten diese 2-4 Monate dann auch noch ab, um wirklich vergleichen zu können... denn auf ein Topmodell von AMD nach Fury X warten diese Leute ja teilwese auch schon seit 2015.

Eigentlich spannend die neuen Karten, aber warum nicht gerade bei den kleineren Modellen auf GDDR5(X) zurückgegriffen wird, kann ich nicht wirklich verstehen. Denn die absoluten Topmodelle bei ~650€ aufwärts werden eher nur von einem kleinen Teil der Leute gekauft, während Karten im Bereich von 350-450€ noch sehr beliebt sind und da wird nun schon seit einer halben Ewigkeit der GTX 1070 komplett alleine das Feld überlassen. Das hätte man ändern können, indem man den "kleinen Vega" mit GDDR5 direkt jetzt schon rausbringt, schließlich muss ja "1H/2017" nicht unbedingt der letzte Juni sein ^^ (und da wurde im Herbst noch mächtig hier im Forum diskutiert, ob es nicht auch das Finanzjahr sein könnte und nicht doch schon im Q1 des Kalenderjahres der Release kommt ... nun weiß man, selbst Q2 wird mit ach und Krach und eher nur mit einem für die Forenuser weniger interessanten Profichip erreicht.

Sicher wäre zweigleisig fahren mit GDDR5 und HBM2 nicht so einfach, aber da der Chip ja nun vermutlich schon seit einiger Zeit fertig ist und die HBM2 Verzögerungen sich ja auch schon vor vielen Monaten in News angedeutet haben, hätte man da echt eine Lösung finden können. Ein "kleines" Modell mit 8GB GDDR5(X) für knapp unterhalb 400€ (also ein Preis wie die GTX 1070) jetzt und dann "just a while" später die Topmodelle mit HBM2 ... mit dem Vorteil, dass dann der Speicher auch wieder mehr für diese (Top-)Modelle genutzt werden kann.
Aber naja, hätte, hätte, Fahrradkette :) AMD geht seinen Weg und geht ihn stur weiter. Ob sich das lohnt, wird man dann irgendwann sehen...

Ich persönlich finde es so ein bisschen schade, denn ich würde gerne auf eine Karte in genau dem Bereich zwischen 350 und 450€ aufrüsten und eigentlich wäre eine "kleine" Vega Karte wegen meinem Freesync-4K-Monitor (spiele meist in WQHD) ideal. Allerdings will ich auch nicht ewig warten, schließlich scheint es ja nun in den nächsten 1,5-2 Monaten auch keine breit verfügbaren Custom Karten davon zu geben und auf der anderen Seite gibts halt die GTX1070er mittlerweile zu echt guten Preisen um die 380€, die zB durch MSIs Cashback-Aktion um weitere 30-40 Euro gesenkt werden können ... und 350€ für eine leise Custom-GTX1070 ist eine Hausnummer!
 
yummycandy schrieb:
Mittleres Model und dann über 1080 Niveau, wäre das nicht eher die 1070? :D


Wenn die mittlere 1070 Niveau haben sollte, wo ist dann die kleinste? 1060?
Warum glaubst du, dass AMD eine Vega rausbringt, die mit ihrer eigenen 580 konkurriert?
Auch die verscheidenen IDs in den Benchmark-Datenbanken sprechen für 1070, 1080 und 1080ti.
 
Zurück
Oben