News Radeon RX Vega: Varianten XTX, XT und XL bei AMD in der Entwicklung

Jetzt weiss ich auch warum das AMD Tool Wattman heisst :cool_alt:

Wird eng mit den 500 Watt Netzteilbroetchen.

Ich hoffe auf gute Leistung...
 
Krautmaster schrieb:
... interessant. Die Boardpartner können nicht mehr einfach den VRam bzw den Ausbau wählen sondern erhalten ein fertiges Package ... der Abverkauf bzw die Flexibilität generell schwerer wird sobald man HBM einsetzt. Bei GDDR5X kann man hier schlicht mehr Speicher drauf pappen ... muss AMD festlegen wie viel Chips man mit welchem Speicherausbau ordert und diese an die Boardpartner nach Bedarf bereitstellen. Man kann die Hawaii Strategie also nicht mehr bzw schwerer fahren. Erst ne R9 290X mit 4 Gb produzieren, später den VRam verdoppeln + selber Chip mehr Takt und viola, da ist die R9 390X.

Ich frag mich auch wieso AMD bisher nie ne APU mit HBM gezeigt hat. Gerade da fände ich HBM sehr interessant. Irgendwann kam die Meldung dass HBM 2 recht schnell ineffizient wird. War bei Navi nicht ein anderer Speicher im Gespräch?

Also ich denke auch nicht, dass die (Custom-)RX Vega XL mit nur 4 GB HBM2 jetzt so überraschend wäre, denn mit einem der Modelle muss man ja zeigen was HBM2+HBCC so drauf hat und wie man mit 4 GB HBM2 bis zu 8GB GDDR5(X) Speicherauslastung bei min fps. und bis zu 6 GB GDDR5(X) bei avg. fps. packt.

Was wäre besser dafür geeignet als ein RX Vega XL Einsteigermodell mit 4 GB HBM2 preislich aggressiv unterhalb einer GTX 1070 zu platzieren aber mit deutlich mehr Rohleistung als bei einer GTX 1070 und keinem Nachteil in der Speichernutzung (sondern Vorteil bei der Speicherauslastung/-effizienz) ;).

Bleibt zu hoffen, dass das auch so aufgeht und kein Reinfall wird .... HBCC muss als Killer-Feature einfach stechen, sonst sehen AMD/RTG mit Ihrer RX Vega-GPU-Generation vergleichsweise alt aus.

Problematisch ist so etwas auch nicht - solange SK Hynix die gewünschten Mengen und Stückelungen HBM2 liefern kann - denn bei den Polaris Mittelklassekarten gab es ja auch wahlweise 4 oder 8 GB (da muss man gar nicht zu Hawaii oder Grenada GPUs zurück gehen).

Ja, möglich, dass eine 8 GB HBM2 Version mit beschnittenem XL Chip erst später/nach der 4 GB HBM2 Variante kommt, aber ich denke eine 8 GB Variante wird es für die XL-Variante geben müssen - trotz HBCC - wegen den nicht wenigen Kunden, die Wert auf Langlebigkeit legen (zu denen ich mich auch zähle) und gerne 4+ Jahre Ruhe/ausgesorgt haben (die GPU durch die Auflösungen durchreichen) wollen ;).

Gut dass Du die Frametimes erwähnst, die bei den Pascal Karten aufgrund der höheren Latenz bei GDDR5(X) Speicherzugriff durch die Reihe (inkl. GTX 1080Ti) wohl eher bescheiden ausfallen sollen und wohingegen RX Vega durch HBM2 und HBCC die Latenz womöglich deutlich verringern könnte, was nicht unwichtig in vielen Spielen ist, insbesondere, wenn man unter 4K/UHD bei Details im hohen oder Ultra-Bereich ohne Ruckler unterwegs sein will.

Zu guter letzt noch zu APUs,/Raven Ridge, ich denke dafür ist HBM2 womöglich noch zu teuer oder wenig verfügbar, selbst in der niedriger taktenden "Billigvariante", zumal die RX Vega HBM2 Produktionskapazitäten/Fertigung bei SK Hynix wohl derzeit auf Hochtouren laufen dürften und noch eine Weile Vorrang genießen dürfte vor den APUs (meiner Einschätzung nach z.Z. noch der wichtigere Markt für AMD sind) und Samsung ohne Mitentwicklerbonus wohl zu teuer, eine Notlösung oder exklusiv-vertraglich durch SK Hynix ausgeschlossen sein dürfte (such Dir eine der Möglichkeiten aus :D ).

Und, bevor ich's vergesse, HBM3 soll der "Next Generation" Speicher für die AMD Navi-GPU-Generation wohl werden (müsste demnach im Profibereich schon Ende 2018 Einzug halten), zumindest wird das spekuliert. Was sich jetzt von HBM2 auf HBM3 großartig ändern wird, steht wohl in den Sternen für diejenigen, die nicht zu den AMD/RTG und SK Hynix Eingeweihten gehören ;).
 
Zuletzt bearbeitet:
Keine Ahnung wie gut HBC funktioniert, aber 4GB wären ein absolutes no Go bei einer Karte mir der Rohleistung.
 
Chismon schrieb:
Also ich denke auch nicht, dass die (Custom-)RX Vega XL mit nur 4 GB HBM2 jetzt so überraschend wäre, denn mit einem der Modelle muss man ja zeigen was HBM2+HBCC so drauf hat...

Was das angeht bin ich sicherlich auch gespannt - wobei man sich schon ernsthaft fragen muss wie genau so ein HBCC funktionieren soll wenn das 2. Tier der normale langsame Arbeitsspeicher über PCIe ist.

Bei zb 4GB HBM Cache + 256Bit SI 8 GB GDDR5 VRam auf dem PCB hätt ich gesagt "okay", man führt ein neues Tier ein.

Wenn da jemand ne sinnvolle Erklärung für hat - ich bin gespannt. Für mich ist HBCC stand jetzt eher Marketing Geblubber und dürfte "schlicht" einer Optimierung im VRam Handling entsprechen (Kompression um zB Bandbreite zu sparen), sowie einem größeren virtuellen Adressraum der quasi "unbegrenzten" VRam durch Auslagerung in den Ram zur Verfügung stellt (meine das geht bei Cuda auch).

Mag aber auch sein dass HBM kleinere Blöcke adressiert und so vielleicht effizienter gefüllt und gelesen werden kann, aber dazu hab ich nicht wirklich was gefunden bisher.

Denn das Ergebnis nachher stimmt okay, aber 4GB würden sich Marketing technisch nicht sonderlich gut machen. Imho bieten AMDs 200€ Karten schon 8GB.
Auch denk ich wie gesagt weniger dass AMD ie kleine Vega direkt ab Launch noch weiter differenzieren muss als über die Shader. Auch wegen dem recht statischen VRam Interposer Chip Konstrukt.
Ergänzung ()

Chismon schrieb:
Gut dass Du die Frametimes erwähnst, die bei den Pascal Karten aufgrund der höheren Latenz bei GDDR5(X) Speicherzugriff durch die Reihe (inkl. GTX 1080Ti) wohl eher bescheiden ausfallen sollen und wohingegen RX Vega durch HBM2 und HBCC die Latenz womöglich deutlich verringern könnte, was nicht unwichtig in vielen Spielen ist, insbesondere, wenn man unter 4K/UHD bei Details im hohen oder Ultra-Bereich ohne Ruckler unterwegs sein will.

kann man die VRam Latenz aktuell messen? Da heißt es auch immer "voll wichtig für Mining, deswegen geht das auf GDDR5X weniger gut" und deswegen gibts Mod Bios - aber beim Mining scheint HBM bisher ja dasselbe Problem zu haben. Fiji ist da wenig qualifiziert und Vega FE auch - was wiederum wenig für deutlich bessere VRam Latenzen spricht. In der Theorie soll HBM diese haben ja.

Deswegen meinte ich auch dass sich AMD nun mit HBM beweisen muss.

Eventuell bekommen wir ja an diesem ersten Vega Tour Termin am 18. einen Vorgeschmack.

Edit: Nochmal was zum HBCC. Das verhält sich - sofern er als Cache agiert, genau wie bei allen anderen Caching Szenarien. In den meisten Fällen, wenn ein Cache Hit erreicht wird, ist die Performance super. Was aber wenn er bei Cache miss ins Leere greift, also wie zb bei Optane/Normalem Arbeitsspeicher die Datei noch nicht im Cache ist. Dann muss diese ja langsamer über PCIe geladen werden.

Genau das könnte bei zu kleinem VRam zu Rucklern führen.

Eventuell agiert der HBCC also erst dann als Cache wenn mehr VRam verlangt wird als dass der Cache bereitstellen kann.

Oder aber man geht einen ziemlich verrückten Weg den ich aber schlüssig finde. Man gibt eine "Fake" Textur aus (zb transparent) bis die eigentliche Textur aus dem 2. Tier, dem Ram, ins HBM verlagert wurde.
Wenn man also das HBCC zb rein auf Texturen angewendet sieht fackelt man den Cache Miss kontrolliert ab indem man da, um Ruckler und Wartezeiten zu vermeiden, erst einen "Dummy" zurück gibt und parallel dazu die Textur in den Cache zieht + eine andere Textur verwirft.

Nai wüsste jetzt sicher aus dem Stehgreif ob sowas vorstellbar ist.
 
Zuletzt bearbeitet:
Trefoil80 schrieb:
Bei DEM Stromverbrauch erwarte ich eine Performance, die mindestens auf dem Level einer GTX 1080 Ti ist.

Meinst du das Flaggschiff/XTX? Also mMn müsste das dann mindestens 100€ weniger kosten, wenn mit einem derart monströsen Stromverbrauch nicht mal mehr als mit 'ner 1080 drin wäre. Aber ich glaube mal AMD und sage das Flaggschiff konkurriert mit der Ti.

Edit: das "Ti" überlesen. :D
 
Zuletzt bearbeitet:
Die Verbrauchswerte (und somit Abwärme) der kleinen Karten finde ich echt unschön, wenn das so stimmt. :rolleyes:
 
Trefoil80 schrieb:
Bei DEM Stromverbrauch erwarte ich eine Performance, die mindestens auf dem Level einer GTX 1080 Ti ist.

Wie hoch ist denn der Strom"Verbrauch"?
 
Und ich wollte sagen: wir kennen die Leistungsaufnahme nicht. Nur die TDP.
 
Bitte nicht wieder die Mär, dass man von der TDP nicht auf Verbrauch schließen kann. Grade bei den Graka trifft es das nahezu 1:1 da der Verbrauch ein limitierender Faktor bei den automatischen Übertaktungen der Karte ist. Wenn der HErsteller eine TDP angibt, liegt da in aller Regel eben auch das PT...
 
Bei Nvidia Karte stimmt das vollkommen. Gerade die REFs haben ein aggressiv niedriges Limit.
Wir reden bei der TDP von Klassen und die minimale Kühllösung. Ist das selbe Spielchen wie bei den CPUs.
 
Kann mir mal Jemand verraten warum der "Gegner" der RX Vega schon von Anfang an die "1080 Ti" ist?
Wieso beharrt Ihr alle so dermaßen darauf, dass die RX Vega die 1080 TI "plattmachen" muss?
Woher kommt sowas?

Meiner Meinung nach, Ist die RX Vega die 1080 für Nvidia, welche erst mit Volta Kontern.
Ich denke nicht das AMD die 1080 Kontern will sondern das AMD eine Karte (neutral!) Auf den Markt wirft welche dann Nvidia erstmal zu Kontern hat!

Ist meine Denkweise Falsch?

Volta wird die "Erste" HBM-GPU von Nvidia für Spieler/Gamer.
Nvidia muss demnach erstmal Zeigen ob sie a.) Ihre Hausaufgaben auf dem Gebiet des HBM Gemacht haben und b.) Beherrschen. Nicht?

Von der Theorie her ist es schon Klar wieso es heisst 1080 Ti vs. Vega
Schon irgendwie Logisch.
Aber Vega ist doch etwas "Zukunft" und wieso Sollte die "Zukunft" erstmal die "Vergangenheit" besiegen?
Ich denke wirklich nicht das AMD hier "erst nach 1,3 Jahren" eine Antwort für NV hat, sondern dass AMD hier einfach DIE Rolle einnimmt, die NV mit Pascal vor 1,3 Jahren hatte.

Nochmal Sinnbildlich:
Spieler Setzen sich an den Tisch

Karten werden Gemischt:
Runde 1.
AMD geht in Midrange - RX 400-500 Serie
NV geht in Mid- bis High-End -> 1050-1080ti (obwohl es eig. nur Einstieg bis Mittelklasse ist.......... (nur die Preise sind High-End!!))
AMD Überlässt NV das High-End feld.
Runde 1 = Zug beendet.

Karten werden Gemischt:
Runde 2.
AMD Geht nun in High-End -> VEGA 10
NV überlässt AMD das High-End Feld mit HBM
NV kontert im High-End mit Volta(HBM)
AMD geht nun in Mid-High-End -> VEGA 11 (Konter gegen 1080 Ti)
Runde 2 = Zug Beendet.

Runde 3.
AMD geht mit Navi in die Nächste Runde.
NV geht mit Volta nachfolger rein.
Runde 3 = Zug Beendet

Ist es nicht so?

vll. war Runde 1 aber auch schon Fury-X und Nvidia hat nun seit 2015 keinen HBM Gegner gestellt ausser die 1070 mit GDDR5X (siehe 4K Benchmarks!???)
 
-Ps-Y-cO- schrieb:
Kann mir mal Jemand verraten warum der "Gegner" der RX Vega schon von Anfang an die "1080 Ti" ist?
Wieso beharrt Ihr alle so dermaßen darauf, dass die RX Vega die 1080 TI "plattmachen" muss?
Woher kommt sowas?

Ich würde annehmen weil AMD einen 500mm² vollaktiven Chip hat, mit fortschrittlichem HBM2 (da wirbt man mit Flächenersparnis beim SI) und Nvidia einen etwas kleineren 470mm² Chip der auch noch teilaktiv ist bei der GTX 1080 TI verbaut. Dazu ~250W zu 280W im Regrenz Design. Außerdem ist der GP102 ja schon ne Jahr alt und kam einfach etwas später in der 1080 Ti.

War es nicht AMD die erst über die Die Size ihren Ryzen mit Skylake X verglichen haben? 14 zu 16nm wird man weitestgehend ignorieren können.

Ich sehe Vega rein von den Chip-Daten her mindestens auf 1080 Ti Niveau oder darüber.

Edit: Über einen Preis kann man hier nicht vergleichen. Der Preis ist eher das Resultat der abgelieferten Performance. Passt die zur GTX 1080 wird die Karte natürlich entsprechend günstiger angeboten. Zersägt man die GTX Titan Xp wird man für Vega auch entsprechend tiefer in die Tasche greifen müssen.
 
Zuletzt bearbeitet:
Mustis schrieb:
@Tilidin
Also mal Locker 50% weniger.

Wenn die Ti 250W auf dem PCB max hat (!!!) und nicht nur auf der GPU dann sind es trotzdem so oder so keine 50%
Weiß ja nicht wo du mathe hattest

100 / 375 = 0.266667
0.266667 * 250 = 66.66667

Macht eine differenz von 1/3 oder 33%
Bei 50% müsste die Ti bei einem Verbrauch von max 187.5 PCB sein und das ist sie nunmal nicht.

So oder so verbrauchen beide Karten für sämtliche Ökos hier zu viel Strom.. nehmt doch ne kleine midrange karte und spielt auf mittel und niedrig damit der verbrauch bloß nicht zu hoch wird..
Wer sich ne Ti oder Vega leisten kann, der hat auch Geld für die paar Watt.
Oder kauft man sich ein Supersportwagen und achtet auf jeden mililiter Benzin?
 
-Ps-Y-cO- schrieb:
Kann mir mal Jemand verraten warum der "Gegner" der RX Vega schon von Anfang an die "1080 Ti" ist?
Wieso beharrt Ihr alle so dermaßen darauf, dass die RX Vega die 1080 TI "plattmachen" muss?
Woher kommt sowas?
Kann ich dir gerne erklären, es ist ganz einfach: RX Vega ist größer in der Chipfläche, teurer in der Herstellung, braucht mehr Strom als die 1080ti, und kommt lang nach ihr auf den Markt.

Wenn ihre Performance nicht signifikant über der 1080ti liegt, ist das ein klarer Reinfall.
(Dann ist AMD gezwungen einen teureren Chip billiger zu verkaufen, was sicher nicht gut für die Margen ist)
 
loki4321 schrieb:
So oder so verbrauchen beide Karten für sämtliche Ökos hier zu viel Strom.. nehmt doch ne kleine midrange karte und spielt auf mittel und niedrig damit der verbrauch bloß nicht zu hoch wird..
Wer sich ne Ti oder Vega leisten kann, der hat auch Geld für die paar Watt.
Oder kauft man sich ein Supersportwagen und achtet auf jeden mililiter Benzin?
Ne, das ist das kleinere Problem. Aber der Supersportwagenvergleich hinkt ein wenig. Der hat ja 'ne Klima und da wird's auch nicht plötzlich doll warm drinne, wenn du im Sommer mal eine Zeit lang Vollgas gibst. ;)
Wenn du die Wahl zwischen zwei in den Leistungsdaten vollkommen gleichwertigen Karten hättest, Karte B aber einen 50% höheren Stromverbrauch hat, dann würdest du doch auch sofort zur sparsameren greifen.
Ich würde auch weniger den absoluten Stromverbrauch kritisieren, die Effizienz sollte aber stimmen. Kommt das Ding nur auf 1080 Ti Niveau, so muss es sich zwangsweise über den Preis von dieser absetzen da die Ti sonst klar die bessere Wahl wäre, jedenfalls von den Rohdaten her. Die Marke, das Angebot an Partnerkarten, der Treiber etc. spielt natürlich auch eine Rolle bei der Kaufentscheidung.
 
-Ps-Y-cO- schrieb:
Aber Vega ist doch etwas "Zukunft" und wieso Sollte die "Zukunft" erstmal die "Vergangenheit" besiegen?


Nochmal Sinnbildlich:

[..]

Ist es nicht so?

Nein, da es dem Käufer herzlich egal ist, was in der Karte steckt, es gibt kein "High End" und "Highend mit HBM". Auf das war rauskommt, kommt es an. Niemand außer uns paar Technik Nerds wird überhaupt wissen, was für ein Speicher in seiner Karte steckt, die kennen bestenfalls die Speichermenge.

Und wofür braucht man die Zukunft, wenn sie schlechter ist als die Vergangenheit?
Die HD4000er Serie war auch die erste Generation, die GDDR5 benutzt hat. Dürfte man deswegen nicht erwarten, dass sie schneller ist als die HD3000er Serie?

Wenn eine neue Karte mit HBM langsamer ist als eine alte mit GDDR5 dann muss Nvidia da gar nichts kontern, weil sie sowohl mit der Leistungsaufnahme als auch mit der Leistung im Allgemeinen immer noch besser sind, als die "Zukunft" von AMD.
Somit könnte man im Gegenteil eher sagen HBM lohnt sich nicht, wenn man damit nicht weniger verbraucht, nicht schneller ist und dazu noch mehr Kosten bei der Herstellung hat und GDDR5X/GDDR6 gehört die Zukunft.


Auch immer ein guter Punkt für eine Auto-Analogie:

Hersteller A baut einen 1,6l Motor mit 200PS, der 5,5l verbraucht.

Hersteller B baut ein Jahr später einen 1,4l Motor mit 190PS, der 6l verbraucht, aber der erste 1,4l Motor auf dem Markt ist.


Muss jetzt Hersteller A auch einen 1,4l Motor bringen um zu kontern, obwohl er mit seinem 1,6l Motor immer noch in allen Belangen besser ist?
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben