News High-End-GPU: AMD Vega 10 mit 16 GB und 1.600 MHz gesichtet

SKu schrieb:
Die Liste kann doch gar nicht stimmen. [...] Da muss Vega XT mit Pro vertauscht sein, sonst ergibt das keinen Sinn.
Und die RX Vega Eclipse hat angeblich 12 TFLOLPS. Was auch immer das für eine Einheit ist... :freaky:

wccftech_flolpsq1u5p.png
In der Tabelle sind einige Werte durcheinander geraten: Bei der RX Vega Eclipse müssten es 4096 Shader mit 1.5GHz Chiptakt und dementsprechend 12 TFLOPS sein, bei der RX Vega Core dann 3584 Shader mit 1.5GHz und 10.5 TFLOPS.
 
Atent123 schrieb:
Vega nutzt Tiled Based Rendering womit die Effizienz schon mal deutlich besser werden dürfte.
Dazu sollte der Sweetpot der NCUs deutlich höher liegen.
Die Effektive Bandbreite sollte sich ja alleine schon durch den HBMC Controller verdoppeln.

@graysson

Wen der HBMC Controller so funktioniert wie er soll hätte ein 8GB Vega Chip effektiv 16GB.

Wahrscheinlich wird das stinknormales paging sein um Virtual memory zu implementieren, nur das die pages aus dem RAM vom Host geladen werden können.

Und da der Treiber die Texturen kennt kann dieser ganze Texturen vernünftig prefetchen.
Oder das Spiel macht am Anfang einen mmap(2) auf die Datei mit den Texturen und überläßt den Rest der VM-Verwaltung vom OS und es verkürzen sich die Ladezeiten.
 
ich muss sagen dass es das Video hier echt gut trifft.

https://www.youtube.com/watch?v=BH-lOKfinDw

Zeigt auch das wahre Feld in das Volta V100 sticht und dass Vega wirklich rocken muss. Der Titel des Video verheißt erstmal nichts gutes, aber er gibt sich wirklich objektiv. Gute Zusammenfassung die über das reine Gaming Segment rausgeht.
 
Zuletzt bearbeitet:
Die Preise könnten halbwegs realistisch sein und entsprechen (vom "unteren" Ende her) meinen Befürchtungen. Aber was genau soll denn dann den Preisbereich zwischen 300-400€ abdecken? Ich mein die 480/580 liegen bei <300€ und die kleine Vega liegt dann bei... 399$ also 450-500€ (die Custom-Modelle sind ja sicher nochmal teurer).

Ich lasse mich aber gern eines besseren belehren. :D
 
Krautmaster schrieb:
ich muss sagen dass es das Video hier echt gut trifft.

https://www.youtube.com/watch?v=BH-lOKfinDw

Zeigt auch das wahre Feld in das Volta V100 sticht und dass Vega wirklich rocken muss. Der Titel des Video verheißt erstmal nichts gutes, aber er gibt sich wirklich objektiv. Gute Zusammenfassung.

Das gilt für AI aber für den Rest kannst du Volta vergessen und der Rest wird schneller wachsen als AI.
 
Krautmaster schrieb:
Ist dein o kaputt? Das Wort hat so geschrieben eine ganz andere Bedeutung. Ein Greifvogel z.B. kotzt die unverdaulichen Überreste einer Maus aus, das nennt man auch der Vogel "wöllt" und das Produkt nennt sich Gewölle...

Redest du auch so, wenn ich wöllte wie ich könnte...? :D

Ich bin ja mal gespannt ob AMD seiner Linie treu bleibt und die Karten schlechter auf den Markt bringen als sie eigentlich sind. Bei der 290/X wars der Kühler bei der Fiji die Pumpe bzw. die AiO und die schlechte Übertaktbarkeit.

Es wird echt Zeit das AMD mal die Hose runter lässt. Vieleicht gelinkt ja ein ähnliches Kunststück wie damals mit der 7970.
 
Smartin schrieb:
ist doch wieder mal herrlich, wie AMD Jünger Nvidia Fanboys anmachen und umgekehrt. Da ist jede Seifenoper ein Scheißdreck dagegen. :Freak

Bevor die Karten am Markt sind, ist es im Grunde völlig egal und reine Spekulation. Und mit am Markt meine ich kaufbar und tatsächlich im größerem Umfang verfügbar.

Viel trauriger ist das die ganzen Nvidia-Jünger sich alle bei News zu AMD aufhalten und Bashen. Im Vergleich zu den Kommentaren bei den Volta News wo nur 5-6 AMD Jünger gebasht haben, ist das hier der absolute Wahnsinn. Hier sind ja mehr troll/bash Kommentare als was sinnvolles. Und ehrlich gesagt habe ich noch nie soviel geistigen Durchfall gelesen wie in diesem threat .

O.T. Viele haben schon den geleakten Bench wo eine AMD-Gpu(Vega?) getestet wurde wohl schon vergessen? Die getestete Karte wahr mit 1200mhz schon schneller wie die 1070 und Vega soll 1600mhz haben. Ich tippe auf 1080ti Leistung und unter DX12 sogar schneller. So Glaskugel wieder eingepackt
 
Darkscream schrieb:
Hauptsache sie schaffen es ihre Rohleistung mal besser auf die Straße zu bringen. Das eine RX480 um 50% mehr GFlops braucht um so schnell zu sein wie eine GTX1060 geht ja mal gar nicht. Sieht man ja spätestens am Verbrauch. Diesen Abstand auf 10-15% zu verkürzen währe schon aller liebst.
Es sind keine 50% mehr, sondern ca. 1/3 mehr. (5,8TFlop/s gegen 4,3TFlop/s => 5,9 / 4,3 => 1,3488 => ca. 1/3)

Nur darf man nicht vergesse, dass die Rechenleistung der Shader nur einen Teil der Leistung einer Grafikkarte ausmacht. TAUs/TMUs und ROPs sind auch wichtig.

Zudem scheint der RX480 und RX580 ja auch ein kleines Bandbreitenrproblem haben.
 
ampre schrieb:
Das gilt für AI aber für den Rest kannst du Volta vergessen und der Rest wird schneller wachsen als AI.

das wird sich zeigen. Jedenfalls muss man Nägel mit Köpfen machen. Beim Rest ist man nur wegen der AI Optimierung ja nicht wesentlich schlechter aufgestellt. Ähnlich gehts ja AMD im Gaming Segment, viel schwerer HPC Ballast aber man konnte / kann sich nicht die Vielzahl an Chips wie Nvidia leisten. Zudem geniest CUDA ja bei dem "Rest" auch starken Rückhalt und große Community. Da entscheiden es dann weniger die +-20% Leistung, viel eher die Plattform. GPU haben sich bei AMD wie Nvidia die letzten jahre ja deutlich breiter aufgestellt, ihr Set erweitert. 4/5D Shader waren damals zb sehr geil für wenig Szenarien. Besser als GCN heute. Nur unflexibel.

Aber auch da hat AMD zum Glück nachgelegt und diesen open source Stack ins Leben gerufen. Wie viel da aber aktuell geht kann ich nicht sagen. Cuda ist subjektiv weit verbreiteter. Abgesehen vom Bitcoins Minen.

AI hatte ich mir wirklich nie nen Kopf drum gemacht. Das mit dem Tensor Chip von Google war mir auch neu aber genau die brauchen das. Hab neulich auch nen wie ich finde sehr interessantes Video zu AI gefunden. AI / Deep Learning für Dummis. Klar das Google sowas braucht, aber Einsatz Zwecke gibst wie Sand am Meer.
 
Was mich wundert, ist, dass dieser Artikel mit dem Gerücht/Leak um die 16GB HBM2 Variante hier auf CB so bedenkenlos gebracht wird, wo man sich sonst doch so seriös gibt und keinerlei (falschen) Hype unnötig befeuern möchte?

Wenn ich diese Träumereien hier teilweise lese, läuft es aber gerade auf einen falschen Hype hinaus (ob unbewusst oder absichtlich, sei nun 'mal dahingestellt), denn diese Wunschvorstellungen (einiger Early Adopter/Hobby-Enthusiasten hier) kann und will AMD gar nicht erfüllen.

Was AMD vorwiegend will (wo das Geld und Marktanteile liegen), ist GPUs leicht über GTX1070 und 1080 Niveau mit modernerer/überlegener Architektur (HBCC-HBM2, Primitive Shaders, Drawstream Binning Rasterizer, etc.) anbieten.

Mit sehr viel Glück gibt es vielleicht sogar 3 GPUs aus einem Chip, um einen Chip leicht oberhalb von GTX 1080Ti/Titan Xp (Stock) anbieten zu können. Letztere (pflicht-wassergekühlte?) Enthusiasten-Vollausbau-GPU wäre dann aber vermutlich aufgrund der dürftigen Ausbeute sehr schwer zu Beginn zu haben und die beide beschnittenen Oberklasse-GPUs in so einem Szenario wohl eher gut erhältlich und preislich eingependelt.

Nirgendwo ist die Rede von einer RX Vega10 Single GPU mit nativen 16 GB HBM2 (und ob per HBCC-HBM2 mit 8GB effektiv 16 GB GDDR-Speichernutzung erreichbar sind, bleibt abzuwarten), daher schlage ich vor 'mal mehr auf dem Teppich/Boden zu bleiben.

Man kann wohl kaum erwarten, dass AMD das Radeon Instinct MI25 Design mit den 4 Sockeln nur für eine Handvoll von Leuten hier billig für den Konsumentenmarkt verscheuern wird und da weder nVidia (siehe Volta V100 mit nur 16 GB HBM2) noch AMD 8-High-Stacks bis schätzungsweise Mitte kommenden Jahres (evt. passend zum Vega20 Refresh) verbauen werden können, dürfte eine semi-professionelle RX Pro Duo wohl hier gemeint sein und unnötig für Hype sorgen.

Außerdem dürfte man dann mit einer CF Lösung aus 2x RX Vega wohl günstiger/besser dastehen, auch wenn das preislich für die meisten hier keine Option sein dürfte (diese sich aber trotzdem als Early Adopter oder wahre Enthusiasten gerne selber sehen) zumal dann ja auch mindestens ein passender Free-Sync 2 Monitor fällig wird ... das geht in Geld und ist gerade erst der Anfang von einigermaßen flüssigem 4K/UHD Gaming bei Maximaleinstellungen ;).
 
Zuletzt bearbeitet:
Thraker schrieb:

Ach komm, AMD Jünger nehmen sich da gar nichts. Den anders gelagerten Müll liest man in nvidiathreats zur Genüge. Und die Glaskugelwunschvorstellungen von AMD Fans wurden in der Vergangenheit oft genug enttäuscht.Deswegen abwarten.
 
Krautmaster schrieb:
vielleicht lässt sich die Vega 10 DIE wie bereits vermutet auch mit 4 Stacks HBM 2 kombinieren. :)

Dir ist schon klar, dass "Die" keine Abkürzung für irgendwas ist wie "LED", sondern ein englisches Wort?
Abgesehen davon ist es nicht "die Die", sondern "der Die". Von: Die == Würfel
 
Der Nova, Eclipse etc. Quark basiert auf einem Trollpost bei Reddit, der schon lange gelöscht ist wieder. Mich wundert, daß WCCFTECH dafür 3 Tage gebraucht hat, das abzutippen. Ich würde dem keinerlei Wahrheitsgehalt zuschreiben.
Zur Leistung von Vega bin ich gespannt. Unter 1080 halte ich für so unrealistisch, daß sie den (Grafik)laden zusperren müssten. 1080+10% wäre imo das was schon rauskommen sollte als Minimum. Mehr nehm ich gerne.
 
Ich frage mich woher alle wissen das es keine consumer karte mit 16gb geben wird? für mich ist soetwas durchaus vorstellbar, ähnlich wie der GeForce Titan z.b.?
 
Hallo zusammen,

@ forumuser05

forumuser05 schrieb:
@SKu
Ich denke mal, da passt einiges noch nicht so richtig in der Tabelle. 275W TDP für alle 3 Modelle wäre ja eine enorme Hausnummer. Ich denke mal, gerade für das kleinere Modell sollte die TDP eher um die 200W betragen oder sogar noch etwas weniger

und ob 4-8GB HBM2 bei der Vega 10 Pro stimmen, ist auch fraglich. Denn jetzt noch eine Karte im höheren Preissegment mit 4GB herauszubringen, wäre denke ich nicht so gut, dann lieber 8GB GDDR5 um den Preis niedriger zu halten, genug VRAM zu haben und gleichzeitig mehr HBM2 für die beiden größeren Modelle zur Verfügung zu haben...aber wir werden es ja bald sehen

Die RX 580 hat schon locker eine TDP von ca 200 Watt beziehungsweise zieht soviel Strom. Mit Sicherheit kann man sich auf 250 Watt + X Einstellen, eher nahe 300 Watt. Meine Befürchtung ist, daß es auf Neue Negative Rekorde im Bezug auf den Stromverbrauch in Relation zur Performance hinaus Laufen wird. Und regelrecht Schwarz sehe ich da in der Relation wenn ich mir die Konkurrenz anschaue.

Dann wird hier bestimmt bald ein Artikel Auftauchen, daß 16 Gbyte Ram für Grafikkarten Plicht sind damit man die Spiele noch vernünftig absolvieren kann:evillol:.

So long...
 
need new ATi Radeon 9700 pro :D

für 4k braucht man mehr Leistung. Da gibt es noch nichts was wirklich 100% geeignet ist.
 
Um fair zu sein taktet Polaris aber auch weit außerhalb des gesunden Bereiches. Der Chip ist dafür auch nicht ausgelegt. Nach den Kürzungen und dem Entwicklerengpass für zwo Konsolen SoCs dürfte Polaris imo einfach abgefallen sein. MS+Sony verlangten frühzeitig eine Architektur. Da hat man dann eben das Beste draus gemacht und den Kreis quadriert. Das Ende der Geschichte war dann eben eine 970 mit echten 4GB/256bit die aber eben etwas untergegangen ist. Performance in neuer Gen ist halt nur noch Mainstream und interessiert hier so richtig keine Sau.

Die Namenswahl bei Vega ist aber schon wieder lustig: Core, Eclipse, Nova -> Leerlauf, 2d, 3d...:freak:

PS: Vega hat zudem nur die gleiche Bandbreite wie Fiji bei deutlich mehr Rechenleistung.
 
Zuletzt bearbeitet:
Teralios schrieb:
Es sind keine 50% mehr, sondern ca. 1/3 mehr. (5,8TFlop/s gegen 4,3TFlop/s => 5,9 / 4,3 => 1,3488 => ca. 1/3)

Nur darf man nicht vergesse, dass die Rechenleistung der Shader nur einen Teil der Leistung einer Grafikkarte ausmacht. TAUs/TMUs und ROPs sind auch wichtig.

Zudem scheint der RX480 und RX580 ja auch ein kleines Bandbreitenrproblem haben.

Das ist ja das Problem, auf dem Papier müsste die RX480/580 ne 1060 eigentlich weghauen, in der Realität liegen sie aber höchstens gleich auf... Ich befürchte auch, dass AMD mit Vega nur zur 1080 aufholen wird und sobald Volta raus ist, hinkt AMD wieder ein Jahr hinterher.
 
Mal schauen was es dieses mal zum freischalten gibt. Einheiten hatten wir schon ein paar mal aber der Speicher war echt cool.
 
Zurück
Oben