News AMD Vega 10: Linux-Patch offenbart große Ähnlichkeit mit Fiji

R1c3 schrieb:
... ist das schlicht ein schlechtes Design von AMD. Mag ja sein dass Entwickler noch sparsamer mit Vram umgehen können, tun sie aber nicht und daran muss sich AMD orientieren, nicht nach dem Wunschdenken wie es sein könnte/sollte.
... woran man sieht dass Nvidia in dem Fall alles richtig gemacht hat weil sie eine günstigere UND flottere Graka geliefert haben und sie dann trotzdem so teuer und mit höherer Gewinnspanne verkaufen konnten. Ist ja nicht so als ob AMD dazu gezwungen war HBM so früh zu verbauen ... natürlich gibt es schlecht optimierte Spiele die zu hohe Anforderungen stellen, aber hoch aufgelöste Texturen fressen nunmal mehr Vram, das ist eine völlig normale Entwicklung und zu behaupten dass wenn ein Spiel 6GB Vram benötigt nicht optimiert sei ist halt auch eine Verallgemeinerung die man so einfach nicht stehen lassen kann. Und so sehr ich DOOM auch liebe und die Optik auch durchaus sehr gut finde, gerade die Texturen sind teilweise doch recht matschig... genauso AMDs Schuld dass ihr Treiber im Vergleich zu Nvidia einfach massiv viel mehr Overhead erzeugt, sieht man ja wunderbar wenn auf Dx12 oder Vulkan umgeschalten wird, dann geht speziell die Fury ab wie Schnitzel. Und das ist jetzt die Schuld der Spieleentwickler oder von AMD ? Sorry aber du stellst es ja gerade so dar als ob sich Spieleentwickler gegen AMD verschworen hätten ... Wie gesagt, es gibt Fälle in denen schlecht auf AMD optimiert wurde, absolut ...

Eben nicht, es ist schlicht und einfach schlechtes Design der Spieleentwickler, die an einem Teil der Kundschaft vorbei entwickelt haben und die man deswegen nicht noch mit einem Kauf der verkorksten Produkte (ohne welche man sicherlich auch gut leben kann) belohnen sollte, was diese vielleicht zu einem Umdenken bewegen könnte, wenn die Gewinne einbrechen ;).

So schaut's aus, denn AMD kann wohl kaum im Voraus genau abschätzen, was in 2 Jahren an Speicher bei irgendwelchen extrem ressourcenverschwendenden Entwicklern (Ubisoft, WB & Co. lassen grüßen) verlangt wird für ein oft wenig berauschendes 08/15 Spielvergnügen und noch weniger beindruckende technische Umsetzung in Sachen Grafik, Animationen, Spielfluss/-geschwindigkeit, etc..

Ach ja, nVidia hat bei der GTX 970 Speicherbeschneidung, Gamesworks, G-Sync, der bis heute softwareseitigen Emulierung von AsyncCompute durch den Pascal-Chip, Preistreiberei mit Einführung der Titan-Luxusklasse, Daten-Abgriff/-Handel per GeForce Experience, etc. alles richtig gemacht (?) ... weswegen viele auch nVidia seit der Maxwell-Generation so "unheimlich lieb gewonnen" haben, außer natürlich die treuen Fans, die auch noch "Danke" dafür sagen sich von Huang & Co. durch den Kakao ziehen zu lassen, schon klar :lol:.

Wie von IBISXI richtig schon angeführt, ist es erstaunlich, wie gut sich AMD noch gegenüber der Konkurrenz schlägt und wie innovativ man ist, trotz des vergleichsweise mageren Budgets (im Vergleich zu nVidia, ganz zu schweigen von Intel). Wo sind denn die echten Innovationen/Meilensteine des Marktführers nVidia seit den Maxwell-Chips, davon ist nämlich (bspw. bei dem getunten Maxwell-Shrink Pascal) weit und breit nichts zu sehen.

HBM(2) und HBCC werden sicherlich als allgemeine Meilensteine in Sachen GPU-Architektur eingehen, bei nVidia in den letzten Jahren leider gar nichts mit der rückwärts gewandten/Marktmacht ausspielenden DX11 Treiberpolitik, aber die Hoffnung stirbt ja bekanntlich zuletzt (mit den kommenden, jetzt schon als deutlich teurer als Pascal angekündigten Volta GPUs ... na das sind doch wirklich "tolle" Aussichten).

Und ja, Vega wird - wie üblich bei AMD - beim Kunden reifen, da von heute auf morgen alle Architekturneuerungen mit Sicherheit nicht eingesetzt/ausgereizt werden ;).

Zu bedenken ist auch, dass HBM über Jahre in Entwicklung war und nicht von heute auf morgen aus Jux und Tollerei Ihren Weg in die dazu passende Fiji-Architektur gefunden hat.

Trotz anfänglicher Unzulänglichkeiten/Einschränkungen wie dem 4GB Limit von HBM1 ist es - AMD-typisch - eine Investition in die Zukunft (vergleichbar vielleicht mit der Entwicklung von Mantle) die sich hoffentlich auch spätestens bei den Navi GPUs vollends bezahlt macht.

Vielleicht wird es aber auch schon früher deutlich wegen HBCC (evt. aus der Speichermengennot von HBM1 geboren) mit RX Vega, wo sich dann die wahre Stärke von HBM-Speicher zeigt, wer weiss (?), wir werden es sehen ... wer nichts riskiert, der gewinnt auch nichts, insbesondere, wenn man weder in GPUs noch in CPUs der Marktführer und einzige verbliebene Konkurrent ist.

Was Doom (unter Vulkan Low Level API) angeht, so gebe ich Dir Recht, dass es der Vorzeige-Titel für AMD derzeit ist und eben nicht die Leistungsfähigkeit von RX Vega wahrheitsgemäß/realistisch widerspiegelt.

Dahingegen erfüllt Star Wars Battlefront 1 (auch in Anlehnung an das ähnlich per Frostbite Engine entwickelte Battlefield 1) das aber schon, mit aktuell immer noch höchsten grafischen Ansprüchen sowie guter technischer Optimierung und einer einigermaßen neutralen Gewichtung (wenn auch mit etwas Tendenz zugunsten von nVidia GPUs ... ich denke das kommende Call of Duty - WWII könnte ein sehr realistischer und fordernder Indikator-/Benchmark-Spieletitel werden als leicht zu AMD GPUs tendierendes Gegenstück zum kommenden Star Wars Battlefront 2).

In dem Spiel hat eine RX Vega (im Vollausbau?) scheinbar unoptimiert/im Frühstadium mit Fiji-Treiber eine GTX 1080 vernascht.

So einfach mit Deinen (pro-nVidia) Ausführungen - wie Du es Dir ausmalst - wird es in Hinblick auf RX Vega mitnichten aussehen und Du wirst sicherlich schon nach einer "winzig kleinen Fliege in der Suppe" Ausschau halten müssen, um (wie es zuvor bei den Polaris GPUs bei einigen nVidia-Fans gängig war) die neuen Vega GPUs nach Erscheinen mies reden zu können ... traurig, aber etwas anderes war ja wohl auch nicht zu erwarten.

Falls sich HBCC als Windei entpuppen sollte, wäre Kritik an AMD natürlich in hohem Maße berechtigt, aber im Voraus schon davon auszugehen :rolleyes: ...

Zumal, was hier einige Träumer für eine "Über-GPU" erwarten/hypen, führt dann sowieso nur zu maßloser Enttäuschung der nicht erfüllten exorbitanten Erwartungshaltung ... bleibt doch 'mal bitte etwas auf dem Boden/realistisch, das "Rad" kann/will AMD damit nicht neu erfinden.

Mit Hinblick auf die "Schuld" ist mit Sicherheit nicht AMD zu nennen, sondern das (z.T. evt. bezahlte/gewollte) Unvermögen der Spieleentwickler sowie deren Ignoranz der gesamten Kundschaft oder zeitgemäßer Programmierung.

Diese Entwickler kann man dann wohl als AMD Kunde zukünftig auch gut aussortieren/boykottieren, anstatt sich mit deren suboptimal entwickelten Produkte aus einander zu setzen, so einfach, konsequent und besser für den Markt insgesamt ist das ;).

Über mangelnde Weitsicht AMDs konnte man sich jedenfalls in der Vergangenheit nicht beschweren, denn deren GPUs haben sich oft durch Ihre Ausstattung als langlebiger heraus gestellt als die vergleichbaren nVidia Pendants.
 
Zuletzt bearbeitet:
Das einzige was aktuell überhaupt etwa geschätzt werden kann ist der Vorteil von 28nm -> 14nm.
NCU und evtl. Änderungen im SIMD sind volle Spekulation im Tief-Blauen

Selbst wenn Sprung um fast 50% in MHz effizient in 14nm umgesetzt werden konnte fehlen immernoch genug Prozent um trotzdem oft langsamer als eine GTX1080 zu sein von deren Effizienz ganz zu schweigen.

Jetzt mal ins Blaue: Falls das bekannte im einschlägig diskutierten SIMD-Patent beschriebene Problem der Zombie-Threads ganz gelöst wurde stehen da nochmal zwischen 20 und 60 Prozent Effizienz/Mehrperformance im Raum und erst wenn das in Teilen angegangen wurde wird es Interessant.

Dieses Draw-Stream-Dings, das Programierbare-Geometrie-Dings und der 512TB-ausallenQuellen-Dings erfordern alle passende Software sonst NULL-Effekt.

Ich bin gespannt wie ein Flitze-Dings :freak:
 
8GB sind bei allen Titel bis 1440p ganz locker ausreichend, bestimmt auch für 90% der Spiele in 4K.

Die Quake Champions Beta hat 10500 MB Grafikspeicher belegt, bei doch eher moderater Grafikpracht. Ist zwar nur ne Beta, trotzdem heisst viel Verbrauch nicht gleich, dass dies erforderlich wäre. FC primal oder TombRaider sehen klasse aud und verbraten auf 1440p in Ultra-Settings knapp 4GB.

Erwarte Leistung unterhalb 1080Ti.
 
R1c3 schrieb:
Mag ja sein dass Entwickler noch sparsamer mit Vram umgehen können, tun sie aber nicht und daran muss sich AMD orientieren, nicht nach dem Wunschdenken wie es sein könnte/sollte.

"noch" sparsamer? ich würde eher sagen die aktuelle "optimierung" ist unter aller kanone, wenn überhaupt vorhanden. das fallout 4 "hd textur" paket ist doch n super beispiel, wie man aus 50gb texturen NULL optische verbesserung herauszieht.
ich war mal texture artist / skinner in einer source engine mod, und ich kann dir sagen, dass die kompression und die kluge verwaltung von ressourcen den speicherbedarf für texturen mindestens um den faktor 4 (!!!!!) verringern. eine textur mit sämtlichen shader maps kann man entweder im yolo style in unkomprimierten einzelnen texturen anlegen oder man packt die masken in die alpha kanäle der ohnehin vorhandenen texturen und komprimiert unempfindliche texturen, bspw die diffuse, specular und selfillum map. so macht man aus 6 dateien, 3 und drückt den speicherbedarf von 12mb auf 3mb. wenn man schon beim modellieren bzw. "unwrap" die texturbereich klug zuordnet, braucht man hinterher nicht mit aufwändigen masken arbeiten, was nochmal einspart.

du kannst allein in photoshop mit einem falschen dateityp oder haken die dateigröße verfielfachen ohne einen sichtbaren unterschied.

das was die "kollegen" in manchen tripple A spielen abliefern ist eigentlich schon beschämend. hier braucht man die devs nicht in schutz nehmen, das ist teilweise murks auf azubi niveau.

ein anderes abschreckendes beispiel ist league of legends - der spielclient besteht aus nicht weniger als 44.000 (vierundvierzigtausend) ordnern.

R1c3 schrieb:
Richtig, woran man sieht dass Nvidia in dem Fall alles richtig gemacht hat weil sie eine günstigere UND flottere Graka geliefert haben und sie dann trotzdem so teuer und mit höherer Gewinnspanne verkaufen konnten. Ist ja nicht so als ob AMD dazu gezwungen war HBM so früh zu verbauen, sie hätten auch ganz normal auf GDDR5 setzen können und davon einfach 6-8GB verbauen können, dann wäre der Stromverbrauch von Fiji aber wohl noch höher ausgefallen als er eh schon war.

die leute schmeißen seit jeher nvidia die kohle in den rachen. bestes beispiel ist thermi vs cypress. ATI war effizienter, leiser, kühler und technisch auf dem neusten stand. trotzdem konnte nvidia thermi nochmal in einer neuen generation verwursten und ist hinterher immernoch klarer marktführer, obwohl die karten buchstäblich geschmolzen sind und gleich viel verbraucht haben wie die dualchip hd5970, die gleichzeitig auch noch schneller war.

wenn einem die kohle vorne und hinten reingestopft wird, trotz schlechterem produkt, isses auch kein wunder, dass man dann allein von budget her vorteile hat - wie man jetzt gerade sieht.
AMD/ATi war immer ein nach vorne gerichtetes unternehmen, während nvidia immer rückständig war, und damit überraschenderweise immer besser fährt (marktmacht). entsprechende DX unterstützung bekommt man bei ATi/AMD immer ein jahr früher, aber nvidia ist gut darin den technischen fortschritt, der ihnen nichts bringt, zu blockieren. bspw. dx10.1 patch für assassins creed.

der HBM speicher auf der fury ist "typisch" amd. hbm braucht weniger platz, lässt sich zusammen mit der gpu kühlen, braucht weniger strom und ist um ein vielfaches schneller als normaler gddr speicher. das ist ganz klar die richtige speichertechnologie. hier amd nen strick draus zu drehen eine so überlegene speichertechnologie für den endverbraucher verfügbar zu machen halte ich für nicht angebracht. amd hat einfach die kohle gefehlt das "richtig" zu machen, sonst hätten sie nicht das tonga frontend wiederverwendet.

der stromverbrauch der fury ist auch wieder so eine mär. praktisch jede fury späteren produktionszeitraums (CHIPQUALITÄT) verträgt problemlos -72mv trotz oc, was den stromverbrauch auf ein ähnliches niveau wie maxwell / gtx 980 senkt, nämlich zwischen 220 und 240w.


R1c3 schrieb:
Sorry aber du scheinst mir überall den Schuldigen finden zu wollen nur nicht bei AMD selbst, es ist allseits bekannt dass der AMD Treiber deutlich mehr CPU Overhead erzeugt und deshalb gerne mal die Leistung geringer ausfällt in CPU lastigen Spielen, das ist nicht immer die Schuld des Spieleentwicklers. Natürlich gibt es solche Fälle, aber es ist genauso AMDs Schuld dass ihr Treiber im Vergleich zu Nvidia einfach massiv viel mehr Overhead erzeugt, sieht man ja wunderbar wenn auf Dx12 oder Vulkan umgeschalten wird, dann geht speziell die Fury ab wie Schnitzel.

die AMD treiber mussten ja auch noch kommen, wir haben ja sonst alle vorurteile durch ;) was ist mit nvidia + ryzen + dx12? hier funktionieren die wundertreiber von nvidia auf einmal garnicht mehr, oder eher der software scheduler, der in dx11 gut läuft, aber in dx12 nicht. amd hat die optimierung auf dx11 traurigerweise, aber auch verständlicherweise, eingeschränkt und hat sich auf die neuen APIs vorbereitet. das ergebnis ist bekannt: nvidia ist in dx11 / opengl besser, amd in vulkan und dx12. hier gibts aber eigentlich kein "besser / schlechter" sondern das typische bild von ati/amd vs nvidia, nur dass amd hier mittlerweile etwas verzweifelt wirkt.
die dx11 "schwäche" von amd ist aber kein generelles problem, weil es genug dx11 spiele gibt, die auf amd und nvidia gleich gut laufen. in the witcher 3, gears of war 4 und for honor in wqhd sind 1070 und fury etwa gleich schnell, in anno 2205 und ghost recon trennen die 1070 und die fury >40%.
https://www.computerbase.de/2017-04/radeon-rx-580-570-test/2/#diagramm-performancerating-2560-1440
das sollen nur die treiber sein? den treiber will ich sehen, der 40% leistung gutmacht.


R1c3 schrieb:
Und das ist jetzt die Schuld der Spieleentwickler oder von AMD ? Sorry aber du stellst es ja gerade so dar als ob sich Spieleentwickler gegen AMD verschworen hätten ...

siehe oben. in kurz: wenn nvidia die finger in der entwickling drin hat: definitiv, wurde mehrfach bewiesen und aufgedeckt. ich wüsste sonst nicht, wer die spiele programmiert wenn nicht die entwickler?
ansonsten steht amd mit dem verschwindend geringen marktanteil auch so auf verlorenem posten, auf nvidia optimieren ist mittlerweile aus entwicklersicht jedenfalls deutlich kosteneffizienter, vorallem wenn jedes jahr n neues COD, BF, WoW Addon und Fifa fertig sein muss.
 
Che-Tah schrieb:
Fakt Ist AMD hat 12,5 Tflops angekündigt. Daran werden sie gemessen werden.

Die RX480 hat 5,8 TFlops, die 1060 nur 3,8.
Und auf dem Papier ist die RX480 auch fast immer überlegen. Mehr RAM, mehr Speicheranbindung, mehr Datentransferrate, mehr Textureinheiten, mehr Texeldurchsatz, mehr Rechengruppen, mehr Shader

...aber in der Realität ist die 1060 fast durchgehend schneller oder genauso schnell... Papier bedeutet gar nichts.
 
Zuletzt bearbeitet:
cruse schrieb:
gibt schon diverse benchmarks. also man kennt ca. das ergebnis, daher ist die aussage schon ok so.

Es gibt diverse Benchmarks, soweit klar. Aber was soll das sein, "das" Ergebnis? Und was hat das Ergebnis eines Benchmarks damit zu tun ob Vega das Steuer herumreißt oder nicht? Nichts hat das eine mit dem anderen zu tun, möchte ich meinen.
 
Ich erwarte eine Leistung zwischen 1080 und 1080 Ti. Wird sicher ein paar Titel geben, die unter Vega besser performen werden als unter einer 1080Ti. Aber im großen und ganzen erwarte ich ein Verhältnis wie zwischen Fury und 980Ti.

Mal ehrlich. Ich denke, dass diese Leistung im Jahre 2017 mehr als ausreichend ist. Damit wäre eine auf Vega basierende Grafikkarte ein TOP Produkt. Wir werden es erfahren.
 
Turrican101 schrieb:
Die RX480 hat 5,8 TFlops, die 1060 nur 3,8.
Und auf dem Papier ist die RX480 auch fast immer überlegen. Mehr RAM, mehr Speicheranbindung, mehr Datentransferrate, mehr Textureinheiten, mehr Texeldurchsatz, mehr Rechengruppen, mehr Shader

...aber in der Realität ist die 1060 fast durchgehend schneller... Papier bedeutet gar nichts.
Genauer:

Die GTX 1060 hat eine SP im Bereich von 3.86 bis 4.38 TFlops. Die RX 480 von 5.16 bis 5.83 TFlops.
 
ich denke die Ähnlichkeit kann letztendlich weit weniger groß sein als man rein von den Zahlen her mutmaßen würde.

Gehen wir von rein davon aus würde es bei weitem keinen 500mm² Chip erklären. Ein Fiji Shrink in 14 statt 28nm wäre nur ~300mm² groß. Wenn überhaupt. Da müsste AMD die Density schon massiv nach unten drehen , ggf um den Takt zu erhöhen. Aber so viel? Wohl kaum.

Die Anzahl der diversen Units mag gleich sein, aber die meisten davon dürften schon deutlich überarbeitet worden sein. Gerade um auch mit 4096 Shader noch gut zu skalieren.

P.S.: Ich erwarte GTX 1080 TI Leistung oder etwas mehr. An den Rohdaten dürfts nicht scheitern. Aber zwischen 1200 Mhz und 1600 Mhz liegen schon schnell >20%, also fällt uns stirbt auch viel übern Takt.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Gehen wir von rein davon aus würde es bei weitem keinen 500mm² Chip erklären. Ein Fiji Shrink in 14 statt 28nm wäre nur ~300mm² groß. Wenn überhaupt. Da müsste AMD die Density schon massiv nach unten drehen , ggf um den Takt zu erhöhen. Aber so viel? Wohl kaum.

Polaris 10 ist mehr als halb so gross wie Hawaii, und hat dazu noch deutlich weniger Transistoren, weniger Ausfuehrungseinheiten, ein halb so grosses Speicherinterface und 1/16 statt 1/2 FP64 Rate. AMD kann die Packdichte nicht verdoppeln, schon gar nicht wenn sie mit dem Takt nochmal so deutlich hoch wollen.
Da liegt man dann eben nicht nur bei (oder sogar unter) 300mm² und der Rest kommt dann noch extra oben drauf.

Turrican101 schrieb:
Die RX480 hat 5,8 TFlops, die 1060 nur 3,8.
Du musst schon boost vs. boost oder base vs. base vergleichen.
Keine 1060 leistet nur 3,8 TF. Mit typischem Boost liegt sie bei 4,4, custom Designs noch darueber. Es ist ein gap da, aber nicht so wie du es suggerierst.
Ausserdem unterschlaegst du in deinem "Papiervergleich", dass Nvidia einfach mal die doppelte Pixelfuellrate und doppelt so hohen Polygondurchsatz hat. Und genau wo das zum Problem wird, faellt die 480 auch zurueck.
 
Zuletzt bearbeitet:
von 590 auf 490mm² wäre angesichts des Fertigungsprozess dennoch ...

Bei Hawaii -> Polaris sind es 438 mm² -> 232 mm² bei 6.2B -> 5.7B Transistoren. Nicht ganz Faktor zwei aber auch nicht weit weg (~1,75).
 
Zuletzt bearbeitet:
Exar_Kun schrieb:
Sollte Vega nicht zumindest nah an die Leistung der 1080 Ti herankommen, wäre das ein Fail der übelsten Sorte.

Nö.
Mich interessiert der 700+€ Markt überhaupt kein bisschen.
Gäbe es die perfekte 300~400€ Karte, wäre das mir so viel mehr wert, als eine 700€ 1080 Ti Konkurrenz, dass ich das gar nicht in Worte fassen kann.

"Fail" ist da also ein richtig blödes Wort.
 
Auf dem Papier ist eine Sache, in der Realität eine ganz andere. Die 2900 hatte damals auch Daten, mit denen sie alles in Grund und Boden stampfen sollte und was war? Richtig...

Man darf gespannt sein, was AMD abliefert.
 
Wenn alle über Fury so meckern, ich würde sofort eine für 200€ kaufen, 250 für die X.
 
Ap2000 schrieb:
Nö.
Mich interessiert der 700+€ Markt

man muss seinen Post eher so auslegen dass das Vega Topmodell an die TI rankommen sollte. Wenn der kleine Vega dann deinen 300-400€ Markt bedient wäre das doch top. Und das kann schon hinkommen. Mit Leistung nur auf GTX 1080 Niveau bräuchte AMD keine zwei Chips.
 
wie wäre es mir etwas ganz gewagtem?

abwarten bis die tests da sind und weniger um einge zahlen herum ins blaue raten?
 
PanzerHase schrieb:

Besten Dank für den verlinkten Artikel, wobei ich folgenden Absatz interessant finde und mir die massiv gestiegenen FP16 Leistung von RX Vega auch schon in dieser Vergleichs-Tabelle am Ende des Wccftech Artikels zu vorherigen AMD Chips (inklusive R9 Fury X) auffiel:

Grob umgelegt würde das einer Geforce GTX 1080 Ti entsprechen. Ähnlich wie bei den Ryzen-Prozessoren ist aber anzunehmen, dass für einige Neuerungen erst die Software angepasst werden muss, etwa die doppelte FP16-Rate von Vega 10. Beispielsweise möchte id Software bei der nächsten id-Tech-Engine auf Rechenoperationen mit halber Genauigkeit setzen

Wie viel die massiv aufgebohrte FP16-Leistung (25 TFLOPS) wohl in Zukunft bringen dürfte?
 
Zuletzt bearbeitet:
Chismon schrieb:
Wie viel die massiv aufgebohrte FP16-Leistung (25 TFLOPS) wohl in Zukunft bringen dürfte?

Bin ich auch mal gespannt da es oft ausreichen dürfte. Bei Nvidia hat auch nur das Computing Top-Modell P100 die doppelte FP16 Leistung zu FP32. Andere Chips wie GP104 sind dahingehend massiv entschlankt.

Aber naja, dem war in Vergangenheit schon oft so. Hat beides Vor- und Nachteile.
 
Zurück
Oben