News Radeon Vega Frontier Edition: Platine mit 484 mm² großer Vega-10-GPU enthüllt

Naja wenn ich eine digitale Schiebelehre schonmal nicht einschalte, und das nur so Daumen mal Pi ablese...dann dazu noch nicht völlig exakt am Silizium messe, sonder irgendwo an der grauen Masse womit der Interposer vergossen ist, hat man den Unterschied doch gleich. Ich dachte mir schon im Video dass das alles andere als profesionell ist. Dann noch den Wert groß in allen Seiten verkünden...

Edit: Grad nochmal angesehen:
yt gn vega.PNG

Er erwähnt aber kurz, dass die Digitale Anzeige nicht funktioniert. Finde ich dennoch schlecht vorbereitet.
 
Zuletzt bearbeitet:
DaBzzz schrieb:
*digitale Schiebelehre?

Im Video aus Post #3 sieht man es recht gut: dazu muss man das Teil auch einschalten, ansonsten läuft es nur analog. ^^
 
ebenfalls @ Rock Lee, @stoneeh:

Ich denke es gibt einen kleinen Fehler bzw. Ungenauigkeiten bei der Tabelle von CB. Denn die reine Rechenleistung der GTX 780ti und GTX 980 ist nicht identisch.

Laut Test zur GTX 780ti hat diese in den Standardeinstellungen beim Gaming einen Takt von ca. 950Mhz (mal mehr mal weniger) und mit etwas OC ist sie dann nahezu stabil bei 1006Mhz.

Das ergibt dann eine Rechenleistung von ca. 5472GFLOPs bzw. 5795 GFLOPs. Die bei CB angegebene Rechenleistung ist der Wert für den Basistakt der 780ti, der aber eigentlich im Gaming niemals anliegt.

Schaut man dann noch zum Test der GTX 980 mit etwas OC konstant bei 1227Mhz, was eine Rechenleistung von 5026GLOPs ergibt. Das ist in diesem Fall niedriger als der in der Tabelle angegebene Wert.

Nehmen wir nun die Gaming-Leistung der beiden GPUs im jeweiligen Max-Modus, da hier der Takt recht stabil gehalten werden kann, können wir eine grobe Abschätzung zum Leistungsgewinn durch weitere Features bestimmen, d.h. alles was nicht rein durch Rechenleistung erzeugt wird.

Im Max-Modus ist die 980 etwa 5% schneller als die 780ti, obwohl die 780ti etwa 15% mehr Rechenleistung hat (5795/5026=1.15). Berechnet man den Gaming-Vorsprung der 980 dann auf die Rechenleistung herunter, bekommt man etwa auf +21%.

Eine alternative Möglichkeit ist noch, die 980 im normalen Modus mit der 780ti im Max-Modus zu vergleichen. Denn hier haben laut CB Test beide GPUs die identische Gaming-Leistung.

Da die 980 hierbei mit etwa 1150Mhz taktet, ist die Rechenleistung auf 4710GLOPs gesunken. Somit benötigt die 780ti etwa 23% mehr Rechenleistung, um auf die gleiche Gamingleistung zu kommen.

Natürlich zeigt das nicht, welche Ursachen die Leistungssteigerung der 980 hervorgerufen hat. Aber man sieht schön, dass 20%+ Steigerungen durchaus möglich sind.

Ach und ich nehme bewusst nicht nachfolgende Tests, da hier durch bessere Treiber die 980 gegenüber der 780ti noch etwas schneller geworden sein könnte. Mit der oberen Berechnung gibt es dann sogar eher eine Einschätzung, wie viel die 980 gegenüber der 780ti minimal tatsächlich zugelegt hat.

Nachtrag:

Um dann noch den Bogen zu Vega zu spannen (Achtung Spekulation und dadurch natürlich angreifbar. Es soll aber einfach nur mal so als Denkanstoß dienen):

Nehmen wir mal an, dass AMD es ebenfalls schafft - wie Nvidia damals bei der 980 - mehr Leistung aus der neuen Architektur zu zaubern.

Jetzt kann man abschätzen, dass AMD es nicht so gut wie Nvidia hinbekommt und der Leistungsgewinn durch die Architektur "nur" 10% beträgt.
Wenn Vega mit 1440MHz läuft, ist das gegenüber der FuryX ein Bonus von +37%.
Das würde sich dann mit einem Leistungsgewinn beim Gaming von 1.37*1.10=1.50 -> +50% äußern.
Das wäre etwa 10% langsamer als eine Stock 1080ti.

Mit 1600Mhz -> +52% Takt -> 1.52*1.10=1.68
Recht genau auf der Leistung einer GTX 1080ti @ Stock.

Könnte AMD aber ein ähnlich gute Leistungssteigerung wie Nvidia schaffen, d.h. +20% würde es wie folgt aussehen:

Mit 1440Mhz -> +37% Takt -> 1.37*1.2 -> +65% Gamingleistung
ca. 1080ti @ Stock Leistung

Mit 1600MHz -> +52% Takt -> 1.52*1.2 -> +80% Gamingleistung
ca. 1080ti mit OC.

Wie man sieht hängt es aktuell sehr stark davon ab, wie gut AMD die neue Architektur zum Laufen bekommt, d.h. ob ihnen etwas Ähnliches wie damals Nvidia mit Maxwell gelingt. Ein tolles Gelingen wie auch ein absoluter Reinfall sind wohl möglich und bisher ist es noch zu früh, um ein Fazit zu ziehen.
 
Zuletzt bearbeitet:
Die Schieblehre könnte den Chip verkratzen und dadurch unbrauchbar machen. Deshalb wird sie nicht richtig angelegt, sondern per Luft-mal-Daumen-Peilung darüber gehalten. Dazu kommt noch der "Klebstoff" um den Chip auf dem Substrat zu befestigen, der an den Chiprändern anhaftet. Außerdem sind Journalisten keine Ingenieure, sowas eine Fehlbedienung des Messinstrumentes nicht ausgeschlossen werden kann...

Geht man von einem perfekt quadratischen Chip aus, entsprechen
564 mm² einer Kantenlänge von 23,7 mm
484 mm² einer Kantenlänge von 22 mm
 
Und was soll man bitte an der Rückseite zerkratzen? Keiner erwartet dass Journalisten Ingenieure sind, aber dann darf ich dass auch nicht als exakte Messung angeben. Geschweigedenn überhaupt machen, wenn ich dann einen Shitstorm auslöse.
 
Steeeep schrieb:
Das hat mit SLI mal garnichts zu tun wenn mehrere GPU Dies auf einem Package stecken. Die Datenraten und Latenzen die dort möglich sind machen ein syncronisieren deutlich leichter und mit Tile based Rendering geht die Parallelisierung noch viel leichter.
Die alte Form von 3dfx hat sehr wohl viel damit gemein. Die nötigen Datenraten und vor allem die Latenz sind viel zu hoch um da einfach mal 4 Chips zu synchronisieren. Über einen Steuerchip mit 2 "Recheneinheiten" lass ich noch mit mir reden aber nicht 4 Polaris. Alleine die Speicherverwaltung dürfte "lustig" aussehen.
Bei der Menge an Verwaltungsaufwand bezweifle ich den Einsatz von MCM bei Grafikkarten eh prinzipiell. Die eigentlichen Recheneinheiten sind schon heute lächerlich klein. Die Nachteile von Interposer plus extra Chips dürften die Vorteile bei weitem überwiegen. Bei Größen die mit einem Chip herstellbar sind macht es überhaupt keinen Sinn. Die Verwendung von richtig großen Chips ist ja im Moment nicht mal möglich.

Laberlohe schrieb:
Außerdem sind Journalisten keine Ingenieure, sowas eine Fehlbedienung des Messinstrumentes nicht ausgeschlossen werden kann...

:freak:
Der Fachkräftemangel. Erstens zerkratzt da überhaupt nichts, zweitens könnte man ja jemanden fragen der sich damit auskennt und drittens existieren ja auch noch andere Messmethoden. Aber wenn Fachpersonal nicht mal eine Vapochamber von einer Heatpipe unterscheiden kann...
 
Zuletzt bearbeitet:
Das Video kannt ich nicht...ja, 1000€-Karte über Patreon-Beiträge finanziert, aber man kann sich keine funktionierende Schiebelehre leisten. :freak:

Oder andersrum gesehen: Wozu Leute mit Ahnung ranlassen, wenns auch ein Langhaariger kann. (SCNR, steh als Physiker grade vor dem Jobwechsel wegen sehr mäßiger Bezahlung)

Laberlohe schrieb:
Die Schieblehre könnte den Chip verkratzen und dadurch unbrauchbar machen.

Wasn Unsinn...

Laberlohe schrieb:
Außerdem sind Journalisten keine Ingenieure, sowas eine Fehlbedienung des Messinstrumentes nicht ausgeschlossen werden kann...

Ja, so sind sie, die Journalisten von heute. Der könnte sich glatt beim deutschen ÖR bewerben.
 
Der Artikel enthätl nach dem Update einige Fehler. Besoders direkt nach dem eingeschobenen Absatz.

Damit fällt Vega 10 noch etwas größer aus, als die Redaktion im Januar nach der ersten Vorführung des Chips vermutet hatte.

Dabei ist er ja kleiner, wenn die 484 stimmen.
 
Noch kurz zwei Sachen.

Erstens ist Silizium relativ hart und lässt sich daher wirklich nicht so einfach zerkratzen. Daher nimmt man üblicherweise einen Diamantschreiber, um in Silizium zu ritzen.
Da ich dafür kein Experte bin, aber was ich auf die Schnelle gefunden habe. Silizium ist etwas härter als Glas und Glas bekommt auch keinen Kratzer vom Hinhalten einer Schieblehre.

Zweitens verwundert mich die überarbeitete Angabe nun auch etwas. Es wird jetzt von 484mm^2 gesprochen, da dies (22mm)^2 ist. Es impliziert, dass der Chip quadratisch ist. Nur kann das eigentlich nicht sein, denn eine Kantenlänge ist sicherlich maximal nur 20mm lang. Der Chip kann zwar 484mm^2 groß, aber dann nicht mehr quadratisch sein. Das ist dann etwas unglücklich angedeutet von Raja Koduri.
 
Hades85 schrieb:
Wieso liest man so etwas historisches nicht auf deutschen Seiten? Das erklärt auch warum Intel so panisch reagiert. 10 % in einem Quartal ist wirklich enorm, ich hoffe AMD kann noch mehr Anteile gewinnen.
Weil Du so etwas schlicht nicht wissen sollst.
Anderenfalls bekämest Du ja möglicherweise den Eindruck, daß Produkte von AMD gar nicht so schlecht wären, wie ihr Ruf suggeriert.

Intel bezahlt halt viele der Üblichen Verdächtigen um ein gewünschtes Bild beim Endkunden zu zeichnen.
Dazu bekommen Redaktionen und Redakteure Testmuster entweder extremst vergünstigt oder halt kostenlos und dafür erwartet Intel dann entsprechend auch positive Berichte und daß man weniger schöne Dinge besser unerwähnt läßt.

Das geht so weit, bis man sich als Magazin/Seite halt nicht mehr traut, irgendwas vom Wettbewerber in den News zu bringen, weil man befürchten muß, daß man beim nächsten Produkt-Launch halt kein kostenloses Muster/Messse-Besuch/whatever gesponsert bekommt. Es verselbstständigt sich oftmals …

Allerdings, auch wenn ich in der Vergangenheit des öfteren wie viele Andere auf die Thematik hingewiesen habe, so muß man ComputerBase zugute halten, daß Volker und Wolfgang die letzte Zeit erheblich weniger befangen an etwaige Artikel in Verbindung mit AMD und auch mal was kritischer bei Intel sind und die letzten Wochen oft auch Artikel von anderen als den Beiden veröffentlicht wurden, allen voran oftmals Jan-Frederik. Das tut CB als Magazin als solches sehr, sehr gut und ist erfreulich angenehm.
AdmiralPain schrieb:
Smartcom5
Bis jetzt meiner Meinung nach einer der sachlichsten Beiträge zum Therma Vega, danke dafür. ;)
Vielen Dank, gern geschehen! cake.gif


In diesem Sinne

Smartcom
 
neueinsteiger84 schrieb:
Wie man sieht hängt es aktuell sehr stark davon ab, wie gut AMD die neue Architektur zum Laufen bekommt, d.h. ob ihnen etwas Ähnliches wie damals Nvidia mit Maxwell gelingt.

Dahingehend mache zumindest ich mir keine Sorgen. AMD-Karten wurden mit der Zeit immer schneller, anstatt langsamer.
 
Rock Lee schrieb:
Hab mir die Tests nochmal angeschaut und es stimmt. Die 980 ist gegenüber der 780TI nicht schneller geworden, sondern die 780Ti langsamer.

Ja das scheint nach näherem Betrachten der Tests, der Fall zu sein und bestätigt zudem mein subjektives Empfinden dazu. Als langjähriger nVidia-Nutzer habe mich letzendlich unter anderem aus diesem Grund von diesem Hersteller und seinen Produkten distanziert. Meine letzte war eine Kepler 670 GTX.
 
kisser schrieb:
... wenn AMD mit Ryzen zulegt würde ich diesen Daten doch eher nicht trauen, weil sie auf der Anzahl an Benchdurchläufen des Passmark basieren. Da dürfte die überwiegende Mehrheit an Office-PCs überhaupt nicht erfasst sein. Von Marketstart ist da keine Rede, nicht einmal von Launch. Da steht "We can´t wait to announce...."

Deshalb schrieb ich auch "anscheinend", zumal bei Wccftech auch gerne gehyped oder spekuliert wird und Passmark zwar als Indikator genommen werden kann, aber das natuerlich keine exakt-allumfassende Aussage sein duerfte, aber natuerlich ist es auch eine Frage der Erwartungshaltung mit der man an solch eine Nachricht herangeht.

Vielleicht folgen ja noch weitere Marktanalysen, die diesen Trend bestaetigen, so dass selbst die groessten Intel-Fans den Aufschwung von AMD im CPU-Markt nicht mehr anzweifeln/negieren koennen ohne sich selbst gaenzlich unglaubwuerdig zu machen ;) ...

Der Ueberschrift der Meldung/des Artikels nach zu urteilen schon ;) ...

AMD confirms Radeon RX Vega is launching at SIGGRAPH
 
Zuletzt bearbeitet:
Chismon schrieb:
[...] die RX Vega soll laut Raja Koduri "nur" auf 484mm2 kommen [...]
Raja hat nie was von 484mm² gesagt, sondern lediglich, dass der Chip kleiner ist als 500mm². Nicht immer die Fakten verdrehen! :p

w0mbat schrieb:
Vega is 484m² groß, nicht 564m².
Hui, das wär aber ganz schön gross...
 
@Chismon:

Sorry, mein Fehler! Hatte seinen Tweet mit "the number is the closest perfect square actually" übersehen.
 
Für die Leistungsaufnahme sieht es ja nicht gerade gut aus, wenn da mit custom-Karten noch der Takt angehoben werden soll, werden die wohl in Richtung 400 Watt verbrauchen.
Kann man das überhaupt noch mit Luftkühlung abführen?
Eine übertaktung der FE um 80 MHz auf 1680 MHz hat zu über 150 watt Verbrauchssteigerung geführt.
amd-vega-fe-power-v-thermal_tixp.png
 
Wieso denkst du wurde die Liquid Version angekündigt?
 
r4yn3 schrieb:
Wieso denkst du wurde die Liquid Version angekündigt?

Ich meine bei der RX Vega, es wird ja nicht jeder eine Wassergekühlte Version haben wollen.
 
Zurück
Oben