News Vega 20: AMD Radeon VII ohne volle FP64-Unterstützung der MI50

Chillaholic schrieb:
Bleibt der Verbrauch so hoch , wird auch Radeon VII nur ne Randerscheinung.
Die wenigstens haben hochwertige 600W-Netzteile verbaut die das auf Dauer mitmachen.
Gleicher Verbrauch, 35% mehr Leistung, schade.
16GB HBM2 sind echt geil, aber der Preis ist auch happig, nicht zuletzt weil 16GB HMB einen Großteil der Kosten verschlingen. Angeblich wird Radeon VII ja fast zum Herstellungspreis verkauft, da ist halt wie bei Vega 56/64 kein Spielraum für den Preis da.
Also jemand, der sich eine Grafikkarte für 700€ holt wird wohl auch ein paar Mark mehr für sein NT ausgegeben haben... wer da spart ist selber schuld.
Nur so am Rande :D

Hoffe doch, dass die Radeon VII nicht nur von AMD exklusiv verkauft wird, was ich hier eben gelesen habe :(
 
DenMCX schrieb:
Also jemand, der sich eine Grafikkarte für 700€ holt wird wohl auch ein paar Mark mehr für sein NT ausgegeben haben... wer da spart ist selber schuld.
Hier werden üblicherweise 400-550W empfohlen, warum sollte man also ein 600W NT besitzen?
600W kannste gleich noch mal 80€+ auf den Preis raufrechnen für ein neues NT.
 
Whatdoiknow schrieb:
Konnte das Powerstate 6 auf meiner Vega 56 um ,15 Volt senken, hab seitdem Standardmäßig über 1500 MHz GPU Takt

Das wäre natürlich klasse, wenn da auch im 7nm Prozess ordentlich Luft für Undervolting ist. Andererseits würde ich mir wünschen, wenn AMD bereits bei der Herstellung jeden Chip ordentlich kalibrieren würde, sodass man sowas nicht selbst machen müssten.

Meine Vega56 ist ebenfalls undervoltet und boostet konstant über 1.500 MHz bei einer Leistungsaufnahme von 165 Watt (oder warens gar nur 150 Watt?!). Wo sieht man denn für P6 und P7, was out-of-the-box eingestellt ist? Im Treiber steht doch initial nur "Auto".
 
RYZ3N schrieb:
Das wird wirklich eine Ablösung für meine RX VEGA 56 bedeuten. Bin sehr gespannt! :D.

Ob es auch ne kleine und ne große geben wird? Ich tippe mal schon.
Ne RX590 ist ja gaaaanz weit weg von denen, da wird also nichts kannibalisiert.

Den Daten nach ist das ja ein besserer Refresh der Vega + Umstieg auf 7nm, was die Möglichkeit von UV impliziert. Es wäre dann im Rahmen des Möglichen, dass hier dieses von der Vega-APU Verhalten mit: Voltage runter auf xx und Takt auf xy = System Freeze, aber Voltage runter auf xx und Takt auf > xy = stable zum tragen kommt.

Interessant sind diverse Graka-Angebote sowohl für Nvidia und auch AMD-Karten bei zwei/drei Händlern, seit die V2 angekündigt wurde.

@RYZ3N, brauchst du ne neue Karte, oder ist das eher Komfort?

Renew-Politik:
Ich weiß noch nicht ob ich dann ne 2070 nochmal neben eine V2 halten soll, wenn Benchmarks da sind, oder ob ich jetzt die Tage ein nochmal kommendes Angebot mitnehme...
Hin und wieder gibts BF-Vbei WQHD bei 64 Spielern stellen, wo die 580Nitiro@Kotzgrenze nicht wirklich Spaß macht. Pubg ist mit wqhd und der Karte nicht spielbar, wenn man etwas reißen will...
 
Fragger911 schrieb:
Das könnte wirklich eine Ablösung für die Fury X bedeuten. Bin sehr gespannt!
Jepp, die Karte hört sich so an als könnte sie das schaffen. Leider musste ich meine Fury X wegen defekter Kühlung bereits gegen eine Vega 64 tauschen... mal schauen ob ich die drin lass oder mir trotzdem ne Vega VII hol.
 
  • Gefällt mir
Reaktionen: NMA
Shoryuken94 schrieb:
Habe ja auch die Hoffnung, dass die Straßenpreise in absehbarer Zeit etwas fallen, auch wenn ich es nicht so recht glaube.

Ich denke man wird sich an den RTX 2080 Custom Modellen orientieren [müssen] und hinsichtlich des Alleinstellungsmerkmales von 16GB HBM2 einen geringen Aufpreis verlangen.

Ich bin recht optimistisch eine [vermeintliche] Sapphire Nitro+ Radeon VII für 649,— Euro und ~ 30% Mehrleistung zu bekommen.

Ich drücke mir selbst [und allen anderen] schon einmal die Daumen. :D
 
  • Gefällt mir
Reaktionen: Chaos Theory und danyundsahne
RYZ3N schrieb:
Ich denke man wird sich an den RTX 2080 Custom Modellen orientieren [müssen] und hinsichtlich des Alleinstellungsmerkmales von 16GB HBM2 einen geringen Aufpreis verlangen.

Ich bin recht optimistisch eine [vermeintliche] Sapphire Nitro+ Radeon VII für 649,— Euro und ~ 30% Mehrleistung zu bekommen.

Ich drücke mir selbst [und allen anderen] schon einmal die Daumen. :D

Direkt von AMD bekommst du aber keine Nitro+, auch wenn es schon ziemlich geil wäre. :freaky:
 
Vielleicht update ich von der Vega 56 auch auf die Radeon VII. Aber nur dann wenn sie vom Stromverbrauch nicht durch die Decke marschiert.
Ein paar FPS mehr wären in manchen Spielen auch nicht schlecht, obwohl ich ansonsten in den meisten Spielen mit meiner Karte sehr zufrieden bin.
Mit einem konstanten Chiptakt von über 1600MHz und 950MHz auf dem HBM (dank Samsung Speicher) performed sie weit über den Standardwerten die man normalerweise in den Tests sieht. Wenn ich mich noch etwas mehr damit beschäftigen würde wäre sicherlich noch mehr drinnen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4, Otsy und Strikerking
nordic_pegasus schrieb:
Nach dem ganzen Hype der CES bzgl. HDMI 2.1 wäre ja ein kompatible Grafikkarte ein gutes Argument für die Radeon VII.

Sagen wir es mal so: seit August 2018 gibt es die HDMI 2.1 Compliance Test Specification.
Am 31.10. gab es dann den Linux Kernel commit, dass Vega 20 eine neue DCE (Display Core Engine) Version bekommt (12.1 statt 12.0), obwohl die MI 60 und MI 50 ohne jeglichen Displayanschluss kamen. AMD muss zu diesem Zeitpunkt eigentlich schon gewusst haben, dass sie eine Vega 20 basierte Grafikkarte mit Displayanschlüssen bringen wollen. Die Entscheidung für die Radeon VII wird also unmittelbar nach Release der RTX-Serie gefallen sein. Wahrscheinlich als AMD die heftigen Preise gesehen hat :D

Abgesehen von HDMI 2.1 gab es in letzter Zeit allerdings keine neuen Spezifikationen (DP ist nach wie vor bei 1.4, was Vega 10 auch schon voll unterstützt).

Also vielleicht ist HDMI 2.1 dabei.
 
  • Gefällt mir
Reaktionen: Chaos Theory
@Volker

Das bringt mir einen verlorenen Gedanken zurück. Mir ist vor einiger Zeit mal aufgefallen, dass ich über Google (fast) keinen guten, für Einsteiger wirklich einfachen Artikel bezüglich der Annäherungsgenauigkeit gefunden habe.

Also wodurch dies entsteht, (Binär-Rechnung) wie moderne Algorithmen es schaffen damit umzugehen bzw richtig interpretieren, wie FP64 zu Stande kommt, wie viel Rechenleistung das kostet, wie man in der Wissenschaft damit umgeht und wie relevant, gerade in moderner Nano-Fertigung, Medizin und DNA Berechnungen das ganze Thema wird.

Viele Leute fragen beim Einstieg zum programmieren immer wieder danach und man bekommt es auch vermittelt. Mein Eindruck ist aber immer, dass der richtige "Ahhh!-Effekt" ausbleibt. Sondern eben akzeptiert wird, dass nur solche Zahlen genau sind, bei denen der Zähler ohne Rest durch den Nenner geteilt werden kann. Und alles andere Annäherungswerte bilden. Die wirkliche Relevanz scheint sich aber vielen nicht zu erschließen.

Also wenn da jemand von Euch mal langweile hat.... Wahrscheinlich wären euch auch die Klicks sämtlicher zukünftiger Mathematik und IT-Studenten sicher ;)
 
  • Gefällt mir
Reaktionen: Ernie75, Yesman9277 und Colindo
Faust2011 schrieb:
Das wäre natürlich klasse, wenn da auch im 7nm Prozess ordentlich Luft für Undervolting ist. Andererseits würde ich mir wünschen, wenn AMD bereits bei der Herstellung jeden Chip ordentlich kalibrieren würde, sodass man sowas nicht selbst machen müssten.

Meine Vega56 ist ebenfalls undervoltet und boostet konstant über 1.500 MHz bei einer Leistungsaufnahme von 165 Watt (oder warens gar nur 150 Watt?!). Wo sieht man denn für P6 und P7, was out-of-the-box eingestellt ist? Im Treiber steht doch initial nur "Auto".

Wo du das siehst? Installier den neuesten Adrenalin Treiber, rufe den Wattman auf, geh oben auf benutzerdefinierte Profil und dann setz die Powerstate Einstellung auf Manuell, dann stehen da die Spannungen die AMD vorgegeben hat. (vorher eventuell auf Werkseinstellung setzen)
 
Ist
Palmdale schrieb:
Hausintern ohne Bezug zur Konkurrenz, ja. Die schafft allerdings (final dann zum 7. Februar) das bisher gezeigte mit dem alten Fertigungsverfahren und hat seinen Sprung auf 7nm mit 30% noch vor sich
Ist aber doch eigentlich egal ob nun jetzt noch mit der älteren Architektur + 30% in 7nm einzufahren...und dabei schon Erfahrungen mit der neuen Fertigung zu sammeln, um dann die Next Gen zu bringen. Oder wie bei NV mit einer neuen/ neueren Architektur bei ähnlicher Leistung mit einem ältern Prozess zu hantieren. Wenn NV jetzt 25-30 aus der Fertigung holt. Muss AMD das halt mit der neuen Architektur hinbekommen. Denke aber das wird für beide schwer im nächsten Step. Denn der Prozess bei NV ist auch schon ein sehr optimierter und NV wird nicht umsonst "noch" auf 12nm gesetzt haben und nicht schon auf 7nm. Genauso schwer wird es aber auch für AMD allein über die Architektur signifikant boden zu NV gut zu machen.
 
Vitali.Metzger schrieb:
Alleine wegen den VRAM finde ich die Grafikkarte interessant. Stand heute würde ich mir auch keine GPU mit 8 GB mehr kaufen. Spätestens mit der Einführung der PS 5 werden diese mit Sicherheit zum Flaschenhals.

Finde ich immer wieder lustig - anscheinend spiele ich die falschen Spiele. Bei den meisten Titeln sind 8GB mehr als ausreichend, ja selbst Grafikkarten mit 4GB schaffen auch noch genug FPS ohne großartige Ruckler. Bald haben die Grafikkarten mehr Speicher als RAM zur Verfügung steht.

In der Vergangenheit hatten die AMD Karten gefühlt immer "mehr" RAM als NVIDIA und waren trotzdem nicht schneller. Was bringt mir also als Verbraucher wenn ich 16GB VRAM auf der Karte habe? Sorry, als Durchschnittsspieler meine ich.
 
  • Gefällt mir
Reaktionen: FCK-THIS
Chillaholic schrieb:
Hier werden üblicherweise 400-550W empfohlen, warum sollte man also ein 600W NT besitzen?
600W kannste gleich noch mal 80€+ auf den Preis raufrechnen für ein neues NT.

Wie gesagt: Wenn jemand 700€ für eine GraKa ausgeben kann aber dann am NT geiert ist selber Schuld...

Vorallem da ich persönlich ein NT als eine Komponente ansehe, welches ich mal locker 10 Jahre nutzen würde (mit entsprechender Garantielänge natürlich) - und da mache ich dann kein "Geschi**" darum, dass ich 70-80€ spare - aber das ist nur MEINE Ansicht der Dinge.

Will damit weder was den Entscheidern noch den "Empfehlern" vorschreiben oder gar dich von der Seite anmachen.

Klassischer "Just my 2 cents" :D

EDIT: Ich habe z.B. bis heute noch meinen Seasonic X-660 mit 80Plus Gold... und der würde auch eine Vega56/64 überleben - also Top-Investition für damals 140€.

EDIT2: Achso - gekauft Ende 2010 :D
 
  • Gefällt mir
Reaktionen: Ernie75 und Yesman9277
smalM schrieb:
Wie kommt man von 6700–6900 GFLOPS und 1:2 auf 860 GFLOPS und 1:32?

Ja das ist bissel konfus, muss ich zugeben. Bei einigen Angaben gehen sie von FP32 aus, bei anderen wieder von FP16. FP16 hat die MI25 26,8 FLOPS, FP32 13,4 und FP64 6,7. In dem Fall wäre 1:2 ja von FP32 ausgehend. Die 860 GFLOPS jetzt sind aber bei der Consumer-Karte von FP16 ausgehend, so war die Angabe früher halt bei Vega immer. 13,8 TFLOPS nennen sie nun für die neue VII, das ist FP32, davon wäre es dannd er Faktor 1:16.
 
Also für die 4GB der Fury X gibts definitiv Beispiele wo sie nicht reichen, zumindest wenn man maximale Qualität will (z.B. Deus Ex oder Doom, da bekommt man es hin das ne 480 8GB besser als die Fury und vor allem trotzdem auch noch spielbar abschneidet). Bei 8GB wüsst ich jetzt auf Anhieb keines, aber so ne karte kauft man ja auch für die Zukunft.
 
  • Gefällt mir
Reaktionen: Fragger911
robertsonson schrieb:
640kb ram reichen bis in alle ewigkeit. für bill :daumen:

sei mir nicht bös aber wenn du nicht grade 70 jahre alt bist kauf ich dir die aussage "letzte grafikkarte" nicht ab^^

Das wird jetzt etwas OT aber mir gefällt überhaupt nicht wo sich der Gaming Markt hinbewegt. Bei EA kriegt man nur noch alle Extras wenn ihr Access Abo abschließt. Ubisoft und Activision verlangen Wucher Preise für immer das gleiche. Entwickler Studios haben keine künstlerische Freiheit mehr.
Ich komme noch aus der Zeit wo man mit VHS geschaut hat und zum Media Markt gefahren ist um sich seine PC Games auf einer CD zu kaufen. Hach was war das für ein Gefühl damals endlich Command and Conquer Red Alert 2 kaufen zu können.
 
Falc410 schrieb:
Finde ich immer wieder lustig - anscheinend spiele ich die falschen Spiele. Bei den meisten Titeln sind 8GB mehr als ausreichend, ja selbst Grafikkarten mit 4GB schaffen auch noch genug FPS ohne großartige Ruckler.

Vermutlich spielst Du nicht die "falschen" Spiele sondern in der "falschen" Auflösung.
In den meisten Titeln reichen 8GB VRAM, aber 4GB sind heute schon sehr sehr grenzwertig.
Sogar das nicht sehr anspruchvolle World of Tanks zieht sich bei mir schon knapp 6GB Speicher.
In 4K wohlgemerkt.
 
RYZ3N schrieb:
Ich bin recht optimistisch eine [vermeintliche] Sapphire Nitro+ Radeon VII für 649,— Euro und ~ 30% Mehrleistung zu bekommen.

Bei 600€ wäre die Grenze, wo ich schwach werden würde. Müsste auch nicht unbedingt eine Nitro sein, da ich auch einem Kühlerumbau nicht ganz abgeneigt bin.

Wobei ich ja auch das Referenzdesign recht sexy bei der VII finde. Wenn das gut ist, würde ich mir auch das in den Rechner bauen :D
 
Jesterfox schrieb:
Bei 8GB wüsst ich jetzt auf Anhieb keines...

Frostpunk zum Beispiel. Das Spiel knallt mir immer die kompletten 11GB Speicher voll.
 
Zurück
Oben