News Vega 20: AMD Radeon VII ohne volle FP64-Unterstützung der MI50

Cool Master schrieb:
Wobei man da unterscheiden muss zwischen belegt und benutzt.

schon richtig, aber wie stelle ich fest was von dem belegten Speichers auch benutzt wird?
 
MIWA P3D schrieb:
Naja 2011 oder 12 gab es die 7970 schon mit 6gb und das für günstige 250Euro

Hatte leider nur Modelle mit 3gb da das 6gb Modell auch heute noch für fhd ausreicht wenn auch langsamer an ihre Grenze
Und die HD7970 hat sogar mehr FP64 Performance als die VEGA 64 / Radeon VII :D
 
  • Gefällt mir
Reaktionen: MIWA P3D
@cookie_dent

Über Frametimes. Daran kann man sehen ob das Spiel versucht den RAM zu nutzen und evtl. auslagern muss oder ob es einfach nur belegt ist.
 
  • Gefällt mir
Reaktionen: FCK-THIS, HageBen und cookie_dent
Ich gehe auch mal ganz stark davon aus, dass für Spieler die 1TB/s Speicherbandbreite zu viel darstellen. Müsste dann mal jemand mit seiner Karte testen und den RAM ausgehend von 400Mhz auf vlt. 1.200Mhz hochtakten und den Punkt finden wo mehr Speicherbandbreite überhaupt nicht mehr zu mehr Leistung führt - vlt. ist schon bei 700GB/s Schluss bei Games.
 
MIWA P3D schrieb:
Naja 2011 oder 12 gab es die 7970 schon mit 6gb und das für günstige 250Euro

Ja, solche "Ausreißermodelle" gab es immer wieder und mit den genannten 250€ war es wohl wirklich günstig. Von der R9 290X gab es mal eine 8 GB Variante (statt den 4 GB) und auch Nvidia hatte zu dieser Zeit die GTX 780 in einer 6 GB Variante im Angebot - bevor es dann die GTX 780 Ti für die Gamer gab und die GTX Titan für die Enthusiasten bzw. professionellen Anwendern.
 
Also nicht nur die Consumer-Variante der überfüllten Lagerhallen (da kein CUDA-Support vorhanden ist), sondern auch noch ein beschnittenes Abfallprodukt. Gotcha.

Auch wenn ich Nvidia nicht wirklich unterstützen möchte, da es mich wohl auch als Hobbyist in den Zweig des DL ziehen wird, wird meine nächste Graka eine Nvidia werden.
 
SKu schrieb:
Ich gehe auch mal ganz stark davon aus, dass für Spieler die 1TB/s Speicherbandbreite zu viel darstellen.

In Kombination mit den ursprünglich 128 genannten ROPs wäre es wahrscheinlich sinnvoll gewesen. Da jedoch die Anzahl der ROPs bei 64 verbleibt, wird eher dabei der Engpass sein.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Toprallog schrieb:
Trotz 16GB VRAM und atemberaubender Speicherbandbreite. Bringt halt auch nichts, wenn die CPU an sich limitiert.

Wenn ich mich jetzt zwischen 2080 und Vega7 entscheiden müsste wäre es vega....die 16GB HBM sind einfach nützlicher als RT Units.
Und Async Monitore funktionieren ohne wenn und aber xD
Da das ding aber keine 128ROPs hat hat sichs vorerst erledigt.

Falc410 schrieb:
In der Vergangenheit hatten die AMD Karten gefühlt immer "mehr" RAM als NVIDIA und waren trotzdem nicht schneller. Was bringt mir also als Verbraucher wenn ich 16GB VRAM auf der Karte habe? Sorry, als Durchschnittsspieler meine ich.

Mag stimme wenn man jede Gen eine neue GPU kauft.
Tut man dies nicht war man mit GCN1 oder 2 weit besser dran.
Beide hatten "zuviel VRAM" laut grüner grinche, stimmte aber nie.

TheUnfaked schrieb:
Also nicht nur die Consumer-Variante der überfüllten Lagerhallen (da kein CUDA-Support vorhanden ist), sondern auch noch ein beschnittenes Abfallprodukt. Gotcha.
Meine nächste Graka eine Nvidia werden.

https://www.nvidia.com/de-de/design-visualization/quadro-desktop-gpus/
Bekommst da auch nur Beschnittenen GF RTX "Müll", wird wohl nix mit highend GPU ausgenommen einer TItan und selbst die ist noch, wenn leicht, beschnitten.:D
 
Zuletzt bearbeitet von einem Moderator:
nordic_pegasus schrieb:
Es ist eher davon auszugehen, dass noch ein weiterer Salvage Chip mit vielleicht 52 aktiven CUs auf den Markt kommt (vielleicht auch eine Version mit nur 3 aktiven HBM-Stacks).

Fände ich jetzt auch garnicht so verkehrt. Für ein Upgrade immer noch ausreichend... und es sollte die Vega64 mit einem recht kleinen Abstand wegkloppen.
 
TheUnfaked schrieb:
Also nicht nur die Consumer-Variante der überfüllten Lagerhallen (da kein CUDA-Support vorhanden ist), sondern auch noch ein beschnittenes Abfallprodukt. Gotcha.

Auch wenn ich Nvidia nicht wirklich unterstützen möchte, da es mich wohl auch als Hobbyist in den Zweig des DL ziehen wird, wird meine nächste Graka eine Nvidia werden.
Auf die Gefahr hin, dass mein Post im Aquarium landet, aber mehr als ein *lol* fällt mir da echt nicht ein...
 
  • Gefällt mir
Reaktionen: smalM, Rockstar85, GERmaximus und 2 andere
Ned Flanders schrieb:
das Matlab kein OpenCL unterstützt und nach wie Cuda only ist.

Und was kann AMD dafür, dass diese Firma zu doof ist einen offenen Standard anzubieten? Gerade Wissenschaftler sollten auf offenen Standards bestehen, und die Finger von solcher Software lassen.
 
Sinnfrei schrieb:
Und was kann AMD dafür, dass diese Firma zu doof ist einen offenen Standard anzubieten?

Garnichts... Das ändert aber nichts an dem Problem. Es würde aber eventuell helfen wenn AMD sich etwas ins Zeug legt und Mathworks dabei unter die Arme greift OpenCL Support zu bringen. An der Bereitschaft AMD Karten zu kaufen hängt es ja nicht. Man kann aber von prekär beschäftigten akademischen Wissenschaftlern nicht verlangen aus purer Nächstenliebe den Code für eventuelle Matlab Alternativen neu zu schreiben. Als Wissenschaftler hat man ganz andere Probleme.
 
  • Gefällt mir
Reaktionen: tomgit
Sun_set_1 schrieb:
@Volker

Das bringt mir einen verlorenen Gedanken zurück. Mir ist vor einiger Zeit mal aufgefallen, dass ich über Google (fast) keinen guten, für Einsteiger wirklich einfachen Artikel bezüglich der Annäherungsgenauigkeit gefunden habe.

Also wodurch dies entsteht, (Binär-Rechnung) wie moderne Algorithmen es schaffen damit umzugehen bzw richtig interpretieren, wie FP64 zu Stande kommt, wie viel Rechenleistung das kostet, wie man in der Wissenschaft damit umgeht und wie relevant, gerade in moderner Nano-Fertigung, Medizin und DNA Berechnungen das ganze Thema wird.

Viele Leute fragen beim Einstieg zum programmieren immer wieder danach und man bekommt es auch vermittelt. Mein Eindruck ist aber immer, dass der richtige "Ahhh!-Effekt" ausbleibt. Sondern eben akzeptiert wird, dass nur solche Zahlen genau sind, bei denen der Zähler ohne Rest durch den Nenner geteilt werden kann. Und alles andere Annäherungswerte bilden. Die wirkliche Relevanz scheint sich aber vielen nicht zu erschließen.

Also wenn da jemand von Euch mal langweile hat.... Wahrscheinlich wären euch auch die Klicks sämtlicher zukünftiger Mathematik und IT-Studenten sicher ;)

Musst nur das richtige studieren.
Kam bei uns in Numerik dran. Zusammen mit viel Matrix gesülze und Laufzeit verschiedener lgs Lösungsverfahren. Zum kotzen. Mir doch wurscht wie Matlab das intern handhabt.
 
SKu schrieb:
Müsste dann mal jemand mit seiner Karte testen und den RAM ausgehend von 400Mhz auf vlt. 1.200Mhz hochtakten und den Punkt finden wo mehr Speicherbandbreite überhaupt nicht mehr zu mehr Leistung führt
Einer der Punkte die mich auch sehr interessiert und welchen ich gleich testen möchte.
Einziger Haken, WattMan lässt ja nur bis runter zu 800MHz einstellen, von daher sind 800GB/s das Minimum.
Außer natürlich für die Seven wird das im Treiber anders.

Ich finde aber allgemein die Vram "Diskussion" witzig.
Wie aus dem nichts, sind 16GB für manche plötzlich DAS Zugpferd, weil ja 8GB einfach nicht mehr reichen.
Die "Messungen" hierzu würde ich gerne mal sehen.
 
CastorTransport schrieb:
Also, wenn ich mir die Tests anschaue mit den 2080 FE, der 2080 Ti FE - im Vergleich zur Vega64 (OC) in 1440p - wo die Vega64 in SWBF2 (einzig vergleichbares Spiel zu BF5 was die Engine angeht) - da liegt die 1.200€ Karte der Grünen nur 20% bei den 99th percentile vorne. Die Ti wohlgemerkt.

Könntest du diesen Test bitte verlinken?

CastorTransport schrieb:
144Hz auf 1440p mit einer AMD Karte bei HQ im Multiplayer. Das wären meine Ansprüche. Kann auch was kosten.

Gibt es aber nicht. Nicht mal bei nVidia.

Dies ist leider falsch.
Natürlich - je nach gewählten Settings - schafft die 2080 Ti ohne Probbleme 144 fps in Games.
Auch mehr.

Um so viele Bilder darstellen zu können Bedarf es natürlich eine flotte CPU, sowie flotten Arbeitsspeicher.
Dies fehlt leider bei so ziemlich allen Reviewern.

@Rage bereitet aktuell etwas vor (Spoiler) was diese Aussage auch noch detaillierter untermauern wird.
Ich habe z.B. in Warhammer Verminitide 2 ein hartes CPU Limit, wobei 720p, 1080p und 1440p exakt die gleichen FPS liefert.

Also das bitte immer im Hinterkopf behalten, dass für 100 fps+ in AAA Titeln CPU und RAM flotter sein dürfen ;-)
 
  • Gefällt mir
Reaktionen: FCK-THIS und Rage
Shrimpy schrieb:
die 16GB HBM sind einfach nützlicher als RT Units
Stand heute ist beides nicht wirklich nützlich. In Zukunft ist sicher beides notwendig um flüssig zu zocken. Nimmt sich also nix. Aber die Rasterizer-Leistung soll bei NV höher sein. Warten wir den CB Test ab. ^^

Bei Nvidia ist der VRAM der limitierende Faktor, bei AMD ist es die GPU an sich.
Nvidia hat mit der Einführung der 2000er Karten gezeigt, dass sie daran nichts ändern möchten. Bleibt zu hoffen, dass AMD seine Hausaufgaben macht und Navi was großes wird.
 
Da hier die Rede davon war, dass die Karte nur über AMD selber vertrieben werden könnte:
Lohnt sich eigentlich ein Custom-Kühler auf einer Vega56/64, oder holt man durch Undervolting bereits das meiste an verbesserter Kühlung/Lautstärke/Takt raus?
 
Zurück
Oben