Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsVega 20: AMD Radeon VII ohne volle FP64-Unterstützung der MI50
@nordic_pegasus
Würde mich auch mal interessieren. Falls die R7 angenommen HDMI 2.1 haben sollte, könnte man diese Karte mit einem zukünftigen 65 Zoll OLED Fernseher mit 4K@120 Hz betreiben
Ist gekauft die Karte, RTX 2080 Leistung, in DX12 und Vulkan vielleicht ein bisschen mehr und doppelter Speicher.
Total geil, Preis ist auch ok! 7nm und 16 gb hbm sind nunmal nicht billig!
Nur 64 rops und kein pcie 4 haben meine Bereitschaft 700€ zu Release auszugeben massiv geschmälert. Ich bin mit der fury noch gut unterwegs und die radeon 7 wäre nur ein neues Spielzeug gewesen, die jetzt n paar coole Punkte auf der Nerd checkliste eingebüßt hat.
Schade um die compute Leistung, ist aber nachvollziehbar.
Hausintern ohne Bezug zur Konkurrenz, ja. Die schafft allerdings (final dann zum 7. Februar) das bisher gezeigte mit dem alten Fertigungsverfahren und hat seinen Sprung auf 7nm mit 30% noch vor sich
Du kannst bereits heute 8 GB ans Limit bringen wenn du willst. Da wird es mit 16 GB auch nicht anders sein. Die Frage ist aber ob man 8 GB geschweige den 16 GB ans Limit puschen muss wenn man eh kein echten Unterschied in den Texturen mehr sieht? Es ist zwar nett dass aktuelle Software die HW voll ausnutzen kann aber was bringt es wenn das nicht wirklich sichtbare Vorteile bringt?
PS: kann man bitte diese dämlichen "Energieverbrauchs"-Argumente mal weglassen? JEDER Intel und auch jede nVidia verbraucht sobald OC aktiv ebenfalls weit über dem Standard
Es kommt halt immer darauf an was man für diesen Stromverbrauch an Leistung zurückbekommt. Wenn man nur Strom verbaucht weil man's kann, dann ist das eben ein valider Kritikpunkt.
Wenn man Strom verbraucht weil man dadurch noch mehr Leistung zur Verfügung stellt, dann ist das OK.
Wenn du von einer 80W Glühbirne die gleiche Lichtausbeute hättest wie von einer 40W Glübirne, dann wäre die 80W Glühbirne einfach schlechter.
Das ist doch nicht notwendig. Man muß eigentlich nur den Takt auf der Schnittstelle auf PCIe-3.0 Niveau beschränken. PCIe-4.0 ist ja rückwärtskompatibel zu 3.0 in der Form das 4.0 Karten auch in 3.0 Slots ( mit 3.0 Geschwindigkeit) laufen sollen.
Laut Igor von THG wird es keine AIB Modelle geben, die Vega VII exclusiv von AMD vertrieben. Also sind Preissenkungen über die Zeit tendenziell nicht zu erwarten. Die soll ca. 700 USD kosten und nehmen wir mal an, dass der Euro Preis ähnlich ausfällt. Die RTX 2080 gibt es schon ab 680€ und soll noch einen Tick schneller sein (wurde hier im Artikel ja auch noch mal erwähnt, vermutlich nicht ohne Grund). Die 2080 bietet Features, die man noch nicht nutzen kann, aber wer weiß was kommt. Preis/Leistungstechnisch sehe ich die Nvidia Karte hier besser aufgestellt. Trotz 16GB VRAM und atemberaubender Speicherbandbreite. Bringt halt auch nichts, wenn die CPU an sich limitiert.
Ich werde mir die auf jeden Fall holen. Könnte eventuell sogar meine letzte Grafikkarte sein die ich je kaufen werde. 16GB VRAM reichen bis in alle Ewigkeit (für mich). Ich zocke eigentlich nur noch die Games die früher rausgekommen sind und meide den ganzen Kommerzgrampf der heute rauskommt.
Also ich warte da mal noch ab. 700€ sind schon eine Menge Geld, dafür muss die Karte in den Tests abliefern oder die Straßenpreise günstiger ausfallen. 700€ finde ich für das bisher bekannte etwas zu teuer.
Das die FP64 Leistung beschränkt wird war klar. Aber kein PCI-E 4? Hat mich schon gewundert, dass das bei der Präsentation nicht erwähnt wurde. Macht beim zocken eh keinen unterschied, komisch ist es aber schon, die Karte kann es ja eigentlich.
Ich bin auf Tests gespannt, aber noch nicht überzeugt, ob ich mir so eine kaufen würde. Ich hätte für den Sprung auf 4K gerne mehr Leistung, aber die 2080 ist mit 8GB für mich keine Alternative und die Radeon VII hat mich noch nicht ganz überzeugt. Mal abwarten.
@nordic_pegasus
Würde mich auch mal interessieren. Falls die R7 angenommen HDMI 2.1 haben sollte, könnte man diese Karte mit einem zukünftigen 65 Zoll OLED Fernseher mit 4K@120 Hz betreiben
Also ich warte da mal noch ab. 700€ sind schon eine Menge Geld, dafür muss die Karte in den Tests abliefern oder die Straßenpreise günstiger ausfallen. 700€ finde ich für das bisher bekannte etwas zu teue
Bleibt der Verbrauch so hoch , wird auch Radeon VII nur ne Randerscheinung.
Die wenigstens haben hochwertige 600W-Netzteile verbaut die das auf Dauer mitmachen.
Ob man da mit 600W hin kommt? Mein Dark Power Pro 11 mit 550W hat mit der VEGA 64 regelmäßig abgeschaltet,auch wenn manche an BQ rummaulen aber schlecht ist das NT sicher nicht, da würd ich noch mal 50W drauf legen ... ich hab mir sogar extra ein 750er gekauft auch wenn ich meine 64er mit der weile Verkauft habe
Ob man da mit 600W hin kommt? Mein Dark Power Pro 11 mit 550W hat mit der VEGA 64 regelmäßig abgeschaltet,auch wenn manche an BQ rummaulen aber schlecht ist das NT sicher nicht, da würd ich noch mal 50W drauf legen ... ich hab mir sogar extra ein 750er gekauft auch wenn ich meine 64er mit der weile Verkauft habe
Bin gespannt ob man die Radeon7 genau so gut undervolten kann.
Konnte das Powerstate 6 auf meiner Vega 56 um ,15 Volt senken, hab seitdem Standardmäßig über 1500 MHz GPU Takt
"Wissenschaftliches Arbeiten" mit den AMD Karten ist leider schon dadurch grundsätzlich beschnitten, das Matlab kein OpenCL unterstützt und nach wie Cuda only ist. Da Matlab zumindest in unserem Bereich DER Standard
Wissenschaft ist im Vergleich zur Industrie eh immer hinterher.
Bei uns sind heute Fortan Programme, die ihren Ursprung in den 70/80er hatten immer noch "state-of-the-art" und in meinem Bereich (Quantenchemie) herrscht eine ziemlich große Antipathie gegenüber GPUs. Teilweise begründet, z.b. brauchen wir gigantische RAM Größen, aber auch die fehlende 64 bit Genauigkeit war lange Zeit eine Ausrede sich nicht damit beschäftigen zu müssen. Aber manchmal ist es echt einfach nur verwunderlich wie stocksteif man im gerade im wissenschaftlichen Bereich an bewährten Methoden festhält.
Gängige Libraries wie BLAS sind allerdings auch unter OpenCL kein Problem, also rein formal sollte das OpenCL kein Hindernis sein.
Mein Dark Power Pro 11 mit 550W hat mit der VEGA 64 regelmäßig abgeschaltet,auch wenn manche an BQ rummaulen aber schlecht ist das NT sicher nicht, da würd ich noch mal 50W drauf legen
Das DPP hat auch noch ne doppelte 12V Schiene verglichen mit der Konkurrenz.
Das kommt noch hinzu, der hohe Verbrauch meiner R9 390 hat warscheinlich damals mein DPP10 gekillt.
CastorTransport schrieb:
PS: kann man bitte diese dämlichen "Energieverbrauchs"-Argumente mal weglassen?
Warum weglassen? Das ist halt nicht unwichtig und ein Kaufkriterium, wer ein hochweriges 500W Netzteil drin hat überlegt es sich 2x ob er dafür extra noch ein neues 600W+ NT kauft.
Sieht cool aus, aber leider reicht mir ein Die Shot und das will haben Gefühl bei mir nicht aus, wenn die Leistung nicht passt. Sollte sie gut abschneiden, könnte ich schwach werden, aber erst mal abwarten. Dauert ja nicht mehr lange.
Habe ja auch die Hoffnung, dass die Straßenpreise in absehbarer Zeit etwas fallen, auch wenn ich es nicht so recht glaube.
Ansonsten tut es auch nicht weh, noch etwas zu warten, wobei einen High End Navi werden wir wohl frühestens in einem jahr sehen. Ich lasse mich einfach überraschen was da nächsten Monat auf uns zukommt.