Dem kann ich nicht zustimmenPhysoX512 schrieb:Die Radeon VII kann aber kein Raytracing, also sinnlos...
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar
drago-museweni
Admiral Pro
- Registriert
- März 2004
- Beiträge
- 9.275
Marcel55 schrieb:700€
Wer soll das bezahlen?
Nach fünf Jahren bin ich mehr bereit das zu bezahlen für eine, da meine 2x290 nicht weniger gekostet, desweiteren glaube ich das es bestimmt auch Abstufungen geben wird, und wer weiß wie der Marktpreis dann aussehen wird....
Tests abwarten und gucken was zu einem am Besten passt....
Benji21
Lt. Commander
- Registriert
- Aug. 2018
- Beiträge
- 1.064
mkdr schrieb:Was fürn Gesamtpaket denn außer hohe Stromkosten? Gesamtpakete und Zusatz-Bonis ect gibts doch nur bei Nvidia. Was soll AMD bieten was Nvidia nicht bietet plus zich Zusatzsachen?
Speicher für einen akzeptablen Preis? Was bietet Nvidia denn noch so, abgesehen vom Spyxperience, RTX in einem Spiel und Speicher am Existenzminimum?
Luzifer71 schrieb:Sorry AMD, aber außer den 16 GB VRAM spricht nix für diese Graka!
FreeSync.....wird jetzt auch von nVidia unterstützt
Effizienz.....wird vermutlich 100+Watt mehr benötigen wie eine RTX 2080
Preis.....RTX 2080 ist jetzt schon bereits ab 669€ zu haben: https://www.idealo.de/preisvergleic...geforce-rtx-2080-ventus-oc-8gb-gddr6-msi.html
Leistung.....vermutlich gleich wie RTX 2080, aber eben fast 12 Monate später und ohne TensorCores um RT zu beschleunigen.
Ja ich weiß, es gibt bis jetzt nur 1 Game mit RT, aber es werden bestimmt in Zukunft mehr. Und dann bekommt man mit einer RTX wenigstens in den genuß es mit 60 FPS nutzen zu können, mit der AMD halt nicht in Spielbare FPS landen wird.
Ja, läuft bei 12 von 550 Monitoren am Markt garantiert...
die RTX 2080 kam am 20.09.2018 offiziell, das sind natürlich 12 Monate bis zum 07.02.2019!
- Registriert
- Mai 2011
- Beiträge
- 21.388
Gerade bei Vega hat das ziemlich gut hingehauen, die AMD Benches zu Vega64 vs. GTX1080 haben auch genau da sgleiche gezeigt, wie die unabhängigen Reviews, in manchen Spielen etwas schlechter, in manchen gleichauf.andr_gin schrieb:Wenn AMD behauptet sie sind auf RTX 2080 Niveau dann sind sie in der Praxis sicher deutlich. Handselektierte Benchmarks sind immer 10-20% schneller aps unabhängige Reviews.
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.466
Zenx_ schrieb:Geht mir genauso, ich weiß nicht was sie sich mit dieser Karte gedacht haben.
Denken die (AMD) ernsthaft, dass Leute eine Karte haben wollen, die deutlich mehr Strom frisst als die Konkurrenz und in der Gaming Leistung nur gleichauf ist? Dann auch noch das Ganze mit einem hohen Preis anbieten!
Sehr gut AMD, ihr werdet jetzt damit Marktführer!
Ich habe bisher noch keine Tests gesehen. Aber falls die GPU wie Hawaii damals nicht in der 64Bit FP Leistung beschitten ist, wird sie vermutlich auch abseits des Gaming den einen oder anderen Verkäufer finden.
Die Karte gibt es zwar jetzt für Gamer, aber sie wurde in erster Linie für den HPC Markt entworfen.
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.187
Hallo zusammen,
@ Zenx_
Man braucht kein Wahrsager zu sein um zu Erkennen, daß das Verhältnis von Leistung und Stromverbrauch nicht so eklatant auseinander klafft, wie es bei Vega 64 der Fall war. Es ist nicht umsonst die Rede davon, daß die Effizienz deutlich gesteigert werden konnte.
Wenn bei dieser Karte also der Stromverbrauch wie bei Vega 64 mit um die 300 Watt gehalten werden kann, sind es nur noch 50 - 60 Watt mehr Respektive einer RTX 2080 Custom. Damit kann man Leben aus meiner Sicht, da die Karte dann eben wirkliche Vorteile wie die 16 Gbyte HBM 2 hätte.
So long....
@ Zenx_
Zenx_ schrieb:Geht mir genauso, ich weiß nicht was sie sich mit dieser Karte gedacht haben. Denken die (AMD) ernsthaft, dass Leute eine Karte haben wollen, die deutlich mehr Strom frisst als die Konkurrenz und in der Gaming Leistung nur gleichauf ist? Dann auch noch das Ganze mit einem hohen Preis anbieten!
Man braucht kein Wahrsager zu sein um zu Erkennen, daß das Verhältnis von Leistung und Stromverbrauch nicht so eklatant auseinander klafft, wie es bei Vega 64 der Fall war. Es ist nicht umsonst die Rede davon, daß die Effizienz deutlich gesteigert werden konnte.
Wenn bei dieser Karte also der Stromverbrauch wie bei Vega 64 mit um die 300 Watt gehalten werden kann, sind es nur noch 50 - 60 Watt mehr Respektive einer RTX 2080 Custom. Damit kann man Leben aus meiner Sicht, da die Karte dann eben wirkliche Vorteile wie die 16 Gbyte HBM 2 hätte.
So long....
F
Facepalm
Gast
Na da kann ja jemand richtig lesen.rg88 schrieb:Nö, weil dann die Speicherbandbreite geringer wäre und man wieder auf Vega64 Niveau wäre + höherer Takt und vll die eine oder andere Verbesserung der Shader. Aber eben nicht auf 2080 Niveau (bzw. sogar darüber)
Erstens habe ich genau das geschrieben. Es geht nicht wegen den HBM2 Stapeln. Was Bestückung der Speicherpipelines/Anbindung bedeutet. 12 GB wären ungerade.
Zweitens wurde nirgens etwas von über 2080 Niveau gesagt. Da interpretierst du jetzt Wunschdenken rein. Und wenn wird das nur mit einem exorbitanten Stromhunger erreicht.
Aber bis zu den ersten Tests jetzt erstmal abwarten. Alles andere ist Spekulation.
Benji21
Lt. Commander
- Registriert
- Aug. 2018
- Beiträge
- 1.064
Zur Info: Die VII alias Vega2 (oder Vega20) taktet zwischen 11 und 17% höher im Mittel als Vega 64 (LC und Air). Ratet mal wo der Großteil der Leistung dann wohl her kommt...
Richtig, das Speicherinterface! Und da knabbert Vega 1 schon arg dran trotz hbm2.
Richtig, das Speicherinterface! Und da knabbert Vega 1 schon arg dran trotz hbm2.
Zenx_
Lieutenant
- Registriert
- Dez. 2017
- Beiträge
- 849
Da bin ich mir nicht so sicher, ich vermute, dass die Karte zwar ne Ecke mehr Leistung als die Vega 64 haben wird, allerdings genauso viel Strom verbrauchen wird.IBISXI schrieb:Gut das ihr alle schon wisst wie viel Strom die Vega braucht!
Euch ist schon klar das "der Gerät" mit 7nm gefertigt wird?
Nvidia ist noch bei 12nm.
Wie sich HBM2 beim Stromverbrauch schlägt, ist auch noch nicht klar.
Das Gesamtergebnis könnte überraschen.
Marcel55
Fleet Admiral
- Registriert
- Nov. 2007
- Beiträge
- 18.130
Also ich zahle auch bei nVidia nicht solche Preise...Strikerking schrieb:Die NV Jünger zahlen solche Preise auch ohne Probleme
Warum können das die Leute bei AMD nicht? die Graka ist Günstiger als die RTX?
350€ für ne gute Graka muss ausreichend sein, dafür will ich aber auch doppelte Leistung meiner R9 290 sehen...
AlcAida
Lt. Junior Grade
- Registriert
- März 2009
- Beiträge
- 322
Ärgerlich hätte keine neue RX Vega 64 als Ersatz für meine Liquid bestellen sollen mal sehen wann die aus der RMA wiederkommt wenn die dann noch Wert haben wäre so eine VegaVII eine u Überlegung Wert.
Wobei die Liquid ja auch ganz nett ist.
Wobei die Liquid ja auch ganz nett ist.
Benji21
Lt. Commander
- Registriert
- Aug. 2018
- Beiträge
- 1.064
IBISXI schrieb:Gut das ihr alle schon wisst wie viel Strom die Vega braucht!
Euch ist schon klar das "der Gerät" mit 7nm gefertigt wird?
Nvidia ist noch bei 12nm.
Wie sich HBM2 beim Stromverbrauch schlägt, ist auch noch nicht klar.
Das Gesamtergebnis könnte überraschen.
Willst du uns verarschen? Vega10 (also 64 und 56) hat HBM2 (den gleichen Speicher, hier taktet er nur leicht höher), Vega20 war schon immer als 7nm Refresh geplant und gibt es schon für den HTPC Bereich in Form der Instinct MI25 zum Beispiel.
Zenx_
Lieutenant
- Registriert
- Dez. 2017
- Beiträge
- 849
hmm, dann bin ich mal gespannt, die Tests werden es nur noch zeigen können.IBISXI schrieb:Welche Vorteile der 7nm Prozess hat, kann man gut bei den CPU´s sehen.
9900k Leistung bei 30% weniger Verbrauch.
Das wird sich bei Grafikkarten ähnlich Verhalten.
Wenn die Radeon VII am Ende [im Schnitt über alle Games hinweg in WQHD und UHD] auf dem Niveau einer RTX 2080 liegt und es eine Sapphire Nitro+ gibt, könnte ich mir das schon vorstellen.
Voraussetzung wäre, dass ich die Leistung dann mit dem Verbrauch meiner aktuellen RX VEGA 56 bekomme.
Wenn eine solche Karte für 600,— Euro verfügbar wäre, würde ich vermutlich zuschlagen [und auch das wäre gut 100,— Euro über meiner eigentlichen Schmerzgrenze.]
Voraussetzung wäre, dass ich die Leistung dann mit dem Verbrauch meiner aktuellen RX VEGA 56 bekomme.
Wenn eine solche Karte für 600,— Euro verfügbar wäre, würde ich vermutlich zuschlagen [und auch das wäre gut 100,— Euro über meiner eigentlichen Schmerzgrenze.]
sverebom
Vice Admiral
- Registriert
- Aug. 2004
- Beiträge
- 6.345
Kann diese Mär von den Stromkosten bitte endlich mal aufhören? AMD ist auch nicht schlecht in der Effizienz. Nvidia ist nur noch besser als AMD. Das marginalisiert sich aber im tatsächlichen Praxieinsatz, spätestens vor allem dann, wenn man Chill aktiviert. In den Reviews sieht man theoretische Maximalszenarien. Meine RX 580 Nitro+ schluckt aber im Alltag kaum die Hälfte von dem, was die Magazine getestet haben, und die Gaming-Performance leidet kein Stück (Chill und FreeSync machens möglich). Was da am Ende des Jahres vielleicht mehr verbraucht wurde, wenn überhaupt, kann man wahrscheinlich mit dem Wechsel einer Glühbirne gegen eine LED-Lampe wieder rein holen.mkdr schrieb:Was fürn Gesamtpaket denn außer hohe Stromkosten?
Also mal bitte den Ball flach halten. Zwar wäre es schöner wenn auch AMD noch etwas in Sachen Effizienz zulegen würde, einfach weil die Kühler dann etwas kompakter sein könnten (das ist das, was mich wirklich ankotzt mit AMD: An SFF ist jenseits der Mittelklasse kaum zu denken sobald eine Radeon verbaut werden soll), aber den Stromverbrauch wird kaum jemand bemerken (mmh, Gronkh vielleicht, weil er ja aus beruflichen Gründen tagein tagaus zocken muss).
Ach ja, weil du gefragt hast, was AMD hat, das Nvidia nicht bieten kann: Freesync, eine bessere Treiber-Software, und oft eine Mehrleistung in Low-Level-APIs, allen voran Vulcan. Die Spiele die ich spiele, laufen überwiegend besser mit Radeon.
@MEDIC-on-DUTY : Wird es aber nie, aus technischen Gründen.
Seit Ewigkeiten sind Speicherinterfaces mit 256Bit das Maß aller Dinge, mehr ist absolutes Highend und bei Nvidia seit geraumer Zeit den Titans und x80Ti vorbehalten, im Midrange und dank RTX2060 nun auch in einem Bereich, der preislich früher unteres Highend und heute wohl High-to-Mid ist, auch 192 Bit, wobei das immer in 32-Bit Controller aufgeteilt ist, die parallel arbeiten.
Auch Speichergrößen verdoppeln sich immer nur in Vielfachen von 2, aktuell haben Speicherchips eine Größe von 1GB, man kann also acht davon an die acht 32Bit-Controller eines 256Bit-SI anschließen oder sechs bei 192Bit, 12 bei 384Bit usw.
Ich meine, man kann auch zwei Chips an jeden Controller anschließen, bin mir aber gerade nicht sicher, oder man nimmt eben doppelt so große, falls es die gibt. Ich glaube, für GDDR5(X)/6 gibt es die aber nicht.
Andere Speichergrößen kann man nur erreichen, indem man die Chips ungerade verteilt, also etwa für 12GB an 256Bit an die Hälfte der 32Bit-SI 2GB-Chips (falls es sie gibt) anschließt. Das hat Nvidia einige Male gemacht, aber es hat einen großen Nachteil und war deshalb immer unbeliebt: Das Mehr an Speicher, also der 2. GB von jedem 2GB-Chip, kann nur mit verminderter Geschwindigkeit angesprochen werden, in diese, Fall mit halber, weil nur die SI, die 2GB haben, auch über die volle Kapazität paralell beschrieben werden können. Wenn man jetzt 10GB nähme, als 6x1GB + 2x2GB, dann könnten 2GB nur mit 64Bit angesprochen werden usw.
Lange Rede kurzer Sinn, für 256Bit kann der Nächste Schritt nur 16GB sein, für 192Bit 12GB usw. Die einzige Alternative wäre, 384Bit zum Standard zu machen (oder 192Bit mit sehr schnellen 2GB-Chips).
Ich habe aber eine Verständnisfrage zu HBM2: Durch die Verdopplung des Speichers hat sich ja auch das SI und damit die Speicherbandbreite verdoppelt, nebenbei noch die ROPs, was sicherlich auch hilft. Aber die Speichermenge ist für Games ja Overkill. Gibt es keine 2GB-HBM-Chips mit 1024Bit-SI, so dass man auch 8GB mit 4096Bit hinkriegt, oder warum nimmt man diese teure Speichermenge dafür hin?
Seit Ewigkeiten sind Speicherinterfaces mit 256Bit das Maß aller Dinge, mehr ist absolutes Highend und bei Nvidia seit geraumer Zeit den Titans und x80Ti vorbehalten, im Midrange und dank RTX2060 nun auch in einem Bereich, der preislich früher unteres Highend und heute wohl High-to-Mid ist, auch 192 Bit, wobei das immer in 32-Bit Controller aufgeteilt ist, die parallel arbeiten.
Auch Speichergrößen verdoppeln sich immer nur in Vielfachen von 2, aktuell haben Speicherchips eine Größe von 1GB, man kann also acht davon an die acht 32Bit-Controller eines 256Bit-SI anschließen oder sechs bei 192Bit, 12 bei 384Bit usw.
Ich meine, man kann auch zwei Chips an jeden Controller anschließen, bin mir aber gerade nicht sicher, oder man nimmt eben doppelt so große, falls es die gibt. Ich glaube, für GDDR5(X)/6 gibt es die aber nicht.
Andere Speichergrößen kann man nur erreichen, indem man die Chips ungerade verteilt, also etwa für 12GB an 256Bit an die Hälfte der 32Bit-SI 2GB-Chips (falls es sie gibt) anschließt. Das hat Nvidia einige Male gemacht, aber es hat einen großen Nachteil und war deshalb immer unbeliebt: Das Mehr an Speicher, also der 2. GB von jedem 2GB-Chip, kann nur mit verminderter Geschwindigkeit angesprochen werden, in diese, Fall mit halber, weil nur die SI, die 2GB haben, auch über die volle Kapazität paralell beschrieben werden können. Wenn man jetzt 10GB nähme, als 6x1GB + 2x2GB, dann könnten 2GB nur mit 64Bit angesprochen werden usw.
Lange Rede kurzer Sinn, für 256Bit kann der Nächste Schritt nur 16GB sein, für 192Bit 12GB usw. Die einzige Alternative wäre, 384Bit zum Standard zu machen (oder 192Bit mit sehr schnellen 2GB-Chips).
Ich habe aber eine Verständnisfrage zu HBM2: Durch die Verdopplung des Speichers hat sich ja auch das SI und damit die Speicherbandbreite verdoppelt, nebenbei noch die ROPs, was sicherlich auch hilft. Aber die Speichermenge ist für Games ja Overkill. Gibt es keine 2GB-HBM-Chips mit 1024Bit-SI, so dass man auch 8GB mit 4096Bit hinkriegt, oder warum nimmt man diese teure Speichermenge dafür hin?
Benji21
Lt. Commander
- Registriert
- Aug. 2018
- Beiträge
- 1.064
RYZ3N schrieb:Wenn die Radeon VII am Ende [im Schnitt über alle Games hinweg in WQHD und UHD] auf dem Niveau einer RTX 2080 liegt und es eine Sapphire Nitro+ gibt, könnte ich mir das schon vorstellen.
Voraussetzung wäre, dass ich die Leistung dann mit dem Verbrauch meiner aktuellen RX VEGA 56 bekomme.
Wenn eine solche Karte für 600,— Euro verfügbar wäre, würde ich vermutlich zuschlagen [und auch das wäre gut 100,— Euro über meiner eigentlichen Schmerzgrenze.]
Denke sie wird mehr brauchen, ist ja in der Mitte von beiden. Evtl. hat sie aber dadurch auch entsprechendes UV Potential. Wären immerhin rund 50-60 Watt bei stabilerem Takt.
Zotac2012
Admiral
- Registriert
- Apr. 2012
- Beiträge
- 7.776
Weil es ja auch derzeit massig Games mit RTX Features gibt, Raytracing braucht derzeit kein Mensch und ehrlich, ich vermisse es auch nicht!PhysoX512 schrieb:Die Radeon VII kann aber kein Raytracing, also sinnlos...
Mal schauen wo sich die Radeon VII dann von der Leistung her einordnet, vermutlich wohl eher zwischen eine RTX 2070 und 2080. Ein Preis von 699,00 Dollar entspricht 600,00 Euro, wäre für eine Leistung zwischen den beiden genannten Nvidia Grafikkarten auch genau in der Mitte und dazu 16GB HBM2, das hört sich sehr gut an. Klingt deutlich interessanter, als die Krüppelkarte RTX 2070, dazu noch der 7nm, dann sollte auch der Strombedarf um einiges niedriger sein als bei Vega. Bin schon mal auf die Benches nächsten Monat gespannt!
Strikerking
Lt. Commander
- Registriert
- Jan. 2015
- Beiträge
- 2.046