Wenn man mit Vega20 un 7nm wirklich eine effizientere Karte ermöglicht hat, die pro MHz mehr leistet und bei ähnlicher Leistungsaufnahme mehr Takt schafft als Vega 10, hätte ich mir gewünscht, dass man bei 8GB HBM2 bleibt und so eine günstigere Karte anbietet, die auch über den Preis gegen Nvidia vorgehen kann. Oder wäre so kein 4096Bit-SI mit 128 ROPs möglich?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar
drago-museweni
Admiral Pro
- Registriert
- März 2004
- Beiträge
- 9.275
mkdr schrieb:Was fürn Gesamtpaket denn außer hohe Stromkosten?
Hast du ne Glaskugel wenn die 7nm da auch so greifen wie anscheinend beim Ryzen 3000 wird die Leistungsaufnahme sicher deutlich geringer ausfallen wie bei Vega 64, und wenn die Spieleleistung an die 2080 reicht bzw fast gleich ist warum sollte ich dann zu NV rennen, sie dir alleine die Sch... mit ihrem Gsync an, ich hau mir doch auch nicht selber in die Schna....
Aber man wird es in den Tests sehen.....
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.227
Luzifer71 schrieb:Leistung.....vermutlich gleich wie RTX 2080, aber eben fast 12 Monate später und ohne TensorCores um RT zu beschleunigen.
12 Monate später? Was verbreitest du da wieder für einen Mist ? Die Radeon kommt im Februar raus.
Acedia23
Lt. Junior Grade
- Registriert
- Apr. 2018
- Beiträge
- 335
mkdr schrieb:Wer kauft sich denn bitte für den Preis eine AMD Karte? Wohl niemand. Wer soviel Geld für eine GPU ausgibt greift zu Nvidia.
Danke für diese Perle der Weisheit
qappVI
Lt. Commander
- Registriert
- Juli 2017
- Beiträge
- 1.267
wird höchstwahrscheinlich bei mir dieses jahr sein also von daher.. aber die preise müssen auch stimmen und ich hab keine lust n monat vorher aufzurüsten und dann kommt ne neue generation von cpus und gpus raus und ich ärger mich, dass ich für das gleiche geld mehr leistung bekommen hätte können oder die gleiche leistung für weniger geld.abcddcba schrieb:Und ich dachte immer man ruestet zu dem Zeitpunkt auf, an dem Leistung fehlt ...
- Registriert
- Sep. 2015
- Beiträge
- 15.050
Shio schrieb:Große Worte. Naja muss ich wohl noch auf die Tests warten bevor ich mir eine neue Grafikkarte kaufe...
Das Gleiche ging mir auch durch den Kopf.
So gern ich auch AMD unterstützen würde, aber Vega war jetzt auch eher ernüchternd, wenn ich an die Ankündigungen dazu zurückdenke.
Wenn die später zum gleichen Preis gehandelt wird wie eine RTX 2080 und dann mehr verbraucht und/oder gar langsamer ist, gibt es kaum einen Grund, das Ding zu kaufen, wo Nvidia jetzt Freesync/Adaptive Sync Support angekündigt hat.
Anti-Virus
Lt. Commander
- Registriert
- Juni 2011
- Beiträge
- 1.077
Hoffentlich tauchen bald die ersten Benchmarks auf! 16 GB VRAM, alles richtig gemacht AMD
Zenx_
Lieutenant
- Registriert
- Dez. 2017
- Beiträge
- 849
Luzifer71 schrieb:Sorry AMD, aber außer den 16 GB VRAM spricht nix für diese Graka!
FreeSync.....wird jetzt auch von nVidia unterstützt
Effizienz.....wird vermutlich 100+Watt mehr benötigen wie eine RTX 2080
Preis.....RTX 2080 ist jetzt schon bereits ab 669€ zu haben: https://www.idealo.de/preisvergleic...geforce-rtx-2080-ventus-oc-8gb-gddr6-msi.html
Leistung.....vermutlich gleich wie RTX 2080, aber eben fast 12 Monate später und ohne TensorCores um RT zu beschleunigen.
Geht mir genauso, ich weiß nicht was sie sich mit dieser Karte gedacht haben.
Denken die (AMD) ernsthaft, dass Leute eine Karte haben wollen, die deutlich mehr Strom frisst als die Konkurrenz und in der Gaming Leistung nur gleichauf ist? Dann auch noch das Ganze mit einem hohen Preis anbieten!
Sehr gut AMD, ihr werdet jetzt damit Marktführer!
M
MEDIC-on-DUTY
Gast
Na endlich haben wohl jetzt die matschigen Texturen und 4-8GB Speicherkrüppellei bei den Games sowie die immer wieder auftretenden Ausreden der Entwickler ihr Spiel würde nur in 4k richtig gut aus sehen ein Ende!
12 GB muss endlich Standard werden. Diese Speichergeizerei von nV ging mir schon die ganze Zeit gegen den Strich. Games wie Star Citizen oder Tomb Raider sind ein Genuss mit 12 GB.
12 GB muss endlich Standard werden. Diese Speichergeizerei von nV ging mir schon die ganze Zeit gegen den Strich. Games wie Star Citizen oder Tomb Raider sind ein Genuss mit 12 GB.
Hier, ich auch... ☝🏻😃mkdr schrieb:Wer kauft sich denn bitte für den Preis eine AMD Karte? Wohl niemand. Wer soviel Geld für eine GPU ausgibt greift zu Nvidia.
Meine RX 580 wartet schon seit längerem auf einen Nachfolger und ich glaube die Radeon VII wirds werden... mal schauen, was von den Boardpartnern so kommt.
die 2080rtx gibts schon seit 12 Monaten?
Glaube ich hab das Jahr verschlafen, dann gibts ja wieder Weihnachtsgeld
Für mich leider in einem Uninteressanten Preisbereich, bei dem bisschen zocken was meinen Tag begleitet, bin ich leider nicht wirklich bereit mehr als 500 Teuronen für ne GPU auszugeben. Ich warte einfach mal noch nen bisschen ab
Glaube ich hab das Jahr verschlafen, dann gibts ja wieder Weihnachtsgeld
Für mich leider in einem Uninteressanten Preisbereich, bei dem bisschen zocken was meinen Tag begleitet, bin ich leider nicht wirklich bereit mehr als 500 Teuronen für ne GPU auszugeben. Ich warte einfach mal noch nen bisschen ab
Dittsche
Lt. Commander
- Registriert
- Feb. 2011
- Beiträge
- 1.141
zett0 schrieb:Das die Leistung einer 2080 erreicht wird ist nicht besonders realistisch. Die GCN-Architektur hat taktbereinigt seit 2011 nur minimale Leistungssteigerungen erhalten. Wie sie aus einer geshrinkten Vega die Leistung rausholen wollen ist ein Rätsel. Dafür müssten schon starke Änderungen an der Architektur vorgenommen werden. Und wenn das der Fall wäre, hätte Amd das in der Präsentation auch erwähnt und als kommende Revolution auf dem GPU-Markt vermarktet. Es ist eher davon auszugehen, dass die Radeon VII nur in ausgewählten Szenarien mit der 2080 gleichziehen kann.
Lisa Su hat es doch aber bei der Ankuendigung noch einmal reiteriert. Steht sogar direkt fett unter dem Namen (Async Compute, Primitive Shaders, Rapid Packet Math). Waeren diese Features nun obsolet, haette sie diese auch nicht extra erwaehnt. Dazu muss man wissen, dass bei Vega einige dieser Features nicht vollstaendig implementiert werden konnten. Wolfgang schreibts auch. Im uebrigen schaffen es beide Hersteller nur in Ausnahmefaellen sich signifikant von der jeweiligen Konkurrenz in derselben Leistungsklasse abzusetzen.
Heutzutage ist halt alles sehr stark von der optimierung der jeweiligen spieleengines abhaengig.
Beispiel: Forza Horizon 4 fuer AMD oder Assassins Creed Origins/Odyssey fuer Nvidia.
Jaydensunkiller
Lt. Junior Grade
- Registriert
- Okt. 2011
- Beiträge
- 362
Also angenommen die Gerüchte um die GTX 1180 Stimmen dann wird es so oder so eng für amd
Macht auch aktuell voll und ganz SinnPhysoX512 schrieb:Die Radeon VII kann aber kein Raytracing, also sinnlos...
IBISXI
Admiral
- Registriert
- Jan. 2014
- Beiträge
- 7.944
Gut das ihr alle schon wisst wie viel Strom die Vega braucht!
Euch ist schon klar das "der Gerät" mit 7nm gefertigt wird?
Nvidia ist noch bei 12nm.
Wie sich HBM2 beim Stromverbrauch schlägt, ist auch noch nicht klar.
Das Gesamtergebnis könnte überraschen.
Euch ist schon klar das "der Gerät" mit 7nm gefertigt wird?
Nvidia ist noch bei 12nm.
Wie sich HBM2 beim Stromverbrauch schlägt, ist auch noch nicht klar.
Das Gesamtergebnis könnte überraschen.
Strikerking
Lt. Commander
- Registriert
- Jan. 2015
- Beiträge
- 2.046
Die NV Jünger zahlen solche Preise auch ohne ProblemeMarcel55 schrieb:700€
Wer soll das bezahlen?
Warum können das die Leute bei AMD nicht? die Graka ist Günstiger als die RTX?