Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar
Gamefaq
Vice Admiral
- Registriert
- Jan. 2005
- Beiträge
- 7.141
v_ossi schrieb:Technisch also interessant, und von der Herstellung und vom Marketing her nachvollziehbar, aber mehr auch nicht.
Es ist der Versuch nicht ganz abgeschlagen zu sein. So das AMD (auch wenn die Strom Aufnahme jenseits von gut und böse ist) sagen kann wir sind auch noch da...und konkurrieren nicht nur mit der kleinsten Gaming Karte vom nVidia.
Zuletzt bearbeitet:
Cokocool schrieb:Schon mal von Freesync gehört ?
Wird doch von Nvidia Grafikkarten nun auch unterstützt.
BosnaMaster
Lt. Junior Grade
- Registriert
- Feb. 2017
- Beiträge
- 428
diamdomi schrieb:Das kommt aus dem Livestream.
Es wurde ein 9900k@Basistakt gegen einen Ryzen 2 Sample in Cinebench gezeigt.
Ryzen 2 hatte ca. 5% mehr Leistung und zusätzlich 30% weniger verbraucht, als die Intel CPU.
Sorry für die Fragen konnte leider den Stream nicht sehen, Basistakt 3.6 oder Turbo Core mit @4.8 GHz? meine jetzt den i9 9900k?
Zeitwächter
Lt. Commander
- Registriert
- Apr. 2017
- Beiträge
- 2.002
Was viele "möchtegern Gamer" nicht beachten ist, dass Vega ursprünglich nicht fürs Gaming entwickelt wurde. Dass auch Gaming-Grafikkarten mit Vega Chip erscheinen ist einfach ein Produkt um auch im oberen Sektor ein Produkt zu liefern bis die "richtigen Gaming-Grafikkarten" erscheinen und nebenbei eine nette Einnahmequelle für AMD ^^
Stromverbrauch wird interessant werden... kleinere Fertigungen sind zwar effizienter (niedrigere Schaltschwellen), aber mit dem höheren Takt und mehr Speicher frisst sich das vermutlich komplett wieder auf und könnte sogar noch ineffizienter werden...
Ansonsten wäre eine kleinere Variante noch schön, die da dann mehr auf Effizienz geht und trotzdem genug Leistung für WQHD/teils 4k hat. Aber das ist vermutlich bei dem teuren Prozess nur dann eine realistische Option, wenn die Yieldrate so niedrig ist, dass teildefekte/schlechte Bins auch genutzt werden müssen.
Ansonsten freu ich mich, dass AMD auch vor Navi leistungstechnisch zumindest noch einigermaßen mit NV mithalten kann.
Ansonsten wäre eine kleinere Variante noch schön, die da dann mehr auf Effizienz geht und trotzdem genug Leistung für WQHD/teils 4k hat. Aber das ist vermutlich bei dem teuren Prozess nur dann eine realistische Option, wenn die Yieldrate so niedrig ist, dass teildefekte/schlechte Bins auch genutzt werden müssen.
Ansonsten freu ich mich, dass AMD auch vor Navi leistungstechnisch zumindest noch einigermaßen mit NV mithalten kann.
- Registriert
- Mai 2011
- Beiträge
- 21.387
Welches seit vorgestern auch von Nvidia unterstüzt wird...Cokocool schrieb:Kinderbase mal wieder... Schon mal von Freesync gehört ?
Dieser Schritt war schon ein heftiger Schlag für AMD und das hat man auch bei der Keynote gemerkt. Freesync wurde sehr oft erwähnt als Vorteil eines AMD Systems, natürlich wurden diese Reden geschrieben, bevor man wusste, was Nvidia vorhat.
Zum Testgame: Das genannte "Forza 4 Gaming" war doch Forza Horizon 4 oder nicht?
Und man hatte mit dem Ryzen Prototyp und der Radeon VII um die 120fps in 1080p Max.
Wenn ich mal in den Forza Horizon 4 Test von CB schaue, dann sehe ich da bei 1080p mit Preset Hoch 165fps für die Kombo 8700K OC und Vega64.
Drüben bei Techspot stehen für 1080p Ultra 130fps für die gleiche Kombo, allerdings nur mit 2XMSSA
M
matti87
Gast
Dann wirds ja wohl hoffentlich einen ausführlichen Test in 4 Wochen auf Computerbase geben. Undervolting wäre dann auch interessant, falls die Karte wirklich eine enorme Abwärme erzeugt.
Palmdale
Captain
- Registriert
- Apr. 2009
- Beiträge
- 3.164
@Heschel
Der steht ja mit 699 Dollar schon fest, rangelt dann allerdings scho mit den 649€ bei der 2080
@Cokocool
Den entsprechend "guten" Freesync Monitor vorausgesetzt lässt sich der auch mit Nvidia bald nutzen, siehe FAQ bei tomshw https://www.tomshw.de/2019/01/09/gu...hen-g-sync-und-a-sync-vrrr-freesync-igorslab/
Der steht ja mit 699 Dollar schon fest, rangelt dann allerdings scho mit den 649€ bei der 2080
@Cokocool
Den entsprechend "guten" Freesync Monitor vorausgesetzt lässt sich der auch mit Nvidia bald nutzen, siehe FAQ bei tomshw https://www.tomshw.de/2019/01/09/gu...hen-g-sync-und-a-sync-vrrr-freesync-igorslab/
Taxxor schrieb:Welches seit vorgestern auch von Nvidia unterstüzt wird...
...von unglaublichen 12 Monitoren
- Registriert
- Mai 2009
- Beiträge
- 7.490
BosnaMaster schrieb:Sorry für die Fragen konnte leider den Stream nicht sehen, Basistakt 3.6 oder Turbo Core mit @4.8 GHz? meine jetzt den i9 9900k?
Der 9900k wurde mit dem Basistakt betrieben. Also 3.6 GHz.
Es wurde aber betont, dass die Ryzen 2 CPU eine Sample CPU ist, und noch nicht mit finalen Taktraten läuft. Diese wurden aber sowieso nicht gezeigt
Strikerking
Lt. Commander
- Registriert
- Jan. 2015
- Beiträge
- 2.046
Es sind 12 Monitore die einwandfrei Funktionieren mehr nicht. Auf den Restlichen gibt wohl noch Probleme.Taxxor schrieb:Welches seit vorgestern auch von Nvidia unterstüzt wird...
Bei den 12 von Nvidia „mit G-Sync kompatiblen Adaptive-Sync-Monitoren“, so die offizielle Sprechweise
rg88
Fleet Admiral
- Registriert
- Feb. 2015
- Beiträge
- 35.264
Nö, weil dann die Speicherbandbreite geringer wäre und man wieder auf Vega64 Niveau wäre + höherer Takt und vll die eine oder andere Verbesserung der Shader. Aber eben nicht auf 2080 Niveau (bzw. sogar darüber)Facepalm schrieb:16 Gbyte ist das Einzige was für die Karte spricht. Obwohl das Overkill ist. 12 GByte hätten auch gereicht.
Zumindest hat die Karte durch die 16GB RAM eine Daseinsberechtigung, wenn man eine Grafikkarte für die nächsten 3-4 Jahre kaufen will ist das vermutlich von Vorteil.
Die meisten werden aber vermutlich zur RTX 2080 greifen da sich die 16GB kaum in den aktuellen Tests niederschlagen wird.
AMD hat auch das Problem, dass sie aktuell etwas besseres als NVIDIA zum gleichen Preis brauchen, da sonst die meisten schon aus Gewohnheit weiter zu NVIDIA greifen werden.
Die meisten werden aber vermutlich zur RTX 2080 greifen da sich die 16GB kaum in den aktuellen Tests niederschlagen wird.
AMD hat auch das Problem, dass sie aktuell etwas besseres als NVIDIA zum gleichen Preis brauchen, da sonst die meisten schon aus Gewohnheit weiter zu NVIDIA greifen werden.
v_ossi
Commodore
- Registriert
- Juni 2011
- Beiträge
- 4.791
Faust2011 schrieb:Ein starkes Stück Technik! Man sollte nicht vergessen, dass Vega und Vega 20 keine reinen Gaming-Chips sind. Insbesondere dieser hier, Vega 20, hat eine krasse FP64-Leistung! Das könnte man ein wenig mit der GTX Titan vergleichen, die vor Jahren als Speicher- und Performance-Monster auf den Markt kam.[...]
Stimme dir komplett zu, auch bei denn was ich hier nicht zitiert habe, aber vlt. sollte AMD die Karte einfach nicht unter dem Radeon Label vermarkten.
Das weckt meiner Meinung nach falsche Assoziationen. Sonst hört man bald wieder 'Trotz 7nm nur so schnell wie ne RTX 2080 bei höherem Verbrauch, epic Fail.' Und rein für's Gaming wäre das auch gar nicht komplett verkehrt.