News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

Ich bin auf die Tests gespannt, so schlimm wie hier einige tun finde ich es jetzt nicht.

Muss man ja nicht kaufen, wenn es einem nicht zusagt :daumen:
 
  • Gefällt mir
Reaktionen: Yar und Schranz0815
v_ossi schrieb:
Technisch also interessant, und von der Herstellung und vom Marketing her nachvollziehbar, aber mehr auch nicht.

Es ist der Versuch nicht ganz abgeschlagen zu sein. So das AMD (auch wenn die Strom Aufnahme jenseits von gut und böse ist) sagen kann wir sind auch noch da...und konkurrieren nicht nur mit der kleinsten Gaming Karte vom nVidia.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi
Aber die Bandbreite ist natürlich schon sehr massiv : o
 
  • Gefällt mir
Reaktionen: Schranz0815 und Mcr-King
diamdomi schrieb:
Das kommt aus dem Livestream.
Es wurde ein 9900k@Basistakt gegen einen Ryzen 2 Sample in Cinebench gezeigt.
Ryzen 2 hatte ca. 5% mehr Leistung und zusätzlich 30% weniger verbraucht, als die Intel CPU.

Sorry für die Fragen konnte leider den Stream nicht sehen, Basistakt 3.6 oder Turbo Core mit @4.8 GHz? meine jetzt den i9 9900k?
 
  • Gefällt mir
Reaktionen: Max12102 und Mcr-King
Was viele "möchtegern Gamer" nicht beachten ist, dass Vega ursprünglich nicht fürs Gaming entwickelt wurde. Dass auch Gaming-Grafikkarten mit Vega Chip erscheinen ist einfach ein Produkt um auch im oberen Sektor ein Produkt zu liefern bis die "richtigen Gaming-Grafikkarten" erscheinen und nebenbei eine nette Einnahmequelle für AMD ^^
 
  • Gefällt mir
Reaktionen: cbmik, dister1, Thanok und 4 andere
Stromverbrauch wird interessant werden... kleinere Fertigungen sind zwar effizienter (niedrigere Schaltschwellen), aber mit dem höheren Takt und mehr Speicher frisst sich das vermutlich komplett wieder auf und könnte sogar noch ineffizienter werden...

Ansonsten wäre eine kleinere Variante noch schön, die da dann mehr auf Effizienz geht und trotzdem genug Leistung für WQHD/teils 4k hat. Aber das ist vermutlich bei dem teuren Prozess nur dann eine realistische Option, wenn die Yieldrate so niedrig ist, dass teildefekte/schlechte Bins auch genutzt werden müssen.

Ansonsten freu ich mich, dass AMD auch vor Navi leistungstechnisch zumindest noch einigermaßen mit NV mithalten kann.
 
Cokocool schrieb:
Kinderbase mal wieder... Schon mal von Freesync gehört ?
Welches seit vorgestern auch von Nvidia unterstüzt wird...

Dieser Schritt war schon ein heftiger Schlag für AMD und das hat man auch bei der Keynote gemerkt. Freesync wurde sehr oft erwähnt als Vorteil eines AMD Systems, natürlich wurden diese Reden geschrieben, bevor man wusste, was Nvidia vorhat.



Zum Testgame: Das genannte "Forza 4 Gaming" war doch Forza Horizon 4 oder nicht?

Und man hatte mit dem Ryzen Prototyp und der Radeon VII um die 120fps in 1080p Max.

Wenn ich mal in den Forza Horizon 4 Test von CB schaue, dann sehe ich da bei 1080p mit Preset Hoch 165fps für die Kombo 8700K OC und Vega64.
Drüben bei Techspot stehen für 1080p Ultra 130fps für die gleiche Kombo, allerdings nur mit 2XMSSA
 
@rg88
Ah sorry :D Die kleinen SMD-Bauteile eben. Widerstände, Kondensatoren usw. Sehen aus wie kleine Getreidekörner. Hühnerfutter eben. ;-)
 
  • Gefällt mir
Reaktionen: valnar77, dister1, derSafran und 4 andere
Dann wirds ja wohl hoffentlich einen ausführlichen Test in 4 Wochen auf Computerbase geben. Undervolting wäre dann auch interessant, falls die Karte wirklich eine enorme Abwärme erzeugt.
 
  • Gefällt mir
Reaktionen: Schranz0815
Hauptsache ein brauchbares Lebenszeichen von AMD und in 95% der Welt wird auch nicht so ein Trara um 100-200 Watt Mehrverbrauch gemacht. Die Karte ist für reine Gamer viel zu Schade.
 
  • Gefällt mir
Reaktionen: Balikon, valnar77, dister1 und 15 andere
BosnaMaster schrieb:
Sorry für die Fragen konnte leider den Stream nicht sehen, Basistakt 3.6 oder Turbo Core mit @4.8 GHz? meine jetzt den i9 9900k?

Der 9900k wurde mit dem Basistakt betrieben. Also 3.6 GHz.
Es wurde aber betont, dass die Ryzen 2 CPU eine Sample CPU ist, und noch nicht mit finalen Taktraten läuft. Diese wurden aber sowieso nicht gezeigt ;)
 
  • Gefällt mir
Reaktionen: -> m1 <-
Taxxor schrieb:
Welches seit vorgestern auch von Nvidia unterstüzt wird...
Es sind 12 Monitore die einwandfrei Funktionieren mehr nicht. Auf den Restlichen gibt wohl noch Probleme.
Bei den 12 von Nvidia „mit G-Sync kompatiblen Adaptive-Sync-Monitoren“, so die offizielle Sprechweise
 
  • Gefällt mir
Reaktionen: derSafran und cookie_dent
Das kennen wir ja alle von AMD. Naja im Endeffekt waren sie immer (leider) in Sachen Effizienz und Performance deutlich hinter Nvidia. Es heißt mal wieder abwarten und Tee trinken bis die ersten inoffiziellen Benchmarks online sind.
 
Facepalm schrieb:
16 Gbyte ist das Einzige was für die Karte spricht. Obwohl das Overkill ist. 12 GByte hätten auch gereicht.
Nö, weil dann die Speicherbandbreite geringer wäre und man wieder auf Vega64 Niveau wäre + höherer Takt und vll die eine oder andere Verbesserung der Shader. Aber eben nicht auf 2080 Niveau (bzw. sogar darüber)
 
  • Gefällt mir
Reaktionen: Schranz0815 und or2k
Zumindest hat die Karte durch die 16GB RAM eine Daseinsberechtigung, wenn man eine Grafikkarte für die nächsten 3-4 Jahre kaufen will ist das vermutlich von Vorteil.
Die meisten werden aber vermutlich zur RTX 2080 greifen da sich die 16GB kaum in den aktuellen Tests niederschlagen wird.

AMD hat auch das Problem, dass sie aktuell etwas besseres als NVIDIA zum gleichen Preis brauchen, da sonst die meisten schon aus Gewohnheit weiter zu NVIDIA greifen werden.
 
  • Gefällt mir
Reaktionen: Mcr-King, valnar77, Toprallog und 3 andere
AMD hätte ich nicht erwartet, ihr könntet den High-end GPU Bereich etwas einmischen, wenn die Preise auch stimmen würden, aber so viel HBM2 kostet auch einiges. Also für 500€ maximal für diese Karte von Sapphire würde es sogar was werden.
 
Faust2011 schrieb:
Ein starkes Stück Technik! Man sollte nicht vergessen, dass Vega und Vega 20 keine reinen Gaming-Chips sind. Insbesondere dieser hier, Vega 20, hat eine krasse FP64-Leistung! Das könnte man ein wenig mit der GTX Titan vergleichen, die vor Jahren als Speicher- und Performance-Monster auf den Markt kam.[...]

Stimme dir komplett zu, auch bei denn was ich hier nicht zitiert habe, aber vlt. sollte AMD die Karte einfach nicht unter dem Radeon Label vermarkten.
Das weckt meiner Meinung nach falsche Assoziationen. Sonst hört man bald wieder 'Trotz 7nm nur so schnell wie ne RTX 2080 bei höherem Verbrauch, epic Fail.' Und rein für's Gaming wäre das auch gar nicht komplett verkehrt.
 
  • Gefällt mir
Reaktionen: Schranz0815
Zurück
Oben