News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

@BosnaMaster Im Livestream wurde ein Cinebench Run gezeigt mit eingeblendeter System-Verbrauchsmessung. Beide CPU's waren bei ca 2050 Punkten, der i9 mit ~175W und das Sample bei ~130W Powerdraw.
 
frkazid schrieb:
...von unglaublichen 12 Monitoren :daumen:
Strikerking schrieb:
Es sind 12 Monitore die einwandfrei Funktionieren mehr nicht. Auf den Restlichen gibt wohl noch Probleme.

Naja, das sind lediglich die Monitore, auf denen es laut Nvidia zu 100% funktioniert und daher quasi zertifiziert ist. Das bedeutet nicht, dass es nicht noch 100 weitere Monitore gibt, auf denen es gefühlt exakt genau so gut läuft.
 
  • Gefällt mir
Reaktionen: MeisterOek
Na immerhin nun 2080 Konkurrenz, also NVIDIA Mittelklasse Chip wird eingeholt. Geht doch AMD.
Nun kann man sich entscheiden: 1TByte/s und 16GB oder RT und effizientere Karte.

Das Navi vorgestellt wird, glaubten auch nur uninformierte. Schließlich haben sie nicht ohne Grund eine 590 auf den Markt gelassen. Die wird noch viele Monate gegen den vermeintlichen und kommenden Pascal Refresh antreten.
 
cRoss. schrieb:
Doch, kommen Mitte des Jahres, ein "Early Sample" mit 8C/16T ist im Cinebench genauso schnell, wie ein i9-9900k mit offenem PT, bei 30% weniger Verbrauch.

Zumindest im Cinebench gleichauf mit dem 9900k, das kann ich mir gut vorstellen. Mit den 30% weniger Verbauch wäre ich noch vorsichtig. Wurde das im Stream gesagt? In Spielen wird man vermutlich hinter Intel landen, möglicherweise sogar noch hinter dem alten 8700k. Latenz und der Kram.
Ein bezahlbarer 16-Kerner mit gleicher Singlecore-Leistung (angeblich möglich) wäre aber sehr fein und würde meine Erwartungen übertreffen.

Die Ankündigung kann man übrigens auf Golem nachlesen.
 
diamdomi schrieb:
Der 9900k wurde mit dem Basistakt betrieben. Also 3.6 GHz.
Es wurde aber betont, dass die Ryzen 2 CPU eine Sample CPU ist, und noch nicht mit finalen Taktraten läuft. Diese wurden aber sowieso nicht gezeigt ;)

Puh klar aber der i9 9900k kann noch pro Kern 1200 MHz zulegen, können die noch soviel zulegen? :(
 
buuge schrieb:
Moment mal, bei Nvidia heisst es doch immer, dass die 2080 mit 8GB und 2060 mit ihren 6GB Speicher ne reine Enttäuschung wären aufgrund des geringen Speichers?

Jetzt kommt AMD mit doppelt soviel daher und es ist auch nicht richtig :confused_alt:

Du verstehst das falsch:
Hat AMD mehr Speicher als Nvidia ist es nicht relevant, weil man es in absehbarer Zeit nicht braucht. Ist es andersrum, ist es ein Killerargument gegen AMD und pro Nvidia.
Genauso bei den neuen Features. Bringt AMD was neues (z.B. Primitive Shader , Asyc Compute, bessere DX12 Performance) ist es irrelevant, weil es kaum genutzt wird. Bringt Nvidia was Neues und es gibt EIN Spiel das es verwendet, ist es das Killerfeature schlechthin.

Für die Tatsache, das AMD so gut wie nichts am Chipdesign geändert hat, als den Prozess auf 7nm zu ändern (Bugfixes wird es wohl in dem Zug geben), sind die Leistungswerte, so sie sich als real herausstellen, doch ok. Nvidia bringt eine komplett neue GPU-Gereration und ist auch nur mit der höchsten Ausbaustufe schneller als das vorherige Spitzenmodell.

Cunhell
 
  • Gefällt mir
Reaktionen: ThePlayer, Balikon, Selanius und 32 andere
Taxxor schrieb:
Welches seit vorgestern auch von Nvidia unterstüzt wird...

Dieser Schritt war schon ein heftiger Schlag für AMD und das hat man auch bei der Keynote gemerkt.
Bisher hat Nvidia gesagt, dass nicht jeder Freesyncmonitor richtig kompatibel ist und zudem blieb Nvidia wohl keine andere Wahl, wenn man nicht die neue HDMI-Generation ohne Zertifizierung umsetzen will. VESA ist nun mal ein Standard, auch wenns Nvidia nicht passt
 
  • Gefällt mir
Reaktionen: valnar77, zhompster, derSafran und 3 andere
also für 4K-gaming sind 16GB genau richtig!
 
  • Gefällt mir
Reaktionen: valnar77 und Schranz0815
super sache wollte mir gerade eine vega64 bestellen. Zum Glück hab ich erstmal bei cb vorbeigeschaut und diese news gelesen. Wenn im februar die neuen karten kommen, warte ich bis zum sommer mit dem graka kauf. Dann müsste es schon Vega 20 im guten partnerdesign geben. Und die Preise sind auch nicht mehr so hoch wie am anfang.
Bin mal auf die leistungsaufnahme gespannt. Ob AMD es etwas besser hinbekommt. Wobei schwer stören tut es mich auch nicht bei der vega 64 sind es gerade mal 40 eus im jahr unterschied im vergleich zur 1080ti.

RX Vega 56 (Max. 240W) / RX Vega 64 (Max. 295W) 295 Watt X 365 Tage x 8 Stunden = 876000 Wh 876000 Wh / 1000 = 876 kWh Bei 28 Cent/kWh (deutscher Durchschnitt) sind das 245€ für die 64 bzw. 196€ für die 56. Bei der 1080 (Max. 180W) sind das 147€ und einer 1080ti (Max. 250W) 204€ pro Jahr. Was aber eigentlich alles wayne ist da die nvidia karten mehr kosten.. Müsste ich ja erstmal um die 3 jahre die amd karte benutzen und hätte dann mit der strom differenz zur 1080ti zusammen soviel ausgegeben wie allein nur eine 1080ti kostet.
 
  • Gefällt mir
Reaktionen: DonBerserk, LukS, Schranz0815 und eine weitere Person
Die passende Antwort auf nVidias Speicherkrüppel, 16GB HBM dürften ca. 20GB DDR6 entsprechen wenn man das Speichermanagement von HBM durch die absurde Bandbreite in Betracht zieht.

Natürlich kein Raytracing, aber das ist die nächsten Jahre erstmal Spielerei bis es ein must-have wird.
 
  • Gefällt mir
Reaktionen: valnar77, fox40phil und Schranz0815
F4naTy schrieb:
Hoffentlich wird es 8GB und 16GB Modelle geben, denn ich glaube kaum, dass 8GB in nächster Zeit limitieren werden.
Vorgestern erst wurde hier der Aufstand geprobt, weil die 2060 VIIIIIIEEEL zu wenig Speicher hat und Du beschwerst Dich über zu viel...
:D
 
  • Gefällt mir
Reaktionen: cbmik, or2k und Schranz0815
mokz schrieb:
Naja im Endeffekt waren sie immer (leider) in Sachen Effizienz und Performance deutlich hinter Nvidia.
Du musst noch extrem jung sein. Das Spiel war schon viele Male umgekehrt
 
  • Gefällt mir
Reaktionen: ThePlayer, [DsO] BuRNeR, cbmik und 28 andere
Naja, jetzt ist es genau anders herum gekommen als die Gerüchteküche es gekocht hat.
Der als wenig wahrscheinlich eingeschätzte Vega-Aufguss kommt in Kürze und keine konkreten Release- und Leistungsdaten zum Zen2 und auch nichts zu Navi.
Bisschen Entäuschung ist schon da. Aber keinen Vorwurf an AMD deswegen.
 
Zuletzt bearbeitet:
itsBK201 schrieb:
Was viele "möchtegern Gamer" nicht beachten ist, dass Vega ursprünglich nicht fürs Gaming entwickelt wurde. Dass auch Gaming-Grafikkarten mit Vega Chip erscheinen ist einfach ein Produkt um auch im oberen Sektor ein Produkt zu liefern bis die "richtigen Gaming-Grafikkarten" erscheinen und nebenbei eine nette Einnahmequelle für AMD ^^

Die "richtigen Gaming-Grafikkarten" erscheinen?

:watt:

Moment das hieß es 2 Jahre lang rund um VEGA schon. Bitte jetzt keine Ausrede für VEGA und Neuauflage für NAVI starten...:stock:
 
@tidus1979 Es lief eine System-Verbrauchsmessung während dem Run, diese hat zumindest 130 vs 175W gezeigt. :)
 
  • Gefällt mir
Reaktionen: cookie_dent
diamdomi schrieb:
Der 9900k wurde mit dem Basistakt betrieben. Also 3.6 GHz.
Es wurde aber betont, dass die Ryzen 2 CPU eine Sample CPU ist, und noch nicht mit finalen Taktraten läuft. Diese wurden aber sowieso nicht gezeigt ;)
quatsch der 9900k lief ganz normal mit turbo sonst hätte er viel weniger punkte ereicht

mokz schrieb:
Das kennen wir ja alle von AMD. Naja im Endeffekt waren sie immer (leider) in Sachen Effizienz und Performance deutlich hinter Nvidia. Es heißt mal wieder abwarten und Tee trinken bis die ersten inoffiziellen Benchmarks online sind.

immer?
ersetzt das mal lieber durch die letzten jahre
 
  • Gefällt mir
Reaktionen: valnar77
Den heiligen Benchmark-Gral wird AMD also erneut nicht gewinnen, schade.

Die Leistung würde aber auch der 2080 FE entsprechend oder sehe ich das falsch? Die hat man immerhin für 799$ ins Rennen geschickt, also evtl. preislich doch interessanter als auf den ersten Blick vermutet
 
  • Gefällt mir
Reaktionen: Colindo, Schranz0815, Cpt.Willard und eine weitere Person
tidus1979 schrieb:
Zumindest im Cinebench gleichauf mit dem 9900k, das kann ich mir gut vorstellen. Mit den 30% weniger Verbauch wäre ich noch vorsichtig. Wurde das im Stream gesagt? In Spielen wird man vermutlich hinter Intel landen, möglicherweise sogar noch hinter dem alten 8700k. Latenz und der Kram.

Die 30% weniger Verbrauch wurden sogar im Stream live auf dem Bildschirm gezeigt.
Der Vergleich der beiden CPUs war eher auf "Stromverbrauch" ausgelegt. Also halt: "Schaut mal! Gleiche Leistung, 30% weniger Verbrauch! Und das obwohl die Taktraten noch nicht einmal final sind!"

Der 9900k lag bei ~ 170 W während der Ryzen bei ~140 W lag im Cinebench run.
 
  • Gefällt mir
Reaktionen: Schranz0815
Zurück
Oben