News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

Die 16GB sind wohl auch eher für 4k gaming und dessen Zukunft gedacht. 8GB reichen dicke für WQ- sowie FHD für die nächsten paar Jahre. Wobei selbst ich mit meiner Vega64 laufe schon ins VRam Limit in WQHD@high Details wie z.B. in BO4; Blackout und in Zukunft werden diese Ressourcen wohl auch mehr und mehr genutzt.

Weshalb es lächerlich erscheint das Nvidia eine RTX2060 mit nur 6GB raus bringt, die jetzt vielleicht in FullHD noch ausreichen wird, aber wie es in 2-3 Jahren aussieht weis halt keiner.

@duskstalker bei GR: Wildlands liegt die Vega64 in WQHD auch gerade einmal nur knapp hinter einer GTX1080, genauso wie auch RS:Siege super mit AMD performt.
 
Zuletzt bearbeitet:
Denke schon das 16GB zukunftssicherer wie 8GB sind. Auch wenn die Karte nicht mehr wie 60FPS in high Details liefert, kommen die 8GB VRam der RTX2080 ja vielleicht an ihre Grenzen und man hätte sich gewünscht beim Ausverkauf doch lieber zu einer 1080Ti zu greifen. Weil entsprechend die FPS dann noch weiter in den Keller rutschen, aufgrund des künftigen Speicherbedarfs neuer Games.

Also wenn ich die Wahl zwischen einer Radeon7 und einer RTX2080 hätte, würde ich ganz klar die mit mehr Speicher nehmen. Genauso wie ich mich deshalb auch zwischen der R9 390 und der GTX970 damals für AMD entschieden habe, übrigens bevor das noch mit dem Speicherdebakel raus kam.

Und da hatte auch jeder gemeint das 4GB vollkommen ausreichen würden, tja die Karte war bis Dez. in meinem System und hat wunderbare Dienste geleistet unter FHD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: leon2000 und Terminator-800
Baal Netbeck schrieb:
Und es gibt ja durchaus Spiele die mehr Fressen....FFXV z.B. da werden auch einfach die 11GB einer 1080Ti oder 2080 Ti vollgemacht....ob das eine sinnvolle Nutzung des Vram ist sei mal dahingestellt

Ungenutzter Speicher ist verschwendete Leistung. Kostet ja nix wenn der voll ist, vorausgesetzt der Inhalt ist Sinnvoll nutzbar und kein Fehler der Engine.

Linux und auch Windows (spätestens ab 10) packen den RAM auch sogut es geht voll mit Kram den man vielleicht mal brauchen könnte. Spricht ja nix dagegen wenn Spiele Engines das auch nutzen.

Ob man aktuell nun unbedingt 16GB braucht bezweifel ich auch mal :-) Aber die offensichtlichen Gründe dafür wurden ja bereits genannt.

Verak schrieb:
Genauso wie ich mich deshalb auch zwischen der R9 390 und der GTX970 damals für AMD entschieden habe, übrigens bevor das noch mit dem Speicherdebakel raus kam.

Dito. Wobei ich die 8GB mit FHD auch noch nicht voll gekriegt hab - vorher geht die Puste aus.
 
Ja ausgereizt hatte ich die 8GB auch kaum gehabt. Aber bei einigen Titeln ging der VRam Bedarf schon weit über die 3,5GB der GTX970 hinaus und hatte dementsprechend bessere FPS und Frametimes als wie mit einer GTX970. Diesbezüglich hatte ich damals doch auf's richtige Pferd gesetzt, vom 200€ günstigeren Freesync Monitor mal ganz abgesehen.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und Terminator-800
Etmolf schrieb:
Ob man aktuell nun unbedingt 16GB braucht bezweifel ich auch mal :-) Aber die offensichtlichen Gründe dafür wurden ja bereits genannt.

ich denke das ist ein relativ wichtiger punkt. man muss die 16gb nicht auslasten, damit man 16gb braucht, sondern man muss nur 8,1gb auslasten, damit die 8gb nicht mehr reichen.
 
  • Gefällt mir
Reaktionen: dister1, McTheRipper, Baal Netbeck und 5 andere
16 GB - WOW - AMD klotzt und kleckert nicht.
Wenn die Leistung auf Niveau der aktuellen Nvidia High End ist auch super.
Nur der Preis schmeckt mir nicht.
Nvidia sollte sich für Ihre Speicherkrüppel mit 6 GB schämen.
Der Verbrauch wird massiv steigen wegen der Verfügbarkeit.
Selbst 8 GB werden mittelfristig eng.
Muss jetzt noch lachen wenn ich an die Nvidia Threads denke in denen es als Fantasie abgetan wurde das mehr als 6 GB gebraucht würde oder AMD mit 16 kommt. Fragt sich jetzt, wo und wer hier falsch lag, hehe
Technisch war das sowas von klar!
 
  • Gefällt mir
Reaktionen: Benji21 und Terminator-800
Marcel55 schrieb:
700€ :o ... bezahlen?

Sicherlich ist die VII keine Karte, die fuer die grosse Masse gedacht ist sondern als eine neue Oberklassekarte und Nachfolger fuer RX Vega 64 und um eine Alternative zur RTX 2080 von AMD/RTG bieten zu koennen.

Des Weiteren sind die 699Euro ein Early Adopter (Referenzkarten-)Preis und ausserdem gibt es vielleicht noch eine guenstigere Variante zum Marktstart mit beschnittenem Chip (irgendwo zwischen RTX 2070 und 2080)?

Zudem scheint man bei Vega20/VII nicht wie bei den billigsten RTX (2080) Modellen nur die schwachen/wenig potenten Chips abzukommen, da bei AMD/RTG im Gegensatz zu nVidia zumindest noch kein bewusstes Aufteilen nach Chipguete (um noch mehr Chipunterklassen innerhalb einer Leistungsklasse zu erreichen und noch mehr Verbraucher damit zu melken) angekuendigt wurde.

Ferner war die RTX 2080 auch urspruenglich hoeher angesetzt und die luftgekuehlten RTX 2080 Spitzenmodelle sind immer noch ziemlich teuer, bieten aber fuer Oberklassenkarten nur stagnierende/magere 8GB ;).

Die Karte richtet sich - ebenso wie eine RTX2080 - natuerlich nicht nur ausschliesslich an WQHD-Gamer, sondern auch an 4K/UHD-Gaming-Einsteiger und man muss bei 16GB und der massiven Bandbreite mit Sicherheit kaum Aengste haben ueber die Lebenszeit der Karte an zu wenig Bandbreite oder Speichermenge zu leiden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: balkanmueller, leon2000, Cpt.Willard und eine weitere Person
Richtig langweilig. Die sollen endlich mal Navi vorstellen.
 
Kaufe seit ungelogen 20 Jahren NVIDIA Produkte aber so langsam hät ich mal wieder Interesse an einem ausgereiften Konkurrenzprodukt. Die Preise bei AMD erscheinen mir schon sehr moderat, ich hoffe bis Navi tut sich da auch was beim Stromverbrauch. Es nützt mir nichts wenn ich die Einsparung beim Kauf dann über Jahre hinweg doppelt als Stromrechnung bekomme. Neben technischen Gimmicks wie PhysX oder jetzt RTX war für mich vor allem der Stromverbrauch ausschlaggebend bei der Wahl der GPU.
 
-G-sus schrieb:
. Es nützt mir nichts wenn ich die Einsparung beim Kauf dann über Jahre hinweg doppelt als Stromrechnung bekomme.

Erzähl halt Märchen.
Bist du überhaupt in der Lage die Stromrechnung auszurechnen? Wenn du angenommen jedes mal die günstigere AMD / ATI gekauft hättest, wärst du auch über die 20 Jahre nicht mit Mehrkosten aufgelaufen. Außerdem läuft bei fast niemand alles die ganze Zeit am Anschlag, bei Low Power ist der Verbrauch identisch.
 
  • Gefällt mir
Reaktionen: nicK--
Ich kaufte bis zur R9 390 von Generation zur Generation zwischen beiden Lagern nach P/L und wie intensiv ich gerade am PC am zocken war. Sah dann im Grunde seit meinem ersten selbst zusammengebauten PC Ende 1997 so aus: ATI Rage2+, 3Dfx Voodoo1+2, Riva TNT2 Pro, Geforce256,GF2 Pro, GF3 Ti500, GF4 Ti4600, ATI 9700/9800pro, ATI X800pro, ATI X850XT, ATI 2900XT, 8800GTS (512), GTX460 (1024), GTX770, R9 390, Vega64

Aber seit der Firmen- sowie Preispolitik und dem Speicherdebakel der GTX970 sowie dessen Kommunikation, Gsync und nun die Preiserhöhungen bei Pascal und Turing. Wird eine sehr lange Zeit erstmal keine Nvidia Karte in mein System wandern und hoffe nun auf Intel.

Das mit einem dritten Wettbewerber im GPU Markt, die Preise ansatzweise in die Richtung von Grenada und Maxwell wieder gehen. Sprich für das untere Highend Segment Straßenpreise von 300-350€ wieder aufgerufen werden.

Ansonsten wird wohl meine nächste GPU in einer der neuen Konsolen vorzufinden sein. Wenn das mit den nächsten Generationen 2021/22 und den Preisen so weitergeht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Inxession, Cpt.Willard und Windell
manni134 schrieb:
verbraucht wieder 300w+ und kostet mehr als eine custom rtx2080 also wozu dann zu amd greifen ? no sens wieder die gpu :D

Weil es endlich eine Leistungsstarke Karte für freesync gibt!? Und wenn 16GB wahr sind ist das auch ein Grund.
 
xexex schrieb:
Nur reicht die Leistung für 4K Gaming und dessen Zukunft nicht aus!

Du hast schonmal was von Grafikoptionen gehört?
Bei Nvidia darf man dann zusätzlich auch die Textur-Details herunterregeln, bei AMD lässt man sie auf Max
 
Verak schrieb:
Denke schon das 16GB zukunftssicherer wie 8GB sind.

Wenn du rein nach Speicher gehst sicher! Du solltest aber auch nicht vergessen, dass die Vega 20 letztlich eine Vega ist. Es sind keine relevanten Grafikfeatures hinzugekommen, mit den 16GB steht die Karte alleine da und wie es bisher aussieht gibt es diese Karte auch nur von AMD selbst.

Solange keine anderen Karten mit so viel Speicher auf dem Markt existieren, wird dieses "Feature" auch von praktisch niemandem genutzt und wenn AMD ihre eigenen Ray Tracing Karten auf den Markt bringt (was auch auf der CES angekündigt wurde) hat sich das mit deiner "Zukunftssicherheit" schnell erledigt.

https://www.pcworld.com/article/3332205/amd/amd-ceo-lisa-su-interview-ryzen-raytracing-radeon.html

Wenn du im Februar also so eine Karte kaufst, bekommst du ein "Feature" geliefert, von dessen Nutzen du vermutlich während der ganzen Lebenszeit der Karte nicht profitieren wirst.

DrFreaK666 schrieb:
Du hast schonmal was von Grafikoptionen gehört?
Bei Nvidia darf man dann zusätzlich auch die Textur-Details herunterregeln, bei AMD lässt man sie auf Max

Die Vega wird mit der 2080 und nicht mit der 2080Ti oder einer noch schnelleren Karte konkurrieren. In ein paar Jahren wird dir der Speicher wenig nutzen, weil die Leistung schlichtweg nicht da sein wird und in den kommenden 1-2 Jahren wirst du vermutlich eh keinen Titel sehen, der 16GB an Texturen mitbringt.
 
Zuletzt bearbeitet:
Ich glaub jetzt ist zusätzlich zu ZEN2 noch ein Sparbüchschen dazu gekommen...
 
  • Gefällt mir
Reaktionen: DarkerThanBlack, Benji21 und Chismon
xexex schrieb:
Wenn du rein nach Speicher gehst sicher! Du solltest aber auch nicht vergessen, dass die Vega 20 letztlich eine Vega ist. Es sind keine relevanten Grafikfeatures hinzugekommen, mit den 16GB steht die Karte alleine da und wie es bisher aussieht gibt es diese Karte auch nur von AMD selbst.

Denke das ist für den der darauf wartete von AMD die Leistung einer 1080Ti für sein WQHD/4K Freesync Monitor zu bekommen oder dem der darauf wartete sich zwischen Nvidia und AMD in der Leistungsklasse zu entscheiden, egal. Denke für AMD ist es eh nur ein Lückenfüller bis Navi und vielleicht auch zu Testzwecken im Bezug auf die 7nm Produktion.

Wie gesagt würde ich vor der Entscheidung stehen, unabhängig jetzt von meiner obigen Meinung zu Nvidia, würde ich ganz sicher die 16GB Speicher und das 3 Spiele Paket mitnehmen, gegenüber dem Angebot von Nvidia. Definitiv !
 
Verak schrieb:
Denke für AMD ist es eh nur ein Lückenfüller bis Navi und vielleicht auch zu Testzwecken im Bezug auf die 7nm Produktion.

Natürlich ist es ein Lückenfüller und Resteverwertung, weil die Vega Karte letztlich nur eine beschnittene Radeon Instinct MI50 ist. Dafür spricht auch, dass es diese Karte auch nur von AMD geben wird. Einen Massenmarkt kann und wird diese Karte nie erreichen, schon alleine deshalb weil sich heutzutage nur wenige so einen unscheinbaren Klotz ins Gehäuse stellen wollen und somit ist der Gedanke der Zukunftssicherheit auch hin.
https://www.anandtech.com/show/13832/amd-radeon-vii-high-end-7nm-february-7th-for-699

Verak schrieb:
Wie gesagt würde ich vor der Entscheidung stehen, unabhängig jetzt von meiner obigen Meinung zu Nvidia, würde ich ganz sicher die 16GB Speicher und das 3 Spiele Paket mitnehmen, gegenüber dem Angebot von Nvidia. Definitiv !

Jeder soll und darf das Geld ausgeben wie er will. Die Karte ist jedoch eine Sackgasse und trotz des vielen Speichers jetzt schon technisch veraltet.

Navi Spekulationen hin oder her. Wenn AMD dieses oder im kommenden Jahr Navi mit Ray Tracing vorstellt, kannst du diese Karte bald als Briefbeschwerer verwenden, egal wie viel Speicher du damals mit gekauft hast.
 
Zuletzt bearbeitet:
Derjenige der sich für 700€ solch eine GPU käuft, wird spätestens mit der nächsten oder übernächsten Generation eh wieder aufrüsten, gerade dann wenn er unter 4K spielt und 8GB Speicher mehr haben oder nicht, bei selben Preis zur Konkurrenz, brauchen wir über den Sinn denke ich nicht weiter diskutieren.

Denn wie duskstalker schon oben meinte, sobald 8.1GB belegt sind und dies die Frametimes einer RTX2080 unruhig werden lässt, zahlen sich die 16GB der Radeon7 schon aus.
 
  • Gefällt mir
Reaktionen: Chismon
Verak schrieb:
Derjenige der sich für 700€ solch eine GPU käuft, wird spätestens mit der nächsten oder übernächsten Generation eh wieder aufrüsten

Lustige Argumentation! Wenn dem so ist, dann bräuchte er auch keine 16GB Speicher oder? Du gibst also Geld für etwas aus, wovon du während der gesamten Lebenszeit der Karte nicht profitieren wirst.

Dann mal ein Hoch auf die Dekadenz! 😛
 
Zurück
Oben