News Radeon VII mit Vega 20: Laut AMD RTX-2080-Leistung für 699 USD ab 7. Februar

snickii schrieb:
@Strikerking siehst doch unten meinen Monitor.. WQHD, ich komme nie über 7, Regler bediene ich immer etwas wegen FPS.

Also je nach Spiel habe ich auch schon in Full HD die 10 geknackt. Kommt halt sehr auf die Spiele an, die man spielt
 
Joshinator schrieb:
NVidia hat 400+(?) Modelle getestet und 12 davon wurden als "Supported" abgestempelt.
Ich würde da vorsichtig sein bevor man sagt das FreeSync jetzt kein Argument für AMD mehr ist.

Die Aussage bezog sich wohl darauf, dass die Monitorhersteller bei allen kommenden Geräten, auf eine Kompatitibilität zu Nvidia Hardware achten werden. Bisher konnte man sich eine AMD Karte schnappen, FreeSync Aufkleber drauf pappen und den Monitor auf den Markt werfen. Das dürfte bei zukünftigen Geräten wohl nun etwas anders laufen.
 
@Caramelito Gar keine Frage, ich stimme dir da auch zu das 8GB für die Karten zu wenig sind in 2019.
In ROTTR hatte ich keine 8GB voll, habe es eben gerade getestet, hätte meinen Post dann editiert.
Hatte wirklich alles auf ULTRA und komme auf 7,1 GB. Mit den Einstellungen mit denen ich spielen würde komme ich auf 6,2GB. (Ohne groß auf Qualität zu verzichten)

Um ehrlich zu sein würde ich eine gebrauchte 1080Ti kaufen bevor ich mir die AMD Karte oder eine 2080 kaufe.
Der Stromverbrauch würde mich bei der AMD Karte nerven und bei der 2080 die 8GB.

Bei der AMD Karte hätte man 12GB machen sollen und 100€ vom Preis abziehen sollen.. dann wäre es eine sehr gute Karte gegenüber der 2080.

Wäre aber letztendlich auch vorsichtig was einige Spiele angeht, zb. ARK würde den vRAM wohl zerfressen weils einfach schlecht optimiert ist.
 
Das muss man mal verstehen: Da wird sich über den VRAM der 2060 beschwert, und wenn jemand mal mehr als die typischen 8- bis 11 GB rausbringt, ist es auch wieder falsch?

Recht machen können es die Hersteller dem Verbraucher wohl gar nicht mehr, alles ist grundlegend verkehrt. Man wird ja auch zum Kauf gezwungen… :watt:
 
AMD mit 7 nm wie ein 2080. Toll, aber immerhin braucht mehr Strom und na ja, die Grünen werden auch mit 7 nm kommen. Coole Richtung was AMD macht, aber immer noch nicht genug für eine richtige Kampfsituation. Schade.
 
Shoryuken94 schrieb:
Also je nach Spiel habe ich auch schon in Full HD die 10 geknackt. Kommt halt sehr auf die Spiele an, die man spielt
Kommt halt auch auf den vram an der verfügbar ist. Eine gute engine arbeitet mit dem was vorhanden ist und streamt den Rest so das leistungsverlust ausbleibt.
Dann sind beim selben spiel bei der einen karte eben 10gb voll und bei der anderen nur 8gb ohne das direkt alles den Bach runtergeht.
Das funktioniert natürlich aber nur wenn das Spiel gut gebaut ist und man ne gewisse Schwelle an vram überschritten hat damit genügend Material vorhanden ist um das steaming auszugleichen.
 
xexex schrieb:
Die Aussage bezog sich wohl darauf, dass die Monitorhersteller bei allen kommenden Geräten

In wie Fern darf denn der Hersteller am Adaptive Sync-Standard rumpfuschen?
Weiß nicht ob es überhaupt in der Hand der Monitorhersteller liegt da eine Kompatibilität zu leisten, denke eher das NVidia da am Zug ist. Bin aber auch kein Experte in der Hinsicht.

Ändert aber leider auch nichts an der Tatsache für die Gamer die sich vor kurzem einen schönen neuen Monitor gekauft haben wenn die kommenden Geräte supportet werden.


Bin aber mal gespannt wie lange der Preisanstieg bei "Technik Luxusgütern" noch anhalten kann/wird. Die letzten Generationen Grafikkarten werden immer teurer und mit "ist besser = teurer" gerechtfertigt.
Vor ein paar Jahren gab es ja auch mehr Leistung mit der neuen Generation zum selben Preis.
Der Smartphone-Sektor genauso, wenn mir vor 8 Jahren jemand gesagt hätte das Leute vor einem Geschäft campen um ein 1.200€ teueres Handy zu kaufen hätte ich ihm den Vogel gezeigt.
Jetzt sind 800€ Grafikkarten "gehobene Mittelklasse", aber so sieht es nunmal aus wenn ein Hersteller den Monopol hat und den Preis diktieren kann (zumindest im High-End Bereich). Nicht wunderlich das AMD da nachzieht, die Leute kaufen es ja offensichtlich.
 
Zuletzt bearbeitet:
gerzerk schrieb:
Sehe ich anders, möchte nicht für etwas bezahlen, für das ich keine Verwendung habe.

Schön dass du keine Verwendung hast, viele (inklusive mir) werden aber sicher mehr als die geizigen 8GB der RTX2080 nutzen können.

Meine 1080Ti schafft es dank 3440x1440 durchaus des öfteren auf mehr als 8GB (gerade wenn man Spiele mit High-Res-Textur-Mods oder allgemein mit High-Res Texturen spielt) und da ist es bei dem Preis der RTX2080 einfach eine Frechheit, dass man den Speicher im Vergleich zur 1080Ti einfach reduziert hat.


gerzerk schrieb:
Und damit 16 GB Pflicht zum spielen werden, vergehen noch 10 Jahre.

Davon war in meiner Aussage ja auch überhaupt keine Rede :rolleyes:
Wie Leute immer von "es ist schön etwas zu haben" zu "ja Pflicht ist es doch erst IN JAHRZEHNTEN" kommen ist mir wirklich unbegreiflich.
 
  • Gefällt mir
Reaktionen: paulemannsen und Acedia23
DaLexy schrieb:
Nicht bei dem Preis, da macht es auf jedenfall nen Unterschied. Kaufe ich ne GFX mit oder ohne Tracing, beide für denselben Preis !

Prinzipiell gebe ich Dir Recht, nur ist es leider so dass die 8GB in der 2080 durch raytracing zusätzlich belastet werden, was die Speicherproblematik welche die 2060 jetzt bereits hat in naher Zukunft auch die 2080 erwischen lässt.
Wenn ich mir die Tests so anschaue, ist faktisch die 2080Ti derzeit die einzige praktikable Raytracing-Karte mit etwas zukunftssicherheit. Allerdings ist der Preis absurd. Ja, die anderen Karten können raytracing. Aber das kostet so enorm viel Leistung (und künftige Spiele werden nicht weniger benötigen) dass es nVidia eher darum gehen dürfte den Firmen zu sagen "schaut her, so verbreitet ist unser raytracing, produziert Spiele dafür!". Der Wunsch ist dass nVidias RTX zum Quasistandard wird und die Konkurrenz mit diesem Feature nicht mithalten kann, was nVidia die Preise nahezu frei festsetzen lassen kann.
 
snickii schrieb:
@Caramelito Gar keine Frage, ich stimme dir da auch zu das 8GB für die Karten zu wenig sind in 2019.
In ROTTR hatte ich keine 8GB voll, habe es eben gerade getestet, hätte meinen Post dann editiert.
Hatte wirklich alles auf ULTRA und komme auf 7,1 GB. Mit den Einstellungen mit denen ich spielen würde komme ich auf 6,2GB. (Ohne groß auf Qualität zu verzichten)

Um ehrlich zu sein würde ich eine gebrauchte 1080Ti kaufen bevor ich mir die AMD Karte oder eine 2080 kaufe.
Der Stromverbrauch würde mich bei der AMD Karte nerven und bei der 2080 die 8GB.

Bei der AMD Karte hätte man 12GB machen sollen und 100€ vom Preis abziehen sollen.. dann wäre es eine sehr gute Karte gegenüber der 2080.

Wäre aber letztendlich auch vorsichtig was einige Spiele angeht, zb. ARK würde den vRAM wohl zerfressen weils einfach schlecht optimiert ist.

Naja, ein bisschen spielen, dann wird der VRAM auch voller :-)
Bei mir belegt sogar GTA 5 nach einer Zeit 6gb Vram.

Eine 1080ti wäre natürlich die beste Graka in der Preisklasse, jedoch wurde sie heldenhaft abgezogen und nun hat man den Salat - NV will halt RT pushen, was ich auch verstehe..

Mal die Benchmarks und Verfügbarkeit abwarten - Letzteres war nicht die Stärker von AMD.
 
  • Gefällt mir
Reaktionen: snickii
abenteuR schrieb:
AMD mit 7 nm wie ein 2080. Toll, aber immerhin braucht mehr Strom und na ja, die Grünen werden auch mit 7 nm kommen. Coole Richtung was AMD macht, aber immer noch nicht genug für eine richtige Kampfsituation. Schade.
Aber schon mal besser als das gesamte HighEnd-Segment dem Konkurrenten zu überlassen.
Uns als Kunden kann es nur freuen, da dann ggf. Preise (von wem auch immer) fallen könnten.
Und bezüglich der Stromaufnahme bin ich am meisten gespannt, was der 7nm-Prozess mit dem Vega-Hunger anstellt - sprich, ob es sich dadurch auf "humane" Dimensionen reduzieren lässt.
 
Shoryuken94 schrieb:
Also je nach Spiel habe ich auch schon in Full HD die 10 geknackt. Kommt halt sehr auf die Spiele an, die man spielt
Kann das sein das du da ua auch die Renderscalierung aktiviert hast? Da kriegt man unter "FullHD" auch schnell den Speicher mit voll :D
 
Laphonso schrieb:
Ja, ohne Ironie. Aus Gamer Sicht aber 700 Dollar nominell für 2,5 Jahre alte Leistung zu zahlen ist ein Desaster, das kann doch niemand schönreden wollen.

Im AMD subreddit ist die „Ent-geisterung“ und Enttäuschung entsprechend hoch

Bei NV haben die Leute bei der 2080 für genau die von dir beschriebene Leistung anfangs min. 850€ hingeblättert. Fragt dich mal warum die Preise jetzt gerade so nachgeben und warum sich NV auf einmal in Sachen Freesync öffnet. Bei den CPUs ist es ja noch krasser..
Die Fury hat zur Einführung vor Jahren schon 649$ UVP gehabt. Ich finde die 50$ Aufpreis allein schon durch die Inflation gerechtfertigt.. Oder hattest du seitdem keine Gehaltssteigerung? Von der viefachen Menge an Speicher....
 
  • Gefällt mir
Reaktionen: Acedia23
Nur mal so zum VRAM-Gebrauch:

Assasins Creed Origins zieht bei höchster Texturen-Qualität 3,7GB VRAM in WQHD.
Shadow of The Tomb Raider 5,7GB - Das ist eine Ecke weniger als noch beim Vorgänger.

Beim kommenden The Division 2 sollen laut Ubisoft 8GB für WQHD und High Settings für 60fps nötig sein. Das glaube ich erst, wenn ich es sehe, zumal in FullHD dann für High Settings 4GB ausreichend sein sollen. WQHD hat aber nicht die doppelte Pixelanzahl im Vergleich zu FullHD.
 
Für den einen ist Ray Tracing wichtig, weil es geil aussieht und in Zukunft sicherlich stärker verbreitet sein wird, der andere braucht mehr VRam für High-Res-Texturen. Leistungs- und Preistechnisch liegen 2080 und Vega 7 ungefähr gleich.

Geil wäre eine Karte mit TU102 Chip in 7 nm mit 16 GB HBM2 und PCIe 4.0 ^^
 
Cl4whammer! schrieb:
Kann das sein das du da ua auch die Renderscalierung aktiviert hast? Da kriegt man unter "FullHD" auch schnell den Speicher mit voll :D

Nope, wobei das als Qualitätssteigerung unter 1080p auch Sinn macht. Nein, aber z.B. in Ark ist das kein Problem oder auch in World War 3. Sicher, keine Mega optimierten Spiele, aber wenn ich z.B. 700€ für ne GPU ausgebe, dann möchte ich da nicht schon jetzt an der Grenze sein, zumal 6GB+ in 1080p bei normalen Spielen mit entsprechenden texturen jetzt auch keine große Seltenheit sind.
 
Ok, die Karte ist für mich ziemlich Interessant. Mal schauen ob ich mich vom Kauf zurückhalten kann.
 
Joshinator schrieb:
In wie Fern darf denn der Hersteller am Adaptive Sync-Standard rumpfuschen?

Wenn man sich die "kaputten" Implementierungen so anschaut die Nvidia gezeigt hat, ist die Abstimmung anscheinend sehr wichtig. Bisher hat man anscheinend nur mit AMD Karten testen können und auch AMD wird vermutlich einiges an Entwicklungsarbeit da rein gesteckt haben.

Wäre der "Standard" das was der Name vermutet, dürfte es die Probleme mit NVidia Karten nicht geben. Am ehesten werden wir es wohl feststellen, wenn Intel endlich soweit ist und ebenfalls Adaptive Sync unterstützt.

Es gibt laut der bekannten Liste derzeit 12 Monitore die "richtig" funktionieren. Die Hersteller werden schon wissen, was sie da anders gemacht haben. Vermutlich werden die in den Monitoren verbauten Scaler von 2-3 OEMs kommen und einer macht etwas richtig, was der andere nicht macht.

Die 12 Monitore sind aber auch nicht endgültig, 150 Monitore stehen bei Nvidia noch auf der Liste zu testenden Geräte und man wird hier und dort bestimmt noch optimieren können. Alzu grosse Hoffnungen würde ich mir bei bestehenden Geräten nicht machen.
 
Zuletzt bearbeitet:
Zurück
Oben