Test GeForce RTX 2060 im Test: Schnelle GPU trifft 6 GB statt 8 GB GDDR6 für 370 Euro

xexex schrieb:
Spätestens wenn AMD die Preise für Vega 56 nach unten senkt, wozu sie durch die 2060 von Nvidia praktisch gezwungen sind, werden die Preise auch nach unten gehen.
Spekulationen überlasse ich aber gerne anderen.
Ähhhja, what? Du widersprichst Dir hier direkt selbst. Sorry. Du glaubst also, dass AMD die VEGAS noch weiter unter der Schmerzgrenze abgeben wird?
Das will ich erst sehen, bevor ich's glaube.
 

Das hier ist ganz interessant zur GTX 2060.
 
Unnu schrieb:
Du glaubst also, dass AMD die VEGAS noch weiter unter der Schmerzgrenze abgeben wird? Das will ich erst sehen, bevor ich's glaube.

Das Hauptargument und einer der wenigen Gründe sich eine AMD Karte zu kaufen war FreeSync. Mit welchen Argumenten will AMD die Vega 56 weiter zu diesem Preis, gegen die jetzige 2060 positionieren? 2GB haben ihren Preis, bei allen anderen Punkten kann die VEGA aber nicht mithalten.

Sollten im Herbst von AMD neue Karten kommen, kann man praktisch jetzt schon mit dem Abverkauf beginnen.
 
Eine 60er für 370€ :heul: wird wirklich Zeit, dass AMD wieder was brauchbares im GPU-Segment bringt. Ich möchte wieder Big-Chip Vollausbaus für 700-1000€! apropos: wann kommt ein Artikel zur RTX-Titan und ausführliche Artikel zu Custom-Designs der 2080TI? Wenn der Preis nicht wäre fände ich diese hier durchaus interessant, was das Kühlkonzept betrifft (EVGA GeForce RTX 2080 Ti FTW3 Ultra Gaming).
 
  • Gefällt mir
Reaktionen: Tweakit
@xexex
Weil jetzt mal 12 Monitore von >350 Adaptive Sync mit nVidia unterstützen ist AMD nicht mehr kaufbar? Das denke ich mal eher nicht. ;)
 
  • Gefällt mir
Reaktionen: Sennox
xexex schrieb:
Das Hauptargument und einer der wenigen Gründe sich eine AMD Karte zu kaufen war FreeSync. Mit welchen Argumenten will AMD die Vega 56 weiter zu diesem Preis, gegen die jetzige 2060 positionieren? 2GB haben ihren Preis, bei allen anderen Punkten kann die VEGA aber nicht mithalten.

Sollten im Herbst von AMD neue Karten kommen, kann man praktisch jetzt schon mit dem Abverkauf beginnen.
Ist wieder Märchenstunde?
Jede Custom Vega56 kann mit der 2060 mithalten, zeigt schon der PCGH Test, 2GB mehr VRAM und sie ist im Moment billiger, was wahrscheinlich eher einem Abverkauf geschuldet ist.
Neue AMD Karten kommen im Q2, den Kalauer mit im Herbst kannst du dir sparen!
Jeder der nachdenkt und etwas Zukunftssicherheit haben will, inklusive der Möglichkeit auch mal in Zukunft in einer höheren Auflösung als FHD zu spielen, greift zu einer VEGA 56, die Red Dragon gibt es für 359€, die Gigabyte Custom sogar noch preiswerter, da gibt es eigentlich wenig zu überlegen.
 
Zuletzt bearbeitet:
370euro sind halt keine Mittelklasse mehr, die seh ich eher zwischen 200-300euro.

Eigentlich wird nur die 3gb Version wenn sie unter 300euro liegt in diese Mittelklasse rutschen ... und das ist, finde ich zumindest frech, dagegen ist die 6gb Version mit dieser rohleistung garnicht verkehrt.

Preislich liegt dann eine RTX2060 3Gb bei ner 590 8Gb. Komische Welt.

Wo soll eine 2050ti hin? Und was soll die an Speicher haben ?


370euro + anthem als Spiel wenn man es eh gekauft hätte sind dann aber durchaus ein fairer preis, 6gb hin oder her.

Ich find eher verwerflich, das RTX dran steht aber es nicht wirklich möglich ist RT zu nutzen (gut vielleicht in 720p, aber das kann ja nicht die Lösung sein). DLSS steht ja auch eher in den Sternen da nicht für FHD gedacht... also eine RTX Karte die ihre eigenen Features nichtmal nutzen kann wenn es sie denn in spielen gäbe...


Weiß nicht ob ich beeindruckt sein soll von der rohleistung der 2060+anthem für 370euro oder angewidert weil die Karte einfach kein RTX kann es aber drauf steht. Mich lässt die Karte mit vielen ? Zurück
 
  • Gefällt mir
Reaktionen: Sennox
DonL_ schrieb:
Jede Custom Vega56 kann mit der 2060 mithalten, zeigt schon der PCGH Test,

Den "Test" von PCGH kannste leider vergessen!
In praktisch allen Messungen wird die Grafikkarte durch die Leistungsaufnahme beschränkt - die Grafikkarte ist ergo powerlimitiert. Die Boosttaktraten liegen dabei in Full-HD-Auflösung bei 1.850 bis 1.875 MHz, die höchsten von uns ermittelten Temperaturen währenddessen bei höchstens 68 °C.
Auch bei der Grafikkartenauswahl sind wir für diesen Test ein wenig von unserem regulären Prozedere abgewichen. Der RTX 2060 stellen wir gemäßigt stark übertaktete Grafikkarten aus der gleichen und den benachbarten Leistungskategorien gegenüber.

Nur zum Vergleich bei CB
GeForce RTX (& GTX & Radeon RX) mit OC
Die GeForce RTX 2060 FE wird wie der direkte Vorgänger GeForce GTX 1060 FE auch übertaktet getestet. Bei den Grafikkarten wurde das Referenzdesign genutzt. Das hat die jeweils höchsten Taktraten zugelassen. Die Modifizierungen betreffen ein maximiertes Power- sowie Temperatur-Limit und erhöhte GPU- sowie Speichertaktraten. Spannungen werden nicht geändert.
Die TU106-GPU auf der Nvidia GeForce RTX 2060 Founders Edition lässt ein Plus von 147 MHz zu, bevor die Grafikkarte abstürzt. In Spielen beträgt der anliegende Takt bei vollem Power-Target dann etwa 2.000 MHz. Der 6.144 MB große GDDR6-Speicher lässt sich um 603 MHz auf 7.603 MHz anheben. Noch höhere Taktraten laufen zwar ebenso stabil, allerdings sinkt dann messbar die Performance.

Und das Ergebnis
1547050892201.png


Man sollte dann schon gleiches mit gleich testen. Übertaktete Customs gegen eine 2060FE im Powerlimit ist kein ernst zu nehmender Vergleich. Rechne dir zu allen PCGH Benchmarks, die 9% mehr Leistung, die man schon durch leichtes OC mit der FE und ohne Stromspielereien erreicht und dann siehst du wo die Vega 56 leistungstechnisch wirklich liegt.

Dabei hätte man hier vermutlich noch einiges Luft nach oben, wie man bereits an der schlechten Effizienz der Vega zu der 2060 sieht.
1547051286323.png
 
Zuletzt bearbeitet:
Lübke82 schrieb:
Das mit dem Speicher sehe ich weniger eng. Wer mehr will kann ja auch mehr kaufen. Für das was die Meisten so spielen sollte 6GB noch ne Weile reichen.


Woher meinst du denn zu wissen was die meisten spielen?

Oder meinst du nur weil jemand LoL spielt spielt er nur und zu 100% ausschließlich dieses Spiel?Das kann doch keiner glauben. Die Leute spielen viele Spiele und ist doch auch gut und schön so.... willst garnicht wissen wie schrecklich das früher war 1spiel für 6-8monate zu spielen weil ein neues zu teuer war.

Aber allgemein sehe ich es schon so, dass eine 2060 von Leistung und vram wirklich allgemein ausreicht und das wirklich über Jahre. Die Sache wäre absolut nicht der Rede wert würde sie 30%weniger kosten, bei 298euro ansetzen. So ist sie in einem Preisbereich der weit weg ist von Mittelklasse, nicht knapp über 300 sondern eher bei fast 400euro.

In der Mittelklasse vom Preis her liegt dann wohl die 2060 mit 3gb und das ist dann schon zum einen frech und wirklich spack.

Abnormale Rohleistung meets 3gb vram bei um 300euro... ja vielen Dank fürs Gespräch...
 
Vega ist mies in puncto Performance/Watt. Nvidia baut aktuell die wesentlich besseren GPUs, das muss man denen lassen. Vega vs Turing ist wie Bulldozer damals gegen Haswell… da hat ein 5ghz AMD-teil auch gegen einen 3,5 ghz i5 mithalten können, aber zu welchem Preis?

DonL_ schrieb:
Ist wieder Märchenstunde?
Jede Custom Vega56 kann mit der 2060 mithalten, zeigt schon der PCGH Test, 2GB mehr VRAM und sie ist im Moment billiger, was wahrscheinlich eher einem Abverkauf geschuldet ist.
Neue AMD Karten kommen im Q2, den Kalauer mit im Herbst kannst du dir sparen!
Jeder der nachdenkt und etwas Zukunftssicherheit haben will, inklusive der Möglichkeit auch mal in Zukunft in einer höheren Auflösung als FHD zu spielen, greift zu einer VEGA 56, die Red Dragon gibt es für 359€, die Gigabyte Custom sogar noch preiswerter, da gibt es eigentlich wenig zu überlegen.
 
M1ximili1n schrieb:
Vega ist mies in puncto Performance/Watt.
Von Haus aus stimmt das, ja. Und wie hier schon mal jemand geschrieben hatte ist das dann für den 08/15 Käufer ein Argument. Dieser weiss aber schon gar nicht, was eine Vega so verbraucht - daher zieht das Argument dort auch nicht.
Und wer sich mit der Thematik auseinandersetzt und seinen Kauf auch davon abhängig macht, der dürfte sich auch nicht zu schade sein, seine Vega zu undervolten. Die kriegt man locker auf unter 200w (meine ist bei ca. 160-170w allein für die GPU) und dann ist das Argument auch wieder hinfällig.
 
Ich wollt mir grad noch ne gebrauchte 980ti als ablöse für meine 970 holen , aber ich denke es wird besser sein auf diese karte zu warten, oder was meint ihr?
 
xexex schrieb:
Es gibt keine UVP für Partnerkarten! Es gibt eine UVP für die 2060FE und die Aussage, dass Partnerkarten zum Start, auch zu diesem Preis erhältlich sein werden.

Das ist doch Käse. Wofür soll denn bitte der UVP sein, wenn nicht für die Partner? Für das hauseigene Modell braucht es ja keinen UVP. Das ist ja gerade der Anhaltspunkt für die Partner, wie teuer die sie ihre Karten ansetzten. Wenn die Custom dabei natürlich schlechter ist als das Referenzdesign (billige Kühllösung etc.) dann ist natürlich auch ein Preis < UVP angebracht, genauso wie für optimierte Kühllösungen, höherer Takt etc. mehr verlangt wird als für die Referenz

Das ist zugleich auch der Preis, ab dem die ersten Partnerkarten starten werden.
Für mich sagt das eigentlich ziemlich eindeutig, dass die billigsten Partnerkarten auch für diesen Preis zu haben sein werden
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox
Revan1710 schrieb:
Für mich sagt das eigentlich ziemlich eindeutig, dass die billigste Partnerkarten auch

Das ist zugleich auch der Preis, ab dem die ersten Partnerkarten starten werden.

Bitte nicht den Satz aus dem Zusammenhang reißen. Die ersten starten am 15.01 und da bin ich bei dir, zu diesem Zeitpunkt werden höchstwahrschenlich keine unter 369€ starten.
 
domian schrieb:
Wer langfristig plant, kauft keine 2060
In Sachen IT Hardware ist es sinnlos langfristig planen zu wollen, da sämtliche auf der Welt verfügbaren Glaskugeln noch nicht zuverlässig genug ist.

Wenn ich Space Engineers hernehme, reichen auch 11GB einer 2080Ti nicht aus. Es gibt sicherlich Titel für die es nie genug VRAM geben kann, aber selbst mit 4GB lebt es sich "noch" ganz gut.
Space Engineers füllt den VRAM so weit es sich diesen greifen kann. Nicht weil es ihn braucht (auch eine 6GB 1060TI läuft flüssig auf höchsten Einstellungen):

Wie viel Ram sollte denn nun eine Grafikkarte haben, damit es genug ist. Das sieht jeder anders. Und bei den Speicherpreisen für 1GB GDDR6 Ram ist es nicht verwunderlich, wenn die Hersteller sparsam damit umgehen, um ein Höchstmaß an Gewinn rauszuquetschen.

Es gibt eine sinnvolle Obergrenze, die sich nach der Anzahl der Objekte/Polys/Assets, deren LOD bzw. MIPMAP Stufen richtet. Diese lässt sich natürlich durch schlampige Programmierung locker sprengen. Die Auflösungen haben daran den niedrigsten Anteil. Antialias noch eher. Eine Versicherung, dass einem der VRAM nicht volläuft gibt es nicht, gerade weil es Engines darauf ansetzen diesen in einer Art- Precaching zu füllen (z.B. Space Engineers, FFIV). Ob Sinnvoll oder nicht.

Sicher hätte NV der 2060 auch 8GB GDDR 5 verpassen können. Dann hätten aber wiederrum andere aufgeschrien.
Die RTX- Funktionen benötigt vor allem hohen Speicherdurchsatz in alle Richtungen. GDDR5 wäre da extrem kontraproduktiv gewesen.

Revan1710 schrieb:
Ich verstehe ja, wenn du vollkommen auf das Zukunftspotential von Mesh-Shadern etc. setzt. Aber das passt für mich dann garnicht, wenn du geringen VRam auf der anderen Seite realtivierst. Wenn ich langristig plane, dann ist ein Puffer an Vram (dessen Bedarf in der Vergangenheit immer gestiegen ist) doch mind. so wichtig wie das Investieren in neue Innovationen.

Exakt- Dabei darf man aber nicht vergessen, dass wir hier von Midrange- karten sprechen. Alle setzen hier aber komischer Weise voraus, dass bei Midrange trotzdem alles auf Ultra mit 60 FPS+ spielbar sein muss.

Grüße
Zero
 
Selanius schrieb:
1. Neue Technologien verteufelt hier glaube ich keiner. Das Problem was viele haben, ist für die neue Technologie zu zahlen ohne einen passenden Gegenwert (in dem Fall genügend Spiele, die die neue Technologie unterstützen) zu haben.

Muss ja keiner machen. Wenn einer mit dem Kurs der technisch notwendig ist, nicht zufrieden ist, dann kauft er einfach nicht, hört auf zu zocken oder was auch immer. Hat ja jeder die Wahl.

Was bringen denn einem Käufer der neuen Karten die neuen Technologien, wenn man diese über Monate (wenn nicht sogar Jahre bei DLSS im nicht 4k Bereich) nicht nutzen kann. Und auch das die Konkurenz alle diese Technologien integriert haben/werden, das musst sich erst einmal zeigen.

Wenn einer die Karten nicht braucht bzw. deren Geschwindigkeitssteigerungen, dann sollte er sie auch nicht kaufen. Wer mehr Speed und zukünftige Beschleunigungstechnologien haben will, dann schon.

Ich verstehe es nicht, dass einige es fast schon als Zwang ansehen in festen Abständen immer etwas deutlich besseres und schnelleres haben zu müssen.
Auch diese Forderungen der Forschung und Industrie gegenüber in welchem Tempo was zu passieren hat ist absurd. Und wenn die Industrie einem das nicht liefert, natürlich auch noch zu dem Preis der einem selbst angenehm ist, dann wird der Shitstorm losgetreten.

Verkehrte Welt....

Also eine GTX1070(ti) würde ich jetzt nicht als veraltete Hardware bezeichnen. Sie funktioniert genauso wie sie soll und hat immernoch dieselbe Leistung wie bei der Einführung (eher noch etwas mehr durch Patches für die Spiele). Und sämtliche bis jetzt erschienene Spiele laufen auf ihr genauso so wie sie sollen.
Wobei sie sich ja dann in der Funktionalität zur 2060 nicht unterscheidet, nur dass Zweitere teils noch etwas schneller ist.

Sie hat einzig nur nicht die neuen Features die mit Turing eingeführt wurden. Was aber erst dann zum tragen kommt, wenn diese Features auch von vielen Spielen genutzt werden.
Genau- Das ist der Wesen eines Technologiewechsels.

Und das ist Stand jetzt nicht gegeben und wird auch noch eine Weile/lange Zeit so bleiben. Die Leistung liegt gleich auf. Somit ist es sicher keine veraltete Hardware. Subjektive Ansicht deiner seits, die nichts mit der Realität zu tun hat.
Genau- Wenn man die neuen Titel nicht mit den Features Spielen will, dann gibt es überhaupt keine Notwendigkeit sich gezwungen zu sehen, eine neue Grafikkarte zu kaufen.

Will man BFV mit Raytracing, Metro Exodus mit Global Illumination, Control mit beidem oder andere Titel beschleunigt mit DLSS spielen, dann sollte man zur neuen Technik greifen.
Man muss auch im Hinterkopf behalten, dass wenn es dann in einem Jahr ein par AAA Titel gibt, die man hätte spielen wollen, man immernoch einfach warten kann, die Spiele auf Halde legt und sie dann vielleicht später zu günstigeren Konditionen mit RTX oder sonstigen Dingen geniesst.

Angeschmiert ist man nur wenn man sich eine Grafikkarte zu Punkt X kauft und diese schon zu ihrer Einführung probleme hat vernünftig zu laufen weil künstlich eine Limitierung eingebaut wurde, die jetzt schon bei Spielen dazu führt, dass die NEUE Grafikkarte nicht smooth laufen wird.
Wo ist denn das Praxisbeispiel dazu? Wenn es so wäre, dann könnte man das verstehen. Dann wär man selber der Idiot, weil man am eigenen Bedarf vorbei gekauft hat.
Wenn ich weiss, dass ich eine Software XY stark nutze und diese zwingend 8GB VRAM benötigt, sollte ich keine 6GB VRAM Karte kaufen. Nur habe ich bis jetzt noch kein Spiel gesehen, was bei 6GB VRAM irgendwie groß "einbrechen" würde. Zumal es immer einen Texturschalter gibt, bei dem sich in der Praxis herausstellt, dass Hoch und Ultra weniger in der Bildqualität als im Speicherverbrauch sichtbare Unterschiede bringt...

Aber warum wird diese gute Leistung die die GPU bringt, bitte zum einen durch den geringen VRAM Speicher künstlich limitiert und warum versucht nVidia hier absichtlich die eigentliche Mittelklasse Karte (vom Namensschema her) durch den hohen Preis in eine höhere Leistungsklasse zu schieben?
Die neuen Karten sind eine andere Klasse. Es gibt neben der GTX Klasse nun die RTX Klasse.
Durch das Featureset ist diese nicht mehr mit den alten Karten zu vergleichen.

Also das einführen von neuen Features, die Stand jetzt nicht einmal vernünftig umgesetzt werden, würde ich jetzt nicht als Technologieumbruch bezeichnen.
Es kommt auf das realistische Potenzial an, welches eine Technologie mit sich bringt. Und da ein allgemeingültiger und nicht Herstellerproprietärer Ansatz bereits umgesetzt ist DXR/Vulkan, reden wir hier von einer ganz anderen Nummer.

Wenn es danach geht, hätte es mit jeder neuen AMD GPU Generation ja einen Technologieumbruch gegeben. Und auch deine Aussage, das man sich jetzt beim Speicher nicht an der Langlebigkeit festhalten sollte, ist auch etwas merkwürdig.
Weil mir das zu viel Kaffeesatzleserei ist. Angenommen die neuen Konsolen kommen mit 16GB unified RAM auf den Markt, dann kannst Du mal schauen, wie weit es mit der Zukunftssicherheit Deiner 8GB VRAM bestellt ist. Und nur in Deiner Hoffnung auf irgendwas hast Du bis dahin auf ein deutlich schnelleres und hübscheres Spielerlebnis verzichtet, weil die 8GB in Zukunft ja irgendwann mal gebraucht werden könnten.

Du sprichst davon, das durch die neuen Features ja die Leistung sich verdoppelt bist verdreichfacht.
Ja- Im RT Bereich sprechen wir von dem Faktor 10. DLSS möchte ich noch nicht beurteilen.
Mesh Shader sind auch wieder für den Faktor 5-10 gut.

Also bis jetzt sieht man davon recht wenig, eher ist es das Gegenteil. Die Leistung verringert sich und ohne genügend Speicher kann man nicht einmal sämtliche Features nutzen.
Andere Karten können es schlichtweg nicht (RT). Das sieht man an den Demos, die an die Testzeitschriften versandt wurden, wo sie z.B. in Raytracing Szenen mit einer 1080TI nur 4-6FPS auf den Bildschirm bekommen haben. Die Leistung steigt als in Teilbereichen dramatisch.

Was bringt es bitte, wenn von der Leistungsfähigkeit eine GPU der 2060 sogar bis 4k schaffen könnte (wenn die Features vernünftig umgesetzt wären), aber durch den kleinen Speicher einfach nur Limitiert wird?
NVIDIA muss eine Segmentierung vornehmen. Deshalb gibt es unterschiedliche Klassen. Die 2060 ist das Baby in der RTX Einstiegsklasse. Sie musste schnell genug bleiben, um RTX Features unter FullHD flüssig wiedergeben zu können, soll aber nicht in der 4K Suppe rumrühren. Deswegen ist es Lowrange in der RTX Klasse und Midrange in der GTX klasse und nicht High- End.

Das du dies nicht siehst, dass das eine nur funktioniert, wenn das andere auch ausreichend vorhanden ist. Zeigt halt wie wenig du am Ende wirklich objektiv bist.
Was heisst Objektiv? Wenn es Deinem Empfinden entspricht? Du verstehst nicht, dass die Karte unter 4K garnicht super funktionieren SOLL.

Deine Argumentation ist schräg. Man beschränke die Karte künstlich. Das macht man mit jeder Karte, die nicht dem Vollausbau entspricht. Natürlich macht man das. Das macht jeder.
Und durch die Einsparungen (z.B. an VRAM, weniger Shader, DIE- Größe etc). kommt ein günstigerer Preis zustande.

6. Also die offizielle Ankündigung das DLSS jetzt auch für 1080p genutzt wird muss ich wohl übersehen haben. Also bitte mal verlinken.

Voilá:
https://www.dsogaming.com/news/deep-learning-super-sampling-dlss-is-coming-to-battlefield-5/
According to NVIDIA, the NVIDIA GeForce RTX 2060 is able to run Battlefield 5 with an average of 90fps with RTX disabled and with an average of 88fps with both RTX and DLSS enabled.
...contrary to Final Fantasy XV which only supports DLSS in 4K, Battlefield 5 will support DLSS in 1080p ...

Fakt ist, solange keins der Features in keinem Spiel vernünftig und vollumfänglich umgesetzt ist (Und das ist es bis jetzt noch in keinem), solange ist alles nur pures Marketing am Ende.
Ach- Die Spiegelungen bei BF5, das VRS in Wolfenstein 2 und das DLSS in FFXV ist also nur Einbildung und hat garkeine Auswirkungen? Also sind Dinge quasi nur "vernünftig" eingesetzt, wenn Du Dein Qualitätssiegel druntersetzt?

7. Du fragst hier wirklich warum ein FFXV mehr VRAM benötigt als ein The Divison? Dafür, das du angeblich ja so viel dich mit dem Thema beschäftigst, stellst du dich jetzt doch sehr unwissend hin. Ich könnte jetzt anfangen es zu erklären, aber da du ja so ein schlauer User bist, wirst du es sicher selber herausfinden. ;)
Nachdem ich ja mitgeteilt hatte, dass ich mich mit dem Thema auch schon auf Praxisebene auseinandergesetzt habe, verstehe ich es eben nicht mehr. Ich dachte früher ich wüsste warum - Open World (Asset- Vielfalt, Weitsicht etc.). Je länger ich mich aber damit auseinandergesetzt habe und auch selbst an Engines rumgestrickt, Kompressionsverfahren von Texturen geprüft habe etc.
Man lernt ja schliesslich immer dazu und wenn man dann mal das System der Megatextures bzw. virtual textures verstanden hat, oder die unterschiedlichen Verarbeitungarten von single textures/atlas textures etc., dann ist es mir inzwischen tatsächlich vollkommen unverständlich, warum einige Engines so lachs mit dem VRAM umgehen müssen. Insofern wäre ich schon auf Deine Einsichten gespannt.

Auf den Rest mag ich nicht eingehen, ich Denke Du weisst warum.

Grüße
Zero
 
Also, ich weiß es wurde schon hundertfach hier erwähnt aber 370€ sind keine Mittelklassepreise mehr. Ich habe für meine GTX 1070 400€ gezahlt und das waren noch Mining-Zeiten.

Und ja die Leistung ist wirklich ordentlich und warum es 6GB-VRAM wurden weiß auch jeder. NVIDIA muss halt die Chips auch so beschneiden das es „ökonomisch“ für NVIDIA sinnvoll ist.

Ich hoffe AMD bringt da wirklich etwas neues was die Preise wieder ins Lot bringt.
 
  • Gefällt mir
Reaktionen: Verak
Um mal was zur Speicherthematik beizutragen: Ich habe seit kurzem eine gebrauchte RX 470 8GB und spiele noch mit den AMD Settings. Aus Spaß mal das In-Game Overlay angemacht:

Spiel: Escape From Tarkov
Settings: Full HD, Texturen High, Shadows Low, alles andere deaktiviert.

Laut Overlay 5,5GB VRAM belegt. Jetzt und hier, in Full HD, ohne "Ultra" Texturen oder irgendwas. Ich bin sehr froh eine Karte mit 8GB gekauft zu haben, wer sich jetzt für fast 400€ eine Karte mit 6GB kauft hat den Schuss nicht gehört.
 
  • Gefällt mir
Reaktionen: Tweakit, Sennox und Captain Mumpitz
@paule123 um mal andere Stimmen zu zitieren: "Du kannst mit nur einem einzigen Spiel nicht für alle sprechen!" und nicht vergessen anzufügen, dass es sich bei Tarkov noch um Early Access handelt und dieses ja sowieso noch optimiert würde. Rabble rabble, niemand braucht 6GB im Mittelklasse Segment, Rhabarber, usw.

Und ich hab seit meiner RX470 8GB Speicher und denk mir "Texturen? Ultra. Passt."
 
Zurück
Oben