Test Asus GeForce RTX 2060 Strix im Test: TU106 in schneller, leiser und auf Wunsch auch bunter

ZeroZerp schrieb:
................. .
Daher rühren nämlich auch oftmals die "Spannungen" in diesem Forum. Da wird sich seitenweise über Preise aufgeregt, die einen anderen überhaupt nicht jucken. Versuch die beiden Parteien mal argumentativ auf eine Eben zu bringen.
Welten prallen aufeinander.

Grüße
Zero
Fast hätte ich gedacht, dass wäre der HOLT, nur eben statt INTEL Nvidia! Muss schon sagen, sehr guter Versuch die absurden Preise dieser Grafikkarte zu relativieren. Dumm ist nur, wir sind nicht DOOOOFFFF!!!!!
 
Wer die 10€ mehr nicht in eine 2070 steckt... na mal sehen wie die Preise in 3 Monaten sind. Wenn die Karte dann nur noch 350€ kostet, dann passt es. Die einfachen Ausführungen dürfen dann nicht mehr wie 300,-€ kosten.
 
Hallo zusammen,

@ L1TerminalFault

L1TerminalFault schrieb:
Fast hätte ich gedacht, dass wäre der HOLT, nur eben statt INTEL Nvidia! Muss schon sagen, sehr guter Versuch die absurden Preise dieser Grafikkarte zu relativieren. Dumm ist nur, wir sind nicht DOOOOFFFF!!!!!

Du liegst in dem Punkt falsch. Das aufgeführte Zitat ist völlig aus dem Zusammenhang gerissen. So hat er es nicht gemeint. Du mußt es im Kontext des Gesamtbeitrags Sehen. Lies dir seinen Beitrag von Oben bis Unten mal ganz durch.

So long....
 
  • Gefällt mir
Reaktionen: .Sentinel.
Vitali.Metzger schrieb:
AMD hat denke ich mal nicht ohne Grund bei der R7 16 GB VRAM verbaut. Spätestens mit dem Release der PS 5 und den ersten Starttiteln werden 8 GB VRAM zu wenig sein und NVIDIA wird sich dann freuen wenn sie die 2060/2070/2080 Käufer wieder zur Kasse bitten darf :evillol:
Übertreib mal nicht. Hier wird immer so übertrieben von allen.
 
Luxmanl525 schrieb:
Hallo zusammen,
..........................
Die Konsolen würde ich sowieso eher außen vorlassen. Schau doch nur mal, die heutigen Konsolen Priorisieren 2 der jeweiligen 8 CPU-Kerne immer für das Betriebssystem. Das gilt für Sony als auch Microsoft. Und ein Teil des Rams ist ebenso Priorisiert. Die Konsolen sind also eher nicht als Beispielgebend geeignet.

................. .
So long...

Gerade die Konsolen geben die Richtung vor, erst wenn die Konsolen Raytracing unterstützen, ist das Feature etabliert, vorher wird nichts! Alleine Xbox und Playstation beherrschen mindesten 2/3 des Spielemarkts, diese außen vorzulassen grenz schon an krasse Realitätsverweigerung.
 
  • Gefällt mir
Reaktionen: Zitterrochen
Nur mal so in den Raum gestellt - laut Hardwareumfrage 2017 hier auf CB nutzten knapp 50% der Forenmitglieder FHD, knapp halb soviele WQHD. 2018 sieht es da schon etwas anders aus. Wäre doch ein schöner Service für die Aufrüstwilligen mit FHD wenn da auch ein paar benchmarks mit WQHD dabei wären. Könnte den einen oder anderen Fehlkauf verhindern. Oder wollten das die Grünen nicht?

Hardwareumfrage CB 2017.jpg
Hardwareumfrage CB 2018.jpg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alphanerd
Asus Strix ist doch immer teuer, wartet doch mal auf Modelle von KFA, Gainward/Palit oder Zotac.

Ich würde auch sagen, dass die 2060 auf FullHD 144fps Spieler ausgelegt ist, da werden die 6GB vram so schnell keine Probleme bereiten.
Mal davon abgesehen, dass sich Spiele-Entwickler vermutlich stark auf die Mittelklasse konzentrieren.
 
  • Gefällt mir
Reaktionen: poly123
ZeroZerp schrieb:
Quelle? Mir ist nicht bekannt, dass das "Einschalten" der RTX Cores auf den VRAM geht.

Auf Gamestar steht das.
Battlefield V 1080p. (2060)
Während die Belegung ohne RT unter DirectX 12 bei maximalen Details im Bereich von 4,5 GByte liegt, sind es mit Raytracing etwa 5,5 GByte (gilt für alle RT-Detailstufen).
Scheint also was dran zu sein.

Für WQHD interessierte
Battlefield V (Max FPS)
Geforce RTX 2060 Nvidia-Treiber 417.54 (Core i9 9900K, 16,0 GByte RAM)
WQHD maximale Details, Future Frame Rendering an, Singleplayer
DX11 ---------------76,1
DX12, RT aus -------61,4
DX12, RT Niedrig---40,5
DX12, RT Mittel-----40,2
DX12, RT Hoch------32,3
DX12, RT Ultra------32,4
 
  • Gefällt mir
Reaktionen: Schummi und GERmaximus
meiner meinung nach eine absurde vorstellung von asus. allein schon angesichts der tatsache, dass momentan schon die 2070er customs bei 480€ starten. wo will man sich da mit dieser "kleinen machbarkeitsstudie" positionieren und generell: wo will sich nvidia positionieren? das portfolio scheint mir zerrissen. schon vor über 2 jahren kam man nicht zuletzt hier auf cb zum schluss, dass es in der mittelklasse zumindest 6gb vram sein sollten und dann sowas nach all der zeit? die 2060 mit 6gb, 2070 mit 8gb, 2080 mit 8gb und die 2080ti mit 11gb...da fehlen schwer ersichtlich überall ein paar gb, möchte man entsprechend up-to-date sein. die frage ist: möchte man? die weitere frage wäre: wo will man dann mit der 2050 bzw. 1150 hin? auf 4gb? :lol: der flaschenhals einzementiert.
eine spannende, verlorene generation....
 
  • Gefällt mir
Reaktionen: Alphanerd und poly123
Mich würde interessieren ob das Testexemplar frei von "Schleifenden" Lüftern ist. Weiter wäre interessant ab die Lüfter der Karte beim Starten rattern. Ich habe meine Karte 3 mal umtauschen müssen (Danke an MM für den unkomplizierten austausch). Die erste hatte ein lautes rattern an einem der 3 Lüfter beim starten. Grade bei Youtube Videos war das unerträglich weil die Karte stets in dem Temperaturfenster lief wo der Lüfter AN und AUS geht. Die 2 Karte hatte das gleiche Problem. Die 3 Karte hatte dann ein Schleifendes Geräusch an einem Lüfter. Erst die vierte Karte war Mangelfrei. Bei dem Preis kann man mehr erwarten. Habe auch schon einen Bericht gelesen das die 2080 Serie auch davon Betroffen sein soll.

So leise die Karten auch sein mögen und frei von Spulenfiepen sind (Das waren alle 4 Karten), überlege ich mir ob ich mir noch mal eine ASUS Karte ins Haus hole.
 
je87 schrieb:
Jo! Deshalb gurke ich auch immer noch mit einer 970 rum.^^ Den Irsinn bei den Preisen mache ich nicht mit!
Willkommen im Club.
 
  • Gefällt mir
Reaktionen: Verak, je87 und poly123
GINAC schrieb:
Auf Gamestar steht das.
Battlefield V 1080p. (2060)
Während die Belegung ohne RT unter DirectX 12 bei maximalen Details im Bereich von 4,5 GByte liegt, sind es mit Raytracing etwa 5,5 GByte (gilt für alle RT-Detailstufen).
Scheint also was dran zu sein.
Verstehe. Ich würde nicht so weit gehen und anhand der Implementierung in EINEM Titel eine generelle Regel ableiten zu wollen.
Die Nutzung der RT Cores an sich beansprucht nämlich erstmal keinen Speicher. Die sind in der Renderpipeline eine Zwischenstufe, die man nutzen kann oder nicht.
Die Aufbereitung der Daten bzw. das Bilden der Beschleunigungsstruktur benötigt je nach Technik dann mal mehr oder weniger Speicher. In BF5 offensichtlich mehr. Das muss aber nicht zwingend so sein.

Grüße
Zero
 
Ich habe selbst momentan eine Asus ROG Strix RTX 2080 OC in Betrieb und würde folgende zwei Dinge vor dem Kauf einer/dieser RTX Asus-Karte zu bedenken geben:

- Bei Pascal, also der GTX 10xx Serie, hatte ich von der 1070 bis zur 1080Ti durchgängig Gainward-Karten. Diese hatten null Spulenfiepen und ich dachte schon fast, dass die Hersteller das inzwischen weitestgehend in den Griff bekommen haben, bis mich die Asus RTX 2080 eines Besseren belehrte. Die quietscht gut hörbar (ich limitiere wegen G-Sync auf 141fps) schon bei relativ niedrigen fps und auch gut aus einem gedämmten Dark Base 900 Gehäuse heraus zu hören.
Auf Geizhals liest man vom Spulenfiepen sowohl bei Reviews der RTX 2080 als auch der 2080Ti. Das könnte ein generelles Problem der ROG Strix Serie sein, daher Vorsicht... für mich als Headset-Gamer ist es noch OK, aber ohne hätte ich die Karte zurückgesendet.

- Die Lüfter machen bei sehr niedriger Drehzahl etwas komische Geräusche... immer so ein An- und Abschwellen, ähnlich einem Pumpengeräusch. Auch dies kann man in Reviews der aktuellen Strix ROG Karten auf Geizhals nachlesen und manche Leute haben die Karte deswegen sogar per RMA abgewickelt. Es scheint also ein Serien"problem" zu sein bzw. zumindest eine Besonderheit des derzeitigen Lüfterantriebs. Dadurch wird der Vorteil des Silent-Mode natürlich teilweise wieder neutralisiert.

Ich kann mir vorstellen, dass es dafür technisch sogar gute Gründe gibt, z.B. erhöhte Langlebigkeit des Lüfterantriebs o.ä., aber wirklich schön gelöst ist das nicht.
Allerdings muss man der Karte zugute halten, dass sie mit Silent-BIOS bei hoher Last in aktuellen Games, wenn der Lüfter dann bei ca. 30% bis 40% Drehzahl läuft, schon sensationell leise ist. Dann verschwindet das Lüftergeräusch, das man nur zwischen ca. 5% bis 15% hört, und die Temperaturen sind mit mittleren 70°Cer Werten in einem sehr guten Bereich für die geringe Lautstärke.
 
Verak schrieb:
Irgendwie hat der Großteil vergessen das es die Leistung all die Jahre, eines x70 oder eines x80 Modell's der Generation zuvor, zum selben Preis einer Leistungsklasse drunter der neuen Generation gab. Aber was hier nun abläuft ist das man bei selber Leistung wie die Generation zuvor, sogar noch Geld drauf legt und dabei noch 2GB VRam weniger bekommt und das wird hier von den Nvidia Jüngern noch gefeiert mit ihrem RTX und DLSS bullshit und AMD orientiert sich seit Pascal nun an selbigen Preisen.

Fehlen einem nur noch die Worte. Idiocracy lässt grüßen.

Ich wage mal zu behaupten, dass eine RTX 2060 kaum eine Chance gehabt hätte, wenn NVIDIA die 1070 1070Ti und die 1080 weiterlaufen lassen würde. Inkl. gesunder Preisentwicklung. 1070 - 300-350€, 1070ti 350-400€, 1080 >400€

Passt wohl auch in die Strategie RTX zu pushen. Obwohl das bei der 2060 schon nicht gelingen kann..
 
  • Gefällt mir
Reaktionen: poly123
joa schöne neue Technik. wieviele spiele gibt es derzeit auf dem markt mit dssr und raytraycing? warum soll ich für die erste Generation, die nur durch treiberpfuscherei, nun endlich mal bissl Leistung bringt, soviel Geld ausgeben? und die "neuen techniken" sind ja nichtmal wirklich ausschlaggebend, ob ich das spiel spiele^^. gibt genug Beispiele an games, die auch ohne diesen schnick schnack sehr gute Optik bieten^^
 
Warum der (große) VRAM für Raytracing noch wichtiger ist als ohne ?
https://www.nvidia.com/object/configuring-gpu-ray-tracing.html

"For most people, the GPU's memory size rivals its performance traits, as most ray tracing applications require the entire scene (geometry + texture maps + acceleration structure) to fit within the GPU's memory. Exceeding memory by one byte will usually either prevent the rendering or cause a fallback to far slower CPU processing (if the renderer has a fallback)."
(schnelle, etwas freie) Übersetzung:
Für die meisten ist die Größe des GPU Speichers ein wesentliches Performance Merkmal, die meisten RT Applikationen erfordern es die gesamte Szene (Geometrie, Texture Map, ....) innerhalb des GPU Speichers zu halten. Den Speicher auch nur um 1 Byte zu überschreiten wird in der Regel das (RT-)Rendering unmöglich machen oder einen Fallback auf ein wesentlich langsameres CPU Processing zu machen (FALLS der renderer ein Fallback hat).

"Regardless of the fallback, staying within GPU memory is required for the best performance,...."

(schnelle, etwas freie) Übersetzung:
Unabhängig von der Art des Fallbacks, innerhalb des GPU-Speicherbereichs zu bleiben ist Vorraussetzung für beste Performance..."

Da man ja die Qualität der Models auch immer höher dreht brauchst mehr VRAM. Gerät man aber mit einem EINZELNEN Frame ins VRAM-Cap hat das wesentlich drastischere Auswirkungen als mit Rasterizing (auch hier hats einen großen Einfluss - aber bei RT eben noch deutlicher).

6GB VRAM auf einer Karte für fast 500 Öcken ??? Und mit "RT" ON ?

Yeah....12 GB wären OK...oder 9 minimum...Aber klar wenn die 2080 ja schon nur 8GB hat weil GDDR 6 halt so "teuer" ist. Vermutlich wohl doch teurer als der HBM2 von AMD wenn die es sich leisten können fürs gleiche Geld 16GB draufzulöten.
 
  • Gefällt mir
Reaktionen: GERmaximus
feidl74 schrieb:
warum soll ich für die erste Generation, die nur durch treiberpfuscherei, nun endlich mal bissl Leistung bringt
Wo hast Du denn das her? Quelle?

gibt genug Beispiele an games, die auch ohne diesen schnick schnack sehr gute Optik bieten^^
Wenn Du die Karte und deren Techniken nicht nutzen willst, Du keine Vorteile darin siehst, dann würde ich sie an Deiner Stelle nicht kaufen.

Grüße Zero
 
@Moriendor
Ich habe das bei meiner 2070 mit Hilfe des Perfomance Bios und einer Angepassten Lüfterkurve im Afterburner geregelt. Bis 60 Grad läuft die Karte bei 24% und damit mit 800upm. Mein System ist auf Silent getrimmt und die Karte ist im idle unhörbar. Den Rest habe ich fast identisch zum Silent Bios angepasst mit einer Hysterese von 10 Grad. Der Vorteil ist das die Karte auch im idle Kühl bleibt und die Lüfter nicht ständig aus und an gehen.
 
Irgendwie ist die Karte wie ein Ferrari mit Winterreifen. Wir haben das Jahr 2019 und NVIDIA schmeißt immer noch Karten mit 6GB (oder weniger) auf den Markt. Gebt der Karte 2 GB mehr und die 2060 wäre wirklich eine Überlegung wert.
 
  • Gefällt mir
Reaktionen: L1TerminalFault
Zurück
Oben