RTX 3080 12GB Neuanschaffung VRAM Probs?

Nachos HW Tipps

Lieutenant
Registriert
Dez. 2015
Beiträge
536
1. Wie viel Geld bist du bereit auszugeben?
1.450 €

2. Möchtest du mit der Grafikkarte spielen?

  • Welche Spiele genau? … COD Warzone (und neue Tripple A Titel)
  • Welche Auflösung? Genügen Full HD (1920x1080) oder WQHD (2560x1440) oder soll es 4K Ultra HD (3840x2160) sein? … UWQHD 3440x1440
  • Ultra/hohe/mittlere/niedrige Grafikeinstellungen? … mittel - hoch
  • Genügen dir 30 FPS oder sollen es 60 oder gar 144 FPS sein? … 80-144 je nach Titel
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?
... OBS Studio, Davinci Resolve, Hobby

4. . Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)
... https://www.lg.com/de/monitore/lg-34gn850-b , unterstützt G-Sync

5. Nenne uns bitte deine aktuelle/bisherige Hardware:
6. Hast du besondere Wünsche bezüglich der Grafikkarte? (Lautstärke, Anschlüsse, Farbe, Hersteller, Beleuchtung etc.)
... leise, Lüfter unter 2.000 u/min im Betrieb wären fein.

7. Wann möchtest du die Karte kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
... asap


Tagchen, die 3060ti langt inkl. DLSS leider nicht um konstant über 100fps in Warzone zu stemmen.
In niedriger Auflösung (1280x900) fallen meine FPS nicht unter 120, auf keinen Fall unter 100 FPS. CPU ist also flott genug.

Ich bin pro Nvidia, zum einen hinsichtlich der Gameplayaufnahmen, zum anderen stehe ich auf das Feature Set mit DLSS.
Die 3080 sieht von den Benchmarks vernünftig aus. Das wird der Push, den ich mir erhofft habe.

Die 10GB Variante schließe ich aus (Bauchgefühl, wenn man schon soviel Kohle hinlegen muss).
Die TI Variante schließe ich ebenfalls aus. Den Mehrwert für den Aufpreis von nochmals 200-400€ sehe ich nicht.

Ich hab jetzt ne Menge Tests durchgeblättert.
Meine einzige Sorge ist, dass ich leider keinen Test/Vergleich finde, wo IMMER die Temps des VRAMS mit verglichen werden.
Das geht nahezu überall unter.

Meine Favoriten aktuell wären:
  • MSI Gaming Z Trio (laut Kollege Memory Temp bis zu 110°)
  • Asus TUF Gaming (diverse Foren sprechen von 105°)
  • EVGA FTW3 Ultra (laut Foren Memory Temp bis zu 104°)
  • Gigabyte Gaming OC (ebenfalls Memory über 100°)
Alle 4 Karten gibt es immer wieder unter 1.400€, so nach dieser Rangliste würde ich meine Favoriten betiteln.

Ich würd mich freuen wenn jemand vernünftige Quellen / Tests der Customsdesigns hätte inkl. dem Vergleich der Mem- Temps.
Wenn 100 Nutzer ihre Beiträge verfassen, jeder ein anderes Gehäuse, Zimmer, Lüfter, Setup hat, sind die Vergleiche der Mem-Temps nicht wirklich aussagekräftig.

Also ich würd mich freuen, wenn mir jemand helfen könnte die Karte mit den "gesündesten" Mem- Temperaturen zu finden.

Lieben Dank euch!
 
Bei deinem Preisbudget würd ich sofort zur 6900XT greifen. Leider ist es schwierig einem Nvidia Karten Nutzer sowas vernünftig erklären zu können (ist auch nicht böse gemeint ^^) Insbesondere in Call of Duty, als auch Warzone, sowie die Battlefield Sparte, dort zeigt AMD seine besten Ergebnisse. In Kombination mit deinem 5800X wärst du optimal aufgestellt.
DLSS lohnt sich by the way nur im Quality Mode und in Verwendung von 4K. Wenn du WQHD + DLSS einschaltest, ist das eigentlich eher Grütze.

Das Geld wäre ein Rauswurf - meiner Meinung nach - für eine RTX 3080 12GB Variante, welche der 6900XT unterlegen bleibt sowohl was den VRAM betrifft als auch die Rohleistung, FPS und Frametimes.

Anbei der Link für die 6900XT Modelle, welche deutlich im Preis gefallen sind:
https://geizhals.de/?cat=gra16_512&xf=9809_05+12+-+RX+6900+XT&sort=p&hloc=at&hloc=de&v=e

Um deine Frage dennoch zu beantworten:
Wenn du dich nicht umstimmen lassen willst, rate ich dir zur ASUS TUF OC oder zur EVGA FTW3 Variante, bei beiden Herstellern hast du immer die besseren POSCAPS (Kondensatoren) verbaut und die Kühlung steht immer im Vordergrund gepaart mit der recht hohen Taktfrequenz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wolve666, Nachos HW Tipps, kurfuerst1982 und eine weitere Person
Hey Nord, danke erstmal.

DLSS nutze ich derzeit aktiv mit der 3060ti in UWQHD, daher bin ich von dem Feature ja begeistert.
Ohne DLSS dümpel ich bei 60FPS rum, mit dem Feature eben bei 80FPS+. Das sind mal nette 30% FPS für Lau.
Ein bisschen nachgeschärft im Treiber sieht das gut aus.

Bei der AMD Karte macht mir (neben fehlendem DLSS) die Aufnahme mit OBS Studio Sorgen, wie auch das Schneiden mit Davinci Resolve. Ich nehme mein Gameplay mit einer Bitrate von 50.000 Kbps auf, im MP4 Format, mit dem NVIDIA NVENC Encoder. Und so wie ich gelesen habe, ist AMD hinsichtlich Encoder nicht konkurrenzfähig. Das wäre mir sehr, sehr wichtig, dass ich reibungslos Gameplayaufnahmen erstellen kann.

Danke dennoch, dass Du auf meine Fragestellung eingegangen bist :)
 
  • Gefällt mir
Reaktionen: DJMadMax
Ich kann nur was zur MSI RTX 3080 10GB Gaming Z Trio und MSI RTX 3070 Gaming X Trio sagen:

Zur 3080:
Das Teil wird verdammt warm...eher heiß. Die Pfoten will man da nicht auf die Backpalte legen.

Ich hatte die Karte im UV betrieben, das konnte die ziemlich gut. Aber trotzdem wurde die ca. 70°C warm (bei ca. 45% Lüftergeschwindigkeit und 18°C Umgebungstemperatur) und hatte alle M.2 SSDs auf über 60°C erhitzt. Mag alles im Rahmen sein, aber bei der durchwachsenen Rohleistung war es zu viel des Guten. The Division 2 war in WQHD nicht bei 144 FPS möglich. Und wenn man dann PackagePower 320 - 360 Watt liest, platzt einem der Kragen.

Zur 3070:
Auch die Karte wurde ziemlich warm. Bei 837 mV und 1755 Mhz waren es bei ca. 18°C Umgebungstempreatur und 40% Lüftergeschwindigkeit ca. 64°C. Auch dort wurde die Backplate, vor allem in der Höhe der Spannungswandler sehr warm. Die M.2 dümpelten bei ca. 58°C herum. Wahrscheinlich auch normal, aber bei einer TDP Einstufung von 220 Watt und UV auch wieder bissel zu viel.


Zur 6900 XT:
Ich hatte auch eine 6900XT von MSI (die ich, wie sich inzwischen herausgestellt hat, zu Unrecht zurückgegeben hatte). Die 6900XT war wesentlich runder was Hitze, Verbrauch und Leistung anging.

Sofern man selbst kein Raytracing verliebter Spieler ist und einen Monitor hat, der Freesynch unterstützt, gibt es wenig Gründe im gehobenen Bereich zu Nvidia zu greifen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kha'ak und Nachos HW Tipps
Snowknight schrieb:
Ich hatte die Karte im UV betrieben, das konnte die ziemlich gut. Aber trotzdem wurde die ca. 70°C warm (bei ca. 45% Lüftergeschwindigkeit und 18°C Umgebungstemperatur)
70 Grad sind für eine Grafikkarte völlig normal und liegen absolut im grünen Bereich. Meine 6900xt erreicht im Schnitt 75-80 Gard bei 1100 mV.
 
  • Gefällt mir
Reaktionen: Nachos HW Tipps
Vitali.Metzger schrieb:
70 Grad sind für eine Grafikkarte völlig normal und liegen absolut im grünen Bereich. Meine 6900xt erreicht im Schnitt 75-80 Gard bei 1100 mV.
Dagegen sag ich ja nix :)
Das Problem ist aber irgendwann die Wärmeabgabe. Bei einem riesigen Kühler, bedeutet eine GPU Temperatur von 70°C bei durchaus mittelschnellen Lüftern die reinste Freude für alle anderen Teile im PC.

Die Moral sollte nur sein: Irgendwas ist bei Nvidia schief gelaufen, wenn ein Konkurrenzprodukt mit identischer oder besserer Leistung kühler ist. Die 6900XT wurde bei mir übrigens nicht wärmer als 70°C ohne UV.
 
  • Gefällt mir
Reaktionen: PeacemakerAT und Nachos HW Tipps
TURO schrieb:
Die 3080 sieht von den Benchmarks vernünftig aus. Das wird der Push, den ich mir erhofft habe.
Ich bin zwar kein Warzone-Spieler, allerdings liest man an jeder Ecke, dass das Spiel sehr unoptimiert zu sein scheint und hardwaretechnisch nicht unbedingt gut skaliert. Es ist also nicht sicher, ob du mit einer stärkeren Grafikkarte zwingend auch die FPS in Warzone erreichst, die du dir wünschst.

NordHB21 schrieb:
DLSS lohnt sich by the way nur im Quality Mode und in Verwendung von 4K. Wenn du WQHD + DLSS einschaltest, ist das eigentlich eher Grütze.
Der TE hat sehr deutlich gemacht, wieso er eine nVidia-Karte haben möchte und das von ihm beschriebene Featureset geht ja über das von dir kritisierte DLSS in niedriger Auflösung weit hinaus.

Davon abgesehen: ich mache gerade (benchmark-bedingt) DLSS-Tests sogar in "nur" 1080p. Es ist zum Teil spieleabhängig, ganz klar. Aber wenn du nicht unbedingt mit der Lupe umherrennst, merkst du im normalen Spielebetrieb selbst bei Full HD keinen Unterschied, ob DLSS (auf höchster Qualität, versteht sich) aktiviert ist oder nicht.

Wenn man beim Spielen allerdings mehr damit beschäftigt ist, sich irgendwo einzelne Pixel in einem 400 Meter entfernten Fensterrollo anzuschauen und sich über einen entstehenden Moire-Effekt zu echauffieren, dann sollte man sich ernsthaft Gedanken darüber machen, ob Videospiele das richtige Hobby sind.
 
  • Gefällt mir
Reaktionen: Tiger_74 und Nachos HW Tipps
DJMadMax schrieb:
Wenn man beim Spielen allerdings mehr damit beschäftigt ist, sich irgendwo einzelne Pixel in einem 400 Meter entfernten Fensterrollo anzuschauen und sich über einen entstehenden Moire-Effekt zu echauffieren, dann sollte man sich ernsthaft Gedanken darüber machen, ob Videospiele das richtige Hobby sind.
:D :D :D

Zum Thema:
Die Unterschiede der genannten Grafikkarten halten sich in Grenzen. Will man per OC ans Limit gehen offenbaren sich ein paar Unterschiede (Waterblock-Support, BIOS, Max Power Target etc...).
Spielt das keine Rolle, kannst du bedenkenlos zu jeder der genannten Karten greifen.
Anfängliche Qualitätsprobleme (CAPs, Voltage-Controller, etc..) sind inzwischen behoben und das Qualitätsniveau ist annähernd gleich.

Meine Erfahrungen mit dem Support der einzelnen Firmen schwanken aber stark.
EVGA steht hier einsam an der Spitze. Meine alte 980 wurde nach 5 Jahren und einem Defekt ohne Murren getauscht. Der Kontakt war immer sehr nett. Step-Up von 3080 auf 3090 lief ebenfalls ohne Probleme.
ASUS ist hit/miss beim Support. Ein defektes Board wurde ohne Probleme getauscht, ein zweites kam unbearbeitet und defekt wieder zurück.
MSI - liegt meine letzte Erfahrung viele Jahre (20+) zurück.
Gigabyte - Ich hasse den Support. Unfreundlich, unehrlich, einfach nö.

Fast man das alles zusammen, so würde ich zur EVGA raten.

Die angesprochenen Memory Temps beziehen sich eigentlich eher auf die 3090. Hier sind die Speicherbausteine auf der Rückseite in der Tat sehr heiß. Bei 3080 und Co. treten solche Temperaturen aber nicht auf. Bei meiner 3090 konnte ich das Problem mit anderen Wärmeleitpads beheben - spielt aber wie gesagt bei 3080 keine Rolle.

Kurz zum Thema warum keine AMD:
Deine Argumentation bzgl. Featureset kann ich absolut unterstützen. DLSS läuft bei mir ebenfalls immer.
 
  • Gefällt mir
Reaktionen: Nachos HW Tipps
Zum Thema Garantie und Support, besonders beim Kühlerwechsel, sollte vielleicht noch folgender Link beachtet werden:
https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/

Demnach scheint der Tipp von @micha04ilm zu EVGA zu greifen, durchaus ratsam zu sein. Wirklich leise wird eine 3080 selbst mit dem besten Luftkühler vermutlich niemals sein, die teilweise über 350 Watt Dauerlast der Custom-Modelle müssen schließlich irgendwo hin.
 
  • Gefällt mir
Reaktionen: Nachos HW Tipps
  • Gefällt mir
Reaktionen: Nachos HW Tipps
Danke für die vielen Antworten! Nice :)

Hinsichtlich der Memory Temps bin ich jetzt zwar nicht schlauer geworden, aber viele tolle Tipps erhalten.

Der Hinweis auf den vorbildlichen Support seitens EVGA, dem Verbau hochwertiger Transistoren und der 3 jährigen Garantie ist Diese dann wohl "the way to go".

Hab ich richtig verstanden?
Von der Qualität / Lautstärke / Kühlung sind Asus TUF, MSI Gaming Z und EVGA FTW3 alle tauglich - lediglich die EVGA sticht nochmal mit dem Support hervor? Wieso kaufen denn dann nicht alle EVGA? :)

Danke für die Hinweise und die Bekehrungsversuche hinsichtlich der AMD Karten, aber da ich wegen dem Encoder viel zu wenig (positive bzw. brauchbare) Informationen dazu finde, will ich kein Risiko eingehen. Zudem ist mir DLSS wirklich zu sehr ans Herz gewachsen (mit Gen 2.xx)

In direkten Benchmarks sehe ich auch nur im Schnitt +5% mehr Leistung (+4GB mehr VRAM), was ja mit DLSS dann wieder obsolet wird.
 
weil evga immer der teuerste kandidat im feld war bevor die preis von grakas explodiert sind

ich fand bei evga bis jetzt der ftw modelle die kühlung auch immer am besten im vergleich zu anderen, aber lautstärke ist subjektiv und jeder empfindet das anders

btw. kannst du die garantie bei evga für wenig geld relativ lang verlängern...
 
  • Gefällt mir
Reaktionen: Nachos HW Tipps
Yes vermutlich wirds etwas knapp mit den 550 Watt. Aktuell zieht mein System 400 Watt aus der Steckdose beim Benchmarken, beim Zocken sinds tatsächlich nur ca. 330 Watt.

Aber will da auch kein Risiko eingehen hinsichtlich Lastspitzen.

Bei den Bequiet Straight Power Netzteilen höre ich oft von ratternden Lüftern.
Spricht was gegen dieses Netzteil? Hab ich ja derzeit als 550 Watt Variante und bin happy:

https://geizhals.de/be-quiet-pure-power-11-fm-750w-atx-2-52-bn319-a2508507.html?hloc=at&hloc=de
 
NordHB21 schrieb:
.
DLSS lohnt sich by the way nur im Quality Mode und in Verwendung von 4K. Wenn du WQHD + DLSS einschaltest, ist das eigentlich eher Grütze.
Nope. Das schöne, wenn man nötige Kreativität besitzt, man kann DLSS mit jeder "geringeren" Auflösung zb Full HD ideal nutzen. Einfach DSR nutzen und dann DLSS hinzuschalten.
Dying Light 2 ein aktuelles Bsp hab irgendwas um 5160x2160 Auflösung (Monitor 3440x1440) + DLSS Leistung, sieht Astrein aus. Und weit besser als nativ.
Man muss nur die Features zu nutzen wissen, welche man von Nvidia und co bekommt.
 
  • Gefällt mir
Reaktionen: Nachos HW Tipps
Also ich hatte nun insgesamt 3x 6900xt hier.

Alle 3 gingen zurück.

Top Leistung, aber Fiepen ohne Ende.
1x Sapphire Nitro Se
2x Red Devil Ultimate

Zudem nutze ich die "Videobeweis" Funktion, sprich die letzten 10min zB abspeichern. Erstelle damit gerne Clips.
Ist das Feature bei AMD aktiviert gewesen hats beim Browsen auf weißen Seiten lauter gefiept als unter Last.
P/L ist die 6900xt sicher eine gute Wahl (Rasterizer + 16gb Vram) aber das Fiepen ist wohl weit verbreitet.

Hier noch n gutes Video

Ich mag HW Unboxed. Und da sieht man halt im Endeffekt die 3080 in höheren Auflösungen vorne.

Die 3080 12gb ist unwesentlich langsamer als eine 3080ti.
Ich finde aber auch die 12gb zu wenig für so eine Leistung, vor allem verknüpft mit RT.

Die perfekte Karte ist eine 3090, aber der Preis lässt grüßen.

PS: Nein, ich hatte bisher keine einzige Grafikkarte die so gefiept hat wie die 6900er. Das Netzteil ist ein Corsair rm850, 1 Monat alt und es fiept nix bei einer OC 3080, die 350w zieht.

PPS: Videobeweis aktiviert in GF Experience = Kein Fiepen beim Browsen.
Bei den 6900ern immer lautstark vorhanden.

Noch ein 3080er Link.
https://www.amazon.es/gp/aw/d/B09QFYSDP2/ref=ya_aw_od_pi?ie=UTF8&psc=1
Amazon Spanien.. Zotac =5j Garantie nach Registrierung. Das Modell selbst kenne ich nicht wirklich. Ist aber wohl das beste bei den 3080ern.
 
In Deiner Auflösung würde auch die 10GB-version der 3080 keine Probleme machen. ich spiele durchgehend in UHD und meistens ist der VRAM bei 5-7 GB, selten bei 9GB + und wenn man es nicht darauf anlegt nie bei 10GB. UWQHD hat ja nur knapp 2/3 der Pixel von UHD, daher wirst Du die 10GB ohne Mods vermutlich nie voll sehen (voll in Nutzung nicht nur allokiert).
 
So back again, jetzt hatte ich heute mega das Glück und hab eine Founders Edition als 3080ti ergattert über den NBB Drop!

Ich hoffe die FE taugt, schwierig die Lautstärke anhand von Videos / Tests einzuschätzen.
Aber preislich unter meinem gesetzten Budget und die 10% Mehrleistung nehme ich grundsätzlich erstmal gern mit :-)

Das Netzteil sollte ausreichend sein nehme ich an? Ist jetzt das Bequiet Straight Power 750 Watt geworden. https://www.amazon.de/gp/product/B078X1KZ8N/ref=ppx_yo_dt_b_asin_title_o00_s00?ie=UTF8&psc=1

Bin sehr gespannt auf die Karte. :love:
 
reicht nicht, mind 800 sollten es sein,

die 3080ti fe erzeugt lastspitzen von 500W dazu kommen noch cpu + der rest
 
TURO schrieb:
Das Netzteil sollte ausreichend sein nehme ich an? Ist jetzt das Bequiet Straight Power 750 Watt geworden. https://www.amazon.de/gp/product/B078X1KZ8N/ref=ppx_yo_dt_b_asin_title_o00_s00?ie=UTF8&psc=1

Bin sehr gespannt auf die Karte. :love:
Grenzwertig. IgorsLab hatte da zu Ampere Release mal paar gute Vids gemacht zwecks Netzteile, Ampere hat ordentliche Lastspitzen drin. Er hatte 850 Watt für die 3090 empfohlen, da ist man auf der sicheren Seite ohne es zu übertreiben (1000+ Watt). Die 3080ti liegt vom Verbrauch glaub ich ziemlich ähnlich wie die 3090.
 
Zurück
Oben