News RTX 3080 Ti und 3070 Ti: Nvidia soll einmal mehr am Grafikspeicher sparen

XashDE schrieb:
Eine 2080ti war nie fĂŒr vollendeten 4K Genuss. Wo holt ihr die TrĂ€ume her, bitte schön?

https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/

meine "TrĂ€ume" beruhen auf Tests auf dieser Seite, das weiß ich sogar noch ganz genau, da meine 1080ti damals an 4K "gekratzt" hat und die 2080ti die erste Karte war mit der man vernĂŒnftig in 4K Spielen konnte

und abgesehen vom technischen Desaster Cyberpunk 2077, kam nicht wirklich viel neues raus in der Zwischenzeit
 
MehlstaubtheCat schrieb:
Aktuell ist es daher fĂŒr mich unmöglich eine neue Karte zukaufen denn unter 16GB werde ich nicht gehen und die neue Karte sollte schon 50% mehr Leistung mit bringen als meine alte sonst lohnt das Update nicht.

Ich muss also bis mindestens 2022-2023 warten, dann ist meine jetzige Karte genau 5-6Jahre alt.

(Und nein ich könnte mir locker ne 3090 hohlen, das scheitert nicht an der Kohle)
Schon erstaunlich wie preiseffektiv die spÀten Polaris Karten waren. RDNA kam gerade so an dessen Preis-Leistung ran.
Karten wie 1080Ti oder die RX400 und RX500er Serie sind leider Ausnahme statt Regel.
 
B3nutzer schrieb:
Ich tu mich eben schwer, zu glauben dass Nvidia zu wenig Speicher verbaut und das Risiko eingeht, dass die Karten 2021/2022 in den Benchmarks massiv gegen AMD abstinken, wenn der VRAM stÀndig ausgeht.
So dumm kann Nvidia nicht sein.. Oder doch? :freak:

Bevor das passiert (in benches aufgrund von zu wenig Speicher zu verknacken) wird nv refreshen.
Als die 2060S mit 8gb raus kam, sind quasi ĂŒber Nacht sĂ€mtliche 2060er mit 6gb aus den benches verschwunden.
 
  • GefĂ€llt mir
Reaktionen: B3nutzer
PS828 schrieb:
@XashDE ich hab schon mit der 390X auf 4k gespielt. Alles kein Problem gewesen.
Ich spiel auch mit der 1660 Super auf 4K. Zwar nicht Cyberpunk, aber Heroes of Might and Magic 3 (:heul:)

Ich glaube, dass 4K Augenwischerei ist. Der optische Zugewinn ist im Vergleich zum Unterschied, den
HDR/Dolby Vision, Raytracing etc optisch machen und dabei ggf. weniger Leistung kosten, ein Witz.

Die meisten Spiele sehen auf meiner 55" Glotze in 4K und 1440p fast gleich aus bei 2 Meter Abstand,
nur der Rechner ist deutlich lauter und braucht 30% mehr Strom. Aber ĂŒber irgendwelches Mapping,
Shadows, Global Illumination oder sonst was, da redet doch kein Mensch. Oder wie hĂŒbsch hier welche
Texturen sind. Auflösung muss immer maximal sein. Das ist ja so viel wichtiger als der restliche Eye candy.
 
  • GefĂ€llt mir
Reaktionen: Matthias80, XashDE, ThommyDD und 2 andere
Sehe ich komplett anders. Ihr mĂŒsst 4K auch mit maximalen Details zocken, dann wirkt das auch! :)
 
WofĂŒr auch mehr Speicher? FĂŒrs Mining wĂ€re das Verschwendung.
 
  • GefĂ€llt mir
Reaktionen: ThommyDD
Gnasher schrieb:
Also 1.500,00€ ist schon was lĂ€nger eher nicht mehr so der Fall oder?

Anhang anzeigen 1058158

@Topic
Das große Speicherraten! Keiner weiß ob 12GB fĂŒr UHD reichen ob 10GB reichen?

Ich hab fĂŒr mich beschlossen WQHD bleibt und somit reichen 10GB, DLSS sollte es sogar noch besser machen, hingegen RT schlimmer mit dem Speicherverbrauch. CB2077 nimmt laut HWInfo ca. 6.987MB (Nativ WQHD) und 6.019 (DLSS Q) im Profil ULTRA RT unter WQHD Auflösung. Es sieht also fĂŒr meine Anwendungszwecke total entspannt aus derzeit.

Das Ziel ist ja nicht "bekomme den Speicher voll" dafĂŒr wĂŒrde ich sowieso eine gewisse Person im Forum mit einer sehr hohen Beitragszahl dazu anrufen. Ganz im Gegenteil ist das Ziel ja, bekomme den Speicher nur soweit wie nötig voll so dass es im Bewegtbild immernoch geil aussieht! ;)

Wenn in 4-5 Jahren dann 10GB zu wenig sind in WQHD, kaufe ich neu, dann reicht die Leistung eh nur noch fĂŒr Mittlere Grafikeinstellungen. PS: HĂ€tte ich einen UHD Monitor wĂŒrde ich ggf. anders denken.

Du musst schauen zu welchen Preisen wirklich verkauft wird, und die Mondpreise bei Geizhals & Co. sind keine Referenz.

Hier wird stÀndig aktualisiert, was zur Zeit in die Shops an Grafikkarten und zu welchen Preisen rein kommt:

https://www.hardwareluxx.de/community/threads/rtx-3080-gpu-verfĂŒgbarkeitshinweise.1281755/page-32#post-28228722

Da sieht man, was die bekannten GrĂ¶ĂŸen wie Alternate, Casting, Mindfactory, ... anbieten. Und Siehe da, RTX 3080 ab 1500 €.
Was auch schon mehr als das doppelte ist. :(
 
Zuletzt bearbeitet:
Eine 3060 mit 12GB und die danach angekĂŒndigte 3070ti wieder nur mit 8GB. Ich kann kaum in Worte fassen wie dĂ€mlich das ist. Wenigstens 10GB hĂ€tte man doch machen können. Bei der 3080ti das gleiche, die 12GB sind da auch ein Witz.
 
  • GefĂ€llt mir
Reaktionen: Matthias80
Mit der 1080ti kam und kommt man heute noch gut zurecht.Es war klar,dass NV diesen "Fehler" nicht wiederholt oder sich fĂŒrstlich bezahlen lassen wird.

Die neue 1080ti ist die 6800XT und auch AMD ist nicht doof und der Heilsbringer und vertickt lieber die 6900XT.

Hier muss eindeutig der Konsument durch sein Kaufverhalten die Richtung vorgeben welches Produkt er zu welchem Preis akzeptiert.Solange 2000,- Karten weggehen wie warme Semmeln,weil es die kompromissloseste Karte ist, wird sich nichts Àndern.
 
  • GefĂ€llt mir
Reaktionen: Gsonz, ThommyDD, NMA und eine weitere Person
Baya schrieb:
Mich reißen die ganzen 3.000er nicht vom Hocker, selbst bei "normalen" Preisen...
Zu wenig Leistungszuwachs zu meiner 1080ti. Wart mer mal auf die 4.000er oder schauen was sich bei AMD tut.
Der Typ schreibt den grĂ¶ĂŸten Schwachsinn ĂŒberhaupt und Leute Liken das noch? Die 3080 ist mitlerweile rund doppelt so schnell wie eine 1080 ti. fĂŒr 700 Euro UVP. Was wird hier den erwartet? Drei mal so schnell fĂŒr 200 Euro? Dieses Forum ist teilweise schon extrem absurd geworden.
 
  • GefĂ€llt mir
Reaktionen: Rog_Rambo und Pro_Bro
Da wird meine GTX 970 noch ne Weile geknechtet werden
 
  • GefĂ€llt mir
Reaktionen: karl_laschnikow
PTS schrieb:
.
Du willst also knapp 2000€ zahlen damit du dann die grafikdetails runter schrauben musst um 60fps zu erreichen?

Es geht einfach darum das die highclass karte von nvidia mit 4k beworben wird und dann schafft sie es nicht mal und du sagst dann einfach "naja man kann ja die details runterschrauben" - WTF? Dann kann ich mir auch gleich eine 3060 oder 3070 kaufen statt ner 3090. Ergibt einfach null sinn was du geschrieben hast, hauptsache irgendein bullshit von sich geben... köstlich!

Erst mal will niemand freiwillig mehr zahlen.
Das ist eine Unterstellung die ich nie verstehe.
Und dann gab es noch NIE eine GPU die alles in allen Auflösungen in Ultra plus rt etc darstellen kann.
Bereits 2015 wurde die 980ti als 4K Karte beworben und die konnte genauso wenig alles Auf Ultra in 4K darstellen wie heute die 3090 in neuen AAA Titeln.

Woher kommt ĂŒberhaupt der Anspruch das die Karte alles auf Ultra mit 60-144fps kann?
Man wird mit aktuellen Karten in aktuellen Games mit aktuellen Features bei enthusiasten Auflösungen immer Kompromisse eingehen mĂŒssen.

Ich zb habe cyberpunk selbst mit der 3090 ohne rt genutzt, da ich meine 80-100fps wollte auf 3440-1440
 
An alle die sich beschweren die Karten haben zu wenig VRAM!

WorĂŒber regt ihr euch auf? Ihr werdet die Dinger eh nie kaufen können, außer ihr seit bereit weit ĂŒber 2000,-€ fĂŒr eine Graka zu bezahlen. Also juckt mich das ganze Thema nicht mehr, wenn meine Graka mal abraucht hole ich mir eine Konsole zum zocken. Gamer PC`s sind seit letztem Herbst ein Luxusgut welches der Standard Konsument sich nicht mehr leisten kann!
 
  • GefĂ€llt mir
Reaktionen: Fyrex
Mal sehn ob ich diesmal GlĂŒck mit ner 3080TI hab, ich glaube nicht dran aber wenn ich die Zeit habe werd ichs mal versuchen.
 
Wenn die Dinger auf X-Speicher setzen wird das wohl auch der Grund sein, warum die den VRAM bekommen. Doppelt bestĂŒcken will man die nicht und die Konfiguration bringt schlichtweg die passende Bandbreite. Da 16Gbit-Chips noch nicht sichtbar sind bei X-Speicher, wird man hier noch warten mĂŒssen. Aber wie einer meiner Vorposter schon richtig bemerkt hat, das Problem ist eh akademisch.
Vielleicht sehen wie die Super-Varianten im Sommer oder Herbst dann Produkte mit 16Gbit-Chips, das wÀre dann auch empfehlenswert. Jetzt ist es das eben nicht. Micron will ja offenbar auch 16Gbit-Chips anbieten.
 
interessant finde ich das hier bisher kaum einer (nicht jede Seite gelesen aber ein paar) erwÀhnt hat, dass das eth mining bald uninteressanter wird.
Mit EIP1559 im Juli wird es sicher einige geben die Aufhören und ihre Karten auf den Markt werfen und keine neuen mehr Kaufen.

Mit eth2.0 vermutlich zu ende des Jahres, wechselt eth dann von PoW zum Staking so das es ab ende 2022 gar kein ETH mining mehr geben wird.

Und fĂŒr die ganzen Alt-Coins wird es nicht so viele Miner geben wie jetzt....
d.h. ich gehe von einer Erholung des Marktes ab Juli aus.
 
Adzz schrieb:
Der Typ schreibt den grĂ¶ĂŸten Schwachsinn ĂŒberhaupt und Leute Liken das noch? Die 3080 ist mitlerweile rund doppelt so schnell wie eine 1080 ti. fĂŒr 700 Euro UVP. Was wird hier den erwartet? Drei mal so schnell fĂŒr 200 Euro? Dieses Forum ist teilweise schon extrem absurd geworden.
Hm, wer den hier wohl Schwachsinn schreibt...?!
Die 3080 ist ca. 60% schneller als die 1080ti hat aber weniger VRAM.
Dazu nirgends fĂŒr 700 Eier zu haben.

Meinetwegen kann ne Grafikkarte 2.000€ kosten, wenn die Leistung stimmt.
Das tut sie meines Erachtens aber bei der 3000er Serie nicht.
Die 3080 wĂ€re freilich ne super Karte fĂŒr 700€, keine Frage - nur fĂŒr mich noch kein Grund zum Upgraden.
Die 3090 ist jenseits von gut und böse was das P/L-VerhÀltnis betrifft...
 
  • GefĂ€llt mir
Reaktionen: dohderbert
[wege]mini schrieb:
Völlig richtig.
[...]
Zu "langsam" bleiben die Karten immer, wenn man zu hohe Anforderungen hat oder nicht zeitgemĂ€ĂŸes Wunschdenken.
Nein, da muss ich Dir widersprechen. Ich weiss zwar sehr wohl, dass es immer schon Titel gab, die mit irgendeiner Killeroption alle aktuellen Systeme in die Knie zwingen konnten, obwohl der Effekt dieser Einstellung kaum sichtbar und sinnlos war, z.B. Troy mit dem Gras, meist waren es irgendwelche Schatten- oder Beleuchtungseffekte auf Supermegaultra.

Das meine ich aber nicht. Wenn eine Karte wie die 3090 schon fĂŒr 8K beworben wird, obwohl das noch auf Jahre Zukunftsmusik sein wird, so wie alles ĂŒber UHD, dann erwartet man, dass UHD mit egal welchen Game-Settings kein Problem ist. Game-Settings wohlgemerkt, ich rede nicht von 8xAA/16xAF oder DSR auf mehr als UHD.

In den meisten Spielen, die ich spiele (zugegeben eher Strategie und RPG), ist es nÀmlich so, dass ich in 1920x1200 schon mit einer aktuellen Karte des oberen Midrange alles problemlos voll hochdrehen kann. Da wÀre es einfach enttÀuschend, wenn ich das mit einer 3090 bei irgendeinem Spiel nicht könnte.

Außerdem sei gesagt, dass es von Dir ziemlich ĂŒberheblich ist, wie Du dich ĂŒber die angebliche Faulheit lustig machst, aufgrund derer die Meisten nicht in der Lage wĂ€ren, die Einstellungen zu justieren und einfach nur alles aufs Maximum knallen wollen.
Wenn es keinen großen Technik-Artikel auf einer namhaften Internetseite oder in einem Spiele magazin gibt, dass einem sagt, welche Einstellungen wieviel Performance kosten, ist es heutzutage eine ziemlich zeitaufwĂ€ndige Rumprobiererei, die fĂŒr sich passenden Settings mit dem Maximum an Optik bei stets spielbaren fps zu finden. Die Leute wollen aber einfach nur spielen, nicht stundenlang rumoptimieren. Bei dem, was man heute fĂŒr eine Grafikkarte ausgibt, ist es aber auch nicht akzeptabel, einfach prophylaktisch alles aufs die nĂ€chstkleinere Einstellung zu setzen.
 
  • GefĂ€llt mir
Reaktionen: NMA
Opa-Chris schrieb:
Hoffentlich wird meine teildefekte GTX 1080 den Mining-Wahnsinn ĂŒberdauern, sonst :n8:.
Was fehlt denn deiner GPU das sie teildefekt ist denn so und seid wann hast du das denn.Ich dachte bei teildefekt wĂŒrde die GPU doch garnicht mehr richtig laufen oder geht das etwa doch und kostet das nicht am ende sogar Leistung wenn sie teildefekt ist?
 
ZurĂŒck
Oben