News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Mhhhm ich warte noch bis 2023 dann kommt DDR5 Arbeitsspeicher, USB 4.0 und neue AMD Prozessoren mit 5nm größe und wenn AMD keine gute Grafikkarten bring dann NVidia die soll so um die 300€ bis 350€ Kosten. Und dann habe ich wieder 10 Jahre ruhe. Derzeit gibt es keine top Spiele wo man so viel Leistung braucht. Cyberbunk 2077, Battlefield 6, GTA 6, Call Of Duty: Black Ops Cold War.
Die Aktuellen Spiele kann man noch mit eine normalen nicht so Teuern Karte Spielen sogar FullHD mehr als 60 FPS. Mehr braucht man nicht.
Die neuen Konsolen die rauskommen haben keine Super Grafikkarte und werden nicht mehr als 500€ Kosten und werden auch so 8 bis 10 Jahre jedes Spiel Supporten können.
 
  • Gefällt mir
Reaktionen: Smartbomb, fox40phil und mcbloch
DarkerThanBlack schrieb:
Somit wird die RTX 3080 schon bei Erscheinen obsolet.

Eben im Nvidia Blog gelesen, dass Nvidia eine interne Krisensitzung einberuft auf höchster Management Ebene. 😲
Der User DarkerThanBlack hat nach fachkundiger Analyse substanzielle Argumente geliefert, so dass Nvidia und die Boardpartner erwägen, die 3080 Produktion zu stoppen, da "obsolet."

Die Referenzen von des Users DarkerThanBlack wurden pointiert in einer sachlichen Evaluation mit dem Titel:

DarkerThanBlack schrieb:
Könnte nun jemand diesen ganzen NVIDIA-Fanboyrotz hier löschen? Danke!

;)
 
  • Gefällt mir
Reaktionen: bart0rn, Mr. Rift, Smartbomb und 13 andere
Also mir persönlich würden die 10GB reichen. Ich bekomme die 11GB einfach nie voll, da ich keinen Usecase habe.

Ich spiele halt nur Online Shooter, oder eben den MS FS2020 und selbst den bekomme ich in New York bei komplett maximierten Details auch händisch nachgeschärft nicht über 10GB. In Europa komme ich nichtmals > 6GB VRAM Auslastung.

Singeplayer Spiele die extrem viel Speicher benötigen, spiele ich gar nicht.

Ich hätte gerne eine 3090 mit 10GB für 1000€ glatt. Dann kann die mit 24GB ruhig 400€ mehr kosten und die 3080 mit 10GB; 200€ weniger.
 
Catii schrieb:
Die neuen Konsolen die rauskommen haben keine Super Grafikkarte und werden nicht mehr als 500€ Kosten
Die neue Konsolen haben durchaus "super" Grafikkarten und werden - dem Papier nach - Leistungen abliefern in der CPU und GPU Kombo welche zumindest - ganz grob - über der 5700XT und der 2070 liegen, so habe ich das verstanden; allerdings sind beide Konsolen speziell und unterschiedlich designed.

Die neuen Konsolen landen im Zeitfenster der neuen AMD und Nvidia GPU launches und das wird sicher, gerade im Weihnachtsgeschäft, viele beschäftigen in ihrer Budgetplanung.
 
  • Gefällt mir
Reaktionen: GERmaximus
Manche Leute vertragen eben die Wahrheit nicht. Ist dies nun mein Problem? Ich denke nicht.🤔
Wer tatsächlich glaubt 10GB werden ausreichen, der steht wohl bis zum Hals in der Auffassung, dass 640KB mehr als ausreichend sind und kein Mensch mehr benötigt.

Für eine RTX 3080 hätte NVIDIA mindestens 12GB parat haben müssen um überhaupt brauchbar ernst genommen werden zu können.

Es bleibt natürlich jedem selber überlassen in eine teure Investition ohne Zukunft zu investieren. Ich jedenfalls werde es nicht tun.
 
  • Gefällt mir
Reaktionen: dohderbert, Smartbomb, LukS und 5 andere
Catii schrieb:
dann habe ich wieder 10 Jahre ruhe. Derzeit gibt es keine top Spiele wo man so viel Leistung braucht. Cyberbunk 2077, Battlefield 6, GTA 6, Call Of Duty: Black Ops Cold War.
Die Aktuellen Spiele kann man noch mit eine normalen nicht so Teuern Karte Spielen sogar FullHD mehr als 60 FPS. Mehr braucht man nicht.

Wenn du zehn Jahre mit Mittelklasse Hardware überlebst, ist das beachtlich. Von „mehr braucht man nicht“ zu reden ist unpassend.
Manche möchten sich grafisch weiter entwickeln und nicht bei 1080p60hz technisch stehen bleiben. Und viele heutige Games stoßen je nach Auflösung und fps/hz Zahl an die Grenzen aktueller highend Hardware.

Du brauchst für dich nicht mehr, was absolut ok ist.

Anderen ist selbst jetziger Highend zu langsam
 
  • Gefällt mir
Reaktionen: Smartbomb und tomasvittek
Weil Ampere ja auch genauso effizient in Punkto Speicherkompression ist wie Turing und natürlich keine kürzeren Signalwege auf der Platine hat. Das wird man erst sehen, wenn die Karten auf dem Markt sind.
10GB bei NVIDIA sind auch nicht mit 10GB bei AMD gleichzusetzen.

Es gibt wirklich nur sehr wenig Spiele, die selbst in 5120x1440 mal ordentlich VRAM nutzen. Abwarten und Tee trinken was Nvidia präsentieren wird.
Ergänzung ()

GERmaximus schrieb:
Anderen ist selbst jetziger Highend zu langsam

Dito, ist auch der Grund bei mir, warum ich von einer 2080ti umsteige. Für 5120x1440 ist die Karte einfach zu langsam, nicht durchgehend aber teilweise ist das schon echt extrem.
 
  • Gefällt mir
Reaktionen: Smartbomb, HyperSnap und Topi41
DarkerThanBlack schrieb:
Für eine RTX 3080 hätte NVIDIA mindestens 12GB parat haben müssen um überhaupt brauchbar ernst genommen werden zu können.

Es bleibt natürlich jedem selber überlassen in eine teure Investition ohne Zukunft zu investieren. Ich jedenfalls werde es nicht tun.

Auch wenn ich es nicht so schwarz (oder darker than black😂) sehe, fühlen sich die 10gb für vermeintliche 900-1k einfach falsch an.
Vor 3 Jahren 11gb für unter 700€ gekauft (ja war ein schnapper).

@SKu Kann denn Speicher Kompression so viel kompensieren? Habe bezüglich zu wenig Speicher immer mahnend die Fury x im Hinterkopf. Hbm hin oder her 4gb waren zu wenig.
 
  • Gefällt mir
Reaktionen: s0UL1, Smartbomb, LukS und eine weitere Person
Don Sanchez schrieb:
Weil es flüssiger läuft und die Reaktionszeiten kürzer sind.
Vielleicht nur auf dem Papier. Das Argument kann man nämlich immer bringen. Auch wenn ein Monitor z.B. statt irgendwann "nur" 360hz etwa 500hz liefert. Auch dann werden sich Käufer der 2000hz-Monitore lässig hinstellen und von input-Lagvorteilen sprechen, weil sie das einfach merken. Das ist dann aber Placebo.

Aber es kurbelt Hardware-Käufe an für jene, die drauf reinfallen. Dann schlagen auch wieder Hanseln auf, die 360hz für "voll Steinzeit" halten. Die Jagd nach höheren HZ-Zahlen ist schon lange out of range, jenseits des Optimums, wo man noch wirklich was merkt.
Im übrigen schränkt diese Jagd nach immer mehr hz bzw fps auch die Wahl der Spiele ein, nämlich Richtung echter Steinzeit.
 
  • Gefällt mir
Reaktionen: Catii
Catii schrieb:
Doch man kann von Passend Reden, Aber wenn jemanden der jetzige highend zu langsam ist. Der hat die Kontrolle über sein Leben verloren. Hat keine Freunde und andere Hobbys, und Freundin. Ich würde das Geld lieber in ein Haus oder Auto oder für die Familie investieren.

Also jeder der einen anderen Masstab hat als du, hat die Kontrolle über sein Leben verloren?
Denk doch mal anders herum: vielleicht hat derjenige soviel Kontrolle, das er sich zu deinen genannten Punkten zusätzlich noch Pc highend leisten kann ?

Ti Käufer haben kein Leben?
Porsche Fahrer auch nicht?

Oder jeder der mehr ausgibt als du?
 
  • Gefällt mir
Reaktionen: dohderbert, Smartbomb, LukS und 11 andere
Der VRAM ist schneller vielleicht hat man da nur die Größe angepasst.
Weniger muss nicht schlechter sein wenn die Daten schneller durchgeprügelt werden.
 
Catii schrieb:
Hat keine Freunde und andere Hobbys, und Freundin. Ich würde das Geld lieber in ein Haus oder Auto oder für die Familie investieren.

Gut, ich habe (noch) kein Haus. Der Rest passt aber.. und seit der 9XX Reihe von Nvidia kaufe ich eigentlich nur Ti´s (wenn die Mehrleistung stimmt). Auto ist immerhin okay für knapp 24k. Ich fahre halt nicht viel, da reicht was kleines :)
 
  • Gefällt mir
Reaktionen: Smartbomb, Knatschsack und Catii
kellerbach schrieb:
Vielleicht nur auf dem Papier. Das Argument kann man nämlich immer bringen.

Jein.
Nur weil wir ab 24fps ein bewegtes Bild Wahrnehmen, bedeutet das nicht das wir nicht auch höhere Frequenzen wahrnehmen.

Dies bedeutet aber auch nicht das wir unlimitiert höhere Frequenzen weiter wahrnehmen.
Und dann kommt noch die Aufnahmefähigkeit des jeden einzelnen hinzu, sowie die genutzte Engine.

In einem total war ist es völlig egal ob 70 oder 170 fps.
In einem schnellen Battlefield oder co vermisse ich meinen 165hz Panel ( von 165hz auf 100hz runter da 21:9.) Und je nach angesprochener Aufnahmefähigkeit merkt man sehr deutlich ob man 70-80 oder 120-130fps hat
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: LukS
DarkerThanBlack schrieb:
Wer tatsächlich glaubt 10GB werden ausreichen,
Dir ist schon klar, wie Gamedesign abläuft? Nach Deiner Logik muss man fürs Gaming ab nun nur noch 16+ GB VRAM GPUs kaufen?
Alle, die 8 GB VRAM oder weniger haben (also 95% der Gaming PCs) sind in Deiner Realität nun erledigt, weil ja nicht mal 10 GB VRAM ausreichen?
😂🤣

Also, welche Evidenz präsentierst Du denn? Welche Games werden denn mit 10 GB VRAM Probleme haben?

....und nun machte ich den Fehler, I did feed the Troll.
Deine Posthistory auf Computerbase ist Nvidia hating pur, da wird eine Debatte, ja...OBSOLET ;)
 
  • Gefällt mir
Reaktionen: KenshiHH, Fernando Vidal, Ben81 und 2 andere
t3chn0 schrieb:
Ich hätte gerne eine 3090 mit 10GB für 1000€ glatt. Dann kann die mit 24GB ruhig 400€ mehr kosten und die 3080 mit 10GB; 200€ weniger.
Oder halt einfach mal die kommende Generation überspringen ? mit deiner 2080Ti ...
 
  • Gefällt mir
Reaktionen: v_ossi
GERmaximus schrieb:
Und je nach angesprochener Aufnahmefähigkeit merkt man sehr deutlich ob man 70-80 oder 120-130fps hat
Es gab früher Leute, die gingen ins andere Extrem, man könne angeblich nicht mehr als 25hz wahrnehmen. Das war genauso falsch, denn zu diesen Zeiten (CRT) waren 60hz noch ein Flimmerfest und erst ab 75hz Ruhe im Karton. Ich glaube dir, daß man in deinem genannten Bereich 80fps vs 130fps Unterschiede wahrnimmt. Ich hatte höher angesetzt, also 240 vs 360. Das meinte ich.
 
  • Gefällt mir
Reaktionen: GERmaximus
Hätte mich auch gewundert mit den Varianten mit doppelten VRAM. Wäre sehr untypisch für Nvidia gewesen.

Die jetzigen Werte Klingen eher nach dem Nvidia was ich kenne :D +2 GB zumindest bei der 80 ist besser als nichts. Die 90 soll sich wahrscheinlich signifikant abheben.

Heißt natürlich nicht dass es zukünftig keine anderen Versionen geben wird aber mal Sehen. In naher Zukunft auf jeden Fall nicht
 
  • Gefällt mir
Reaktionen: GERmaximus
Patata schrieb:
Ich versteh nur nicht warum sie eine 3090 einbauen?
Ich hab da so eine Ahnung.

Nvidia kann nicht für eine 3080 (den Namenszug) 1500$ verlangen, wenn die 2080 (der Namenszug) bisher "nur" 800$ gekostet hat, also erschaffen sie eine 3090 (den Namenszug) und verlangen für diese dann 1500$. Im Gegenzug kann die 3080 (der Namenszug) den alten Preis halten, oder in der Basis sogar knapp drunter bleiben und wie ein "Preisbrecher" wirken, denn "hey, es ist eine xx80!!!" und wenn dann noch die Super oder gar TI kommt, die kosten ja "nur" 100 bis 300$ mehr kosten und (zumindest suggestiv) leisten noch mal "soooo viel" mehr...
Wichtig dabei ist nur, dass die 3080 (der Namenszug) etwas schneller als die 2080TI (der Namenszug) ist.
(fiktive Preisangaben)

Dabei spielt es keine Rolle, ob die GPU an Sich dem jeweiligen Namenszug bezüglich des Leistungssegments entspricht, denn hey, das interessiert den unbedarften / unwissenden Kunden nicht, denn es ist schließlich eine Nvidia, oder eine 30xx, oder eine xx80 und reicht mit jeweils einem dieser drei Aspekte aus, um als schnelle GPU zu gelten. Und selbst den kundigen Anwender interessiert es zumeist kaum, denn hey, sie ist ja sooo viel schneller als die 2080 (der Namenszug). Solange die Leistung nur relativistisch auf die Performance geachtet betrachtet wird und dabei nur das Augenmerk auf einen Hersteller gerichtet wird, oder aber der andere deutlich zurückhinken, kann der "führende Anbieter" machen was er will, bis ihm das ganze Konstrukt auf die Füsse fällt, so wie es bei Intel derzeit gegen Matisse und Renoir geschieht. Nur dass das dann weiterhin erst mal noch egal ist. Schließlich ist zum einen die Nachfrage so aberwitzig gross, dass der Markt dankend die letzten Krücken nimmt, während die Anbieter diese Nachfrage kaum stillen können und dann gibt es noch die Indoktrination des Marketings der letzten (vielen) Jahre, die die Treiberprobleme & Unzulänglichkeiten bei der Hardware des Konkurrenten überbewerten und bei den eigenen Produkten herunterspielen oder besser noch ausblenden, womöglich es sogar schafft dass Fanboys in Foren die extrem hohen Preise damit rechtfertigen dass es ja "Luxusprodukte" seien und daher berechtigt sind jeden Preis, und sei er noch so schwachsinnig, auszurufen, bis hin zu dem grössten Bullshit des Marketings, der besagt, dass der Hersteller des einen Spitzenproduktes (sei es in der Verarbeitungsqualität oder Performance oder oder oder) automatisch im kompletten Portfolio das bessere Produkt hat.

Dass Firmen / das Marketing von Firmen versuchen solche linken Touren durchzuziehen ist klar, denn hey, Firmen kennen keine Moral, sie sind verpflichtet Gewinne zu erzielen, um den Investoren Gewinne zu sichern. Aber auch im Interesse der Mitarbeiter, die Geld sehen wollen, um ihr Leben zu bestreiten, und eine gewisse Stabilität und Zukunftssicherheit zu bieten. Das Problem dabei sind die Konsumenten, die auf diesen Bullshit einsteigen, mit jedem neuen Produkt als dauerhaft gegeben hinnehmen, unreflektiert wieder geben, als unerschütterliche einzige und vor allem unabänderliche Wahrheit hinnehmen und im allerschlimmsten Fall verteidigen und sogar indoktrinativ weiter verbreiten und festigen.


So, ich besorg mir nun ein Soundsystem, dass mir den Kit aus der Brille drückt...



edit: ein Wort durchgestrichen und durch ein anderes ersetzt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Beero84, dohderbert, Hubbe73 und 8 andere
PS828 schrieb:
.

Die jetzigen Werte Klingen eher nach dem Nvidia was ich kenne :D +2 GB zumindest bei der 80 ist besser als nichts. Die 90 soll sich wahrscheinlich signifikant abheben.

Vermutlich auch preislich 🤔
Die 10gb bringen mich echt in ein Dilemma.

Was mir noch im Kopf schwebt: frisst raytracing nicht deutlich mehr Vram? Und haben Next-Gen Konsolen nicht auch deutlich mehr RAM/vram?

Ich möchte es nicht extra schlecht reden, aber stehen nicht alle Zeichen auf einen deutlichen VRam Anstieg?
 
  • Gefällt mir
Reaktionen: Smartbomb und PS828
Zurück
Oben