News Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080

Was soll diese leidige Ram Diskussion? Das größte Interesse von Game Publishern ist das ihr Spiel hohe Verkaufszahlen liefert und auf vielen Low End Systemen läuft. Und deshalb werden noch einige Jahre ins Land ziehen bis 8GB als Standard für die Spieleentwicklung zählen.
 
  • Gefällt mir
Reaktionen: Fyrex und PPPP
Ist die RTX 3090 denn die neue RTX 3080ti?
Ich wollte ja eigentlich von meiner GTX 1080ti direkt auf die RTX 3080ti wechseln.
 
Ja. Oberhalb der 3090 gibt's nur noch die Titan.

Macht auch Sinn, dafür sind 3090 und titan zu nah zusammen als das man da noch eine Ti version rein bekommt
 
Falc410 schrieb:
Im Ernst - mir ist noch nie im Leben der VRAM ausgegangen.Verstehe nicht warum man immer nur auf diese Zahl schaut.
Kommt einem so vor als hätte AMD ihre Mitarbeiter nach Computerbase geschickt um sich über den Vram auszulassen.

10 GB für die 3080 sind nicht üppig aber auch nicht wenig, 12 GB für eine 3090 sollten spielend reichen, der Speicherbedarf dümpelt seit Jahren meist deutlich unter 8 GB bzw unte 6 GB herum, weshalb sollte man mehr als 12 GB verbauen? Die 1080 Ti konnte bis heute keine Vorteile durch ihren Speicher erzielen.
Ergänzung ()

Taxxor schrieb:
Die Konsolen haben 16GB GDDR6, den sich GPU und System teilen können,
Eben und 8 GB RAM sind auch schon relativ knapp heutzutage, viel von dem Speicher wird die GPU ergo gar nicht abbekommen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: GERmaximus, Munkman, fox40phil und 4 andere
Naja wenn man sehen konnte was man dank Konsolenoptimierung aus der PS 4 rausholen konnte passt das schon. Zumal ich nicht an eine 50 50 Teilung glaube, die spiele der next gen Konsolen werden technisch um einiges anders aussehen als die auf PC.
 
KlaraElfer schrieb:
Eben und 8 GB RAM sind auch schon relativ knapp heutzutage, viel von dem Speicher wird die GPU ergo gar nicht abbekommen.
Das es aber GDDR6 ist, kommt man hier denke ich auch mit etwas weniger aus, als am PC.
Zumal wenn ich meine und andere CX Benches so durchschaue, sind das in Spielen meist zwischen 8 und 10GB, die dort insgesamt belegt sind, dabei werden in meinem Fall schon ca 7GB davon recht konstant vom System belegt.

Also mehr als 4-5GB sollten als RAM für die Spiele bei den Konsolen eigentlich nicht benötigt werden, noch 1GB fürs System und es bleiben 10-11GB für die GPU
Ergänzung ()

KlaraElfer schrieb:
Die 1080 Ti konnte bis heute keine Vorteile durch ihren Speicher erzielen.
Sonderfälle gab es schon^^
Bei maximalen Texturdetails (selbst ohne High-Resolution Pack) benötigt Final Fantasy XV viel Speicher. Dann reichen selbst 3D-Beschleuniger mit acht Gigabyte nicht mehr aus für einen problemlosen Betrieb. Ab und zu sind auch auf diesen Modellen immer wieder Ruckler zu spüren. Erst ab elf Gigabyte auf der GeForce GTX 1080 Ti verschwinden diese Ruckler.

Und das ist ebenfalls ein Spiel, welches zuerst für die PS4 kam und dort mit um die 4GB VRAM auskommen musste. Nicht jeder Entwickler ist so faul und übernimmt die Texturen der Konsolen 1:1 für ein gleichzeitiges oder späteres PC Release.

Was das nun für den PC bedeuten kann, wenn die Konsolen bereits ca 10GB VRAM nutzen können, wird man sehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col.Maybourne und cruse
KlaraElfer schrieb:
Kommt einem so vor als hätte AMD ihre Mitarbeiter nach Computerbase geschickt um sich über den Vram auszulassen.
Komischerweise sehe ich überall viel Kritik an den gerüchteweise 10GiB/12GiB für die potentielle 3080 und 3090. Aber ja, natürlich alles AMD-Mitarbeiter. Wenn man sonst keine Argumente vorweisen kann, dann ist das wohl so.

KlaraElfer schrieb:
10 GB für die 3080 sind nicht üppig aber auch nicht wenig
Wenn eine 1080Ti von 2017 bereits 11GiB hatte (und beide Karten auf demselben Chip hinsichtlich der Einordnung im Portfolio beruhen): Doch, das ist nach über 3 1/2 Jahren wenig, nämlich ein Rückschritt statt Fortschritt, wie es eigentlich sein sollte.

KlaraElfer schrieb:
12 GB für eine 3090 sollten spielend reichen, der Speicherbedarf dümpelt seit Jahren meist deutlich unter 8 GB bzw unte 6 GB herum, weshalb sollte man mehr als 12 GB verbauen? Die 1080 Ti konnte bis Zeitenwechsel keine Vorteile durch ihren Speicher erzielen.
Stimmt.

Raytracing erfordert zahlreiche Berechnungen, die bei klassischer Rasterisierung nicht anfallen. Diese Berechnungen müssen selbstverständlich ständig gespeichert werden - und das kann, wie auch bei Wolfenstein Youngblood und Battlefield 5, zum Problem werden. Auch das zeigen unsere Benchmarks (sowie das eingebettete Video): Abhängig von der Kartenkomplexität kann es sein, dass selbst die 11 GiByte einer Geforce RTX 2080 Ti nicht genügen, sodass Daten in den Hauptspeicher ausgelagert werden müssen. Genau das passiert bei "Temples", sobald sich die dargestellten Chunks in Richtung Maximum bewegen. Mit 24 Weltstücken läuft der Speicher unserer Testkarte konsequent voll; zuerst tritt Nachladeruckeln auf und dann, mit weiterer Auslagerung zur Laufzeit, dauerhaft niedrige Performance. Mit steigender Auflösung verschlimmern sich die Symptome, da die Bildpuffer größer werden.
https://www.pcgameshardware.de/Mine...cials/Minecraft-RTX-Benchmark-Test-1348012/2/

Aber ich kenn das Argument jetzt schon: "Dann stellt man halt die Settings runter!!!". Klassiker, nur leider völlig deplatziert, um Speichergeiz des Herstellers zu rechtfertigen. Gerade im Hinblick auf Raytracing.
 
  • Gefällt mir
Reaktionen: Dimos
Die Leistung klingt ja schon mal überzeugend, aber ich glaube die Preise werden jenseits von gut und böse.
In 5 Jahren kriegt man für $500 erstmal nur den NVIDIA Katalog geschickt.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Chismon schrieb:
12 GB sind das, was ich erwarten wuerde (und was in der Leistungsklasse laengst ueberfaellig ist, schliesslich hat eine vermutlich vergleichbar schnelle RTX 2080Ti auch 11GB erhalten).
Kannst du das eigentlich belegen, dass solche Speichermengen längst überfällig sind?

Du kannst heute selbst mit einer 6 GB Karte in WQHD in der Regel alles auf maximale Settings aufdrehen, gibt nur wenige Ausnahmen wo der Speicher limitiert.
 
  • Gefällt mir
Reaktionen: psychotoxic, GERmaximus und PPPP
Mal gespannt was AMD mit RDNA 2 so raus bringen wird und mit wieviel VRAM diese dann ausgestattet sein werden.
 
PS828 schrieb:
@Beitrag warum sollten sie die mehr Performance liegen lassen nur weil alle ständig gesagt bekommen haben dass 3.0 reicht? Wer weiß was passiert und mit den neuen Techniken in Spielen könnte Bandbreite ein kritischer Faktor sein. Wissen tut man es selbstverständlich noch nicht aber es wäre nicht das erste Mal dass Leute sich ein wenig zu sehr auf alten Standards und Faustregeln ausgeruht haben und dann gibt's halt die Quittung bei der nächsten Generation.

Ich glaube auch nicht dass man mit 3.0 jetzt 30 % Leistung nicht abrufen kann.. Aber früher oder später wirds soweit sein. Dass 3.0 solange da war heißt nicht dass der Wechsel auf 4.0 ebensolange dauert.

Dass du es immer noch für wahrscheinlich hälst, dass die nächsten 2-3 Jahre auf einmal mehr als die doppelte Bandbreite der RTX 2080 Ti benötigt wird :rolleyes: :stock: Die reizt nämlich gerade einmal PCIe 2.0 x16 aus.

Lediglich bei Speicherkrüppeln wie der RX 5500 mit 4GB wo viel in den RAM ausgelagert wird wirst du bei einer GPU Vorteile in den nächsten Jahren durch PCIe 4.0 sehen ...
Ergänzung ()

KlaraElfer schrieb:
Kannst du das eigentlich belegen, dass solche Speichermengen längst überfällig sind?

Du kannst heute selbst mit einer 6 GB Karte in WQHD in der Regel alles auf maximale Settings aufdrehen, gibt nur wenige Ausnahmen wo der Speicher limitiert.

Er ist der Meinung, da das Speichermanagement so viel wie möglich in den VRAM schiebt, wenn auch kein direkter Vorteil dadurch entsteht, dass sein VRAM zu knapp wäre :rolleyes:
 
  • Gefällt mir
Reaktionen: Munkman
Idon schrieb:
@elmex201

Ich habe Familie und andere Verpflichtungen.

Oder war das auf die Zeit als Schüler/Student bezogen? Da hat es mir an Budget gemangelt; nicht heute.
Ja klar du bist der große Checker. Dann schenkst du deiner Frau halt eine Gucci Tasche und die Kinder bekommen jeweils das neuste IPhone und Luxus E-Bike. Und sobald die Grenzen wieder auf sind, gönnt man sich eine 5 Sterne Weltreise.

Nicht "Multi-Millionäre" müssen halt haushalten und können sich nicht zwei Titan RTX im SLI Verbund in den Rechner knallen. Das nenne ich Luxus oder eigenartige Verschiebung der Prioritäten. Und bei vielen Ehen würde die Frau die Scheidung einreichen, wenn der Mann für 2500 Euro für eine einzige Grafikkarte ausgeben würden. Sorry normal ist das nicht. Das hat nicht mit "Bettelstudent" oder sonst was zu tun.
 
  • Gefällt mir
Reaktionen: dohderbert
Wenn eine 2080ti 1300 Euro kostet, dann werden die neuen so 1700-2000 Euro kosten denke ich.
 
elmex201 schrieb:
Ja klar du bist der große Checker. Dann schenkst du deiner Frau halt eine Gucci Tasche und die Kinder bekommen jeweils das neuste IPhone und Luxus E-Bike. Und sobald die Grenzen wieder auf sind, gönnt man sich eine 5 Sterne Weltreise.

Nicht "Multi-Millionäre" müssen halt haushalten und können sich nicht zwei Titan RTX im SLI Verbund in den Rechner knallen. Das nenne ich Luxus oder eigenartige Verschiebung der Prioritäten. Und bei vielen Ehen würde die Frau die Scheidung einreichen, wenn der Mann für 2500 Euro für eine einzige Grafikkarte ausgeben würden. Sorry normal ist das nicht. Das hat nicht mit "Bettelstudent" oder sonst was zu tun.

Wer für eine 500-600€ Grafikkarte alle paar Jahre bereits eine Niere verkaufen muss hat entweder einiges falsch gemacht oder sollte erst einmal die Ausbildung abschließen und muss vorerst auf günstigere Modelle setzen.
Wer es sich einfach nicht leisten will muss es auch nicht. Keiner wird gezwungen soweit mir bewusst.

Habt Ihr euch auch beschwert, dass Ihr mit 18 keinen Porsche fahren durftet? :rolleyes:

PS828 schrieb:
die spiele der next gen Konsolen werden technisch um einiges anders aussehen als die auf PC.

Warum sollte das sein? Seit der letzten Generation sind die Xbox und die Playstation nichts anderes als ein PC mit anderem Betriebssystem.
 
  • Gefällt mir
Reaktionen: VYPA und Munkman
@elmex201

Es gibt zwischen deine beiden Schwarz (alles viel zu teuer)-Weiß (Titan SLI für EUR 2500 pro Karten)-Welten sehr viele Graustufen. Und in einer davon, zugegeben sehr angenehmen, befinde ich mich.

Meine Frau steht zum Glück nicht auf teure Handtaschen und so'n Krams, da bleibt also mehr Geld für E-Bikes (ist Simplon luxus? Eher nicht), Auto, Haus und Hobbys wie zocken.
 
  • Gefällt mir
Reaktionen: VYPA, GERmaximus, Munkman und 2 andere
Bin echt gespannd was Nvidia/AMD abliefern wird.
 
Wie schon letztes Mal, ich schrieb selbst dass es unwahrscheinlich ist aber man diesen Fakt nicht komplett vernachlässigen sollte.

@PPPP die Konsolendiskussion passt hier nicht hin, daher gern per PN. Aber die neuen Konsolen setzten ein völlig anderes Prinzip beim assetstreaming ein was man an den SSD durchsätzen sieht. Sowas lässt sich auf dem PC derzeit nicht umsetzen. Erst mit neuen gen. 4 SSDs und entsprechenden dekompressionstechniken die bei der Konsole dezidiert sind im Kontroller (zumindest bei der PS5) vorhanden sind und daher nicht über die CPU laufen müssen.

Aber wie gesagt anderes Thema. Auf die Leistungsfähigkeit der GPUs hats nur bedingt Einfluss. Diese werden zweifelsohne richtig Power haben. Aber wie groß am Ende der Unterschied ist wird sich zeigen müssen. Es wäre schwach wenn Nvidia sich nur auf ihre dezidierten Tensor und RT cores konzentriert hätte. Bisher weiß man ja nix drüber. Man weiß nur dass bei Cuda nicht viel passiert ist und die Tensor Einheiten ca. Viermal so stark sind. Aber selbst zu den RT cores ist mir noch nix bekannt. Da wird man sehen müssen was da gemacht wurde. Bisher weiß das nur Nvidia
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Col.Maybourne
Offtopic: Ich bezweifle, dass eine Ehe "rund" läuft, wenn die Frau die Scheidung einreicht, nur weil der Ehepartner konsumiert. Außerdem, wir sind hier in einem PC-FORUM, nicht bei der anonymen Beratungsstelle für gescheiterte Ehen.
 
  • Gefällt mir
Reaktionen: adAstra, miro98, Col.Maybourne und 12 andere
10GB für die 3080 sind in meinen Augen 2GB zu wenig.
 
  • Gefällt mir
Reaktionen: angband1
Ich hatte bei den höheren Modellen eigentlich auf den Sprung auf 16GB gehofft, aber sieht wohl schlecht aus.
 
Zurück
Oben