News Gaming Ampere: Neue Gerüchte zu GeForce RTX 3090 und RTX 3080

@PS828
1. Erfahrungsgemäß ist die PCIe-Anbindung der GraKa immer eher überdimensionert und wird nur in Sonderfällen mal zu einem Flaschenhals, bspw. wenn eine Kombination aus zu kleinem VRAM und beschnittener Anbindung (x8) aufeinander treffen.

2. PCIe 4.0 ist neu. Niemand, der ein Intel-System besitzt, hat PCIe 4.0 - nicht einmal im Serverbereich wäre das der Fall. Und selbst von den AMDlern dürften nur ein Bruchteil der User eine Kombination aus Ryzen 3000 + X570 oder TRX40-Board + Threadripper 3000 besitzen.

3. Intel hat die weitaus größeren Marktanteile und hat immer noch den Ruf als die Gaming-CPU-Marke. Massive Hochfrequenzkerne und so. ;)

4. Kann ich mir bei Spielen keinen anderen Fall vorstellen, in dem extrem viel PCIe-Bandbreite notwendig wäre, außer dem Fall, dass der VRAM vollläuft. Und in diesem Fall würde man vermutlich auch mit PCIe 5.0 nicht mehr sonderlich viel Spaß haben...

Also, meine Glaskugel sagt, du sollst mal wieder auf den Boden der Tatsachen zurückkommen und einen massiven Performancevorteil mit PCIe 4.0 wird es bei normalem Betrieb mit x16 nicht geben.
Wenn da ein Unterschied von mehr als vllt. so 3 % rauskommen sollte, fress ich 'nen Besen. Auf diese Aussage darfst du mich gerne 'drauf festnageln, wenn du willst. :p
 
  • Gefällt mir
Reaktionen: Serinox, VYPA und PS828
Hatsune_Miku schrieb:
Ich hoffe nicht das es so kommt, die RTX 20x0 er sind doch schon allesamt Speicherkrüppel.

Speicherkrüppel? Alle samt?
hast du da irgendwie Erfahrungen? Oder Beispiele?

ich kann nur von mir mit 11gb vram reden, aber über 6gb sehe ich selten, sehr selten (bei 3440x1440p).
es gibt Ausnahmen wie farcry5, ja oder cod.

aber Turing als speicherkrüppel zu bezeichnen empfinde ich als arg übertrieben.
 
  • Gefällt mir
Reaktionen: Serinox, adAstra, cruse und eine weitere Person
cruse schrieb:
sondern kann direkt in die vollen gehen.
Aber eben nicht beim Speicher. Die Konsolen haben Rohleistung aber für den Speicherbedarf wieder Workarounds, weil sie preislich enger gebunden sind als eine neue High-End-Grafikkarte. Deshalb wird der Speicherbedarf nicht unverhältnismäßig steigen im Desktop-PC, sondern diese 10 oder 11GB werden schon genügen, außer wenn jetzt plötzlich noch 8K-Gaming um die Ecke käme.
 
Hatsune_Miku schrieb:
Windows und die Browser genehmigen sich ja auch schon ein bisschen, aktuell sind ~3GB weg wo nur der FF offen ist mit 14 aktiven Tabs. Also meine Devise lautet, Vram kann man wie normalen Ram nicht genug haben.
ff frisst 3gb VRAM?
chrome Frist höchstens 300mb
 
SKu schrieb:
Ich kann dieses VRAM-Argument absolut nicht nachvollziehen. In effizienten Engines belegen Titel selbst in 1440p nicht mal die Hälfte an VRAM von einer 2080ti. Natürlich gibt es Ausnahmen, aber das liegt dann nicht daran, dass ein Titel unbedingt diese Menge an VRAM benötigen würde, sondern vielmehr daran, dass die Entwickler dieser Titel den RAM einfach volllaufen lassen - egal ob nötig oder nicht. Am Ende ist nur entscheidend was für Leistung in den Anwendungen unter dem Strich übrig bleibt.

Wenn NVIDIA ihre Speicherkompression und die Signalwege verbessern kann, sodass am Ende trotz "wenig" VRAM die Leistung stimmt, dann passt das doch. Die TITAN wird schon mit den 24GB kommen und wer unbedingt meint er müsste 24GB benötigen, bitte, der kann sich dann eben eine TITAN für 3.000€ kaufen.

Hier werfe ich mal Project CARS 2 buchstäblich ins Rennen, habe ich sonst in 1080p gespielt und mal letztes Jahr den Rechner ins Wohnzimmer geholt und an den UHD-Fernseher angeschlossen.
Ohne in Afterburner aufzuzeichnen, waren GPU- und VRAM-Auslastung der Vega 64 bei 4K nicht großartig anders als bei 1080p und die Framerate war auch stabil bei 60 fps locked.
 
GERmaximus schrieb:
ff frisst 3gb VRAM?
chrome Frist höchstens 300mb

Kommt drauf an wie viele Tabs du simultan geöffnet hast.
Öffne mal den Taskmanager und FF.
Bei einem Tab sind es bei mir 100MB.
Bei 30 Tabs sind es 3,5GB, sofern die Hardwarebeschleunigung aktiv ist. Ansonsten verbleibt es bei 0MB, egal wie viele Tabs da geöffnet sind.
 
  • Gefällt mir
Reaktionen: s0UL1
Habe gerade 24 Tabs im Chrome offen, davon 9 utube Tabs und habe lächerliche 510mb im Vram und 4,4gb im Ram
 
SKu schrieb:
In effizienten Engines belegen Titel selbst in 1440p nicht mal die Hälfte an VRAM von einer 2080ti. Natürlich gibt es Ausnahmen, aber das liegt dann nicht daran, dass ein Titel unbedingt diese Menge an VRAM benötigen würde, sondern vielmehr daran, dass die Entwickler dieser Titel den RAM einfach volllaufen lassen - egal ob nötig oder nicht.
Die Ursache ist für das Ergebnis zweitrangig. Davon ab haben wir mit Raytracing das nächste heiße Eisen im Feuer. Das benötigt nicht nur mehr Bandbreite, sondern auch mehr Speicher. Gerade im Hinblick darauf und Nvidia, die das mit Turing wie verrückt pushen (wollen), wäre die Speicherausstattung unterhalb der Titan ein Armutszeugnis.

SKu schrieb:
Wenn NVIDIA ihre Speicherkompression und die Signalwege verbessern kann, sodass am Ende trotz "wenig" VRAM die Leistung stimmt, dann passt das doch.
"Die Leistung" hat auch damals bei der Fury X gestimmt. Bis man dann aber auf die Frametimes geguckt hat, die ein teils übles Bild abgegeben haben, weil der Speicher zu knapp war. Nvidia und Jensen kochen auch nur mit Wasser, da werden 10 GiB nicht plötzlich zu 16 GiB.

SKu schrieb:
Die TITAN wird schon mit den 24GB kommen und wer unbedingt meint er müsste 24GB benötigen, bitte, der kann sich dann eben eine TITAN für 3.000€ kaufen.
Es gibt nicht nur schwarz (10/12 GiB) und weiß (24 GiB), sondern auch noch Platz dazwischen.

Ich benötige keine 24GiB, aber 12GiB und insbesondere 10 GiB in der Preisklasse (und Leistungsklasse!) sind einfach Stagnation bzw. sogar ein Rückschritt. Zwar ein kleinerer, als Speichertechnisch von der 1080Ti zur 2080, aber er wäre immer noch vorhanden. Ernsthaft jetzt: Wie kann man sowas gut finden? Erschließt sich mir nicht einmal mit den wildesten Vorstellungen.

Davon ab sollte man mit potentiell 40-50% auf eine 2080Ti nicht (mehr) auf WQHD schielen, sondern direkt auf UHD. Dann muss man bei AAA-Titeln bzw. solchen mit entsprechend toller Optik auch nicht mehr auf Mittel/High runterstellen wie bisher, um auch nur in die Nähe von stabilen 60fps zu kommen.
 
GERmaximus schrieb:
ff frisst 3gb VRAM?
Firefox belegt bei mir auch gut und gerne mal 3 GB VRAM. Allerdings scheint es die nicht wirklich zu benutzen. Sobald ich ein Spiel wie Final Fantasy 15 starte, das die gesamten 8 GB selbst schluckt, scheint Firefox die wieder freizugeben. Keine Ahnung, warum, aber ist ja kein wirkliches Problem, solange man den VRAM wieder bekommt, wenn er wirklich gebraucht wird.
 
@Beitrag ich glaube auch dass du recht hast aber die Aussage merke ich mir und verlinke dich dann Beim test wenn man das mal zu Gesicht bekommt was die Bandbreite ausmacht :D
 
  • Gefällt mir
Reaktionen: Beitrag
Linmoum schrieb:
Die Ursache ist für das Ergebnis zweitrangig. Davon ab haben wir mit Raytracing das nächste heiße Eisen im Feuer. Das benötigt nicht nur mehr Bandbreite, sondern auch mehr Speicher. Gerade im Hinblick darauf und Nvidia, die das mit Turing wie verrückt pushen (wollen), wäre die Speicherausstattung unterhalb der Titan ein Armutszeugnis.

Die VRAM-Auslastung war mit 11GB bei der 2080ti bisher auch kein Problem in Raytracing-Titeln. Warum sollte der Verbrauch jetzt weiter ansteigen?

Linmoum schrieb:
"Die Leistung" hat auch damals bei der Fury X gestimmt. Bis man dann aber auf die Frametimes geguckt hat, die ein teils übles Bild abgegeben haben, weil der Speicher zu knapp war. Nvidia und Jensen kochen auch nur mit Wasser, da werden 10 GiB nicht plötzlich zu 16 GiB.

Eigentlich hat da gar nichts gestimmt. Weder Leistung, noch Energie-Effizienz.

Linmoum schrieb:
Es gibt nicht nur schwarz (10/12 GiB) und weiß (24 GiB), sondern auch noch Platz dazwischen.

Trotzdem ist auch NVIDIA - "NVIDIA und Jensen kochen auch nur mit Wasser" - an technische Gegebenheiten gebunden. Für 14GB z.B. bräuchte es ein 448-bit breites Speicherinterface. Wenn NVIDIA aufwertet, dann die 3090 und die 3080, einmal mit 384bit und einmal mit 320bit (12GB / 10GB).
Linmoum schrieb:
Davon ab sollte man mit potentiell 40-50% auf eine 2080Ti nicht (mehr) auf WQHD schielen, sondern direkt auf UHD. Dann muss man bei AAA-Titeln bzw. solchen mit entsprechend toller Optik auch nicht mehr auf Mittel/High runterstellen wie bisher, um auch nur in die Nähe von stabilen 60fps zu kommen.

Eine 2080ti ist, je nach Anspruch, gerade mal schnell genug für WQHD. 40-50% reichen da evtl. aus mal die Regler mehr in Richtung rechts schieben zu können, ohne dass die FPS zu stark fallen. Wer natürlich 60fps bevorzugt, der kann auch schon mit einer 2080ti in 4K in vielen Titeln dieses Ergebnis erreichen.
 
Die GeForce RTX 2080 musste sich überraschend mit dem TU104 und damit „nur“ noch der zweitgrößten GPU zufrieden geben.

Wieso überraschend? War bei Pascal etc doch auch so? nVidia platziert die 080 zuletzt immer im 2-Generationen-Wechsel mal bei der 04er und mal bei der 02er GPU, je nachdem wie groß der Performancesprung der Architektur ist.
Würde auch passen dass mit Ampere mal wieder paar shader dazu kommen, aufgrund der RTX-Anteile gab es bei Turing ja kaum Leistungsentwicklung abseits von Architekturoptimierungen. Da nVidia keinen 10er oder gar 7er node genommen hat, war kein Platz für mehr shader vorhanden.
Oder sagen wir so - das hätte den Milliardengewinn bei der zweiten Nachkommastelle etwas geschmälert, gänge also mal garnicht.
 
  • Gefällt mir
Reaktionen: fox40phil, KlaraElfer, Dimos und eine weitere Person
SKu schrieb:
NVIDIA nutzt seit Pascal bei klassischem GDDR-Speicher im Prinzip den gleichen Aufbau.
Vollausbau -> 384bit
NVIDIA deaktiviert entsprechend Blöcke und begrenzt somit das Interface

384 bit - 32 bit (Blockeinheit) = 352 bit.

384 bit / 32 bit = 12
352 / 32 = 11
320 / 32 = 10
256 / 32 = 8

Jetzt erkläre mal, wie NVIDIA ihre Karten einfach mal so mit RAM aufwerten sollte. Sie müssten dafür auch das Speicherinterface ändern. Was möglich ist, zumindest hatte/hat Samsung GDDR6-Speichermodule im Portfolio mit verdoppelter Kapazität. So käme man auf 2 GB pro Speichermodule und könnte damit auch 16GB-Karten mit 256-bit Speicherinterface umsetzen. Macht das Sinn? Natürlich nicht, weil das für Karten, die primär für Gaming genutzt werden, nur die Kosten in die Höhe treiben würde. Außerdem müsste NVIDIA dann durch die Bank weg den Speicher auf den Karten erhöhen. Dann hätte aber so eine 3090 auf einmal 22GB VRAM und eine TITAN hat dann nur noch 2GB mehr. Dass eine 3060 mit 8GB kommt, wäre nahelegend, da NVIDIA bereits bei der 2060 Super das Interface auf 256-bit aufgebohrt hat.

320 bit bei 3070? Eher nicht.
384 bit bei 3080? Nein
Und die 3090 wird dann abgestuft auf 256-bit oder wie?

Ach und wo steht geschrieben das Nvidia bei Ampere den gleichen Vollausbau nutzt wie auch bei Pascal und Turing. Das sind alles Schätzungen!!!

Dumm wäre es 8GB/10GB in den HighEnd Bereich zu bringen und letzten Endes bringt die Konkurrenz dann 16GB. Das dann bei fast der selber Geschwindigkeit.
Da Nvidia eben auch nicht genau weiß was AMD letzten Endes wirklich hat muss man eben damit rechnen, dass AMD etwas hat.

Sonst passiert das gleiche wie bei Intel.
 
  • Gefällt mir
Reaktionen: VYPA
Floppy5885 schrieb:
Ach und wo steht geschrieben das Nvidia bei Ampere den gleichen Vollausbau nutzt wie auch bei Pascal und Turing. Das sind alles Schätzungen!!!

Dumm wäre es 8GB/10GB in den HighEnd Bereich zu bringen und letzten Endes bringt die Konkurrenz dann 16GB. Das dann bei fast der selber Geschwindigkeit.
Da Nvidia eben auch nicht genau weiß was AMD letzten Endes wirklich hat muss man eben damit rechnen, dass AMD etwas hat.

Sonst passiert das gleiche wie bei Intel.

Was für Schätzungen? Alle Nvidia-Karten der letzten Generationen hatten 384-bit beim Vollausbau. Und du hast trotzdem nicht meine Frage beantwortet. Wie sollen 16GB auf eine 3090 passen?

Die 16GB der Radeon VII waren ja auch ein großer Erfolg für AMD, weil die blöde 2080ti mit nur 11GB natürlich völlig veraltet wirkte.

NVIDIA wird ziemlich sicher wissen was AMD macht/treibt. Dass ist jetzt nicht so, als gäbe es keine Connections zwischen den beiden Unternehmen. Die drei Super-Karten bei Turing machten auch eine ziemlich gute Punktlandung bezüglich der Leistungseinordnung. Das ist kein Zufall.
 
  • Gefällt mir
Reaktionen: VYPA
Wenn das so kommt bleibt für das Halbwegs sinnvolle Upgrade von meiner 1080 ti ja quasi nur die 3090 übrig, jedenfalls von Nvidia.

hoffentlich kriegt amd ne ordentliche Alternative auf den Markt, die sind ja oft etwas großzügiger beim vram.
 
  • Gefällt mir
Reaktionen: OZZHI und desnatavo
Idon schrieb:
Früher, als ich noch Schüler und Student war, habe ich mich auch über "solche" Preise geärgert. Heute ist es mir einfach egal - immerhin habe ich mich lange sehr gut ausgebildet, um mir sowas einfach beliebig leisten zu können. Meine Prioritäten sind auch anders: Die begrenzte Ressource ist Zeit, nicht mehr Geld.

Den Aufpreis zur Titan sehe ich aber nicht, mehr als 10GB wird man die nächsten ~3 Jahre nicht brauchen. War damals bei meiner aktuellen GTX 1080 auch so: Da wurde gejammert, dass die Karte ja quasi mit Erscheinen veraltet ist. Und? Nichts. Die neuen Konsolen haben auch nicht unendlich viel VRAM, das passt also schon alles.
Du hast vergessen zu erwähnen, dass du weder Frau noch Kinder hast und auch kaum andere finanzielle Verpflichtungen (Hausraten, Miete, Altersvorsorge etc.). Da kursieren im Internet Videos wie die Leute den Kauf einer neuen Konsole ihrer Frau rechtfertigen wollen. Ich würde mal gerne das Gesicht sehen, wenn es heißt, dass man tausende Euros nur für eine Grafikkarte rausballert.
 
  • Gefällt mir
Reaktionen: VYPA und Fyrex
Oneplusfan schrieb:
wieder nur 11GB beim Topmodell bringen. Neue Kompression hin oder her, der Ausbau wäre damit seit 3 Generationen gleich.
Wenn man z. B. an GTX500-900 zurück denkt, ist das gar nicht so abwegig.
Da ist auch nicht viel passiert (1,5Gb, 2gb,3GB).
 
@elmex201

Ich habe Familie und andere Verpflichtungen.

Oder war das auf die Zeit als Schüler/Student bezogen? Da hat es mir an Budget gemangelt; nicht heute.
 
Zurück
Oben