@HisN
Nein, das würde keinen Unterschied machen. Es relativiert sich alles.
Gemessen an den Spielen vor 30 Jahren haben wir bereits längst computer, bei denen das komplette Spiel in den RAM, wenn nicht gar CPU Cache passt. Bei Spielen von vor 20 Jahren passt garantiert alles in den RAM, unkomprimiert.
Nur wie du bereits selbst festgestellt hast, ist sehr sehr viel mehr möglich, wenn man auf diese Segmentierung zurückgreift. Nämlich nicht die Spiele von vor 20 oder 30 Jahren, sondern die Spiele von heute.
Dass diese Segmentierung eine programmiertechnische Herausforderung ist und für Probleme sorgen kann, ja. Aber die Möglichkeiten sind ja schon enorm.
Ich meine, wir können das Szenario ja mal durchgehen:
Wir bauen jetzt nur noch Systeme, bei denen das komplette Spiel in den VRAM und RAM passt. Man braucht deshalb für ein aktuelles Triple-A Spiel meinetwegen 1 TB RAM. So ein System würde anfangs nen ganzen Serverschrank füllen und unbezahlbar sein, aber mit dem Fortschritt steigen Kapazitäten weiter an und das ganze wird immer erschwinglicher. Gut, wir haben nach einigen Jahren oder Jahrzehnten das erreicht, was du dir wünscht. Die systeme sind genauso billig wie heute und können alle Daten im RAM halten.
Der Fortschritt geht weiter, aber natürlich nur in nem gewissen Tempo.
So, jetzt kommt ein Genie auf die Idee, dass man ja noch viel viel größere und aufwändigere Spiele machen könnte, wenn man nicht nur den RAM/VRAM mit Daten vollschaufelt, die die meiste Zeit gar nicht gebraucht werden, sondern man legt bzw. belässt diese Daten einfach auf einer SSD. Die SSD kann viel mehr Daten fassen, als RAM und VRAM zusammen und zugleich kann man den freigewordenen Speicher im RAM/VRAM für noch riesigere Datenmengen verwenden, die aktiv genutzt werden können.
Ja krass, somit steigt die Assetqualität und Spielgröße ja noch viel weiter an, wenn man zum in Zukunft mittlerweile 100TB Großen RAM auch noch ne 10 PB SSD dazuhängt und die Daten zeitlich passend in den RAM lädt. Also nur dann wenn sie gebraucht werden und nicht schon alles beim Spielstart. Dadurch wird der 100TB RAM viel besser ausgenutzt und nicht von Daten blockiert, die 99% der Zeit gar nicht gebraucht werden. Das Streaming ist geboren.
Es ist völlig egal, ob man das Szenario mit 100 MB RAM, 10 GB oder 100 GB durchspielt. Egal wie weit der Fortschritt ist, man wird immer Speicher haben, der schnell, klein und teuer ist und einen der am anderen Ende langsam, groß und billig ist. Und man wird IMMER enorme Vorteile daraus ziehen, alles zu kombinieren. Genau deswegen wird es auch gemacht.
Das ganze ist weder eine Geldfrage noch eine Frage des Fortschritts. Denn beides relativiert sich mit immer weiter steigenden Anforderungen der Software.
Der Beweis ist unsere eigene Vergangenheit. Wir haben Jahrzehnte an Fortschritt hinter uns und Unternehmen, die extreme Anforderungen an Computing ressourcen haben, zugleich aber praktisch unendlich Geld reinpumpen. Und selbst die nutzen die Aufteilung in Cache, RAM und Massenspeicher.
Ich finde es etwas schade, dass man den besten Ingenieuren und Wissenschaftlern, die das Computing seit Jahrzehnten vorantreiben nicht etwas mehr Vertrauen schenkt. Wenn man bedenkt, wie viele Menschen sich mit den Problemfragen der IT und Rechenmaschinen seit Jahrzehnten beschäftigt haben, meinen ein paar Computerspieler, die wahrscheinlich weder forschung noch entwicklung betreiben, es besser zu wissen.
Das ist wohl unterhaltsam und interessant für uns, mit unserem Halbwissen darüber zu diskutieren, aber nüchtern betrachtet schon ziemlich naiv.