Birke1511 schrieb:
Ja das ist lobenswert,aber zu welchem Preis.
Du meinst jetzt bezogen auf den Verkaufspreis?
Naja. Gehe doch mal anders an die Sache ran. Wie kann es sein dass ein Konsolen Chip der aktuell vllt nen Gegenwert von noch 50 Euro hätte teils ne ähnlich gute Grafik zaubert als der Top End PC?
Oft sieht ein gut optimiertes Preset unter dem Ultra Extrem Preset kaum schlechter aus, braucht aber nur nen Drittel oder weniger der Leistung.
Fakt ist doch eher der dass die letzten GPU Generationen ihre Flops in erster Linie für marginal bessere Optik verbraten. Da ist die Frostbite Engine noch absolute Referenz, aber oft hat man den Eindruck als sind die meisten Game Engines einfach nur verschwenderisch was GPU Leistung angeht und das bezahlt jeder GPU Käufer.
Auch die Skalierung Optik zu Shader/Flop wird einfach immer schlechter.
Besser kann es, auch wenn es nun zb viel Fläche und Leistung kostet, nur mit dem Raytracing Ansatz werden da sich so realitätsnahe physikalisch korrekte Welten abbilden lassen. Das kostet wahnsinnig viel Leistung Initial, schiebt aber da Limit erreichbarer Grafik von Battlefield 5 hin zu dem was wir aktuell im Kino sehen, denn das wird geraytraced.
Klar ist es noch absolutes Gimmik aber es funktioniert das erste Mal. Denke aber man sieht schon die wie Game Entwickler auf sowas gewartet haben und ich denke in 3 Jahren sieht man da noch ganz andere Effizienz, Effekte und Möglichkeiten.
Vielleicht wäre es bald besser die Rasterizing Power zu reduzieren um Platz für mehr Raytracing Einheiten zu machen. Gepaart mit eben optimierten Rasterizing Presets die nicht 90% der Flops verbraten.
Edit: stell dir mal vor es hätte kein 4K Boom gegeben, dann wäre das Scaling bei Rasterizing noch weit schlechter. Und 8k macht kaum noch Sinn im Desktop.