News Wochenrück- und Ausblick: Die Ruhe vor dem GeForce-RTX-5000-Sturm

xexex schrieb:
Dabei heißt es übrigens mehr Leistung oder mehr Effizienz.
Ich weiß, lies nochmal meinen Kommentar und mein Beispiel zu deiner 5090, ich habe dort ausschließlich mit Leistungsreduktion über den Fertigungsprozesses gerechnet und die Leistungssteigerung über eine optimierte Architektur und besserem AI Upscaling und Framegeneration erreicht. Widerspricht meiner Aussage also überhaupt nicht.

Und wie schon gesagt, welchen visuellen Fortschritt willst du noch haben? 4k ist bereits ausreichen als Auflösung für 90% der Menschen, 120fps bereits ausreichende Framerate für 90% der Menschen und vor allem für Konsolenspieler (Und deine Cloud haut dir so viel Latenz rein dass selbst bei 600fps es sich schlechter anfühlen wird als die 240fps in meinem Beispiel, also Hardcore Tech Enthusiasten die auf PC Spielen und möglichst niedrige Latenzen bei hoher Framerate für ihre Shooter wollen es erst Recht schlecht finden) und Lichtberechnung ist mit Path Tracing bereits so gut dass weitere Verbesserungen kaum noch ins Auge fallen werden. Höhere Auflösung der Texturen? Braucht nur mehr Vram und kaum mehr Rechenleistung und Vram kann man ausreichend noch zulegen, da ist man technisch ja nicht limitiert.

Wo ist also dein großer technischer Fortschritt? Was willst du für den Casual Konsolenspieler oder den Hardcore Egoshooter Spieler mit deiner Cloud konkret jetzt hier verbessern? Für den casual Konsolenspieler bringst du kaum visuelle Verbesserungen die bemerkbar sind, den Egoshooter Spieler vertreibst du mit deiner Latenz.

Du kannst meinen was du willst, ich sehe hier nichts in deiner Aussage was meiner widerspricht.
 
Rockbreak schrieb:
Und wie schon gesagt, welchen visuellen Fortschritt willst du noch haben?
Mehr Polygone, mehr Lichtquellen, mehr RT Strahlen. Das was man bei Indy sah ist noch weit von "realitätsnah" entfernt. Oder findest du etwa dieses Bild sollte das Ende der technischen Entwicklung darstellen, immerhin braucht es aktuell eine 4090 mit DLSS und FG um über 60FPS zu kommen.
1737388613317.png

https://www.computerbase.de/artikel...-full-raytracing-benchmark-test.90638/#bilder

Es gibt Stellen in diesem Spiel, da sieht die Grafik überragend aus, aber auch Stellen an den eine Kiste schlichtweg ein Rechteck mit einer Textur ist. Das ist weit von dem entfernt, wie das Bild eigentlich aussehen könnte, wenn die Ressourcen es zuließen.
1737388871795.png


In Japan mit dem 100V Stromnetz, können keine Geräte über 1500W ohne weiteren Aufwand, an eine Steckdose angeschlossen werden. In der Realität halte ich bereits 1000W für die einen PC oder eine Konsole für nicht praktikabel, alles darüber wird nur über Cloud gehen. Dabei glaube ich nicht einmal an 500W Konsolen, schon viel früher wird man nur noch Richtung Cloud hin entwickeln, eine PS7 würde ich jedenfalls nicht mehr als gesetzt sehen.
 
Zuletzt bearbeitet:
xexex schrieb:
Das ist weit von dem entfernt, wie das Bild eigentlich aussehen könnte, wenn die Ressourcen es zuließen.
Ehrliche Antwort bitte: Glaubst du wirklich die breite Masse an Gelegenheitskonsolenspieler würde das A: Überhaupt jemals auffallen und B: Überhaupt nennenswert interessieren? Niemand würde diese Kiste betrachten und sagen "Ja, das ist jetzt mir noch nicht real genug". Wir reden hier von Unterschieden welche du nur merken würdest wenn du ein Video mit einem Side to Side Vergleich laufen lässt. Die Unterschiede sind mittlerweile sogar so gering, dass selbst ich oft bei Raytracing vs Path Tracing Vergleichen die Videos anhalten und genau hinschauen muss um die Details und Unterschiede überhaupt bemerken zu können und ja ich bin jemand der ist ne kleine Grafikhure und ich sehe die Unterschiede schon und finde Path Tracing genial. Aber selbst ich denke mir da oft "Naja, ist jetzt kein Tag und Nacht Unterschied". Und es gibt ja so viele die schon sagen dass sie Raytracing gar nicht mehr als notwendig betrachten oder keinen Unterschied sehen, da gehöre ich nicht dazu. Und die welche so pingelig sind, denen solche Kleinigkeiten stören, finden halt dann auch wieder die hohe Latenz deiner Cloud Kacke.

Und viele dieser Sachen sind ja nicht einmal Dinge die durch die Hardware limitiert sind, grafische Fehler oder etwas schlechtere aussehende Assets sind oftmals einfach nur schlechte Arbeit bei den Entwicklern. Weil Kostengründe, Zeitzwang etc. das geht nicht weg selbst wenn du eine Gpu mit der 100 fachen Leistung hättest.

Schau dir Starfield an, ein absolut grotten hässliches Spiel meiner Meinung nach, noch dazu wenn man bedenkt wie viel Leistung das Ding schluckt. Es gibt Spiele die sehen 10 mal besser aus bei höherer fps. Das ist aber nicht der Hardware geschuldet dass es so hässlich aussieht und dennoch so Kacke läuft, das ist einfach die Schuld der Entwickler. Und da kannst du reinstecken an Leistung was du willst, wenn das ganze nicht ausgenutzt wird, hast du nie perfekte Grafik.

Du könntest Bethesda den besten Supercomputer der Welt zur Verfügung stellen mit 500 Zettaflops FP32 Rechenleistung und die würden es nicht gebacken bekommen ein wirklich gut aussehendes Spiel zu schaffen das deinen Ansprüchen genügt. Meiner Meinung nach ist das Limit bei Spielen nicht mehr die Rechenleistung und nicht mehr Hardware limitiert sondern das Limit liegt bei den Entwicklern und wie gut die sind und wie viel Zeit sie sich lassen. Und mehr Rechenleistung da reinzustopfen lässt diese nur noch fauler werden, wird aber die Qualität nicht mehr spürbar erhöhen.
 
Rockbreak schrieb:
Ehrliche Antwort bitte: Glaubst du wirklich die breite Masse an Gelegenheitskonsolenspieler würde das A: Überhaupt jemals auffallen und B: Überhaupt nennenswert interessieren?
Ich bin mir dessen sogar ziemlich sicher, als jemand der in der 8bit Ära aufgewachsen ist und dieses Argument schon oft gehört hat. Heute denkst du vielleicht, da muss ich die Details mit der Lupe suchen, in 10 Jahren sieht Indy wie heute Witcher 3 aus, schlichtweg längst überholt und völlig altbacken.

Rockbreak schrieb:
Meiner Meinung nach ist das Limit bei Spielen nicht mehr die Rechenleistung und nicht mehr Hardware limitiert sondern das Limit liegt bei den Entwicklern und wie gut die sind und wie viel Zeit sie sich lassen. Und mehr Rechenleistung da reinzustopfen lässt diese nur noch fauler werden, wird aber die Qualität nicht mehr spürbar erhöhen.
Wenn man bedenkt was man aus einem C64 damals noch herausholte, mag deine Argumentation ihre Berechtigung haben und trotzdem liegst du an dieser Stelle völlig falsch. Die Leute bei Bethesda werden ja nicht plötzlich anfangen ihre Spiele in Assembler an die Hardware anzupassen, sie nutzten wie fast alle Unternehmen fertige Tools, Engines und Assets und die Qualität dieser skaliert nun mal mit der verfügbaren Hardwareleistung.

Vor ein paar Jahren wäre an UE5 und Lumen noch gar nicht zu denken, heute frisst die Engine die Hardware zum Frühstück, und "morgen" wird UE6 auf der derzeit aktuellen Hardware nur noch als Diashow ablaufen.

Da du scheinbar aber grundsätzlich eine Abneigung gegen die Cloud hast, übersiehst du vielleicht die Meilensteine die in diese Richtung markiert werden und es fehlt dir etwas die Weitsicht, die richtigen Schlüsse draus zu ziehen. Ich gebe dir einfach mal einen Schubs.....

In diesem Jahr hat Nvidia zwei zukunftsweisende Technologien vorgestellt, MFG und Reflex 2. Das erste sorgt dafür, dass aus jedem berechneten Bild drei weitere (bisher) erzeugt werden und letzteres abstrahiert die latenzkritischen Bewegungsinformationen aus den Bildern komplett heraus. Jetzt stelle dir einfach mal vor, wie ein "Cloud DLSS" aussehen würde, wo große Rechenfarmen Bilder berechnen, ein Client lokal nur noch die Zwischenbilder erzeugen muss und die Bewegungsinformationen hinzufügt - nennen wir es einfach mal "Hybrid".

Was kennen wir bisher zu diesem Begriff, was vielleicht bisher niemanden so richtig getriggert hat? Oh, da war durchaus schon was vor zwei Jahren.
1737394292499.png


Nun schauen wir uns doch mal was Nvidia dieses Jahr, neben den ganzen neuen GPU auf den Markt gebracht hat.

1737394395124.png

https://www.computerbase.de/news/pc...itt-auf-dem-weg-zu-eigenen-desktop-pcs.90904/

Gehen jetzt vielleicht ein paar (Warn)lichter auf? Ein potente Cloud Gaming Umgebung, erste NPU basierte Clients, Zufall oder schlichtweg die ersten Go Steine, die Nvidia schon mal setzt? Mark my words!

Nichts aus den damaligen Leaks hat übrigens bisher das Licht der Welt erblickt, bei der Hybridkonsole hat aber schlichtweg AMD derzeit auch nichts brauchbares in der Tasche. Bei Microsoft wusste man allerdings schon vor zwei Jahren ganz gut, wohin der Weg gehen wird, auch wenn die Technik dafür noch nicht soweit war.

Deshalb kann ich nur nochmal wiederholen, die PS6 mag noch gesetzt sein, eine Xbox Series XY vielleicht auch, danach würde ich nicht mehr mit Konsolen jenseits der 500W und lokaler 3D Grafik rechnen.
 
Zuletzt bearbeitet:
Rockbreak schrieb:
Wenn das tatsächlich der Fall wäre und sooo viele Karten in die Industrie verkauft würden, warum wird der Gebrauchtmarkt bei Neuerscheinung neuer Generationen dann nicht mit alten Karten geflutet?

1.
Weil sie gerade in ner Firmenumgebung Hardware kaufen wen Sie sie brauchen und nciht nur weil etwas neues erscheint. Sie tätigen eien Investition, weil die Erforderlich ist, um damit ihre Gewinne zu steigen. Aber jede Investition ist erstmal ein Ausgabe.

2.
Daher liegt die Nutzungdauer so einer Hardware oft ähnlich der Abschreibungsdauer. Wen Steuerabgeschreiben sind Lohnt es sich eher neu einzukaufen!

3.
Dann landet das Zeug allerdings in der Regel auf dem "Müll". Weil sich das in der Regel nicht Rechnet. Wen sie ein Architektenbüro sind das für Benz, BMW oder Arbus irgendwas in CAD Rendern, dann schrauben sie keine Gehäuse auf. Sondern Sie schmeißen das auf den Müll.

4.
Weil das zb um München verboten ist, müssen die Firmen ihr abgeschriebenes Zeug recyclen. Das bedeutet dann, ich bezahl die Firma das sie das Zeug abholt und es nicht mehr mein Problem ist. Der schlachtet das dann aus und sie finden das auch Ebay.
GPUs finden sie in der Regel nicht in der Schrott presse. Die Workstations werden aber auch in der Regel nicht nach 2 Jahren schon auf den Schrottplatz gefahren.

Geflutet wird da nichts. Und so läuft das seit 20, 30 jahren... Wen Sie Hardware suchen, Workstations, dann finden sie die in der Regel nach der nutzung als "Refurbised" deklariert auf Ebay und darauf spezialiserte Händler, die das Zeug abholen und je nach Restwert Geld giblt oder für das sie sogar bezahlen.

Weiß nicht wie lange eine Datenzentrum mit der Hardware läuft. Aber in der Regel, um so großer die Unternehmen sind um so mehr Geld ausgegeben wurde, um so länger läuft das. Auser es funktioneirt nicht mehr, aber dann finden sie auch auf dem Sekundärmarkt. Fluten tut da niemand. Es wird ausgetauscht wen es sich rechnet. Und das ist bei AI vermutlichg gerade weil es neu ist, etwas mehr als sonst der Fall. Insbesondere wen erst die Produktive Software da ist die das nutzen kann und will....

1737503959113.png
 
Zurück
Oben