Bericht Nvidia GeForce „Blackwell“: Neue Details und Benchmarks zu RTX 5090, 5080 & 5070 (Ti)

 
 
Taxxor schrieb:
Dafür, dass du ne 4070 Super zu Release für 650€ bekommen hast,
In meinem Fall waren es sogar "nur" 630 für eine GB Gaming OC. :D

Aber, klar... angesichts der Performance dieser Karte (merklich schneller als die 4070 Gaming OC die ich vorher hatte) müsste die 5070 schon deutlich mehr bieten als das was die Leaks und Spekulationen derzeit vermuten lassen.

Und die 5070 Ti würde ich mir nur anschauen, wenn deren Performance zwischen 4080 / Super und 4090 liegen würde - mit starker Tendenz hin zur 4090. Was derzeit auch zweifelhaft erscheint.

EDIT: Bin gerade über ein paar neuere Leaks gestolpert, und so wie es ausschaut wird wohl noch nicht mal die 5080 4090er-Performance bieten. Auweia ...

Hach ja... es ist ja nicht so, dass es früher mal üblich war, dass die Mittelklasse/obere Mittelklasse einer neuen Generation dieselbe Leistung brachte wie die Top-Karte der Vorgängergeneration. ;)


S.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mracpad
Die Technologie dieser Generation ist ziemlich am Ende, wenn nicht ein 1000Watt Golem in den Rechner kommen soll müssen andere Wege beschritten werden .
Nvidia geht diese Schritte , welche die Entwicklung ohnehin nehmen wird bereits jetzt um überhaupt nennenswert Mehrleistung generieren zu können.
Das kann man gut oder schlecht finden, der Marktführer gibt den Takt vor und es wird weiter in diese Richtung gehen. Hoffentlich dann in naher Zukunft mit kleineren GPUs und weniger Verbrauch.
Die 5000er läuten den Wandel ein, zumindest in Richtung MFG etc.. Die Hardware ist leider noch nicht soweit .
Verbrauch und Preise sind mir insgesamt zu hoch.

Geschrieben auf einem iPad das langsam ins Nirvana wandert.
 
computerfouler schrieb:
Die Technologie dieser Generation ist ziemlich am Ende, wenn nicht ein 1000Watt Golem in den Rechner kommen soll müssen andere Wege beschritten werden .

Geschrieben auf einem iPad das langsam ins Nirvana wandert.

Eigentlich ist die Technologie mit Full Pathtracing auch so ziemlich am Ende dessen was man erreichen kann

Besser als das in 4 k ist auch gar nicht mehr nötig imo für 0815 Gamer , daran ändern auch noch etwas verbesserte Texturen in der Grafikengine der Spiele kaum noch was

Full Pathtracing ist das Maximum was man erreichen kann um natürliche Grafik zu erzeugen

Die Spieleschmieden werden ihre Grafikengines zwar noch weiter pimpen was detaillierte Texturen betrifft, das sollte aber die Performance, was die Grafikkarten abliefern müssten, nur noch marginal mehr belasten , wie frühere Rastergrafik Versuche

Vorausgesetzt sie nutzen den jetzigen Status nicht dafür ,um bei den Optimierungen der finalen Games ,jetzt weniger Arbeitsstunden auflaufen zu lassen.
 
Zuletzt bearbeitet:
captain kirk schrieb:
Die Spieleschmieden werden ihre Grafikengines zwar noch weiter pimpen was detaillierte Texturen betrifft, das sollte aber die Performance, was die Grafikkarten abliefern müssten, nur noch marginal mehr belasten
Ich habe gerade in einem anderen Thread ausführlich was zu diesem Thema geschrieben, deshalb gebe ich dir nur einen kleinen Schubs. Pathtracing gibt es für Minecraft und Pathtracing gibt es bei Indy, was glaubst du weshalb für Indy die mehrfache Rechenleistung benötigt wird wie für Minecraft? Ein Tipp, an den Texturen liegt es nicht.

1737395475207.png

https://blog.demofox.org/2016/09/21/path-tracing-getting-started-with-diffuse-and-emissive/

Jede Fläche und jede Lichtquelle benötigt zusätzliche Strahlen, um letztlich berechnen zu können wie das tatsächliche Bild auszusehen hat. Somit sind die Texturen völlig irrelevant für die Darstellung, aber jedes in 3D erzeugte Detail braucht zusätzliche Strahlen oder das Ergebnis sieht am Ende so aus:
1737395879027.png


Man versucht die benötigte Anzahl Strahlen mit diversen Verfahren zu reduzieren, trotzdem sind wird noch meilenweit davon entfernt, echt aussehende Objekte mit echt aussehenden Lichtquellen, problemlos mit aktueller Hardware erzeugen zu können. Eine Kiste sieht bei Indy dann auch schon mal so aus, obwohl selbst eine 4090 mit DLSS und FG bei der Berechnung in die Knie geht.
1737396100724.png


Jetzt stelle dir mal vor, diese Kiste unten wäre nicht nur ein Quader mit zwei weiteren Brettern und einer Textur darüber, sondern bestünde tatsächlich aus mehreren Brettern.... Oder stelle dir mal vor, dieser Tümpel würde eher wie in der Natur aussehen und nicht möglichst verwaschen.
1737396342022.png


1737396414749.png


Was glaubst du wieviel Rechenleistung man noch zusätzlich bräuchte, um die gezeigten Bilder tatsächlich der Realität nachzubilden? Ich bin jedenfalls fest überzeugt, dass der Leistungsbedarf noch fast grenzenlos ist, und man trotzdem vielleicht nicht auf den ersten, aber schon bei dem zweiten Blick leicht erkennen wird, was real ist und was nur berechnet wurde.

Brauchen wir das alles? Natürlich nicht! Technisch gesehen könnten moderne Engines aber selbst eine 10090 in die Knie zwingen, man müsste sie nur mit entsprechend detaillierten Assets füttern. Es hat schon seinen Grund wieso bei Filmen die aus dem Computer kommen, aber möglichst echt aussehen sollen, noch immer für jedes einzelne Bild eine immense Rechenleistung benötigt wird.

Nur mal für dich als Beispiel:
"The render times for Collosus entwined with the Tilted Building were the highest in ILM’s history: 288 hours per frame! And that is just for one eye, and sometimes the computer would choke on a frame and we had to start over. That’s because both objects were reflecting the environment, and that is a complex algebraic calculation. To compare, the longest render on the last TRANSFORMER’S was 36 hours for an IMAX frame. Over 50 different specialists worked on this shot."
https://www.artofvfx.com/transformers-dark-of-the-moon-scott-farrar-superviseur-vfx-ilm/
Seit dem sind zwar ein paar Jahre vergangen, diese Rechenleistung werden wir lokal jedoch "nie" kriegen. Was wir bekommen werden sind Spiele die stellenweise wie die Realität aussehen, weil unser Auge nicht ständig jeden einzelnen Pixel analysiert. Der eigentliche Leistungsbedarf um fotorealistische Umgebungen in Echtzeit zu schaffen, ist aber schier endlos.

Weckt mich jedenfalls, wenn die Umgebungen in Spielen so aussehen, technisch wäre es längst möglich, aus Ressourcenknappheit spart man sich jedoch eine so detaillierte Darstellung.
1737398010162.png

https://forums.unrealengine.com/t/path-tracing-problem/788810

Weckt mich ebenfalls, wenn so ein Haus am Strand in irgendeinem Spiel aussieht, ebenfalls bereits in der Unreal Engine erstellt.
1737398307000.png

https://dev.epicgames.com/documenta...illumination-and-reflections-in-unreal-engine

Selbst von solchen Charakterdarstellungen sind wir in den meisten Spielen noch meilenweit entfernt.
1737398823780.png

1737399030826.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maxminator, Quidproquo77, Fighter1993 und eine weitere Person
xexex schrieb:
Ich habe gerade in einem anderen Thread ausführlich was zu diesem Thema geschrieben, deshalb gebe ich dir nur einen kleinen Schubs. Pathtracing gibt es für Minecraft und Pathtracing gibt es bei Indy, was glaubst du weshalb für Indy die mehrfache Rechenleistung benötigt wird wie für Minecraft? Ein Tipp, an den Texturen liegt es nicht
Und dennoch ist man bei Indy oder auch anderen modernen Spielen mittlerweile an dem Punkt , wo man Full Scale Pathtracing auf das Bild anwendet und mit Dssl 4 u Frane Generation ,über 100 Frames generiert,was vor 2 Generationen noch absolut undenkbar war.

Und natürlich spielen dabei die Texturen eine Rolle , denn ihre Geometrische Komplexität ist es ,an denen die Strahlen letztendlich abprallen, die berechnet werden müssen ,oder in naher Zukunft, per nochmehr verbesserten AI Algorithmen generiert werden.

Ich bleibe dabei wir haben das Maximum bald erreicht was ein Gamer benötigt , um natürliche Grafik zu bekommen , ich spreche nicht von Perfektion in denen ich Standbilder vergleiche , sondern von bewegten InGame Footage

Jensen die Lederjacke hat gerade in seiner Presentation gezeigt , wie deren AI Trainingsmodelle von Monat zu Monat , sich rasend weiterentwickeln , und herkömmliches Rendern man kann mittlerweile sagen fast vollends ersetzt

Wieviel Compute AI Performance, wird wohl frei werden , wenn man erst gar keinen Rastergrafik Ballast mehr auf dem Chip verbauen muss ….
 
Zuletzt bearbeitet:
xexex schrieb:
Für alles was von Konsolen kommt, ist FSR eigentlich eh gesetzt, da dort ja nun mal AMD Hardware drin steckt.
Final Fantasy 7 Rebirth bekommt am PC TAA, TAAU und DLSS ;)
 
CadillacFan77 schrieb:
Es ist in der Tat verwunderlich, warum Intel einen weiteren eigenen Weg geht und nicht das offene FSR nutzt - wie es Sony wohl macht, zumindest als Basis.
Weil das ohne entsprechende Hardware eine Sackgasse war, sieht man am Unterschied FSR vs. DLSS, Intel hat sich das wohl angeschaut und gleich für den besseren Weg über Hardware entschieden welchen AMD ja mit FSR4 dann auch gehen wird. Interessant an XESS ist aber, es läuft auch mit anderen Karten, so auch mit AMD.

„Auf Intels Arc-Grafikarten mit Alchemist-Architektur sieht es dank Beschleunigung über die Matrix-Kerne (MMX) potenziell besser aus, während auf allen anderen Grafikkarten ein einfacheres neuronales Netzwerk verwendet wird, das eine schlechtere Bildqualität erzeugt.“

So wird AMD dann sicher auch FSR4 umsetzen, also mit diesem Fallback, für Karten unterhalb der 9000er.
 
Es ist zu hoffen. Denn dieses "schlechtere" Bild sehe ich in Bewegtbildern/Video kaum und wenn ich zocke schaue ich mir keine Standbilder an.

Finde das Thema ist viel zu stark aufgeblasen.
 
Gut, in der Hinsicht ist es natürlich hilfreich einen Vergleich zu haben um zu sehen was man eigentlich sehen sollte. Es gibt ja zu FSR4 bereits einen Vergleich.
Demnach kann man dann bei FSR4 und UHD, so wie bei DLSS bereits, auch mal den Performance Mode nutzen, wo bisher nur Quality ging, wenn überhaupt, das ist schon beachtlich, auch für die Performance.
 
Da hat wohl wer in Italien zu frueh geklickt.^^ Test 5090FE
 
incurable schrieb:
"Farbunterabtastung"

Ach, bei Farben kennt ihr das Wort, aber bei Pixeln ist es plötzlich "Upsampling"?
Klar, ist schließlich super sampling... deep learning und mit temporaler Komponente.... 😅
 
Zurück
Oben