News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

Sebbi schrieb:
ich bin mal gespannt, ob es diesmal wieder verschmorte 12V-2x6 gibt, wenn man den Stecker jetzt noch wesentlich mehr an der Grenze betreibt als es bei der 4090 der Fall war - 575 W alleine für die Graka ....
Mit nem 3.1 Netzteil wird es das angeblich nicht mehr geben. Die Anderen mit 3.0 und weniger müssen halt genau schauen, dass der Stecker auch richtig sitzt bzw. einrastet. Von den Specs an sich mach ich mir da keine Sorgen.
 
Sind die wieder so bullig wie die 40er Serie?

Ich überlege schon seit Jahren, mal wieder einen SFF PC zu bauen, gern in einem Dancase, aber bin nicht sicher, ob das mit der neuen Generation überhaupt noch geht.
 
Quidproquo77 schrieb:
DLSS auf der 6800XT hast du wie zum Laufen gebracht?
Wieso 6800XT? Habe eine 4070.
Quidproquo77 schrieb:
DLSS bzw. DLAA hat das Bild auch in niedrigen Auflösungen deutlich ruhiger gemacht, was dazu führt, dass selbst in 720p flackern ausbleibt. Das verschmieren von Objekten ist unsignifikant. Einfach Tests lesen.
Wenn ICH es bei mir sehe, dann sehe ich das. Da hilft auch keine Tests lesen.
Quidproquo77 schrieb:
Also in schlechterer Optik und viel lamgsamer. Sinn?
Ich musste für mich DLSS in diesen Titeln ausstellen, damit ich mit dem Bild zufrieden war. Daher wünsche ich mir Benchmarks ohne den Kram, damit ich weiß welche Leistung die Karte hat.
ElliotAlderson schrieb:
Ohne AA hast du flickern und flackern aus der Hölle. Mit DLSS flickert/flackert da gar nichts.
In Indiana Jones hast du dann wie gespielt? Mit TAA, dass noch schlimmeres Ghosting und Smearing aufweist? Achso.
Was soll ich sagen?
In Horizon war immer die Rüstung an bestimmen Stellen am Flickern.
Mich nervt sowas beim Spielen gewaltig.

Ich weiß nicht, ob die Leute eine Brille oder einen besseren Monitor brauchen oder was auch immer.

Ich denke mir doch sowas nicht aus.
 
  • Gefällt mir
Reaktionen: bogge101 und PrimeskyLP
u-blog schrieb:
Sind die wieder so bullig wie die 40er Serie?
Schau die Präsentation oder die Spec-Seite, da wird sogar damit geworben das die Founders Edition super für kleine Builds ist. Klar muss man dann wie immer bei SFF schauen welche cases dann tatsächlich gehen, aber die 50er dürften dich glücklicher machen als die 40er ;)
 
  • Gefällt mir
Reaktionen: iron_monkey
Maxminator schrieb:
Unglaublich wieviel Technik ASUS in den Aufbau dieser Grafikkarte steckt: scrollt mal runter.
Also GPU Tweak III sieht ja richtig vernünftig aus. Könnte den Afterburner ja glatt ablösen. Mehrere Temp-Proben in der Anzeige, Phasen Überwachung am Stromstecker und sogar ein Verbrauchstracker. Hat leichte EVGA vibes.
 
ElliotAlderson schrieb:
Du beschwerst dich also über flimmern/flackern, aber schaltest sämtliche AA Techniken aus, die dafür sorgen, dass genau das nicht passiert? Muss man nicht verstehen :D
MSAA gibt es in den von dir genannten Spielen nicht. Bei Indi bedeutet aus = TAA und TAA schmiert heftiger als DLSS.
Du widersprichst dir also. Wie hast du eigentlich DLSS mit einer AMD Karte genutzt?


Monster Hunter istn MMO, RDR2 nicht und RDR2 ist recht leer und so geil sieht das heute auch nicht mehr aus. Lief auf meiner 2080 TI mit 40 FPS in 1080p. Wo ist das optimiert?


Falsch. Du hast immer ein Limit: die Physik.
Also wenn du RDR2 nich schön findest aber Monster Hunter schon, kann man dir auch nicht mehr Helfen oder du Trollst. Außerdem habe ich gesagt ich möchte das Bild nicht verschmiert und Unscharf haben was genau der fall bei TAA und DLSS ist sowie auch bei MSAA und FSAA, nur ist es da nich ganz so schlimm, von flimern war nie die Rede.
Das RDR2 bei dir nur mt 40FPS lief mit einer 2080TI glaube ich dir nicht außer du hast eine CPU vor der vierten Intel Generation und bist im absoluten CPU limit.

Und woher weißt du eigendlich welche GPU ich habe, ich hatte noch nie ein AMD Graka sondern nur Nvidia.
(Mit außnahme von Intel ARC für einen Server)
 
Simonsworld schrieb:
Bist du dir sicher? Soweit ich mich erinnern kann, sind die Hardwarepreise in CH gar nicht so unverschämt, dafür dass die Schweizer doch ein gutes Stück mehr verdienen.
Aus Erfahrung der letzten 10 Jahre, ja. Liegt aber dann auch daran, dass das Land als Markvolumen jeweils pro Händler von den Bordpartnern nicht so viele Karten kriegt wie Bedarf da ist (Land klein = weniger Karten pro Lieferung) und die gehen dann halt schnell weg. So ungefähr wurde es mal erklärt von einem grösseren Zwischenhändler. Während Covid war dass dann natürlich ganz extrem, darum hatten dann die Scalper da auch einen massiv grösseren Einfluss.

Auch wichtig zu verstehen ist in dem Kontext das z.b. Nvidia die Founders Edition schon eine weile nicht mehr in der Schweiz verkauft, also weder direkt noch über ihre Distributorpartner, wenn musst du das importieren, und dann hast du nebst dem Aufwand (entweder Grenzshop abholen, Grenzgänger Kollegen n Bier zahlen etc.) auch bei Garantiefällen dann mehr zu tun. Wenn ich z.b. bei Digitec die Graka kauf und die ist kaputt kann ich das bei denen auf den tresen hauen "war vorher schon kaputt, jetzt kannst dir die Einzelteile anschauen" :D - Daher kriegt man hier nur Bordpartner-Karten.

Valve verkauft z.b. das Deck auch nicht in die Schweiz und bei Amazon steht bei gefühlt 80% "nicht in dein Land geliefert". Das aber nur so als Randbemerkung, d.h. Nvidia ist damit nicht alleine. Kleines Land, viele Regeln = lohnt den Aufwand nicht. Kann ich sogar bedingt nachvollziehen.

Aber ich will jetzt nicht heulen, und du hast natürlich vollkommen recht. Auch wenn bei einem Schweizer in % ende Monat ungefähr gleich viel für "Hobbyausgaben" übrig bleibt wie bei einem Deutschen, ist der Betrag entsprechend grösser, und ich hab schon öfters Objektive in der Schweiz für einen deutschen Arbeitskollegen bestellt, weil die hier 100-200€ günstiger waren als in DE. (Die MWST haut halt bei so 2000.- dann doch gut rein). Darf man aber auch nicht verallgemeinern, also z.b. mich, alleinstehend, keine grosse Wohnung / dickes Suto, Elektromechanik-Engineering - mit einem KFZ Mechaniker mit 2 Kindern, Einzelverdiener für Familie vergleichen. - aber ich schweife ab ins OT.

Warten wir mal bis ende Jahr und schauen dann :-) Wenn ich eines besseren belehrt werde freut sich das Bankkonto... nicht ;-)
 
  • Gefällt mir
Reaktionen: Simonsworld
PrimeskyLP schrieb:
Also wenn du RDR2 nich schön findest aber Monster Hunter schon, kann man dir auch nicht mehr Helfen oder du Trollst.
Habe ich so nicht gesagt oder? RDR2 ist kein MMO und MH ist noch nicht erschienen. MMOs waren nie hübsch, das hat auch nichts mit Optimierungen zutun.

PrimeskyLP schrieb:
Außerdem habe ich gesagt ich möchte das Bild nicht verschmiert und Unscharf haben was genau der fall bei TAA und DLSS ist sowie auch bei MSAA und FSAA, nur ist es da nich ganz so schlimm, von flimern war nie die Rede.
MSAA schmiert nicht. Im Ursprungstext war die Sprache vom Flimmern.
PrimeskyLP schrieb:
Das RDR2 bei dir nur mt 40FPS lief mit einer 2080TI glaube ich dir nicht außer du hast eine CPU vor der vierten Intel Generation und bist im absoluten CPU limit.
Nope GPU Limit maxed out alles auf Anschlag in 1080p: https://www.pcgameshardware.de/Red-...Online-Update-neue-Benchmarks-2022-1399745/2/

Das Spiel lief zum Release alles andere als gut. Sehr viele hatten Probleme mit Abstürzen oder konnten es gar nicht spielen und du führst es als Beispiel für gute Optimierung an. Wie soll man sowas ernst nehmen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sennox
Syrato schrieb:
Die 4090 war mal bei 1599CHF.
Wenn du den tiefsten Punkt der günstigsten Karte jeweils nimmst klar da hast du recht, aber die 4090 war im mittel eher 2000.

Ich hab Anfang 2024 für meine 4090 2168.- bezahlt. Zwar das top top modell dann aber die günstigen karten waren im schnitt zu dem Zeitpunkt um die 1800. Ist halt alles immer eine frage vom Zeitpunkt.
 
Zuletzt bearbeitet:
PrimeskyLP schrieb:
Hört sich für mich nach Nvidia AI fanboy an. Ich will meine Spiele gestochen Scharf haben und nicht verschommen
Das gibt es halt nimmer.

DLSS ist mag eine Krücke sein, und Krücken braucht man nur, wenn es woanders ein Problem gibt, das man kompensieren muss und aber DLSS löst gleiche mehre Probleme.

1) Temporale Effekte, Rendering, AA sind der defacto Standard geworden. Und zwar schon bevor es DLSS gab.

2) Dimishing Returns bei Raster Methoden haben Kosten explodieren lassen, sowohl bei dem was Kunden an GPUs brauchen würden als auch bei den Entwicklern. Eine der Folgen war eben der Weg zu Temporalen Render Methoden, und für die ist DLSS die beste Lösung die wir haben. Und mit DLSS und Denoising ergibt sich hier gleichzeitig die Chance Raytracing und vorallem Pathtracing zu etablieren ohne dafür die eigentlich nötige Rechenleistung zu haben. Clever? Schon irgendwie. Unscharf? Auch schon irgendwie.

Aber es kann eine Lösung sein, um die Kosten für AAA Games wieder ein wenig mehr in den Griff zu bekommen weil das Gestalten von Szenen so wieder deutlich weniger aufwendig wird, und auch wohl die Wege eine Szene zu optimieren wohl einfacher werden.

3) Profit? Gibt es einen Nutzen für uns Kunden? Vielleicht. Ich muss zugeben, ich mag das weiche Bild von modernen Engines nicht. Ich mag ja nicht mal LCD Displays. Eine Welt wo wir eine 4090 ohne DLSS hätten, die dann Cyberpunk in 1080p auf meinen 36" großen und 100kg schweren Bildschirm ausgibt, und zwar mit 1080i oder vielleicht sogar 1080p, wäre eine Welt, die ich wohl lieber erkundet hätte. Und vielleicht hätte das sogar besser ausgesehen.

Aber die Welt ist so wie sie ist, und da brauchen wir "Krücken" die eben Nachteile unserer Technologien auch kompensieren können. DLSS ist sowas, vor etwa 20 Jahren hatten wir mit den LCD Displays die Fähigkeit verloren ohne Qualitätsverlust die Auflösung zu ändern, DLSS macht das eigentlich recht einfach möglich. Wir haben Bewegungsschärfe verloren, oder Motion Clarity wie Blurbusters so schön predigt und MFG und High-Refresh Displays bieten hier eine Chance auch das wieder zu erlangen. Verlieren wir dabei ein wenig Schärfe bei Standbildern und ein wenig Genauigkeit? Wahrscheinlich. Scheint mir aber ein geringer Preis. 200kg Monitore mit gigantischen Vakuumröhren scheinen auf jeden Fall nicht mehr in unserer Zukunft auf unsere massiven stählernen Schreibtische zu kommen.

Ich werde die Klarheit eines Q3A, am besten mit Kompetitiven Grafiksettings trotzdem vermissen, so klar wird das Bild wohl in den nächsten 25 Jahren nimmer werden, so gut werden die denoiser fürs RT nicht werden. Dafür werden wir an anderer Stelle viel gewinnen und auch wiedergewinnen auf dem Technologiepfad der eingeschlagen wurde.

Wird schon.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shockertfw, Quidproquo77 und Kraeuterbutter
PS828 schrieb:
Sich hinzustellen dass selbst mit 5090 Cyberbug mit 28 FPS läuft ist ein Armutszeugnis aller beteiligten. Da kann ich es aber auch auf Software schieben.

Das jetzt aber mit 1:3 fake frames aufzuwiegen was die Latenz nochmal erhöht und sich dann wirklich wie 30 fps anfühlen obwohl 200+ auf dem Monitor stehen ist halt eine wirklich düstere Zukunft.
wenn ich es richtig verstanden habe, fühlt es sich aber nicht wie 30fps an sondern nach mehr

von 30fps auf sagen wir 200

==> das fühtl sich nicht an wie native 200fps
aber auch nicht wie 30fps


PS828 schrieb:
Wirklicher Fortschritt sieht anders aus.
sehs genau umgekehrt...
das ist mal wirklicher Fortschritt was hier gezeit wurde
die Möglichkeit nen 144Hz Monitor mit ausreichend frames zu bespielen, selbst wenn man nicht die Kohle für ne 4090 hat
zwar mit hi und da kleinen Abstrichen vielleicht bei der Bildqualität wegen FG aber in Summe wirds für die meisten toll sein

das ganze AI weglassen, dafür mehr Cudo-Cores etc.. reinpacken...
Und statt 30fps dann 35fps im gleichen Szenario zu haben ==> DAS fände ich keinen Fortschritt
 
ElliotAlderson schrieb:
Das Spiel lief zum Release alles andere als gut. Sehr viele hatten Probleme mit Abstürzen oder konnten es gar nicht spielen und du führst es als Beispiel für gute Optimierung auf. Wie soll man sowas ernst nehmen?
Die Performance war aber tatsächlich in Ordnung wenn man die settings eben angepasst hatte.
Etwas, wogegen viele heute offenbar allergisch sind.

Aber mit allem auf Max ging nur sehr wenig.
So gesehen ist RDR2 eigentlich ein perfektes Beispiel wie heutige Spiele auch sind.
 
  • Gefällt mir
Reaktionen: Laphonso, Quidproquo77 und ElliotAlderson
PS828 schrieb:
@PrimeskyLP sie haben halt ihre Prinzipien des GA102, also des 4090 chips genommen und entsprechend vergrößert. Nichts anderes kann man drauf ableiten.

Die HPC karten sind sowieso nochmal anders aber da muss man schauen was Nvidia wirklich beim Endkunden sehen will. Der Umsatzanteil von GeForce ist wirklich sehr klein geworden
Eine eigen "günstige" AI GPU / TPU wäre trozdem schön. Da würde man nicht unnötig "Leistung" und Strom wegwerfen nur um eine Selfhostet AI zu nutzen.
 
ElectricStream schrieb:
ch du solange hier Leute meinen jedes Jahr, am 31.12 Geld zu tausenden "verpulvern" zu müssen.
Da gebe ich mein Geld lieber für eine leise 5090 aus...
Genau, sehe ich auch so, ich hau keine 20k im Jahr für Koks raus, da gönne ich mir doch auch mal für 2k neue Joysticks.
Ok, ich gebe zu, das macht jetzt auch nicht für alle Leute Sinn und womit ich es gegenübergestellt habe macht noch weniger Sinn, aber mir machts Spaß. Also die Joysticks, nicht das Koks und das ist die Hauptsache. ;-)
 
  • Gefällt mir
Reaktionen: ElectricStream
budspencer schrieb:
Wofür eigentlich 32 GB bei 30-40% Mehrleistung?
Um damit zu arbeiten. Bei AI Geschichten sind die 32GB schon echt wenig.
 
ShiftC schrieb:
als würde jedes Spiel mit implementiertem DLSS erscheinen
https://www.rockpapershotgun.com/confirmed-ray-tracing-and-dlss-games
Wir sind mittlerweile bei über 600 Games mit DLSS.
Schau Dir mal die Liste an.
DLSS ist mittlerweile eine Standard Option in den Grafiksettings.

Sämtliche AAA Games dieses Jahr kommen m.W. mit DLSS, ggf. mit Ausnahme der AMD sposored Games, bei denen AMD das FSR 4 zum Vermarkten braucht (und ich finde, sie müssen das mittlerweile machen, um überhuapt noch zu punkten) und DLSS ggf. Monate später nachreicht wird.

DLSS bringt fps per Knopfdruck. Am besten sollten es sogar wirklich alle Games pauschal unterstützen.
 
Quidproquo77 schrieb:
Nein, das läuft auch auf Turing.

DLSS 4 wird auch auf Turing laufen, nur MFG nicht.
Gibs einfach auf, ich habs ihm auch schon oft genug gesagt, er wird es nicht mehr lernen.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Apocalypse und ElliotAlderson

CastorTransport schrieb:
Das mag ja richtig sein, aber es ändert nichts an der Tatsache, das für 30% mehr Rohleistung entsprechende Preise aufgerufen werden, die mit den "AI Frames" korrelieren.
wie meinst du das?
die 5070 und 5080 sind günstiger
als die 4070 und 4080 waren

die 5090 kostet inflationsbereinigt 7% mehr bei 25-30% Mehrleistung gegenüber der 4090 UND hat noch deutlcih mehr VRAM

zusätzlich dann die neuen Features..

WAS hätte sich den hier einige erwartet, damit eine z.b. 5090 kein "Fail" ist ?
70% Mehrleistung gegnüber der eh schon brachialen 4090
zum Preis einer 4080 ?
und am besten mit 48GB VRAM ?




 
  • Gefällt mir
Reaktionen: Laphonso, Tr8or und ElliotAlderson
Zurück
Oben