News Preise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail

MoD23 schrieb:
Na nach wie vor müssen für FG doch die Ausgangs FPS ein gewisses Niveau haben oder nicht? Wie war das lt. Nvidia 40 und AMD hat glaube ich 60 empfohlen, wobei ich die 40 schon irgendwie grenzwertig finde, habe es aber tatsächlich noch nie persönlich getestet um das abschließend zu beurteilen

beide empfehlen 60fps als das optimale minimum. Aber es kommt sehr auf das spiel an. Besonders wie gut das Frameparcing ist. auch dein subjektives gefühl spielt da ungemein mit rein. Darum gibt es auch so starke abweichungen was die erfahrung mit FG ist.

ich werde mir wohl bald einen 240hz monitor Anschaffen, damit ich vernünftig FG nutzen kann. 144hz reicht für einfaches FG. Aber nicht wenn noch eine stufe dazu kommt.
 
dermatu schrieb:
Bei den Bildern stelle ich mir irgendwie die Frage wie man die in den Slot bekommt. Wenn das PCB so mittig auf dem Kühler sitzt.
Vielleicht meint 2 Slot (5090) diesmal 1 over und 1 under ?
Bisher waren es ja 3 under (4090), wenn ihr versteht was ich meine.
 
Capthowdy schrieb:
Es müssen bei diesem Design auch mehrere Platinen sein, die Monitoranschlüsse können kaum mitten in der Karte sitzen. Dafür einen Wasserkühler anzubieten wird...spannend.^^
Oh mein Gott. Das noch offensichtlichere: Die Monitoranschlüss, an die hab ich gar nicht gedacht 😂
 
  • Gefällt mir
Reaktionen: Woody17
danyundsahne schrieb:
Ja, die 5070 wird eine 4070Ti (Super) 12GB mit minimal weniger Verbrauch (250W vs 285W), nicht mehr und nicht weniger. Also wieder nur 12GB für ~700€. Wow.
Das war bei der 4070Ti schon ein großer Mangel für das Geld....NV lernt nichts dazu, und die Käufer leider noch weniger.

Warum soll Nvidia dazulernen? Das ist doch nen Vorteil für Nvidia, das der Kunde in absehbarer Zeit wieder einen neue GPU benötigt, da der VRAM nicht ausreicht. Die Karte an sich hat aber noch genug Leistung.
 
Ich habe einen Mini-PC, der mich ca. 400 € neu gekostet hat und außerdem benutze ich bei Bedarf Nvidia GeForce NOW um 22 € im Monat, da ist GsD kein Bedarf mehr vorhanden für eine teure Grafikkarte. ☺️

Zusammen mit einer X-Box Series X und einer Nintendo Switch passt das im Großen und Ganzen, was das Hobby-Spielen anbelangt. 🤗

Aber damit wir uns bitte richtig verstehen, ich gönne jedem PC-Spieler Enthusiast eine Grafikkarte um ca. 2300 €, aber ich bin bei solchen Summen schon lange raus.
 
  • Gefällt mir
Reaktionen: edenjung, Fyrex, Randnotiz und eine weitere Person
TheInvisible schrieb:
Die letzte GPU ist ja schon >2 Jahre her, in dieser Zeit haben andere schon mehr verraucht und versoffen

True :)! Eigentlich erstaunlich, man müsste "nur" 6 Euro pro Tag auf die Seite legen und man hat am Ende vom Jahr 2000 Euro auf der Seite.


Ich werd schon noch klar kommen mit meiner 3080ti. Es kommen keine Spiele raus die ich jetzt zwingend zu release zockem möchte. Squadron 42 wäre zB so ein Kandidat aber das kommt ja (hoffentlich) 2026.

Bin da eher auf die Switch 2 fokussiert :)
 
  • Gefällt mir
Reaktionen: nutrix, shaboo und MacMuffin
2330€ für die 5090....also mindestens 2500€ für eine gute Customer Karte...ja, das ist schon nicht gerade günstig.
 
Xechon schrieb:
Wow. Bin ich der einzige, der nur noch den Kopf schüttelt, wenn er sieht, wie sich das halbe Forum freut, ENDLICH wieder 2000€ für ne GPU auszugeben? Ich werde alt (oder bin es schon).

Die meisten haben ja bereits eine GPU und wenn man sich für eine 5090 interessiert, wahrscheinlich auch keine schlechte. Also ist der Initialinvest bereits getätitgt. Somit werden aus den 2000€ eher gute 1000€ und das aller zwei Jahre, also weniger als 50€ pro Monat.
Auch wenn es die meisten hier nicht hören wollen PC Gaming ist immer noch ein wahnsinnig günstiges Hobby.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo, Cool Master, Apocalypse und eine weitere Person
HerrRossi schrieb:
Welche Software nutzt du?
Zum Beispiel Ollama, ComfyUI, StableDiffusion, Textgeneration-Webui, Audiocraft, diverse kleinere Projekte von GitHub - Mehr VRAM ist besser :D
Simonsworld schrieb:
Selbst 32 GB sind ja für viele LLMs schon nicht mehr ausreichend
Aber P/L ist spitze bei der 5090, und die Zeit pro Token pro Euro wird (insbs. ggü RAM) unschlagbar sein.
Klar, wenn man die ganz großen Modelle will, reichen 32GB auch nicht. Aber die 48GB oder 80GB Karten sind fürs Hobby nun wirklich unbezahlbar :D
 
  • Gefällt mir
Reaktionen: HerrRossi und Cool Master
KurzGedacht schrieb:
Wer darauf reinfällt, dem ist eh nicht mehr zu helfen...! Als ob eine 5070 mit gerade mal 12 GB (die dafür sau teuer sind), plötzlich magisch Spiele mit Settings handlen kann, die für die Texturen nun mal mehr Speicher benötigen.
Von 4090 Bildqualität hat ja keiner was gesagt ,-)
 
  • Gefällt mir
Reaktionen: shaboo
BlaaaBliiiBluuu schrieb:
Hab nix gegen AI. Finde upscaling toll und klar kann es mit FPS Limiter auch strom sparen. Aber AI hat nix mit Kühlung zu tuen. Wenn die Karte 575Watt zieht, muss die Wärme iwie weg. Da macht die AI nix dran.
JA, wenn du die Karte voll ausfährst muss die maximal mögliche Verlustleistung abgeführt werden, was wie ich ja schrieb durch deine Erhöhung AI-Gestützter Rechenprozesse seltener der notwendige Fall sein wird.

Das ist meine These.

Gegenfrage, glaubst du das allein durch Schmälerung des PCB und Veränderung der FAN-Positionen bei gleichzeitig kleinerem Kühlkörper (Kühlfläche/Finnen) die Verlustleistung einer RTX4090 (deren FE Design hast du ja hoffentlich vor Augen) plus die 125Watt on Top, abgeführt werden könnten wenn man annimmt, dass die 575 Watt ein defacto "Standardszenario" darstellen würden? Ich glaube nämlich, dass das im Sinne Nvidia´s eben nicht das Standard-Szenario sein wird.
Glaube, nicht wissen. Musst bitte nicht so tun als würde ich hier den Propheten imitieren mit Gegenaussagen wie "hat das ne AI verfasst?" oder "...dass es weh tut".
Ich habe ganz klar Eingangs erwähnt, dass es Tests zeigen werden.

BlaaaBliiiBluuu schrieb:
Also, nochmal: was genau macht jetzt die AI und die AI TOPS mit den 575Watt, für die die Karte ja als Dauerleistung ausgelegt ist? Die TDP ist ja nicht gesunken (sondern trotz oder wegen AI gestiegen).

Die Aussage kleiner Kühlkörper dank AI TOPS ist einfach so falsch, dass es weh tut.
Da hattest du glaube ich meinen Punkt nicht verstanden.

Ich vermute, dass es so ähnlich gehandhabt wird wie ein Boost-Takt bei einer CPU. Die TDP fährst du doch auch nicht default aber Verbrennen sollte die CPU in dem Moment idealerweise nicht. Genug Zeit zum thotteln und gut ist.
 
Meridian1 schrieb:
Scheinbar wohl doch, wenn man sich die Masse der Angebote an 4090 auf Kleinanzeigen der letzten Tage ansieht.
Habt ihr andere Kleinanzeigen als ich? Die günstigste 4090 ist bei mir im Umkreis von 200km für 1.350 EUR gelistet, bei 50km gibt es nur 7 Angebote ab 1.700 EUR...
 
habla2k schrieb:
Warum dann ne 5090? Klingt als würde ne 5080 auch reichen.
Ich bin nicht so einfältig zu glauben, dass eine 5080 einer 4090 das Wasser reichen kann. Allein die Rohleistung spricht da eine sehr deutliche Sprache und dann hätte ich im HTPC eine schnellere Karte mit mehr VRAM, als in meinem PC? Ne. Jetzt könntest du sagen "dann kauf noch eine 4090", aber ich will ja was wirklich neues.

habla2k schrieb:
Und ne 4090 im HTPC? Ist das nicht ziemlicher Overkill?
Eigentlich schon, aber mit In-Home Streaming hatte ich immer wieder Probleme die mir auf den Keks gingen. Mit einem lokal gerenderten Bild läuft es einfach besser.

habla2k schrieb:
Passt das überhaupt?
Gute Frage, ich weiß es noch nicht. Von der Länge her ja, von der Breite wird es mit dem Stromstecker eher... spannend. Gehäuse ist ein weißes Fractal Pop Mini Air.
 
dermatu schrieb:
Oh mein Gott. Das noch offensichtlichere: Die Monitoranschlüss, an die hab ich gar nicht gedacht 😂


Da bin ich auch mal gespannt. Monitorsnschlüsse kann man zur Not mit zweiter Platine und ggf. Kabelverbindung leicht verlegen, aber PCI Express wird da schon schwerer. Freu mich schon, wenn die ersten auseinandergeschraubt werden. Und wie gut das funktionieren wird. Würde es nicht gut klappen, würde Nvidia es nicht anbieten, aber So wenig Kühlfläche für fast 600 Watt ist echt eine Ansage. Wenn die 5080 den gleichen Kühler hat, muss der bei dem riesen Delta im Verbrauch ja unglaublich performen für die Größe.

Na mal abwarten. Selten so viele Fragezeichen nach einer Grafikkartenpräsentation im Kopf gehabt.
 
Xechon schrieb:
Wow. Bin ich der einzige, der nur noch den Kopf schüttelt, wenn er sieht, wie sich das halbe Forum freut, ENDLICH wieder 2000€ für ne GPU auszugeben? Ich werde alt (oder bin es schon).
Das ist halt ein Gaming und Technik Forum und natürlich finden sich dann auch hier genug Enthusiasten, für die das im wahrsten Sinne des Wortes Hobby Geld für Spiel Zeug / Spielzeug ist. ^^
 
  • Gefällt mir
Reaktionen: shaboo, ThirdLife und Syrato
Unti schrieb:
Naja egal, ich hol sie mir xD
Du gehst auch immer All In oder? :D
Also für die D4 Season brauchst es nicht :P
 
Interessante Vorstellung, bezogen auf die 5090: Man kann ungefähr 60% Mehrleistung zwischen 5090 und 4090 ausmachen, wenn man dlss4 aus der Gleichung nimmt. Aber die Benchmarkergebnisse streuen sehr stark, sodass die Aussagekraft über die konkrete Mehrleistung sehr gering ausgeprägt. Mir persönlich ist der Preis auch einfach zu hoch muss ich sagen. Die 5080 finde ich preislich interessanter. Das rechne ich auf Grundlage der Benchmarks mit etwa 15-2% Mehrleistung der 5080 gegenüber der 4090.
 
Poink schrieb:
Bei den Preisen bin ich froh, dass ich meine Sturm und Drang-Zeit hinter mir habe, in der ich immer alles haben wollte - und sofort;)
Geht mir genauso. Jedesmal freue ich mich, wenn ich meine jeweils 500 € teuren XBox X oder PS5 anschalte. ;)
 
  • Gefällt mir
Reaktionen: edenjung und JohnVienna
Wenn wir mal das Marketingsprech weglassen, beudeted die neue Generation:

Nvidia ist nicht fähig die Rohleistung deutlich zu erhöhen, weshalb wir noch mehr grafikqualitätzerstörende BS-Feature bekommen.
Und Fanboys und Jubelpresse feiern das als Fortschritt.

Das konnte ja keiner kommen sehen. 🤪 :smokin:
 
  • Gefällt mir
Reaktionen: Quidproquo77, Pisaro und edenjung
Beatmaster A.C. schrieb:
Deswegen die Frage "Im welchen Punkt?"
Ich habe von Bildqualität geredet, nicht von Leistung.
SSAA 8x war noch schlimmer als MSAA 8x aber hatte das beste Bild produziert.
Was bringt dir das beste Bild, wenn es nicht spielbar ist? Mit Blender kannste auch mittels RT Fotorealismus rendern, nur dauert das pro Frame Minuten bis Tage. Was bringt dir das?

Beatmaster A.C. schrieb:
Echt? Kläre mich mal auf.
SSR, Cubemaps, Bumpmaps, LODs, Billboard/2D Sprites oder sowas hier, wenn du es gern technisch magst:
https://en.wikipedia.org/wiki/Fast_inverse_square_root

Das Ergebnis ist falsch, aber nah genug am richtigen, weshalb man es trotzdem nutzte und das war 1999 ;)

HBAO und co. ist auch nur eine Trickserei, um Schatten an Ecken/Kanten zu simulieren.
Super Sampling bzw. AA ist nur ein Trick, um ein smoothes Bild zu erzeugen, denn eigentlich sind Pixel quadratisch.
Shader dienen dazu, um Texturen/Objekten Details/Effekte zu verleihen, die in wirklich gar nicht da sind, weil man nicht die Rechenpower hat(te), um sie real darstellen zu können.
Darüber hat man sich damals nie aufgeregt, aber DLSS und Fake Frames gehen heute gar nicht. Doppelmoral pur :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fallout667 und Timb000
Zurück
Oben