Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsPreise, Specs, DLSS 4: Nvidia GeForce RTX 5090, 5080, 5070 Ti und 5070 im Detail
Abgesehen von den Fake Frames,
verstehe ich es richtig das DLSS4 Super Resolution basierend auf dem Transformer Model für ALLE RTX verfügbar sein wird?
Ich hege doch den Gedanken, dass die 6.144 Shader der 5070 mehr Frames bieten wird, als die 4.096 Shader der 9070 XT. Nvidia sieht sich also nicht genötigt minimal weniger Gewinn einfahren zu müssen, weil 192bit und 12GB (5070) reichen werden, für 256bit 16GB (9070 XT).
AMDs einziger Vorteil ist der VRAM. 12GB für über 600€ finde ich nach wie vor lächerlich.
Daher muss AMD günstiger sein. Ich würde sagen so ca 100€ günstiger, also 549€.
Abgesehen von den Fake Frames,
verstehe ich es richtig das DLSS4 Super Resolution basierend auf dem Transformer Model für ALLE RTX verfügbar sein wird?
2,5 Slot mindestens bei ASUS.... Wenigstens die Prime hätten sie auf 2 Slots bringen können. Aber wer mit 3,25 Kloppern für 250 Watt um die Ecke kommt...
Ach, dazu sind sie da, die Träume. Hab ja auch ne Full Custom WaKü für 5800x3D und 6800XT mal in ei. Phanteks Shift 2 mit nur 2x 120mm Radis gequetscht. Ging, und die Abwärme hinten war auch echt nicht zu verachten.
Ne 6800 im klassischem A4 war bei mir auch schon irgendwo im Bereich einer angenehmen Standheizung
Jedenfalls bin ich auch wieder seeeehr gespannt was die SFF Fans da draußen aus der 5090 zaubern. Und wie die Custom Wasserblocks umgesetzt werden. Der PCIe Steckplatz sitzt ja scheinbar auch net Tochterplatine
Schwierig, ich wollte eigentlich auf die 5090 gehen - aber wenn die 5080 so deutlich günstiger ist und gegenüber der 4080 eine sinnvolle Mehrleistung (in VR und auch auf dem Triple Screen) bringt, würde ich zur 5080 greifen und ggf. mit 9800X3D die CPU entsprechend upgraden.
Aber wenn man sich anguckt wie die 5090 säuft ist das ja kein Wunder. AMD hätte ja auch einfach den Chip der 9070XT verdoppeln und ebenfalls für 2500€ verkaufen können.
Hätten sie ? Warum waren sie dann so doof und habens nicht ? Bigbrain Energy im Raum. Bewirb dich ! Du fehlst denen !!!!
Bierliebhaber schrieb:
Aber nVidia erkauft sich die geringe Mehrleistung mal wieder mit einem höheren Stromverbrauch. Das ist schon sehr gurkig. Man kann Karten auch ganz ohne Konkurrenz bewerten. Im Vergleich zum Vorgänger, aber auch absolut gesehen. Und da ist z.B. dieses Leistung durch brute force bei nVidia einfach schwach, ganz unabhängig davon was AMD anbietet.
Ein Drittel mehr Shader und 50% mehr Speicher brauchen halt Strom. Was ist daran "gurkig" ? Bei AMD würde es jetzt heissen "da kriegst richtig fett Hardware fürs Geld" aber bei nVidia ists dann "Brute Force buuuh".
Du formst dir deine Welt auch sehr passend zurecht. Warten wir mal ab welche Karte bei 200W Powerlimit mehr FPS generiert. Wäre ja super witzig wenn die 9070 hier dann abkacken würde wie schon RDNA3 zuvor. Was machst dann ? Wer ist schuld ? Sicher die Lederjacke vom Jensen !
Bierliebhaber schrieb:
Nach dem, was nVidia hier gezeigt hat, bin ich auch der Meinung, dass Blackwell eine ziemliche Gurke ist. Das einzig positive ist wirklich der Preis und vielleicht noch die zwar immer noch kleinen, aber immerhin besser als erwarteten 16GB VRAM der ti.
Hast du Tests von beiden gesehen ? Und wie wird deine Ausrede lauten wenn eine 5070 eine 9070 nass macht bei Performance/Watt ? Ist AMDs Ware dann Restmüll wenn Blackwell schon ne Gurke is ? Halten wir das jetzt doch schon mal fest damit ich das später zitieren kann.
Ich finde tatsächlich, dass die Versionen gut gestaffelt sind, mit Ausnahme der 5070Ti.
Entweder kommt dann noch ne 5080Ti Super, oder der Sinn der beiden parallel zu fahren erschließt sich mir nicht... Natürlich upselling, so würde ich keine 5080 kaufen... Bin schon mal extrem auf die Leistung der Karten gespannt...
Abgesehen von den Fake Frames,
verstehe ich es richtig das DLSS4 Super Resolution basierend auf dem Transformer Model für ALLE RTX verfügbar sein wird?
Leute mal ne Frage.
Ich sehe in den Specs hier dass es 2 x 6 pin Stromstecker braucht.
Auf den Fotos von Asus sehe ich dass es ein ein 12VHPWR stecker ist.
was ist nun richtig kann ich da mein pure power 12 M 850w verwenden oder muss ich
mit adaptern rumflickeln?
Multi FG wird halt auf die AI Einheiten setzen. Ich kann halt für die alten Karten keine Features anbieten, wenn die dazu benötigten Recheneinheiten in der Hardware fehlen...
Muss man halt auch mal verstehen. Ist derselbe Grund, warum es FSR4-Features exklusiv für RDNA4 geben wird.
Ja, ich rede aber von der 5090. Schätze, da werdens etwas mehr FPS sein (sofern das Spiel das gleiche bleibt). Bisher hab ich die 240Hz vom Monitor natürlich auch nicht augereizt. Aber auf 130, 140 fps geh ich da schon manchmal rauf (Hunt Showdown, DLSS Balanced).
Mit 4090er Performance? Wovon träumst Du? Die 5070 wird bei allem wofür man eine 4090 kauft durch ihre 12GB Speicher gebremst.
Da helfen auch die feverdream-frames welche nVidia sich so ausdenkt nicht weiter.
Hintergrund ist, dass das mit DLSS 3 eingeführte Frame Generation nicht mehr nur einen künstlichen Frame zwischen zwei (mit DLSS Super Resolution) gerenderte Bilder einfügt, sondern mehrere: konkret drei. Damit erhöhen sich die FPS um den Faktor 4 und nicht mehr 2 wie bei Frame Generation.
Ich hab ne Idee: lasst uns doch einfach einen berechneten frame kurz danach einfach nochmal ausgeben. Und dann kommt ein komplett leerer frame. Dadurch steigen unsere FPS um den Faktor 8!
Davon abgesehen dass die Rohleistung ganz vernünftig klingt und die 5070Ti einigermaßen "rund" wirkt - für nVidia-Verhältnisse, nerven diese Leistungsangaben seitens nVidia langsam.
Die 5090 wird auch echt schön, nur der Verbrauch wird langsam obszön. Wundert mich dass sie die nicht als MCM-Chiplet fertigen, ist sie quasi zwei 5080 auf einer Platine. Wäre billiger für nVidia aber evtl haben sie die Latenzprobleme so gar nicht im Griff.
Die normale 5070 ist für den Preispunkt schon wieder zu stark beschnitten... davon abgesehen hätte nVidia die $-€-Umrechnung etwas fairer gestalten können. Aber hey, das regelt ja dann der Markt. Oder man importiert sich einfach eine.