Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch
Ich warte nur noch bis die EU einschreitet und den Wahnsinn stoppt. Da nähert sich ein Gaming-PC dann schnell 1kW verbrauch... Das sind ~5 PS5, ~10 Gaming Laptops oder 60 SteamDecks.... Und sepbst wenn der Stromverbrauch irrelevant wäre... wer würde schon freiwillig dauerhaft einen Heizlüfter bei sich aufstellen? Und wie bei den CPUs liefert die GPU wahrscheinlich 80% der Leistung bei halbiertem Verbrauch... so macht das kein Spaß.
Guter Punkt.
Wobei Nvidia hier keinen Zwang hat, die 4090 wird dann weiter die zweitschnellste Karte sein, denn Konkurrenz ist nicht in Sicht.
Knapp 600 Watt sehe ich aber schon als verrückt an. Schade, dass man ohne Konkurrenz nicht den Pfad zu weniger Verbrauch geht.
Bei 250 Watt würde ich schwach werden. Die 4090 hätte ihren Sweet Spot bei handgetunten 300.
Mal sehen was dann 3nm in der 6er Reihe bringen...
Der Begriff GPGPU existiert lt. Wikipedia. seit 2003. Und spezialisterte Funktionen wie z.B. Hardware En- und Decoding wahrscheinlich ebenso.
Auch die Architektur war noch nie homogen, die Aufteilung in Pixel- und Vertex-Shader gibt es mind. seit GeForce 3.
Nur weil man da jetzt Hardware für Matrizenberechnungen in niedriger Genauigkeit draufpappt macht es nicht wirklich zu einer neuen Klasse oder Art Hardware 🤷♂️
So langsam scheinen sich die Wattangaben zu bestätigen was ich schade finde denn mehr Abwärme als meine UV 4090 möchte ich nicht im Raum auch wenn die Effizienz unterm Strich eventuell für 5xxx sprechen wird. Mal schauen was von der Leistung dann auf der Strasse ankommt/bleibt bei gleichem Verbrauch und somit Abwärme bzw. wie weit man runterregeln kann. So wie es aussieht wird da aber eine 4 vorne stehen was mir zuviel wäre.
Womit für mich schon einmal klar ist das Nvidia keine Grafikkarte in Bezug auf die technischen Daten hat.
Und preislich vermutlich ganz sicher keine !
Bin mal gespann was AMD abliefern wird.
Mit der Verschleierungstaktik ob der neuen Namensgebung glaube ich nicht das der kommende Nachfolger
der 7800XT an Leistung zulegen wird. Aber sicherrlich der Preis, man kann sich ja am Monopolisten orientieren,
gibt ja sonst keine Konkurenz.
Hoffentlich täusche ich mich...... omg, ich träume.
Zu viel Verbrauch für einen zu kleinen Sprung an power.
Wenn ich eine 4000er haben würde, dann würde ich abwarten auf die 6000er. Da habt ihr mehr von.
Denn Blackwell ist im selben node, nen bissl größer und verschlingt mehr Strom.
Cool, wenn irgendwo zu viel Strom verbraucht wird sieht die Polizei das aus dem Hubschrauber heraus mit der Wärmebildkamera. Und dann kommt das SEK.
Das ist der Moment wo man neben neuem Monitor und Netzteil noch eine Klimaanlage einplanen muss. Da ist mir eine "Durchschnittliche Noob Karte" für Strategie/Aufbau, und PS5/Switch(2) für den Rest lieber. ¯\(°_o)/¯
Das kann man nicht mehr Vergleichen. Früher waren es einfach nur eine GPU heute ist das viel mehr als nur GPU. Das sollte auch berücksichtigt werden wenn die Reviews kommen. Man kann eine moderne GPU nicht einfach nur als GPU bezeichnen da die viel mehr können als "Bilder ausgeben".
Naja was heißt früher. Schon die 5800 Ultra wurde für ihren Verbrauch und Lärm belächelt. Aber da reden wir von was, 60w im Spielbetrieb? Das brauchen die Intels fast beim Idlen (übertrieben).Seither haben sich die Grenzen immer mehr verschoben.
Die Frage ist wohin führt die Reise noch?
Ich Wette bei meiner extrem sparsamen Nutzung einer 5090 würde diese maximal 300 Watt ziehen. Würde die nicht anders als meine 4090 verwenden: max UV, immer mit DLSS Quality, Raytracing und Pathtracing off, und FPS Limit ✅
Warum schafft man sich so eine Grafikkarte an, wenn man sie anschließend mit angezogener Handbremse betreibt? Dann doch lieber ein, zwei Nummern kleiner kaufen und ein paar tausend Euro sparen.
Der Stromverbrauch ist irre. Ich hoffe einfach nur, dass die Spieler endlich Nvidia übers den Geldbeutel sagen, wie scheiße sie das finden.
Ich warte nur noch bis die EU einschreitet und den Wahnsinn stoppt. Da nähert sich ein Gaming-PC dann schnell 1kW verbrauch... Das sind ~5 PS5, ~10 Gaming Laptops oder 60 SteamDecks.... Und sepbst wenn der Stromverbrauch irrelevant wäre... wer würde schon freiwillig dauerhaft einen Heizlüfter bei sich aufstellen? Und wie bei den CPUs liefert die GPU wahrscheinlich 80% der Leistung bei halbiertem Verbrauch... so macht das kein Spaß.
Ich finde ja wirklich schade bis sogar , dass man in einer Zeit wo es keine Konkurrenz gibt den Verbrauch steigert, statt senkt.
Siehe oben: der Sweet Spot der 450 Watt 4090 waren handgetunte 300.
Man hätte die Karte sicher auch mit 300 Watt bringen können. Beeindruckend wohl nicht, aber Konkurrenz ist keine da, und wenn doch eine ums Eck biegt hätte man immer noch eine 600 W Titan nachschieben konnen
Kriegt man sie überhaupt mit einem 2 kg Kühlkörper leise luftgekühlt? Knapp 600W ist doch einfach absurd. Für mich hört der Spass bei 300W wirklich auf.
Ja geht...
Meine 7900XTX zieht auch knapp 400W aus der Steckdose, aber da die Asus Tuf Gaming einen extrem großen Kühler hat (so wie die 4090) ist die beim Zocken gar nicht zu hören. (leiseste Karte die ich je hatte!)
Habe aber auch ein Phanteks NV7 Gehäuse mit mehr Lüftern als der Gotthard Tunnel in der Schweiz hat 😜
Einfach die die FPS auf um die 120FPS begrenzen und DLSS/FSR Quality nutzen, dann muss die GPU in den allermeisten Fällen gar nicht die maximale Leistung bringen. Also kein Stress.
Also könnte man sich ja auch gleich einfach eine etwas schlechtere Karte holen und diese halt auf 100% laufen lassen, um nicht unnötig Geld rauszuschmeißen?