Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Ada: Die GeForce RTX 4090 soll mit 2.520 MHz Boost takten
@Powl_0 ich leugne nichts, sondern fordere Links zu solchen Threads, aber von dir kommt nichts.
Also erleuchte mich und poste mir bitte einen Link zu diesen Tests/Threads, in denen sich so massiv wie heute über den Verbrauch der Karten beschwert wird.
Niemand zwingt euch eine 450W Karte zu kaufen. Wenn es dir zu viel ist, dann kauf ne 4080 oder 4070.
Du beschwerst dich doch auch nicht über die Existenz von Ferraris und Bugattis?
ich frage mich ja eher, was ich für Max. 220 Watt bekomme, oder eher 200. ich hoffe dass dafür wenigstens ne 4060 drin ist, und ich nicht noch niedriger gehen muss -.-
von der Leistung würde mir auch ne 3070 reichen, aber diese 8gb vram.. schon frustrierend.
Und trotzdem wäre der richtige Weg nicht den Stromverbrauch inkl. Leistung zu erhöhen, sondern die gleiche Leistung bei weniger Verbrauch zu liefern. Wer mehr Leistung braucht, baut sich dann eine zweite oder dritte Karte ein.
Jetzt wird es etwas albern. Mal völlig unabhängig davon, dass SLI/CF tot sind: Es wird auch mit der neuen Generation GPUs geben, die pro Watt mehr leisten werden. Kauf dir doch genau diese, der Rest kauft darüber.
@owned139 vergleich doch nicht das Mindset von vor 10 jahren und mehr zu heute.... ich bitte dich
Aber es gab genügend die sich darüber beschwert hatten.
Und ausserdem gibt es für jeden irgendwann eine Grenze. Und die scheint auch langsam erreicht zu sein wenn schon gehobene Mittelklasse 300 Watt ziehen soll.
Ja, weil man es nicht mehr 1:1 vergleichen kann wegen RTX. RTX und AI brauch halt mehr Strom ist einfach so. Das wird man in Zukunft aber unter Kontrolle bekommen aber das dauert halt.
v_ossi schrieb:
Dass das überhaupt nicht der Punkt ist, den ich machen wollte, ist dir hoffentlich bewusst.
In dem Fall würde ich sagen, Konsole ist der Weg für die Person. Alternativ dem Umweg über Underclocking und -volting zu machen. Die aktuelle Generationen sind halt einfach etwas hungriger aber das wird sich wieder geben dazu kommt es wird ja auch noch Karten von AMD un Intel geben die werden sicherlich etwas um die 200 Watt im Programm haben.
Leider keine Option für Menschen die schon eine RTX3080 oder schneller haben. Die allgemeine Entwicklung ist leider was den Energieverbrauch angeht irgendwie aus dem Ruder gelaufen.
Dein ganzer Text basiert auf Gerüchten zu der Leistung ... Dann solte man sich eventuell nicht ganz so weit aus dem Fenster lehnen. Soll kein hate sein nicht falsch verstehen. Nur halte ich die Stromverbrauch Diskussion schon für notwendig in der heutigen Zeit
Auch wenn ich es auch bald nicht mehr hören mag, so ist es doch wichtig dass es immer wieder angesprochen wird.
Die Hersteller sind ja nicht blind und dumm. Die strecken auch "ihre Fühler" aus und prüfen die Befindlichkeit der Kundschaft ab. Und nur mit dauernder Nörgelei oder einem Shitstorm kann man die Hersteller zum Umdenken bewegen. Denn über die Verkaufszahlen geht das ja nicht, denn irgendwie verkauft sich ja alles blendend...
Eine 4070 mit 16GB würde mir gut gefallen.
Bin eher auf die Performance von Raytracing gespannt und wie AMD da kontert.
Auch auf die Weiterentwicklung von DLSS und FSR 2.0 bin ich gespannt.
Natürlich kann ich es vergleichen. Auch ohne RT und AI Features saufen die neuen Karten weg wie nochwas.
Du kannst ne 3090 pur mit klassischem Rendering auf 350W ballern. RT und AI ziehen aus dem gleichen Power Budget wie die normalen Shader Cores, sind aber nicht nötig um es auszureizen.
Wenn das wahr wäre, hätte es nie Flops gegeben. Glaube auch nicht dass NV oder AMD da je Umfragen durchführen bevor sie die nächste Generation planen, aber okay.
Averomoe schrieb:
Jetzt wird es etwas albern. Mal völlig unabhängig davon, dass SLI/CF tot sind: Es wird auch mit der neuen Generation GPUs geben, die pro Watt mehr leisten werden. Kauf dir doch genau diese, der Rest kauft darüber.
Für den professionelle Bereich gibt es da durchaus Möglichkeiten. Worauf ich aber eigentlich hinaus will, ist dass ihr scheinbar Grafikkarten im luftleeren Raum seht, sonst käme nicht ständig dieses UV Gefasel (und ja UV ist toll, sollte aber unnötig sein!). Bei solchen Strommengen tauchen ganz andere Probleme noch auf, wie z.B. dass diese Hitze auch abgeführt werden will, was viele Gehäuse heutzutage gar nicht oder kaum schaffen, riesen Netzteile um die Peaks abzufangen (Hi@3090 für die 1kW Netzteile empfohlen werden oder darüber) uvm.
Und wo soll die Reise hingehen, wann hört dieses "kauft euch was kleineres" auf, wenn ne 6060 1000 Watt verbraucht und die 6090 TI 3000W? Oder geht da noch mehr? Sorry dude, diese Argumentationsweise ist einfach Schwachsinn, dann brauchen wir auch 1000 PS Autos in Serienfertigung, wer das nicht braucht kann ja was kleineres kaufen...
Nicht aufregen, nur eine weitere Kaffeesatzleserei von kopite7kimi, die er/sie/es dann heute/morgen/nächste Woche wahrscheinlich wieder mit "Ok, habe mich geirrt - es ist alles ganz anders" einkassiert...
Da gehe ich sofort mit, aber die 4070 sofern sie denn wirklich 10GB "Man bedenke das es sogar die 3080 mobile mit 16GB gibt" haben sollte sind einfach wieder nur ein schlechter scherz seitens nvidia, klar mag amd das "schlechtere" Vram management haben, trotzdem würde ich nicht mehr unter 16GB gehen wollen, da bin ich AMD sehr dankbar für das die nicht so geizig sind beim Vram. Aber 10GB sind und bleiben einfach zu wenig, voralledem wenn man wie ich viel VR spielt. da kann man nie genug haben. auch mit ein Grund warum ich meine 2070s gegen die AMD getauscht habe. Die Leistung der 6900XT habe ich bis heute nichtmal im ansatz ausgeschlöpft.
Bisher scheint die 4080 sofern die denn auch wirklich die 16GB haben sollte interessant zu sein. Aber der verbrauch muss echt nicht sein, ich würde es wohl anders sehen wenn 90% und mehr durch grüne energie kommen würde und der Strom nicht so extrem teuer wäre.
Und wo soll die Reise hingehen, wann hört dieses "kauft euch was kleineres" auf, wenn ne 6060 1000 Watt verbraucht und die 6090 TI 3000W? Oder geht da noch mehr? Sorry dude, diese Argumentationsweise ist einfach Schwachsinn, dann brauchen wir auch 1000 PS Autos in Serienfertigung, wer das nicht braucht kann ja was kleineres kaufen...
Dass ne GPU eine eigene Steckdose braucht das kriegen die nicht durch, das regelt sich schon. Die heutigen Golfs haben so viel Leistung wie die Supersportautos von damals.
Ich vermute die Hersteller haben mit dieser Methode die wirtschaftlich sinnvollste Lösung ausgewählt. Vielleicht wäre die andere Variante eine noch höhere Effizienzsteigerung ohne den Verbrauch nach oben zu erweitern aber für einen Preisaufschlag von +100% der Grafikkarten durch nochmals höhere R&D/Fertigungs-Kosten... wer weiß wer weiß ...