Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt
Die Gerüchteküche ist sich zum Großteil einig und attestiert dem Grafikprozessor AD102 („Lovelace“) für die kommenden Nvidia GeForce RTX 4080, 4080 Ti und 4090 eine TGP von bisher ab Werk nie dagewesenen 450 bis 850 Watt. Damit würden sich der neue PCIe-5.0-Stecker („12VHPWR“) und dessen 600 Watt von alleine erklären.
Na passt doch wie Arsch auf Eimer. Komplett am Ziel vorbei. Der Intel unter den GPUs...O_o. Bitte bitte AMD macht das Spiel nicht mit. Verzichtet auf das Prestige der Leistungskrone und nehmt euch 400Watt weniger bei von mir aus 20% weniger Leistung. DAS Wäre innovativ.
Wie wollen die das kühlen? Und wie teuer werden die Karten bei dieser DIE Größe? Unter 1000 Euro für ne 4070 und 4080 schon sowieso nicht.
Ich glaube demnächst steige ich auf Mittelklasse um. Anders wird's wohl nicht gehen.
Es war zu erwarten. Mit weiterem Ausbau von Raytracing-Funktionen und vor allem steigendem RT-Umfang wird mehr Rechenleistung denn je benötigt. Immer mehr Spieler wollen RT auch in hohen Auflösungen jenseits von WQHD geniessen und DLSS bzw. FSR brauchen auch eine Mindestauflösung, um gut zu funktionieren. Sprich, auch mit diesen Hilfsmitteln wird der Rechenaufwand enorm steigen. Dabei werden in RT-Titeln noch nicht mal zwingend die FPS steigen, sondern konstant bei mehr RT bleiben.
Diese Leistung gibt es schlicht nicht zum Nulltarif.
Salamimander schrieb:
Bitte bitte AMD macht das Spiel nicht mit. Verzichtet auf das Prestige der Leistungskrone und nehmt euch 400Watt weniger bei von mir aus 20% weniger Leistung. DAS Wäre innovativ.
20% weniger RT-Leistung könnte klappen, 400 Watt weniger Verbrauch eher nicht. Da wird auch ein Multichip-Design nicht viel daran ändern. Auch AMD wird die Raytracing-Leistung der nächsten Generation anheben (müssen), und auch diese Rechenleistung wird Strom verschlingen.
Die Frage ist halt wie hoch das Leistungsplus gegenüber der jetzigen Generation ist. Wenn das Mal gesponnen +60 - 70% wären, sieht das wieder anders aus. Auch wenn das nicht passieren wird.
Als ehemaliger Eigentümer einer HD4870X (ca. 500 Watt) kann ich bestätigen dass man sich im Winter die Heizung definitiv sparen kann, es im Sommer aber echt eklig warm und (war zumindest damals so) laut wird.
Dann fehlt nur der Adapter für einen kompakten Umluft-Ofen, damit der Gamer die Abwärme direkt zum Aufbacken von Tiefkühl-Pizza am Schreibtisch verwenden kann.
20% weniger RT-Leistung könnte klappen, 400 Watt weniger Verbrauch eher nicht. Da wird auch ein Multichip-Designt nicht viel daran ändern. Auch AMD wird die Raytracing-Leistung der nächsten Generation anheben (müssen), und auch diese Rechenleistung wird Strom verschlingen.
Oder man stampft die Funktion für ein paar Lens Flares einfach ein. Wenn das so viel Leistung zieht, so etwas "Live" zu berechnen, kann man auch gut darauf verzichten.
Ich finde es ja schon jetzt irgendwie witzig, das es Menschen gibt, die einen derartigen Leistungseinbruch mit RT On tatsächlich hinnehmen für häufig (es gibt 2-3 Ausnahmen) kaum nennenswerte Grafikunterschiede...
Sorry. 850 Watt ist kompletter Wahnsinn. Auch im Hardwarebereich sollte man sich Gedanken machen, wie man "sparsamer" und "bewusster" mit Ressourcen umgeht.