News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

Tornavida schrieb:
Ehrlich gesagt fände ich Spekulationen und Gerüchte über 4060,4070&4080 deutlich interessanter . Gibt es zu diesen Karten Neuigkeiten ?
Ja, gibt's. Einfach bei den bekannten Leakern vorbeischauen, dort gibt es mittlerweile ein ganz brauchbares Bild der Situation. Die 4060 und 4070 könnten diesmal wieder richtig gute Karten werden. Aber alles wie immer Spekulation. Die Tendenz ist jedoch da.
 
  • Gefällt mir
Reaktionen: dipity und Tornavida
Der Verbrauch sagt doch erstmal nichts über die Leistung aus. Sollte die Karte wirklich 70%+ mehr Leistung bringen, sind das gut angelegte 100W/h.

Also ca. 30% mehr Verbrauch bei +70% Leistung.
 
  • Gefällt mir
Reaktionen: Zockmock
Wenn der Trend so weitergeht sehe ich ein neues Feature für Towergehäuse auf uns zukommen: Heizplatte im Deckel, damit der Kaffee warm bleibt, oder für das Spiegelei zwischendurch. :D Oder gleich mit großem Propeller an der Seite, um einen Heizlüfter zu haben. Nimm das, Putin! ;)

Es ist jetzt schon grenzwertig bei der aktuellen Serie. Im Nachhinein ärgere ich mich, das mitgemacht zu haben. Selbst Intel hat erkannt, dass man nicht einfach mehr Kohlen ins Feuer wirft für mehr Leistung, aber das mussten sie auch wegen Konkurrenzdruck. Bei GPUs gehen sowohl AMD als auch Nvidia derzeit anachronistische Wege. So kommt es mir zumindest vor, was natürlich Laienwissen ist, da ich kein Chip-Ingenieur bin.

Die Richtung sollte aktuell eine andere sein. Gerade weil man doch aktuell eigentlich bei relativ sicheren 60+ FPS bei 4k angekommen ist im Highend-Segment. DLSS nimmt den Leistungsdruck ja auch noch etwas raus. Was dieses Einschießen auf 8k Gaming soll entzieht sich meinem Verständnis. Und die Spielekonsolen fahren eh mit Mid-Range Hardware, um überhaupt wirtschaftlich zu sein.

Wäre das nicht DIE Gelegenheit für alle, mal Architektur in Richtung Effizienz zu trimmen? Wenn die 4000er Serie nur 10% Mehrleistung bei gleichzeitig 40% weniger Stromverbrauch böte (oder sowas in der Art), fände ich das die weitaus größere Leistung, als mit 100W mehr 20% mehr FPS aus Cyberpunk rauszuholen.

Aber gut, sind alles noch ungelegte Eier, ich mag hier nicht zu viel rumunken.
 
  • Gefällt mir
Reaktionen: Kawii97, aid0nex, crystough und 10 andere
@Wintermute

Magst du mal verlinken Welche du für interressant und nah dran erachtest, auch gerne per PN wenn das hier nicht erwünscht ist.
 
Computer sagt NEIN! ... Nvidia
 
  • Gefällt mir
Reaktionen: RAZORLIGHT
Da könnte ja auch die kleine 4060 mit 12GB vram ganz nett werden, wenn die Leistungssteigerungen die herumgeistern stimmen.
Wenn die so im Berreich einer 3070 landet wäre ich schon happy, aber das ganze natürlich für lau .
 
Schaby schrieb:
Der Verbrauch sagt doch erstmal nichts über die Leistung aus. Sollte die Karte wirklich 70%+ mehr Leistung bringen, sind das gut angelegte 100W/h.

Also ca. 30% mehr Verbrauch bei +70% Leistung.
Vergleichst du die Werte einer kompletten 3090 mit nur der GPU einer 4090?
 
  • Gefällt mir
Reaktionen: aid0nex, Tapion3388, Pjack und 3 andere
Tornavida schrieb:
@Wintermute

Magst du mal verlinken Welche du für interressant und nah dran erachtest, auch gerne per PN wenn das hier nicht erwünscht ist.

Moore's Law Is Dead, würde sagen 90% Trefferquote. Manchmal überintepretiert er ein bisschen. Aber reicht allemal um einen guten Überblick zu bekommen
 
  • Gefällt mir
Reaktionen: aid0nex und Capt. Gummibaum
leipziger1979 schrieb:
Bei AMD wird es wohl auch nicht besser aussehen.
Denn auch die kochen nur mit Wasser.
Das wäre gut, wenn ab Werk eine WaKü montiert wäre. :daumen:
 
  • Gefällt mir
Reaktionen: w33werner und Blackvoodoo
Jan schrieb:
Total Graphics Power“ (TGP), die GPU, Speicher und alle sonstigen Komponenten der Grafikkarte mit einbezieht,
Hä?
TGP war doch nur die GPU. TDP war doch für alles zusammen bzw. TBP total Board Power eventuell?

Oder ist da ein Unterschied zwischen AMD und Nvidia?
Bei der 6900XT hab ich 310 Watt TDP und 268 Watt TGP...

Bei der nächsten Generation heißt es auf jedenfall Big is beautiful :mussweg:
 
Alles unter 2KW/Karte ist viel zu leistungsschwach! :D
Ernsthaft, das nimmt langsam wirklich Ausmaße an, da kannste nur noch mit den Augen rollen :freak:
Auf Teufel komm raus wird die Leistungsaufnahme nach oben verschoben, schexxegal, was kostet die Welt?
Klar kommt auch etwas mehr heraus, aber hey, wir reden da von kleinsten Steigerungen im einstelligen
Prozentbereich und keinesfalls von einem bahnbrechenden Leistungsschub!
Meiner Meinung nach wird das irgendwann enden wie bei Intel, die mussten beim P4 auch erkennen, dass
das nicht der richtige Weg ist.
 
  • Gefällt mir
Reaktionen: Relict, CableGuy82, medsommer und eine weitere Person
Das schöne ist ja keiner muss eine 4090 kaufen :) Umso besser dann ist meine chance höher das ich eine bekomme xD

und wo ist das den jetzt wieder so das Problem die 3090ti geht auf bis zu 520watt ob nun 80 watt dazu kommen oder nicht macht den Kohl auch nicht mehr Fett bei der 3090 gab es auch ein Offizielles 520watt Bios EVGA also es ist nix neu und die 600 watt sind eher MAX leistung nicht das dauerhaft anliegt siehe auch bei 3090ti das selten 520watt anliegen
 
Im Winter als Heizung gut... Wenn ich mit meiner 5900x und Rx6800XT ein paar Stunden zocken, muss ich derzeit irgendwann mal die warme Luft rauslassen... 😮‍💨

Nur was ist Sommer? 🔥😱

Und alle Zocker ab Ende Juni bis Ende August... 🥵
 
  • Gefällt mir
Reaktionen: aid0nex und RAZORLIGHT
Immerhin der Vernuftsgedanke setzt bei einigen ein.

Dann bitte das nächste mal auch im Midrange Segment maximal bleiben in der Anschaffung und dafür eher mal die eigenen Bedürfnisse zurück schrauben damit es sich ausgeht :).

Ich für meinen Teil brauch ohnehin nichts potentes mehr ... es gibt einfach keine Spiele die es notwendig machen würden und meinen Geschmack treffen.
Vielleicht mal das neue COD oder BF wenns wieder mal einen Shooter zu WoWs brauch aber sonst :).
 
  • Gefällt mir
Reaktionen: aid0nex, Innocience, MrZweistein und 6 andere
MeisterOek schrieb:
Das bringt mich darauf, dass es ja tatsächlich keine 3000er Super Karten gab. Durch die Absatzschwierigkeiten und die Nachfrage aber mehr als logisch.
Die SuperDuper-Karten wurden doch nur wegen RDNA auf den Markt geschmissen, um besser zu wirken.
Sind doch jetzt nicht mehr nötig. Dafür gibt es ja wie bisher die Ti-Versionen.
 
Axxid schrieb:
Denn man muss ja 4k+RTX+144fps erreichen.
Das ist aktuell das erklärte Ziel wie es aussieht. Wäre auch echt cool.
Wobei nVidia seit 1080 Zeiten von 4K gaming quatscht. Ich bin dann aber auch jemand der gerne mit 60Hz/FPS + spielt und das geht in hohen Auflösungen erst seit Radeon 6000 und GeForce 3000 Serien. Wenn man dann wieder raytracing dazu packt ist die Hälfte der FPS wieder weg.

Also ja, wäre schon cool wenn es irgendwann möglich wäre in 4k bei 120Hz und FPS mit raytracing zu spielen. Ich sehe es aber genauso kritisch, das Preis Leistung Verhältnis muss stimmen und das tut es mit so einem Energie Verbrauch nicht.
 
Wenn Gas zu teuer wird heizt man eben mit der Grafikkarte.

Spaß beiseite, ich möchte so ein Trumm nicht im PC haben. Ich sehe bei mir so 350W als Obergrenze.
 
Schon krass... früher hat man mit einem Heisluftgebläse nur heiße Luft gemacht. Heute könnend ie Teile sogar Bilder berechnen.

ich hab gelesen, das es spezielle Stromtarife für Wärmepumpenheizungen gibt. Da ist der Strom dann etwas günstiger... gibt es das auch für nVidia-Karten wenn ich die als Heizung deklariere?

Oder die WaKü vom Rechner direkt in den Heizkreislauf vom Haus integrieren.
 
  • Gefällt mir
Reaktionen: lubi7
Ekelhaft. Der Halbleitermangel hat die Technologieentwicklung wirklich zurückgeworfen. Die Leute kaufen alles was es gibt warum also wirklich entwickeln wenn man einfach mehr Strom reinballern kann.
 
  • Gefällt mir
Reaktionen: Relict
Zurück
Oben