News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

alex197 schrieb:
In jeden Raum einen Rechner mit einer RTX 4090 die durchgehend Cryptowährungen mined wäre eine Lösung mit der zumindest ein kleiner Teil der Heizkosten durch Bitcoin Gewinne retour käme
Bitcoin lässt sich schon lange nicht mehr mit Grafikkarten minen.
Dann eher Ether oder Raven.
 
Axxid schrieb:
Aber wie die letzten Jahre gezeigt haben, werden sie die Karte fuer 1.800+ EUR UVP auf den Markt werfen koennen und es werden sich genueg Kaeufer finden, die ddafuer Schlange stehen. Denn man muss ja 4k+RTX+144fps erreichen.
Ich Zahle von mir aus auch 3000€ für so eine Karte (meine 3090 hat letztes Jahr 2450€ gekostet), weil es am Ende weder um den Preis noch um den Verbrauch geht!
Das einzige was bei den Top Modellen für mich Zählt ist die Leistung die am Ende raus kommt!

Der Preis bzw. Stromverbrauch, ist bei so einem Produkt egal...ist er das nicht ist man weder die Richtige Zielgruppe dafür und man kauft es einfach nicht ganz einfach!

Ich rege mich ja auch nicht darüber auf das mein Sportwagen 15L Super Plus verbraucht und ich aktuell 150€ Voll Tanke...so etwas weiß man vorher!
Tut man das nicht, sollte man vielleicht mal über seine Finanzielle Situation nach denken, ob man sich das überhaupt Leisten kann und will.

Und ja in dem Bereich erwarte ich 4K Max / Raytracing / 165hz+, da meine jetzige 3090+5950X schon zu langsam ist. (Gibt auch Spiele dich ich heute schon auf 8K Spiele, daher Leistung>Rest)

Also gerne her damit, der Rest kauft dann halt eben ne 4060 oder ein zwei Generationen davor, sollte ja nicht das Problem sein!

Wird niemand gezwungen, solche Hardware zu Kaufen!

Und ob meine Graka so wie jetzt 420W zieht oder die Neue dann 600W macht den Braten am Ende auf der Stromrechnung nicht Fett (Aktuell 80-100€ bei 10 - 15 Std nur der PC) dann sind es eben 120-150€!

Wenn man sich das Leisten kann und will ist doch Super, alle anderen Kaufen eben in Ihrem Anwendungs und Preisbereich wo es am Besten passt, aber dieses immer gerede von Falscher Richtung und Klima bla bla...einfach Quatsch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Najasumi, Flywolf und Edronax
Jomei, 400W+ zum spielen... Greta hilf!!
 
@Matthias80
Ein Forenbeitrag ist ein Forenbeitrag. Da kann ich keine Aussage zu treffen.

Meine Daten sind aus dem Test von Cb zur 3090ti. Also aus der letzten Woche.

Und die haben nicht Multimonitor youtube gemessen.
Kann ich also leider nicht mit dienen.
Aber generell sieht es gut aus für AMD.


Und erst recht wenn wir uns den Verbrauch bei HDR anschauen.
Der Ist massiv bei Nvidia.
HDR.PNG


Der Verbrauch ist ähnlich gut wenn nicht minimal besser im idle, HDR Youtube und Youtube. Der dual monitor ist on par mit Nvidia.


Ein test mit Dual monitor yotube wäre sicher ganz nett, aber dann ist die frage wie will man das differenzieren, wenn du nebenbei ein Spiel spielst und youtube kuckt. Steht da am Elektron was er genau befeuert?
 
Zuletzt bearbeitet:
Bei der neuen NV Gen (wenn nicht gar ne AMD 7900 oder so) wird für mich max. die 4080 auf dem Radar sein und wenn die zu viel säuft dann halt ne 4070er. So viele Games zocke ich mittlerweile auch nicht mehr das es einen 3090er Nachfolger erzwingen würde.
 
Vielleicht sollte man die Kirche hier auch mal im Dorf lassen.
Ja der Verbrauch ist hoch
Ja die Karte wird teuer

Aber….. Hand aufs Herz. Wie lange läuft denn eine solche Karte (bzw. der ganze PC) auf Anschlag täglich in einem PC? Die idlet doch zu 90% der Zeit nur vor sich hin, bzw der PC ist aus. Niemand wird 16 Std. am Tag unter Dauerlast spielen, außer es ist professioneller Natur.

Falls doch = zu viel Zeit fürs Gaming und die Stromrechnung ist egal (Eltern, Erbe, E-Sport, sonstiges). Oder die Person ist arbeitslos und kann sich die Karte damit (so hart es klingen mag) sowieso nicht leisten, womit das Thema vom Tisch ist.

Die andere Fraktion sind eben die Content Creator, welche mit der Leistung Geld verdienen. Ja auch hier ist der Verbrauch eine Kennzahl. Aber eben eine wirtschaftliche, welche finanziell aufgefangen wird. Ob dann damit noch gezockt wird, fällt dann auch nicht mehr ins Gewicht. Alternativen gibt es aber hierzu auch in der Cloud.

Abgesehen davon entfällt der Löwenanteil eh auf die „kleinen“ Karten und nicht auf so Monster wie 3090/4090.

Der ökologische Aspekt ist natürlich hier nicht berücksichtigt. Aber ein Rückwärtstrend ist auf absehbare Zeit nicht zu erkennen. Wo soll die Leistung nach derzeitigem Stand der Technik auch herkommen? In den letzten 20 Jahren gab es immer dieses Auf und ab. Jetzt sind wir eben bei 600 Watt angekommen.

Ich möchte das Thema nicht schönreden, aber ambivalent ist das Verhalten hier schon. Denn es ist wie immer so, dass man hier beim Blick in die Signaturen darauf warten kann bis die ersten die 4090 drin stehen haben.
 
  • Gefällt mir
Reaktionen: Flywolf und Fighter1993
Bin mal gespannt was das für die mobilen Karten bedeutet. Die Laptop 3060 mit 130 Watt kommt ja erstaunlich nah an die Leistung der 170 Watt (?) Desktop 3060 dran, während bei 3070 mobile vs Desktop der Abstand deutlich größer wird und bei 3080 ein sehr großer Unterschied besteht.

Denke mit den mobilen Chips wird man wirklich sehen was sich mit der neuen Generation an der Effizienz tut, da man dort den Verbrauch nicht so stark erhöhen kann.
 
@Matthias80
Ein Test dazu wäre sicher interessant.

Mal kucken ob @Wolfgang und co sich sowas überlegen würden, oder ob das möglich ist.
 
XPS schrieb:
Das einzige was bei den Top Modellen für mich Zählt ist die Leistung die am Ende raus kommt!
Am Ende muss man es halt auch stabil mit Energie versorgen und anschließend kühlen können, sonst hat man schlicht keine Leistung. Also lässt sich folgern, dass es am Ende die technischen Rahmenbedinungen sind, die zählen.
 
Langsam reicht es mal, sonst kriege ich die Grafikkarten nicht mehr in einem <10L Gehäuse gekühlt und muss ernsthaft Kompromisse eingehen.
Ich verstehe gar nicht richtig, wo hier der Fortschritt ist, wenn man einfach die Leistung der Grafikkarten erhöht bei gleichbleibender Effizienz. Da könnten sie doch gleich wieder Dual-GPU-Karten rausbringen, wie die R9 295x2 damals.
 
  • Gefällt mir
Reaktionen: amico81
Daddy Clause schrieb:
Langsam reicht es mal, sonst kriege ich die Grafikkarten nicht mehr in einem <10L Gehäuse gekühlt und muss ernsthaft Kompromisse eingehen.
Ich verstehe gar nicht richtig, wo hier der Fortschritt ist, wenn man einfach die Leistung der Grafikkarten erhöht bei gleichbleibender Effizienz. Da könnten sie doch gleich wieder Dual-GPU-Karten rausbringen, wie die R9 295x2 damals.
Wie kommst du auf das schmale Brett, dass die Effizienz gleich bleibt? Völlig utopisch.
 
Hmm ich warte auf die 4080..Hoffentlich wird mein 750 Watt BeQuit Straight Power da reichen :confused_alt:
 
Lol, Greymons Tweet mit "RDNA 3 braucht 500W" war wohl ein Aprilscherz. NerdTech meint auf Twitter, dass AMD das Desgin für <=350W ausgelegt haben soll. Aber Nvidia wird 600W auf die Karte prügeln?! Ich bin da wirklich sehr sehr skeptisch. Das hieße ja, dass Nvidia sich komplett verkalkuliert hätte, dabei sollen die Unternehmen angeblich gegenseitig ihre Roadmaps auf Jahre hinaus kennen.

@SV3N Hattest du nicht auch über den 500W Leak von Greymon berichtet? Dann wäre wohl ein Update fällig. :D

1649162074435.png
 
Zuletzt bearbeitet von einem Moderator:
Die 4090 wird mit dem Verbrauch total uninteressant und meiner Meinung nach geht die Entwicklung was High End Modelle betrifft auch vollkommen in die falsche Richtung. Aber bei der Anzahl an Cuda Cores für das Topmodell könnten die Mittelklassemodelle der nächsten Generation sehr interessant werden. Selbst mit etwas unter der Hälfte der Cores wäre eine obere Mittelklassekarte schon überzeugend. Gepaart mit etwas weniger Takt könnte das durchaus effizient werden.
 
Das ist ja eine tolle Nvidia Heizung!
Ich finde es gut, dass die Computerbranche jetzt so aktiv wird und es uns ermöglicht, dass wir auf das russische Gas am Ende verzichten können, denn dann wird das Zimmer mit dem Gamingrechner vor Kälte und Schimmel geschützt....
 
  • Gefällt mir
Reaktionen: downforze
Zurück
Oben