News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

Silencium schrieb:
welcher dem Genüge tun würde?
Uff Wo will man da anfangen?
Reparierbarkeit, Akku wechselbar, allgemein da für 6000% Marge nicht die Preise so drücken, das die Unternehmen sowas wie Umweltschutz auch einhalten können, dann wirklich in Green investieren und nicht nur 0,00001% seines Gewinns dafür in Anspruch nehmen. Man möge mir meine überspitzung verzeihen. Aber bloß weil ich ne ARM cpu einsetze ist man hier nicht der King. Da gehört noch einiges mehr dazu.

So war das gemeint. Das Apple da was beeindruckendes auf die Beine gestellt hat. Ohne Frage!

Mfg
 
Mir fehlt immer noch die Vorstellungskraft die Karten ordentlich zu kühlen bei entsprechender Lautstärke. Defacto ist jeder gezwungen, der maximale Leistung haben möchte auf einen Big-Tower umzusteigen mit entsprechendem Netzteil.

Entweder ist AMD mit seinem Produkt wirklich weit voraus, dass NV solche Geschütze auffährt oder das ist einfach die Entwicklung die GPUs gehen müssen um Mehrleistung herauszuholen. Ich dachte ab Pascal geht es genau in die andere Richtung, hätte dem Mobilsegment sehr gut getan. Erst Recht wenn man Apple in die ganze Betrachtung mit einbezieht.
 
Die ersten beiden Seiten wieder nur „Mimimi, der Stromverbrauch“ 😭😭😭.

Meine Güte, niemand zwingt euch die 4090 zu kaufen. Konfiguriert euch die 4090 halt eher in Richtung Effizienz und gut ist. Oder, falls es das eigene Ego zulässt, kauft halt nur ne 4060, 4060Ti oder 4070. Da habt ihr eure effizienteren Lovelace-Opionen.

Trotz der hohen TGP kann man schwer davon ausgehen, dass das Performance pro Watt-Verhältnis gestiegen sein wird. Solange das so ist, sehe ich kein Problem - wiegesagt, dann kaufen die Leute die mit dem Stromverbrauch nen Problem haben halt nur ne 4070.

Ich selbst bin froh, dass mir ein größerer Leistungsspielraum bzw. eine größere Leistungssteigerung durch das großzügige TDP-Limit ermöglicht wird. Alleine wegen den Preisen. So wenig wie ich als berufstätiger Mensch zum Zocken komme (mein Stromverbrauch insgesamt lag letztes Jahr bei ~800kWh…) brauche ich mir für diese Ansicht absolut kein schlechtes Gewissen einreden lassen.
 
  • Gefällt mir
Reaktionen: Gast12345, PS828, Innocience und 6 andere
Wäre es denn nicht günstig, den CPU Sockel gleich mit auf die Platine zu bauen, noch ein bissl mehr schnellen Grafikkartenspeicher draufzupacken, der per Sharing genutzt wird. Die Kühlung der 450 Watt GPU verträgt doch bestimmt die ca. 100 Watt der CPU beim Gaming. Das spart dann auch Platz im Gehäuse und sorgt für einen guten Luftstrom...:affe:
 
  • Gefällt mir
Reaktionen: calippo
Mir wird übel, wenn ich daran denke, das ich mir vor 1 Monat ein Seasonic TX 1.000W für 300€ gekauft habe... es gibt kein stärkeres von Seasonic auf Titanium... :-/
 
  • Gefällt mir
Reaktionen: Spawn
Habe nicht das Gefühl das jemand jemanden ein schlechtes Gewissen einreden will. Also ich möchte das zumindest nicht. Jeder soll das kaufen, wozu er Bock / Geld etc. hat. Die meisten reden doch eher darüber, das sie die reine Entwicklung eher negativ betrachten. Bei den CPUs ging es auch lange Zeit so, bis Intel damals mit den effizienten Chips überraschte. Dann stagnierten die Kerne. Dann kam AMD mit den Ryzen. Sowas in der Art wäre doch auch im Grakabereich schön?

Und was schon erwähnt wurde: es wird oft von 144 / 175 / 2xx Hz gesprochen. Mit 4K und Raytracing. Ganz ehrlich, ich glaube immer noch nicht, das eine 4090 Cyberpunkt in 4K mit Raytracing auf über 144Hz pusht. Aber das ist nur meine Meinung.
 
  • Gefällt mir
Reaktionen: Taigabaer
Matthias80 schrieb:
… was beeindruckendes auf die Beine gestellt hat. Ohne Frage!
Genau das meinte ich. Macht doch ne Recheneinheit auf ARM-Basis. Ich weiß ehrlich gesagt nicht wie sich das bei der GPU als Gesamtkonstrukt verhält, bin dort zu wenig im Thema! Doch dass es da keine Alternative gibt bezweifle ich. Hingegen glaube ich an den fehlenden Willen!
 
Mal sehen was die 4060, 4060TI und 4070, sowie AMD machen.
Die High End Karten entbehren ja jeder Logik, was die Kosten in Anschaffung und Unterhalt angeht.
 
modena.ch schrieb:
Und 40 Jahre Softwarekompatibilität und Flexibilität übern Haufen schmeissen, weil ein riesen Custom ARM
Chip welcher in Massen so nie zu fertigen wäre, mit einer Gen Vorsprung in der Fertigungstechnik oben raus etwas effizienter ist?
Bis 15W verliert er ja jetzt schon gegen Ryzen 5000...

Fu** no!

Wow, mein Respekt. In einem Kommentar so zu disqualifizieren ist schon eine Meisterleistung.
Verwehr Dich halt dem Neuen und lebe in der Vergangenheit. Es gibt 10 Jahre Übergang und das sind 25% der bisherigen Laufzeit - das reicht Dir nicht? Will nicht Dein Arbeitgeber sein müssen, ganz ehrlich.

Fortschritt bedeutet Arbeit, Kopfschmerz und das alle anpacken. Aber klar, man kann auch auf dem sitzen was man einst geschafft hat und der Dinge harren die da kommen. Damit könnte man glatt in die deutsche Politik einsteigen 😁
 
Mehr Watt ist kein schöner Trend, aber wenn die Leistung stimmt, dann ist das OK.

Außerdem würde es sonst auch keinen Sinn machen Netzteile mit 1000 oder mehr Watt zu kaufen ;-)
 
@Silencium

Wenn das so leicht wäre.

Wir haben Maschinen in unserem Kundenstamm, deren Steuerung passiert auf Win NT3.0, NT3.5 oder NT4.0.
Sind teilweise über 20-25 Jahre in Betrieb und die Kunden wollen sie aus gutem Grund nicht ersetzen.

Und die Neuesten Steuerungen sind auf Win 7 CE Basis.
Bei einer Maschine dieser Grössenklasse, die mal schnell 500-2000k kostet muss auch das Umfeld, also die Softwarelandschaft passen oder müssen alte Programme drauf laufen. Da muss man flexibel sein können.
Da interessiert sich kein Schwein Apple oder Arm, wie das eben in der echten Arbeitswelt zu 95% so ist.

Sprich das tut man sich nicht so leicht eine ARM Steuerung rein zu bringen, davon ab, dass es
keinen juckt ober die CPU in der Steuerung 5 oder 15W verbraucht, wenn der Laser vorne dran
4000-12000W verbrät.
Auf x86 zu bleiben hat hier nur Vorteile.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gast12345, Innocience und edenjung
modena.ch schrieb:
Auf x86 zu bleiben hat hier nur Vorteile.
Ich kenne diese Fälle und dem Laborumfeld zu genüge. Doch nur weil man allgemein einen Standard neu definiert, über eine Dekade, muss ja nicht das Labor neu ausgestattet werden. Verstehe das Problem nicht. Das ist echt ein „deutsches Problem“. Ich bin nicht verwundert, dass Tesla nach zwei Jahren das erste Fahrzeug von Band hat laufen lassen können. Da wird nicht so ewig lang geredet bis es im Sande verläuft, da wird eben gemacht. Ja, Umwelt soll beachtet werden, aber totreden ist eine deutsche Qualität.
 
Venatoris schrieb:
Mit 4K und Raytracing. Ganz ehrlich, ich glaube immer noch nicht, das eine 4090 Cyberpunkt in 4K mit Raytracing auf über 144Hz pusht. Aber das ist nur meine Meinung.
Das wird nicht passieren, da haste recht.
Ich denke wenn die 4090 in WQHD also nichtmal 4k, 60fps in RT packt, können wir uns glücklich schätzen.
 
  • Gefällt mir
Reaktionen: Taigabaer
@Silencium

Sprich du würdest um 10W an der CPU zu sparen (wenns denn jemals so viel wäre)
die Softwareumgebung des Kunden komplett auf den Kopf stellen oder so viele Mannstunden in
die Programmierung der neuen Software stecken, nur um ums Verrecken auf Arm zu migrieren?
Häh? Warum zum Geier sollte man das machen?

Wenn ein Mann bei einem Kunden eine Tafel voller Teile programmiert und da Hirnschmalz rein steckt,
und dieses Programm wegen der neuen ARM Umgebung nicht mehr läuft, ist das so viel tragischer, als alles
was der ARM Chip in 20 Jahren einsparen könnte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gast12345, Gnodab, Innocience und 2 andere
Thermi 2.0 inc?
Würd sogar vom Namensschema her passen
 
Fighter1993 schrieb:
Das wird nicht passieren, da haste recht.
Ich denke wenn die 4090 in WQHD also nichtmal 4k, 60fps in RT packt können wir uns glücklich schätzen.
Jupp, daher kratzen mich die ganzen Grafikkartenpreise nicht. Für 1080p in 30+ fps bei Cyberpunkt (sind meist so 40-50 fps) und einer gtx 1070 die sowieso sehr wenig Stom verbraucht (ca. ~250 Watt) in maximalsten Details reichts dicke, 60 fps sind sicher auch möglich wenn man ein paar überflüssige Placebo-Optionen ausschaltet. Alle anderen Spiele laufen genausogut/besser. Also ich würde auf keine modernere Grafikkarte + 4K-Monitor umsteigen, wenn es keine 60 fps Minimum bei maximalsten Optionen erzeugt. Das Geld ist es mir nicht wert. Wenn später mal "sehr gute Grafikkarten" wie damals die AMD 4850 als überdurchschnittliche Grafikkarte zu ihrer Zeit für 120 Euro verkauft werden, dann greif ich auch zu... Allerdings... 4k... Dann kann ich ja kein 3D mehr ansehen wie auf meinem derzeitigen 3D-LG-Fernseher (1080p). Also bleibts so oder so bei 1080p, es sei denn ein Monitor-/Fernseherhersteller erbarmt sich meiner und bringt ein 4K-Display mit 3D heraus. :daumen:
 
Heh und damals konnte die Hd 6990 außerhalb der PCI Spezifikationen mit 450 Watt befeuert werden damals noch im AUSUM Modus.

Und das mit 2 Gpus. Heute kriegt das ein Chip hin. Save in der 6xxx oder 7xxx Generation gib es dann direkt einen 220v Anschluss.
 
Über 300 Watt werde ich wenn dann nur in einer (Hybrid-)Version mit AiO und mindestens 280er Radiator nehmen. Luft alleine wird bei 450 Watt so schnell heiß, dass sie zum Kühlen anderer Komponenten gar nicht mehr taugt. Das darf keinesfalls ins Gehäuse geblasen werden. Das schreit quasi nach Wasserkühlung.
 
bensen schrieb:
Woran machst du das fest? Die Effizienz wird erheblich steigen.
Vermutlich an einer anderen Definition von "erheblich" als du sie ansetzt. Ampere hatte schon nur eine Steigerung von ca. 8% im Vergleich zum direkten Vorgänger. Alles an Mehrleistung was darüber hinausging ging einher mit dem Anheben der Leistungsaufnahme.

Nvidia hat hier die Jahre lang aufgebaute Führung über AMD in einer Generation aufgegeben, AMD hat in einer Generation von einem Rückstand von 19% gleichziehen können und stellt jetzt mit der RX6800 das Maximum an Effizienz da. Wenn du mir den letzten Zeitpunkt sagen kannst wo Nvidia weniger effizient war als AMD hau raus.

Warum ich den Chipmangel hier mit verantwortlich mache: Das Angebot Nachfrage Verhältnis ist so verquer gewesen die letzten zwei jahre das egal was Nvidia oder AMD auf den Markt gebracht haben alles weggekauft wurde. Daraus ergibt sich genau eine logische Schlussfolgerung: Preis anheben F&E niedrig halten und Marge vergrößern.
 
  • Gefällt mir
Reaktionen: DefconDev
Zurück
Oben