News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

Die Lösung zumindest im Gaming Bereich: Spiele sollten besser technisch optimiert sein (siehe z.B. DOOM), dann braucht man auch nicht diese brachiale Rechenleistung. :schluck: Ich kann auch in fünf Minuten in Unity einen RPG-Quatsch entwickeln, der aussieht wie Tomb Raider 1 auf der PSX aber die GPU in die Knie zwingt als wäre es Cyberpunk 2077 auf 4K. Alles eine Frage der (vielen) Perspektiven ... Effizienz-optimierte Engines sollten mehr Priorität erfahren.
 
  • Gefällt mir
Reaktionen: Nighteye

Anhänge

  • 6900XTHX.jpg
    6900XTHX.jpg
    471 KB · Aufrufe: 222
anappleaday schrieb:
Halt 100W mehr als die 3090, uhh, wow, nein, böse, Klima, Umwelt, Strompreis, warme Wohnung, verhungern, Hobby aufgeben, Heizung ersetzen, Spiegelei auf GPU braten, Armut, wir werden alle sterben.
Das sieht eher nach 220W mehr nur an der GPU aus.
Was fast das Doppelte wäre wie bisher.
 
Da ergeben die 15 Lüfter Slots in meinem Tower endlich Sinn.

Noch 300€ für Noctua's oben drauf und das Ding is einigermaßen leise gekühlt xD.
 
Der Kaltgerätestecker C13 / C14 am Netzteil ist für 10A ausgelegt, da ist noch Luft nach oben bis 2300W :smokin:
 
XPS schrieb:
Warum sollte das "IMMER" so gehen ? und jetzt komm mir Bitte nicht mit Klima und Umwelt?
Weil alles andere kein Fortschritt sondern (schlechte) Skalierung wäre. Klar kann man mehr Leistung durch mehr Energie erreichen, von wirklich technischem "Fortschritt" kann man da aber schwer reden. Dieser wäre eher sowas wie:
Gleiche Menge Energie > Mehr Resultat
Höhere Menge Energie > Linear Proportional mehr Resultat
Höhere Menge Energie > Mehr als linear mehr Resultat

Und dann gibt es da ja noch das Problem der Hitze-Abfuhr die erst mal aus der Komponente und dann aus dem System muss. Dass wird mit immer mehr Abwärme immer lauter und immer schwerer technisch zu realisieren.... Und weil das noch nicht genug ist, muss man die Abwärme dann auch noch aus dem Zimmer, sonst wirds heiß... Und weil dass noch nicht genug ist, muss die Abwärme danach ja noch irgendwo hin UND die Energie dafür muss auch irgendwo herkommen...

"Klima und Umwelt" sind nun mal defakto wichtig für das Überleben von dir, mir, deinen Kindern, meinen Kindern und Jedem anderen. Und, auch wenn es viele nicht wahrhaben wollen, Exzess wie mit einer 3090 Ti, 4090 (Ti), SUVs, Bezos Super-Jacht oder andere teilweise extreme Luxus Produkte sind einer der gewichtigen Hauptpunkte, wieso wir überhaupt von einer "Klimakrise" reden. Ergo, kann man hier sehr wohl "mit Klima und Umwelt" kommen, wenn man nicht ein totaler Ignorant oder Narzisst ist.

Und nein, ich advokiere nicht für einen kompletten Enthalt, wir sind alle keine Asketen. Ich advokiere für sinnvolle Verhältnisse und eine kritische Betrachtung von Problemen und das ziehen von Konsequenzen daraus.
 
  • Gefällt mir
Reaktionen: ComputerJunge, Tapion3388, rojadesign und eine weitere Person
Onkel Föhn schrieb:
4090 mit 450 Watt kommt mir nicht in die Tüte !
Die 450W beziehen sich doch nur auf die GPU. Wenn die Boardpartner bereits 600W Tests fahren, dann kann man sich schon ausmalen wo die Reise hingehen wird.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
v_ossi schrieb:
Ich müsste es heraus suchen, aber irgendwo im Internet habe ich schon gesehen, dass irgendwer sein Mining Rig an die eigene Fußbodenheizung angeschlossen hatte. Natürlich ne absolute DIY Bastellosung, aber theoretisch ne Möglichkeit mit deutlich weniger Temperatur zu heizen. ^^

N Kumpel von mir baut 0 Energie Häusser, heizt mit einer Miningfarm im Keller das Haus, welche durch
Solarenergie vom Dach betrieben wird. Mit der Überschussenergie wird Wasserstoff produziert.

Geht alles wenn man will.
 
  • Gefällt mir
Reaktionen: v_ossi, edenjung und racer3
Matthias80 schrieb:
Aber das zu kurz gedacht.
Was wäre denn der lange Gedanke, welcher dem Genüge tun würde? Übersetzung von x86 für 10 Jahre zu ARM ist eine mehr als ausreichend lange Migrationsphase und machbar - siehe Apple.

Bin auf Deine Rückmeldung gespannt!
 
Daddy Clause schrieb:
Ich verstehe gar nicht richtig, wo hier der Fortschritt ist, wenn man einfach die Leistung der Grafikkarten erhöht bei gleichbleibender Effizienz.
Die Frage ist auch viel mehr.
Wohin verpufft die ganze Leistung?
Viele Spiele sehen so leid es mir tut, kein deut besser aus wie Crysis und das lief damals auch auf 1600x1050p

Also nicht so weit weg von Full HD.

Eine 6900XT ist über 2000% schneller wie eine HD 4850 damals.
Und trozdem tut sich (Cyberpunk aussen vor) gefühlt fast nichts oder zumindest für den Leistungszuwachs zu wenig.

Also wo bitte verpufft die ganze Grafikkleistung?!
Wäre voll wenn mir das jemand beantworten könnte 👍
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Bei solch einem Energieverbrauch bin ich raus...
Nicht wegen des Strompreises, sondern eher das die Karte dann endgültig zu einem Heizkörper wird.
Ich hoffe einfach mal das noch effizientere Modelle erscheinen, 300-350 Watt für die ganze Karte wäre noch OK.
 
Da geht doch noch was. Es wird Zeit, dass die Steckdose ausgereizt wird.
 
Fighter1993 schrieb:
Da fällt mir immer nur das hier ein, zum schreien
Echt gut gemacht, das Video.

Aber das Gehäuse der Grafikkarte finde ich gar nicht mal so schlecht, wenn man ein bisschen weiter denkt.

Man könnte CPU, RAM, Mainboard, SSD in ein identisch großes Gehäuse stecken (die teuren Mainboards sind ja schon stark verkleidet mit gehäuseähnlichen Teilen), die seitlich miteinander verbinden, fertig.
In Summe wäre der PC dann sogar kleiner als die heutigen großen Gehäuse.

Es ist doch eigentlich sinnlos, eine bereits vollständig gekapselte Grafikkarte noch mal in ein weiteres Gehäuse zu verfrachten.
 
  • Gefällt mir
Reaktionen: Fighter1993
Ich glaube, das es nicht darum geht, das sich viele so eine Karte nicht leisten können. Aber ich habe schon das Gefühl, das ein bisschen umdenken stattfindet. Leisten können heißt halt nicht immer auch leisten wollen. Ottonormaluser kaufen sich alle paar Jahre ein System. Und da gibt es durchaus Leute, die Ahnung haben. Man sollte Ottonormaluser nicht gleichsetzen mit: der kennt sich nicht aus. Sehe ich in meinem Bekanntenkreis. Die machen sich viele Gedanken für was sie den PC brauchen, wie lange sie ihn evtl. nutzen wollen etc. Und kaufen sich dann die Komponenten und bauchen sich den PC auch selber zusammen. Aber die meisten bei mir sind so um die 40. Es geht nicht mehr nur um Brachialleistung. Sondern auch die Sinnhaftigkeit. Es ist ein Hobby, ergo Luxus. Aber deswegen muss man nicht das Geld unnötig rausfeuern. Und die Entwicklung sieht gerade so aus, das man als Normalo aufeinmal Wakü mit einplanen muss, damit man eine Midrange Karte anständig kühlen kann und sie sich nicht anhört wie ein Staubsauger im Dauerbetrieb. Das ist für viele halt die falsche Entwicklung.
@XPS wir gönnen dir jedes halbe Jahr deinen komplett neuen PC. Mit der obersten Latte an Hardware. Hab Spaß damit. :-) Und deinen Sportwagen dazu. Aber verstehe, das es Leute gibt, die sich das evtl. auch alles leisten können (oder noch mehr), aber die Entwicklung nicht gut heißen.
Und ich gehöre zu denen, die sagen, das PC ansich noch mit das günstigste Hobby ist. Aber verstehen tu ich die Entwicklung nicht.
 
  • Gefällt mir
Reaktionen: Viper816
Silencium schrieb:
Was wäre denn der lange Gedanke, welcher dem Genüge tun würde? Übersetzung von x86 für 10 Jahre zu ARM ist eine mehr als ausreichend lange Migrationsphase und machbar - siehe Apple.
Und 40 Jahre Softwarekompatibilität und Flexibilität übern Haufen schmeissen, weil ein riesen Custom ARM
Chip welcher in Massen so nie zu fertigen wäre, mit einer Gen Vorsprung in der Fertigungstechnik oben raus etwas effizienter ist?
Bis 15W verliert er ja jetzt schon gegen Ryzen 5000...

Fu** no!

Ich weiss nicht wie man auf die Idee kommen kann, man könnte uralte Maschinen oder Spezialsoftware die auf einem uralten OS läuft einfach mal so ersetzen, weil ARM zwischendurch mal was taugt?
 
  • Gefällt mir
Reaktionen: Innocience und edenjung
Zurück
Oben