Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce RTX 3090 Ti Suprim X: MSI bändigt bis zu 480 Watt mit 2,1 kg im 3,5-Slot-Design
So ohne Statiker einfach einen PC auf den Boden stellen ist bald nicht mehr.
Edit: auch braucht bald der PC seine eigene 16A Sicherung. PC auf einer und Monitor und Peripherie und Rest des Zimmers dann auf einer weiteren Sicherung.
Das ist schon ein brutales Stück Eisen...
Und da muss ja demensprechend Luft duch das sich des auch kühlt.
Dann braucht man wenigstens nicht mehr Staubsaugen weil der Sog unterm Rechner zieht dir garantiert den Staub aus allen 4 Ecken.
Ich muss schon etwas lachen.
480W? Einfach ein Kochfeld auf der GPU installieren, täglich frisches Spiegelei <3
2,1 kg? Da liegt hoffentlich jeder Karte ne GPU-Stütze bei, das ist Wahnsinn
3,5 Slot-Design? Gut, ich wollte sowieso nichts außer einer GPU installieren.....
Eventuell 10% mehr Leistung? Für nur 30% mehr Power... Nice
Bei solchen Karten sollten die Hersteller wirklich dazu verpflichtet werden ein funktionierendes OC-Bios (max. Power) und ein UV-Bios (@~300-350W) anzubieten.
Dann könnte man sich auch die ganzen Strom/Klima/Klimaanlagen-Diskussionen schenken.
Und ich bin gespannt ab wann mehr Leute anfangen zu verstehen, dass die nm Angaben hauptsächlich Marketing sind und sich schon längst nicht mehr 1:1 vergleichen lassen. Ein 14nm Intel Chip unterscheidet sich im Bereich der Transistoren bspw. kaum von einem 7nm TSMC.
Ab 1,5 KG sollte man die Grafikkarte sowieso stützen.
Ist doch super, so eine 3090TI + ein richtig schöner i9 12900K und die verbraten dann im richtigen spiel zusammen mit allem drum und dran 1KW, hmm das schmeckt aber auch, was ein Genuss.
Da wird dann das Mining-Rig wieder interessant. Nicht zum minen, sondern einfach nur, um die eine Grafikkarte mit den anderen Erweiterungskarten irgendwie zu verstauen.
Ist doch nur ein Testlauf für die Partner um schon mal ein wenig für die 4000er Karten zu üben, da werden solche Kühler zum Standard:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Hab ich was verpasst warum sind die Taktraten so niedrig in der Tabelle? Meine 3090 GPU hat Basistakt von 1785 Mhz und Boost 1995 Mhz.
EDIT: ach das waren sicher min. Angaben oder so. hab meine GPU jendenfalls noch nie unter 1785 in Games arbeiten sehen immer so im 19xx Bereich. Deswegen dachte ich 1785 ist Base
480W sind mit diesem Kühler vielleicht ja noch machbar. Fragt sich wie die Innentemperaturen im Gehäuse dann sein werden. Ohne einen bombastischen airflow wird inside alles gegrillt. Anregung für die modding-Szene: der PC als Smoker. Spareribs aus dem PC!
Ich weiß nicht was ich davon halten soll.
fast ein halbes KW nur für eine GraKa.
Ich weiß das mich für diese Aussage einige hier gesteinigt, geteert und gefedert sehen möchten aber ich wäre für eine EU Begrenzung für die maximala leistungsaufnahme von Grakas(oder generell Computerkomponenten - je Einsatzgebiet).
Nicht weil ich Leistung bremsen will sondern um den technologischen Fortschritt zu fordern.
Ich halte eine Leistungserhöhung mit der Brechstange bis zur kotzgrenze nicht für das Mittel der Wahl. Kann man freilich machen für Wettbewerbe, also in "einzelfällen", mit Trockeneis o.ä.
Aber für die Serienfertigung im Privatbereich muss das nicht sein. Sollte es auch nicht sein.
Und in anbetracht derart verfehlter Klimaziele(CO2 Senkung bis 2030 LOL) darf sowas auch nicht sein.
Bin generell dagegen so spezifische Anforderungen zu stellen. Wenn die Lösung dann ist, zwei Grafikkarten in den Rechner zu stecken mit den deutlichen Effizienzverlusten gegenüber einer Großen, ist auch Keinem geholfen.
Für mich reicht es/würde es reichen wenn ein Leistungslimit gesetzt werden kann (bzgl. die Möglichkeit dazu muss verpflichtend sein) und Frequenzverhalten/erwartbare Leistung zu Leistensaufnahme für verschiedene Stufen in % von Nennleistung muss dokumentiert sein (z.B. 70% Rechenleistung bei 50% der Leistungsaufnahme).
Es ist ja außerdem nach wie vor nicht so, als gäbe es keine Grafikkarten mit geringerer Leistungsaufnahme. Und effizienter werden sie von Generation zu Generation auch.
Könnte mal jemand mit Mathe-Skills versuchen, den technologischen Fortschritt zu berechnen? Wenn ich für die doppelte Leistung doppelt so viel Strom brauche, ist es ja quasi gar kein Fortschritt, oder? Das müsste man mal im Verhältnis zu den vorhergehenden Generationen auswerten.