News GeForce RTX 3090 Ti Suprim X: MSI bändigt bis zu 480 Watt mit 2,1 kg im 3,5-Slot-Design

edenjung schrieb:
GPU-Plätze müssen verdichtet werden.

Sonst hält das ganze nicht.
So ohne Statiker einfach einen PC auf den Boden stellen ist bald nicht mehr.

Edit: auch braucht bald der PC seine eigene 16A Sicherung. PC auf einer und Monitor und Peripherie und Rest des Zimmers dann auf einer weiteren Sicherung.
 
  • Gefällt mir
Reaktionen: Qyxes und edenjung
Den Kühler hätte ich gern auf meiner Karte. Dann wär die wahrscheinlich sehr leise.
 
Das ist schon ein brutales Stück Eisen...
Und da muss ja demensprechend Luft duch das sich des auch kühlt.
Dann braucht man wenigstens nicht mehr Staubsaugen weil der Sog unterm Rechner zieht dir garantiert den Staub aus allen 4 Ecken. :lol:
 
  • Gefällt mir
Reaktionen: Qyxes
DriveByFM schrieb:
Wird wohl bald die Zeit der 4-5 Slot Kühler, Noctua und Asus haben ja schon gezeigt wie es bei der 3070 geht. ^^

und ich habe noch zwei erweiterungskarte, bei denen ich mich frage, wohin mit denen, wenn die Grafikkarten im verrückter werden :D
 
  • Gefällt mir
Reaktionen: Qyxes und RAZORLIGHT
Ich muss schon etwas lachen.
480W? Einfach ein Kochfeld auf der GPU installieren, täglich frisches Spiegelei <3
2,1 kg? Da liegt hoffentlich jeder Karte ne GPU-Stütze bei, das ist Wahnsinn
3,5 Slot-Design? Gut, ich wollte sowieso nichts außer einer GPU installieren.....
Eventuell 10% mehr Leistung? Für nur 30% mehr Power... Nice

Bei solchen Karten sollten die Hersteller wirklich dazu verpflichtet werden ein funktionierendes OC-Bios (max. Power) und ein UV-Bios (@~300-350W) anzubieten.
Dann könnte man sich auch die ganzen Strom/Klima/Klimaanlagen-Diskussionen schenken.
 
  • Gefällt mir
Reaktionen: NMA
Man hörte das gelächter bei evga, für die 500W der MSI Karte und bringt die Kingpin raus, nach dfm Motto: In your face 😂
 
nukin schrieb:
Und ich bin gespannt ab wann mehr Leute anfangen zu verstehen, dass die nm Angaben hauptsächlich Marketing sind und sich schon längst nicht mehr 1:1 vergleichen lassen. Ein 14nm Intel Chip unterscheidet sich im Bereich der Transistoren bspw. kaum von einem 7nm TSMC.
Und wo habe ich gesagt dass dies der Fall sei?
 
wird zeit dass das Mainboard Design überarbeitet wird.
Wohin mit den Erweiterungskarten?
 
Welche Erweiterungskarten denn?
 
  • Gefällt mir
Reaktionen: Zitterrochen und FR3DI
1900 MHz "Extreme Performance", ganz großes Tennis, hust 2.7 GHz hust.

Ab 1,5 KG sollte man die Grafikkarte sowieso stützen.

Ist doch super, so eine 3090TI + ein richtig schöner i9 12900K und die verbraten dann im richtigen spiel zusammen mit allem drum und dran 1KW, hmm das schmeckt aber auch, was ein Genuss.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Tada100
  • Gefällt mir
Reaktionen: Onkel Föhn
florian. schrieb:
zeit dass das Mainboard Design überarbeitet wird.
Wohin mit den Erweiterungskarten?
Da wird dann das Mining-Rig wieder interessant.:D Nicht zum minen, sondern einfach nur, um die eine Grafikkarte mit den anderen Erweiterungskarten irgendwie zu verstauen.
 
  • Gefällt mir
Reaktionen: NMA
Ist doch nur ein Testlauf für die Partner um schon mal ein wenig für die 4000er Karten zu üben, da werden solche Kühler zum Standard:

Bald muss man bei einer Graka nicht mehr auf die Länge achten, sondern auf die Höhe. ;)
 
  • Gefällt mir
Reaktionen: NMA, Newbie_9000, schneeland und eine weitere Person
Hab ich was verpasst warum sind die Taktraten so niedrig in der Tabelle? Meine 3090 GPU hat Basistakt von 1785 Mhz und Boost 1995 Mhz.

EDIT: ach das waren sicher min. Angaben oder so. hab meine GPU jendenfalls noch nie unter 1785 in Games arbeiten sehen immer so im 19xx Bereich. Deswegen dachte ich 1785 ist Base
 
Zuletzt bearbeitet:
480W sind mit diesem Kühler vielleicht ja noch machbar. Fragt sich wie die Innentemperaturen im Gehäuse dann sein werden. Ohne einen bombastischen airflow wird inside alles gegrillt. Anregung für die modding-Szene: der PC als Smoker. Spareribs aus dem PC!
 
  • Gefällt mir
Reaktionen: NMA und Shadow86
Schöner Testlauf der Boardpartner für Lovelace...
 
  • Gefällt mir
Reaktionen: CR4NK und Illithide
Tulol schrieb:
mhhh..

Ich weiß nicht was ich davon halten soll.
fast ein halbes KW nur für eine GraKa.

Ich weiß das mich für diese Aussage einige hier gesteinigt, geteert und gefedert sehen möchten aber ich wäre für eine EU Begrenzung für die maximala leistungsaufnahme von Grakas(oder generell Computerkomponenten - je Einsatzgebiet).

Nicht weil ich Leistung bremsen will sondern um den technologischen Fortschritt zu fordern.
Ich halte eine Leistungserhöhung mit der Brechstange bis zur kotzgrenze nicht für das Mittel der Wahl. Kann man freilich machen für Wettbewerbe, also in "einzelfällen", mit Trockeneis o.ä.
Aber für die Serienfertigung im Privatbereich muss das nicht sein. Sollte es auch nicht sein.

Und in anbetracht derart verfehlter Klimaziele(CO2 Senkung bis 2030 LOL) darf sowas auch nicht sein.
Bin generell dagegen so spezifische Anforderungen zu stellen. Wenn die Lösung dann ist, zwei Grafikkarten in den Rechner zu stecken mit den deutlichen Effizienzverlusten gegenüber einer Großen, ist auch Keinem geholfen.
Für mich reicht es/würde es reichen wenn ein Leistungslimit gesetzt werden kann (bzgl. die Möglichkeit dazu muss verpflichtend sein) und Frequenzverhalten/erwartbare Leistung zu Leistensaufnahme für verschiedene Stufen in % von Nennleistung muss dokumentiert sein (z.B. 70% Rechenleistung bei 50% der Leistungsaufnahme).
Es ist ja außerdem nach wie vor nicht so, als gäbe es keine Grafikkarten mit geringerer Leistungsaufnahme. Und effizienter werden sie von Generation zu Generation auch.
 
  • Gefällt mir
Reaktionen: Newbie_9000, Innocience, schneeland und eine weitere Person
Darken00 schrieb:
wohl bald einen größeren Standard als ATX.
Und den nennen wir dann CTX.
BTX ist ja schon vergeben
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Könnte mal jemand mit Mathe-Skills versuchen, den technologischen Fortschritt zu berechnen? Wenn ich für die doppelte Leistung doppelt so viel Strom brauche, ist es ja quasi gar kein Fortschritt, oder? Das müsste man mal im Verhältnis zu den vorhergehenden Generationen auswerten.
 
  • Gefällt mir
Reaktionen: Illithide
Dagegen sieht meine MSI RTX 3080 Suprim wie eine Babykarte aus 😂😂😂
 
  • Gefällt mir
Reaktionen: The Azazil
Zurück
Oben