News GeForce RTX 3090 Ti Suprim X: MSI bändigt bis zu 480 Watt mit 2,1 kg im 3,5-Slot-Design

Eine 4090 mit 400 Watt in 6 Monaten wirkt dann nicht mehr so brutal, wenn man mit der 3090TI bereits so vorlegt.
 
Ich hab mir grad so noch gedacht, dann können wir doch zukünftig einen Kühlschrank als Rechnergehäuse verwenden, nur passt der nicht auf einem Tisch rauf.
 
LäuftBesser2000 schrieb:
Das war's ich bin raus.
Ach was! 🙄Mensch, wie KNAPP warst Du denn davor, eine 3090Ti zu bestellen? ;)
 
  • Gefällt mir
Reaktionen: Kommando
XPS schrieb:
Schön das du sowas für "andere" Beurteilen kannst...meine 3090 mit 420W TDP ist schon seit Release zu langsam und ich hoffe sehr das da mit der 4000er Serie wieder nen Kleiner Sprung kommt richtung 4K @165Hz
dann bist du echt ein Spezialfall wenn du solche Anforderrungen hast. Die meisten verdienen nicht mal im Monat soviel was so eine Karte kostet
 
  • Gefällt mir
Reaktionen: The Azazil, Tritom73 und Zibbe
bondage game schrieb:
dann bist du echt ein Spezialfall wenn du solche Anforderrungen hast. Die meisten verdienen nicht mal im Monat soviel was so eine Karte kostet
Ich habe diese Anforderung auch bereits für UWQHD, denn Kingdom Come Deliverance mit Ultra Settings aus 2018 (released als die 1080Ti die beste GPU war) knechtet eine 3090 dort bereits auf 50-70 fps runter.

Und man muss auch nicht das Monatshgehalt ausgeben, es gibt da diesen Trick, nennt sich sparen und dazu die alte Hardware verkaufen.

Kenne genug, die sich alle 2 GPU Gens ein neues System kaufen und dafür 50 Euro Hobbygeld sparen monatlich.
Sind 2400 Euro alle 4 Jahre plus Erlös der Althardware, also bis zu 3000 Euro.

Spezialfälle sind alle Enthusiasten immer, und hier in Computerbase gibt es davon mehr als woanders, das ergibt sich aus der Thematik hier ;)
 
  • Gefällt mir
Reaktionen: Chri996 und Maggolos
man könnte natürlich auch sparen das ist klar. Aber das ist ein Luxus problem so viel Geld für eine karte geschweige einen pc aus zugeben
 
  • Gefällt mir
Reaktionen: Laphonso
Braucht ne 500w GPU wirklich ein 1000w NT?
Ich mein wenn man Furmark + Cinebenchr23 (was halt nicht dem Alltag entspricht) laufen lässt erreicht man max. 750w mit den "Standard CPUs" oder vergesse ich hier etwas?
 
30% höhere Verbrauch für wie viel Mehrleistung? 5%?

Die Karte wird man wohl nur in einem gut klimatisierten Raum betreiben können, sofern nicht gerade Winter ist.
 
  • Gefällt mir
Reaktionen: Tritom73
Caramelito schrieb:
Braucht ne 500w GPU wirklich ein 1000w NT?

Die GPU nicht aber das ganze System braucht ein 1.000 W Netzteil.
Ist ja nicht so, dass die (entsprechend potente) CPU und die anderen Komponenten im System nichts verbrauchen
 
  • Gefällt mir
Reaktionen: Laphonso
Musste kurz aufs Datum schauen, dachte wir hätten schon den 1. April.
 
Zibbe schrieb:
Fast Jährlich kommen neue Spiele raus die wiederum verlangen neue Grakas die dann neue Hardware verlangen weil ja die Grafik so geil ist und spätestens alle 5 Jahre ein neuer Rechner sein muss.
Die Halbwertzeit von Hardware war vor 55 Jahren noch in der Kategorie von 20 bis 30 Jahren ( meine Jugend) heute ist schon etwas veraltet wenn du es aus dem Laden trägst.
Das ist doch Blödsinn im PC-Bereich. Vor 55 Jahren (1967) sind Computer erschienen, die man 1987 - 1997 noch für neue Spiele nutzen konnte?

Und besonders im PC-Bereich sind die Mindestanforderungen früher deutlich schneller angestiegen als heute, im Grafikkartenbereich natürlich ab dem Start der "3D-Beschleuniger".

Früher war eine 2 - 3 Jahre alten Grafikkarte aber bereits komplett mit neuen Spielen überfordert, nicht nur in hohen Auflösungen:

Ultima IX erschien im Oktober 1999, die Voodoo 2 war da noch keine zwei Jahre alt:

Schon um mehr als 15 Bilder pro Sekunde rendern zu können, musste mindestens ein Grafikchip vom Typ 3dfx Voodoo² (SST-2), besser noch zwei im SLI-Verbund, oder eine Grafikkarte mit Nvidia Riva TNT oder TNT 2 im System seine Arbeit verrichten.
https://www.computerbase.de/2020-05...geber/#abschnitt_minimale_systemanforderungen


Heavy Metal FAKK2 brauchte bei erscheinen im August 2000 mindestens eine Riva TNT2 (erschienen März 1999) oder eine Voodoo 3 (erschienen Mitte 1999)... selbst eine zwei Jahre alte Highend-Grafikkarte reichte nicht für die Mindestvoraussetzungen.

Anhang anzeigen 1055017


Sacrifice im November 2000 dieselben Mindestvoraussetzungen. Auch hier sah man mit einer zwei Jahre alten Grafikkarte alt aus:

Anhang anzeigen 1055018

Für das im Dezember 2000 erschienene Citizen: Kabuto brauchte man nur eine Riva TNT (erschienen Mitte 1998) oder eine Voodoo 2 (erschienen Anfang 1998)... aber auch hierfür hätte eine drei Jahre alte Grafikkarte schon nicht mehr gereicht:

Anhang anzeigen 1055019

Bei Aquanox reichte im November 2001 weden eine TNT2 noch eine Voodoo3 mehr aus, eine gerade zwei Jahre alte Geforce war das Minimum:

Anhang anzeigen 1055020

Wenn man sich mit 1080p-Auflösung begnügt und nicht alle Regler auf Maximum dreht, reicht auch heute noch für jedes Spiel eine sieben Jahre alte GTX 980 Ti (selsbt eine Performance-Katastrophe wie ELEX 2), für fast alle Spiele-Neuerscheinungen sogar eine noch ältere GTX 970/980 oder eine über acht Jahre alte R9 290/290X.

Die meisten Spiele skalieren so gut runter, dass z.B. Cyberpunk 2077 / Control in 720p selbst auf dem noch schwächeren Steam Deck gut spielbar sind... mit 15 Watt für den SoC und max. 25 Watt insgesamt.

Die Nutzungsdauer einer Grafikkarte ist heute länger denn je und kommt an die Dauer einer Konsolengeneration heran. Techniken wie DLSS, FSR 2.0 und XeSS verlängern die Nutzungsdauer von kompatiblen Grafikkarten noch weiter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitec, UweW., bensen und 3 andere
Interessanter Artikel. Ich erkundige mich gerne immer mal wieder was sich so im Bereich neuer Grafikkarten entwickelt. Und da ist so einiges passiert seit ich meine msi rtx 3080 gaming x trio für fast UVP ergattern konnte. War erst ein wenig neidisch als noch performantere modelle rauskahmen. Aber im endeffekt kann ich auch alle spiele in nativem 4k und mindestens 60 fps auf ultra einstellungen spielen (notfalls dank dlss). Dat dingen frisst schon so ohne ende strom und entwickelt wärme. Ich seh nicht den Grund warum man sich so ein monster anschaffen sollte. Vor allem bei den jetzigen preisen.
 
user_zero schrieb:
Könnte mal jemand mit Mathe-Skills versuchen, den technologischen Fortschritt zu berechnen? Wenn ich für die doppelte Leistung doppelt so viel Strom brauche, ist es ja quasi gar kein Fortschritt, oder? Das müsste man mal im Verhältnis zu den vorhergehenden Generationen auswerten.

Wenn du mit 350 Watt 100% Leistung hast (3090)
Und nun mit zb 525watt nun 200% Leistung hast,
Hast du für 50% mehr Strom aber 100% mehr Leistung.
Also einen erheblichen Fortschritt.

Hast du hingegen für 8% Mehrleistung rund 80% mehr Verbrauch (aktueller Intel 12900 vs. Amd 5950 im multicore) hast du ein Brechstangen Produkt mit lächerlich schlechter Effizienz
 
  • Gefällt mir
Reaktionen: boypac007, user_zero, Tritom73 und eine weitere Person
bekomme langsam aber stätig das Gefühl, dass wir eine gewisses Leistungsobergrenze erreicht haben, welche sich nur noch mit Brechstange ein wenig weiter hinauszögern lässt
 
  • Gefällt mir
Reaktionen: The Azazil
Zibbe schrieb:
Die Halbwertzeit von Hardware war vor 55 Jahren noch in der Kategorie von 20 bis 30 Jahren ( meine Jugend) heute ist schon etwas veraltet wenn du es aus dem Laden trägst.

Das ist ernsthaft Quatsch.
Damals gab es noch keine PCs, mit denen Spielen möglich war.
Oder meinst Du 40 Jahre?
Ich hatte meinen ersten PC im Jahr 1984, mit 21 Jahren.
Und seitdem habe ich alle 2-3 Jahre einen neuen.
Ausnahme Sandy Bridge - die CPU hatte ich 7 Jahre im Einsatz (aber die GPUs alle 2 Jahre gewechselt)
 
  • Gefällt mir
Reaktionen: Cohen
Bei Nvidia gelten ab der 1000-er Reihe, die ersten 3 Zahlen für die anvisierte max. Leistungsaufnahme:

1060-1080ti - 100-200 W
2060-2080ti- 200-300 W
3060-3090ti- 300-400 W
4060- 40XX- 400-500 W

ganz einfach :D
 
  • Gefällt mir
Reaktionen: Charvester, Dittsche, Aduasen und 5 andere
hamju63 schrieb:
Damals gab es noch keine PCs, mit denen Spielen möglich war.

Es ist wohl die Zeit um 1990 gemeint. Und die ersten Daddel Kisten kamen so um die Anfangsjahre der 80er auf. Zum Ende der 80 erschien der legendäre A500. Wer schon etwas länger dabei ist dem dürften Geräte aus der Zeit noch sehr gut bekannt sein. Ja war eben anders.
 
Artikel-Update: Bis zu 10 Prozent schneller als eine GeForce RTX 3090
Die GeForce RTX 3090 Ti mit 10.752 CUDA-Kernen soll in 4K durchschnittlich bis zu 10 Prozent schneller sein als eine GeForce RTX 3090 (Test) mit 10.496 Recheneinheiten, wie die Macher von CapFrameX jetzt berichten.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Bei einer Leistungsaufnahme von bis zu 450 Watt erreicht die GeForce RTX 3090 Ti dabei einen Boosttakt von bis zu 2 GHz und soll eine GeForce RTX 3090 mit einem ebenfalls auf 450 Watt erhöhten TDP-Limit lediglich um 5 Prozent schlagen können.

[Embed: Zum Betrachten bitte den Artikel aufrufen.]

Dass die Luft an der Spitze dünn wird und die Effizienz am Ende leidet, ist aber nichts neues. Damit war auch bei der GeForce RTX 3090 Ti durchaus zu rechnen. Der UVP respektive MSRP soll derweil bei 1.499 US-Dollar zuzüglich Steuern liegen und dem der GeForce RTX 3090 entsprechen.

Kanadische Händler listen die ersten Custom-Designs der GeForce RTX 3090 Ti indes für rund 3.600 bis 4.150 US-Dollar, wie der Twitter-Nutzer @momomo_us berichtet.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: Aduasen, Onkel Föhn, McTheRipper und eine weitere Person
Lohnt sich ja voll wa.
 
  • Gefällt mir
Reaktionen: Yesman9277, Beitrag, v_ossi und 4 andere
Zurück
Oben