Test GeForce RTX 3090 Ti im Test: Ein Blick in die Zukunft

Für 2250€ baute man sich vor paar Jahren noch einen absoluten Highend Rechner zusammen mit der stärksten NVIDIA Karte. Jetzt bekommt man dafür gerade mal die GPU :P Auf NIVIDIA und ihrer Preispolitik ist einfach verlassen, mit jeder neuen Karte wird der UVP ordenttlich nach oben geschraubt und viele Leute sind dumm genug und kaufen es auch noch. Die RTX 40xx Reihe wird mit Sicherheit an die 3000€ kratzen, da bin ich mir mittlerweile sehr sicher.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und lutzpime
Hatsune_Miku schrieb:
hahaha knapp 170W mehr in 2160p als meine 6900xt, wofür ? für ne Handvoll FPS mehr. Im leben nicht, Egal wie man es dreht und wendet, Bis auf die 6500XT hat AMD in meinen augen das durchweg bessere Portfolio in der aktuellen Generation.
Muss ehrlich gestehen, ich habe die Karte bis jetzt eigentlich immer nur für einen Gag gehalten.
Die 3090TI ist in der Tat Murks.
Und ja, AMD hat ein nettes Portfolio in dieser Gen.

Das AMD in dieser Gen. aber "durchweg das bessere Portfolio hat" ist Quatsch.
Und nicht weil ich irgendwie ein Nvidia Fanboy bin oder so, sondern einfach mal grober Quatsch.
 
  • Gefällt mir
Reaktionen: owned139, Illithide und Pisaro
@CrustiCroc
Einzig die 3050 ist im vergleich zur 6500xt besser, ansonsten ist es andersrum.
Am meisten schiesst aber nvidia den Vogel mit der 3090TI und der 3070TI ab, minimal mehrleistung als die non TI varianten, aber ein nicht wegzuredener mehrverbrauch. So oder so empfinde ich persönlich das 30x0er lineup als das schlechteste was je von nvidia kam. Mal die seltsamen Vram verteilungen ausgeschlossen. Obwohl was ich mit am bescheuertsten finde ist die 3080/TI 10/12GB aber die Notebook variante gibts mit 16GB.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Illithide
CrustiCroc schrieb:
Das AMD in dieser Gen. aber "durchweg das bessere Portfolio hat" ist Quatsch.
imo haben sie aber auf jeden Fall das rundere Portfolio.

Ich würde gerne mal von Herrn Lederjacke persönlich hören, wie er verteidigt, warum eine RTX 3060 12 GB VRAM hat, während
  • eine RTX 3060 Ti nur 8 GB
  • eine RTX 3070 auch nur 8 GB
  • eine RTX 3070 Ti auch nur 8 GB
  • eine RTX 3080 nur 10 GB
und eine RTX 3080 Ti gerade mal gleich viel VRAM wie das zweitkleinste Modell der Serie hat.

Insbesondere die 70er Karte ist mit 8 GB imo einfach ein Witz. Sehr schade, da die 70er Karten für viele User immer der Sweet Spot waren.

Performance und VRAM-Größe sind bei den Karten in AMDs Portfolio imo viel besser aufeinander abgestimmt.
Der einzige Schandfleck in deren Portfolio ist die 6500 XT.
 
  • Gefällt mir
Reaktionen: downforze, Beg1, Revan1710 und 7 andere
Beitrag schrieb:
Ich würde gerne mal von Herrn Lederjacke persönlich hören, wie er verteidigt, warum eine RTX 3060 12 GB VRAM hat, während
  • eine RTX 3080 nur 10 GB
Dir ist wohl entgangen das es die RTX 3080 auch mit 12GB VRAM gibt.
 
Paradox.13te schrieb:
Dir ist wohl entgangen das es die RTX 3080 auch mit 12GB VRAM gibt.
Nvidia fängt für jede 2-3 % FPS ne neue SKU raus zuhauen 3080 10G , 3080 12G, 3080 Ti, 3090 , 3090 Ti.
Fünf Modelle . Davon kann man direkt drei streichen . Die 3080 hätte man von vorne rein mit 12 GB bringen sollen und die 3090TI statt der 3090 als quasi TITAN Version um zu zeigen was technisch möglich ist in dieser Ampere Gen .
Die restlichen SKUs sind unnötig.

Alles in einem ist aber die Ampere und RDNA2 Gen was den Leistungssprung geht gelungen. Klar Effizienz nein . Aber wer sich jetzt ne flotte RDNA2 oder Ampere geholt hat (bzw. Glück hatte und UVP gezahlt hat ) und zB den technisch sinnvollsten Monitor (WQHD 144Hz) bedient, der hat erstmal die nächsten 5 Jahre Ruhe .
 
  • Gefällt mir
Reaktionen: Recharging, Onkel Föhn und Dittsche
Wenn das die gaming Zukunft ist dann sehe ich nebst dieser Zukunft einige, welche sich nen zweitjob suchen müssen um die karte sowie auch die Stromrechnung bezahlen zu können.

das muss man sich mal auf der Zunge zergehen lassen.... € 2200. - das ist genau das was manch einer netto pro monat verdient.

ich bin sicher das sich mit erscheinen der 4xxx er Generation die Preise nochmal deutlich anheben.
 
  • Gefällt mir
Reaktionen: downforze, Beg1, Onkel Föhn und 2 andere
Völlig Wertfrei: Was viele vergessen haben ist, dass der Stromverbrauch bei GPUs konstant nach oben gegangen ist, historisch gesehen.

Bedingt durch die stark steigenden Anforderungen: RayTraycing, 4K, 144 Fps etc.

Neben der "Brechstange" muss man halt auch die Flut von deutlich mehr Speicherchips und neuen Einheiten (z.B. RT) versorgen.

Die Entwickler schrauben ja heute an jeder Stelle, damit es möglich bleibt, größeren Fortschritt zu erlauben siehe auch DLSS.

Meines Erachtens ist der Peakpoint, wenn sich die Mittelklasse nicht mehr mit AiOs bändigen lässt. Dann gibt es irgendwann wahrscheinlich verstärkt Cloud-Gaming, wegen des P/L.

@catch 22

Volle Zustimmung und gute Erwähnung, dass man den Materialaufwand einmal aufschlüsseln soll. Ist schon Brutal.
Frage mich auch, ob sich dann beim wem auch wirklich Mal das Mainboard durchbiegt :D
Brüller wie die 3070 Noctua Edition (https://www.computerbase.de/2021-10/asus-geforce-rtx-3070-noctua-review-test/) sind dann wohl der neue Standard.
Eventuell sogar noch im 3-Lüfter Design.
 
Zuletzt bearbeitet:
Eine kleiner Fehler im Beitrag: "In Deathloop ist die GeForce RTTX 3080 Ti zum Beispiel 15 Prozent schneller, ..."
 
Pain_Deluxe schrieb:
OC ist doch mittlerweile uninteressant.... Die 3XXX er Karten sind super für UV.

Meine 3080 macht bei 0,850v und Maximal 280w (OEM sind 320) sogar ein Leistungsplus...

Bei 0,750V sinds maximal 240 und man bußt nur paar Prozent ein.

Das würde ich in den neuen Tests auch gerne sehen. Ich denke NV könnte das auch vom Werk aber dann wär der Ausschuss höher
Das war auch mein Gedanke..Bin kürzlich auf ne 3080 umgestiegen und hab ganz schnell Artikel zum Thema, Undervolting und wie man teils bis 100Watt sparen kann, gefunden.
So gesehen sind die 450Watt schon krank, aber gibt sicher Möglichkeiten das auch effektiv zu senken, ohne großen Leistungsabfall erdulden zu müssen.
Generell find ich das das Gehype um mehr Leistung in den letzten Jahren eher peinlich. Ohne mich wirklich auszukennen scheint mir Innovation bei den Herstellern seit Jahren fremd. Die Karten sehen alle gleich aus und die bessere Leistung wird nur aufgrund eines größeren PCB(?) und mehr Stromhunger erzielt. Das kann, eher sollte, nicht die Lösung sein.

Nicht auszudenken was passieren würde, wenn Greta sich jetzt die bösen Energievampire Gamer vornehmen würde. ;)
 
michimii schrieb:
Nicht auszudenken was passieren würde, wenn Greta sich jetzt die bösen Energievampire Gamer vornehmen würde.
Ich glaube, wir sollten uns da nicht zu sehr überschätzen. ^^
Soo viel kommt da bei den meisten Usern am Ende gar nicht rum - so viel Zeit verbringen die meisten Karten nicht unter Volllast, ich denke, der (weltweite) Stromverbrauch durch Gaming ist nichts im Vergleich zu dem von Mining.

Das größere Problem ist imo, dass so eine 500 Watt Heizung im Sommer nicht gerade angenehm ist und wegen der fetten GraKa 'ne Klimaanlage anzuschaffen wäre dann doch etwas dekadent (und kostspielig).
Ergänzung ()

Wlkir100 schrieb:
Alles in einem ist aber die Ampere und RDNA2 Gen was den Leistungssprung geht gelungen. Klar Effizienz nein .
AMDs Karten, ganz besonders die 6800, sind auch bei der Effizienz sehr gelungen.
 
  • Gefällt mir
Reaktionen: Wlkir100, Onkel Föhn und Inxession
Ko3nich schrieb:
Für CB ein Blick in die Zukunft, für mich eher in eine dunkle Vergangenheit.
Also, so extrem war es eigentlich nie, auch wenn man damals Hitzköpfe hatte.

Ein Pentium 1 bis 3 verbrauchten zwischen 20 - 50 Watt, die Grafikkarten verbrauchten auch anfangs relativ wenig und erst mit T&L und später den Shader nahm es zu, aber die Grenzen waren immer so 100 Watt und langezeit bei Grafikkarten auch bei 100 Watt, und steigerte sich dann aber irgendwie war oft bei 300 Schluss.

Das jetzt ist schon eine neue Hausnummer.
 
SJAFNWEIF schrieb:
Das im Test verwendete Gehäuse ist aber auch ein besonderer Fall. Das hat sehr viele geschlossene Flächen und nur wenige Öffnungen, dadurch ist die Belüftung unabhängig vom grundlegenden Design (unnötigerweise) nochmals viel schlechter. Temperaturen und Lautstärke wären schon deutlich besser, wenn man einfach die Front und den Deckel entfernt. Mit dem P500A und P600S hat Phanteks sogar Gehäuse mit praktisch identischem (?) Innenaufbau im Angebot, bei denen Front und Deckel viel offener sind (Mesh), das wäre also auch kein furchtbar unrealistisches Szenario.

Ändert aber nicht so viel daran, dass die GPU immer in der toten Zone hängt, aufgrund des Designs nur Top-Blow-Kühler haben kann und die Befestigungsmechanik auch an ihre Grenzen stößt.
 
Nvidias aktuelle High-End-Modelle sind klobig, stromhungrig, heiß und laut, aber auch leistungsstark. Technisch finde ich sie alles andere als überzeugend. Bin auf der Suche nach einer Nachfolgerin für meine GTX 1080Ti FE. Da sie ins Ghost S1 hineinpassen soll, darf sie nur ein Zwei-Slot-Design haben. Außerdem sollte die TDP irgendwo bei ca. 250 Watt liegen, um die Hitze überhaupt abführen zu können. M.E. käme dann wahrscheinlich am ehesten eine zukünftige GTX 4060 in Betracht, die GTX 4070-Serie dürfte zu voluminös und hitzig werden. Mal sehen, ob sich da ein Umsteigen überhaupt lohnen wird.
 
Naitrael schrieb:
Ändert aber nicht so viel daran, dass die GPU immer in der toten Zone hängt, aufgrund des Designs nur Top-Blow-Kühler haben kann und die Befestigungsmechanik auch an ihre Grenzen stößt.
Wenn man alle anderen PCIe-Slots aufgibt, wäre theoretisch auch ein Tower-Kühler für die GraKa möglich.
Ansonsten braucht es eben WaKü oder eine Karte mit Radiallüfter für 'nen vernünftigen Airflow, aber letztere sind ja pe se nicht so das gelbe vom Ei.

Ich denke, ein Gehäuse mit Lüfter an der Seite würde auch viel bringen, aber viele haben da heute ja Glas.
 
Mehr als eine 65W CPU und 120..150W Graka stell ich mir nicht in die Bude. Bei der ollen AMD 580 muss ich schon die Kette anlegen mit -25% powerlimit sonst merk ich es deutlich; an den kommenden Sommer mag ich noch garnicht denken.

Die in dem Artikel genannten Zahlen sind für mich vom Mond.
Wer sich sowas zulegt kann gleich noch eine kleine Klimaanlage mitkaufen, nur um die Hitze aus der Wohnung zu schaufeln.
 
Zuletzt bearbeitet:
Wie hieß es bei der V7 damals "Zu laut, zu langsam und zu teuer"

Die Überschrift ist richtig nett, die Karte an sich eine überteuerte Machbarkeitsstudie.

Es fällt mir schwer positive Aspekte zu finden.
Der exorbitante Stromverbrauch rechtfertigt die geringe Mehrleistung in keinster Weise.

Zum saftigen GPU Preis muss man wahrscheinlich mit neuem Netzteil Planen.
Weitere Hardware für den Airflow kommt wahrscheinlich auch noch on Top.


Mir gefällt die Entwicklung nicht.
Mir wäre lieber die Hersteller trimmen auf Effizienz und holen sich die Spieleschmieden ins Boot um die Engines darauf auszulegen.

RX 6800 was bist du nur für eine geile Karte.
 
  • Gefällt mir
Reaktionen: Recharging und Onkel Föhn
Zurück
Oben