Test GeForce RTX 3090 Ti im Test: Ein Blick in die Zukunft

cookie_dent schrieb:
Aber hier wurde gerade gezeigt das schon die Wärmeabfuhr von ca. 450W problematisch ist, wie soll man dann 700-800 Watt aus dem Gehäuse abführen?
Naja, in der Vergangenheit haben die Hersteller gerade bei ihren OC-Modellen ja generell immer übertrieben mit den Strombuchsen, u.a. sicher für Enthusiasten mit Custom WaKü oder für LN2-Overclocking.
Meine GTX 1080 hat bspw. 2x 8Pin --> max. 375 Watt - auch wenn ich das niemals aus der rausgeprügelt bekommen würde.

Wenn jetzt in den nächsten Jahren Modelle mit ab Werk 500+ Watt rauskommen, gehe ich davon aus, dass die Boardpartner ihren OC-Modellen mehr als einen 600-W-Stecker verpassen wollen.
 
Ich frage mich nach dem Lesen nur eines. Warum macht Nvidia sowas?
Die Karte ist ja völlig Sinn-befreit. Die Lautstärke ist katastrophal trotz des normal guten Kühlers, der Stromverbrauch bei 4k enorm, und für 4k ist die Karte auch gemacht
Völlig krank.

Falls das bei den next Gen Karten generell so ist setze ich garantiert aus.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
t3chn0 schrieb:
Perfekt, nachdem mal wieder mein Beitrag gelöscht worden ist, weil ich ja so böse war und aus Spaß einen "1st Comment" Blocker geschrieben habe, tippe ich nochmal die Kurzversion hier rein, nachdem ich gerade 10 Minuten lang einen Edit in meinen mittlerweile gelöschten Kommentar umsonst reingeschrieben habe, love it.
Wenn meiner einer was zu melden hätte, dann hätte ich auch diesen Post #59 von Dir gelöscht.
Allein schon wegen der Aussage : "Ampere war eine super Generation / weniger Verbrauch als erwartet" !

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Illithide und Inxession
Maxxx800 schrieb:
Die Lautstärke ist katastrophal [...]

lol, das hab ich ja ganz übersehen.... Das ist ja ein Witz! :D

Wobei ich das mit der XTXH so auch nicht auf dem Schirm hatte. Ohne WaKü machen solche Karten doch niemals Spaß?!

1648590483410.png
 
Wird Zeit für die nächste Generation.
Man sieht ja sehr deutlich, dass sowohl nvidia als auch AMD im Moment nur noch über die Brechstange weiter kommen.
Die Generation war gut, ist aber ausgereizt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna und Neubauten
So ein Armutszeugnis von einer Ti Version.
Zu laut, zu heiß, zu durstig zu wenig Mehrleistung gegenüber der 3090 und der 6900xt.
Die taugt nur für die "Gamerelite" mit "mir egal ich hab ja" Attitüde.

So ist das also wenn die Konkurrenz in Rot wieder da ist, hatte es fast schon vergessen;)
Bin mal gespannt was die 6950XT so bringt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
nukin schrieb:
Wieso ist laut dem Test eine 3080 mit Raytracing nur 13% schneller als eine 6800xt? Das kann doch niemals stimmen.
Ja genau ! Wieso 13% ?? Eigentlich sind es ja "nur" 12% !!

MfG Föhn.
Ergänzung ()

Wolfgang schrieb:
Die RX 6950 XT mag für Spieler die bessere Grafikkarte als die 3090 Ti werden, aber ich bin mir ziemlich sicher, dass die GeForce in Rasterizer-Spielen schneller sein wird
Nehm Dich beim Wort. Schau´n mer mal, dann seh´n mer schon ... ;)

MfG Föhn.
 

Anhänge

  • Bench RT.jpg
    Bench RT.jpg
    464,1 KB · Aufrufe: 188
  • 3090Ti Game 1.jpg
    3090Ti Game 1.jpg
    465,5 KB · Aufrufe: 201
  • 3090Ti Game 2.jpg
    3090Ti Game 2.jpg
    464,1 KB · Aufrufe: 183
  • 3090Ti Game 3.jpg
    3090Ti Game 3.jpg
    463,8 KB · Aufrufe: 182
  • 3090Ti Game 4.jpg
    3090Ti Game 4.jpg
    467,1 KB · Aufrufe: 178
  • 3090Ti Game 5.jpg
    3090Ti Game 5.jpg
    467 KB · Aufrufe: 174
  • 3090Ti Game 6.jpg
    3090Ti Game 6.jpg
    465,4 KB · Aufrufe: 175
  • 3090Ti Game 7.jpg
    3090Ti Game 7.jpg
    467,3 KB · Aufrufe: 184
  • 3090Ti Game 8.jpg
    3090Ti Game 8.jpg
    463,5 KB · Aufrufe: 184
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Inxession
Onkel Föhn schrieb:
Ja genau ! Wieso 13% ?? Eigentlich sind es ja "nur" 12% !!
Erstens bezieht sich nukin auf diesen Test und hier wurde 4K getestet, nicht FHD.
Zweitens impliziert die Formulierung, dass die 6800 XT auf 100 % zu normieren ist und dann sind es +13 % für die 3080.
 
  • Gefällt mir
Reaktionen: owned139 und Onkel Föhn
Beitrag schrieb:
Erstens bezieht sich nukin auf diesen Test und hier wurde 4K getestet, nicht FHD.
Zweitens impliziert die Formulierung, dass die 6800 XT auf 100 % zu normieren ist und dann sind es +13 % für die 3080.
Asche auf mein Haupt.
Solche "Probleme" wenn ich hätte, wäre ich "glücklich" ... ;)
Und ja, die 3080 ist bei meinem Beispiel keine 12% schneller, sondern die 6800 XT 12% langsamer.
Somit wendet sich das Blatt ganz klar ersichtlich ...

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Zum Test:
Wie immer ein schöner Test, der die meisten Aspekte gut beleuchtet, weitere Temperaturen vom Mainboard/SSD/CPU wären durch den Hitzestau von Interesse gewesen.
Ist der absolute Wahnsinn, dass ein "normaler" Midi-Tower plötzlich nicht mehr ausreicht.

Kann es gar nicht erwarten, wenn die ersten Leute ihr Mini-ITX Gehäuse mit der Karte upgraden - heiße Sache.


heroesgaming schrieb:
Offenbar sehen die Hersteller derzeit keine andere Möglichkeit, um 4K-Gaming endlich in den "Mainstream" zu bringen - immer vorausgesetzt, dieser "Mainstream" besitzt High-End-Netzteile :D

Eventuell haben die Karten auch ne krasse Hashrate, für Miner spielt der Verbrauch nur eine untergeordnete Rolle.
Insgesamt wird es in der 4000er Reihe sicherlich trotzdem irgendne Karte um ~300Watt geben, die wird es dann für mich, viel mehr Abwärme ertrage ich nicht.

Oder es werden echte Gamingkarten, denn 600W bei "normaler" Hashrate sind für viele Miner dann auch wieder nicht attraktiv ;D

Naturtrüb schrieb:
Insofern liegt die Lösung auf der Hand: Komplette Sortimente einfacher, billiger, aufeinander abgestimmter WaKü-Komponenten: Vorkonfigurierte AGB-Pumpeneinheiten, vorkonfigurierte Schläuche mit Fittingen bzw. Schnellkupplungen, vorkonfigurierte Radiatoren mit montierten Lüftern.

Ich will in meinem PC kein Wasser, wenn es nicht mit Luft leise kühlbar ist, wird es einfach nicht gekauft und ich hoffe und denke, dass noch einige Kunden so denken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: El Manu
@Onkel Föhn Du hast jedenfalls gezeigt, daß Du ein Förderer des Forums bist. Eigentlich gehört ein Palmwedel oder ein Lorbeerkranz hinter Deinen Avatar angeheftet...
 
  • Gefällt mir
Reaktionen: Illithide und Onkel Föhn
Skjöll schrieb:
@Onkel Föhn Du hast jedenfalls gezeigt, daß Du ein Förderer des Forums bist. Eigentlich gehört ein Palmwedel oder ein Lorbeerkranz hinter Deinen Avatar angeheftet...
Bin stets bemüht (hab ich sogar in 10 facher Ausfertigung / Zeugnis) ... :D

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Skjöll
cookie_dent schrieb:
Aber hier wurde gerade gezeigt das schon die Wärmeabfuhr von ca. 450W problematisch ist, wie soll man dann 700-800 Watt aus dem Gehäuse abführen?

Vollbestückung ist neue Voraussetzung, zusätzlich alle (6+) Lüfter dauerhaft auf 100% laufen lassen, easy.
Vorteil ist auch, dass sich die Lautstärke der GPU dann gar nicht mehr vernünftig messen lässt :D
 
Meine erste Grafikkarte war die Riva TNT2. Deren Verbrauch gilt es zu erreichen. Wer wettet? Müsste ja bei der heutigen Technologie ein Klacks sein...
 
  • Gefällt mir
Reaktionen: Onkel Föhn
heroesgaming schrieb:
Die Ära des Define ist zu Ende ... das Zeitalter des Open-Air-Betriebs hat begonnen!

Aber mal im Ernst, Airflow-Gehäuse ohne dedizierten Staubfilter wie das Lancool II Mesh, Phanteks P500A oder O11 Air Mini scheinen zeitgemäß :D
mein Air Mini hat in der Front einen zusätzlichen Filter bekommen. für ohne hab ich trotz viel und bald täglichen putzen zu viel Staub in der Butze...


ich persönlich finde den Adapter bescheuert. das Teil ist zudem unpraktisch unflexibel und hässlich wie die Nacht...
 
nein... einfach nur nein....

600€ preisaufschlag...
extremer stromverbrauch...
bei extremer lautstärke...

hab ich noch was vergessen?
dat ding können die behalten
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Die Grafikkarte richtet sich laut Nvidia an den Enthusiasten-Spieler und an Content-Creators mit den höchsten Anforderungen inklusive „8K-Gaming“.

"8K-Gaming", so ein Huang'scher nVidia Marketingschmarrn, davon ist auch die RTX 3090Ti meilenweit entfernt, vielleicht reicht es ansatzweise fuer 5K, mehr aber auch nicht bei gerade einmal 10% Mehrleistung gegenueber einer RTX 3090 (unter normalen, nicht EVGA Kingpin Modell-Bedingungen, welche theoretisch mit mehr als 1200W angebunden sein soll aufgrund von zwei 16-Pin Steckern).

Ich bezweifle auch, dass eine RTX 4090(Ti) uneingeschraenkt 8K-Gaming wird leisten koennen, denn dazu sind die Anforderungen zu hoch, RT-Raytracing nicht einmal ansatzweise ausgereift und die Anforderungen von Spielen (ob nun resourcen- oder programmiertechnisch gerechtfertigt oder nicht) steigen auch staendig und werden dieses auch in Zukunft tun trotz DLSS, FSR, XeSS, Infintiy-Cache, usw.

Die RTX 3090Ti Karten sind nur als technische Einschaetzung im Hinblick auf kommende Lovelace Karten interessant wie schon eine Weile bei Igor's Lab als erstes nachzulesen oder anzusehen:


Trotzdem ist natuerlich der Testaufwand, der hier betrieben wurde aller Ehren wert, auch wenn die GPU an sich unsinnig ist so kurz vor dem gemunkelten Ada Lovelace Start im September diesen Jahres, gibt es bestimmt einige wenige, die sich so eine RTX 3090Ti anschaffen werden, ob nun aus technischer Neugierde oder um damit hausierend/prahlend das eigene Selbstwertgefuehl steigern zu koennen.

Sinnvoll ist so eine RTX 3090Ti Anschaffung aktuell mitnichten, auch wenn bei den Lovelace GPUs schon ein deftiger Preisanstieg sich abzeichnet, wenn man bedenkt wie die nVidia RTX 3090Ti Founder's Edition jetzt preislich angesetzt wurde, aber angeblich soll die neue GPU-Generation ja Leistungsverdoppelung in einigen Bereichen bieten, das wohl auf Kosten der Effizienz (auch wenn man versuchen wird sich den Energiehunger ueber die Mehrleistung schoen zu rechnen, zumal die Konkurrenz in Form von RDNA3 da vermutlich um einiges effizienter unterwegs sein duerfte, wenn wahrscheinlich auch noch hungriger als bei RDNA2 oder Ampere aktuell).

Bezueglich der sich ankuendigenden neuen dGPU-Hoechstpreise bzw. dem, was der Markt hergibt, duerften
sich als nVidia und AMD/RTG jetzt schon einig sein.

Es fragt sich nur wie viel der echten Kundschaft/urspruenglichen Zielgruppe - also abseits von Scalpern, Kryptominern, Abzockhaendlern, Early Adoptern und Hobbyenthusiasten - diese Entwicklung finanziell per Kauf absegnen werden?

Vorstellen kann ich mir sehr gut, dass dieses in einer neuen Ausstiegswelle bzw. einem verstaerkten Exodus zu Konsolen hin muenden wird, da das Ganze preis-leistung-technisch immer unsinniger/weniger zu rechtfertigen wird fuer viele Gamer.

Ob das auch auf die Lust - sich ueber diese unsinnigen bepreisten Produkte hier und anderweitig zukuenftig zu informieren - umschlagen wird, wird man sehen muessen (ich hoffe ja nicht und vielleicht erwaegt man ja leistungsunabhaengige Effizienz neben dem veranschlagten Preis mit in die Produktbewertung mit auf zu nehmen, m.E. schon lange ueberfaellig)?

Die Gier der daran beiteiligten Unternehmen und Einzelpersonen ist leider ein wenig besorgniserregend und die Bodenhaftung scheint zunehmend verloren zu gehen in dem Bereich, was die Entwicklung zu immer energiehungrigerer Hardware und immer hoeheren Preisen (die einem normalen Nutzprofil/den Marktbeduerfnissen der Mehrheit immer weniger entsprechen auf der staendigen Jagd nach den laengsten Balken und um jeden Preis); dGPUs sind da das Vorzeigebeispiel, aber Entwicklung und Verkauf immer abstruser ausgestatteter Mainboards, immer frisierterer CPUs, usw. - die dann auch noch hier und da abgesegnet werden und nur fuer eine kleine Nische passend sind und komplett am Bedarf der grossen Mehrheit vorbei entwickelt werden - komplettieren das Bild.

Es bleibt die Hoffnung, dass Intel sich zumindest anfaenglich etwas von dieser Preis- und Kundenpolitik als Neueinsteiger im Gaming-dGPU Markt abkoppeln wird, aber wie viel man dann sparen wird im Vergleich zu nVidia und AMD/RTG Produkten und welche technischen Nachteile man anfaenglich dafuer in Kauf nehmen wird, bleibt natuerlich abzuwarten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging und Onkel Föhn
Zurück
Oben