News „GeForce RTX 3090 Ti“: Nvidias schnellste RTX-Karte bekommt 21 Gbps GDDR6X

ThirdLife schrieb:
Wer seine Karte out of the box Stock betreibt ist halt auch selber schuld.
Das ist schon eine rotzfreche und überhebliche Behauptung. Und hat nichts mit meinem Hinweis zu tun, zumal es mir nur um die recht genaue Einstufung der Refdesigns ging.

Wenns nach dem zitierten ginge, bräuchte die Welt ja keine Partnerkarten bzw keine mit Werks-OC. Weil ja auch das von jedem gemacht werden kann. Blöd nur, das die absolute Mehrheit der Käufer sich drauf verläßt, das die Hardware genau das macht, was die Werbung verspricht und eben nicht dran rumfummelt.

Und das man halt nicht auf ewig mit den damaligen 250W weit kommt, war Nvidia bestimmt schon lange klar.
 
Hmm, keine Ahnung....also ich habe da richtig Bock drauf =P. Vielleicht kann ich damit meinen 3090 Verkauf Fauxpas kompensieren (ja, auch mein Glied...=P).
 
Balikon schrieb:
Das tut doch die normale 3090 auch, sobald man RT aktiviert, oder sehe ich das falsch? Wüsste nicht, dass die 6900XT dieselbe RT-Leistung wie die 3090 hätte.
wenn du die „Leistung“ jetzt ausschließlich auf raytracing begrenzt dann ja.

dabei sind die 3090 und die 6900xt ja eigentlich keine direkten Kontrahente, wenn ich mir die UVP angucke. Eher die 3080ti.

Die 6900xt kommt halt nur erstaunlich oft an die 3090, je nach Auflösung auch gerne dran vorbei. Wenn ich mir die für das flüssige Gaming-Gefühl wichtigen Feametimes angucke, liegt die 6900xt gar immer vor der 3090
Selbst der 4K Thron wird ja immer öfters mal angeknabbert Und da führt die 3090 mit gerade noch 1%

Dazu meist bessere frametimes. Ach und der Verbrauch Ist da ja auch nochmal ne andere Liga.
Dazu gibt es alle paar Treiber nochmal mehr Leistung (mich würde mal ein aktueller vergleich interessieren)
Na und bei Titeln die nicht Nvidia Raytracing exklusiv sind, ist der er Abstand ja auch nicht Mehr so heftig wie anfangs bei Control und cp77 zb.

Also eigentlich ist die 6900xt in allen Belangen außer rt schneller oder gleich gut, mittlerweile selbst in 4K. wenn ich das dann in relation mit dem Verbrauch und Preis setze, hat rt für mich keinerlei Relevanz mehr. Ganz im Gegenteil zu DLSS

Edit: habe mir gerade mal die letzten drei getreten Games hier auf cb angeguckt, einfach die letzen drei Titel
Forza
Battlefield
cod
Da kann die 6800xt sich ja gar mit der 3090 anlegen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ben81 und VoAlgdH
Gelbsucht schrieb:
Das ist schon eine rotzfreche und überhebliche Behauptung. Und hat nichts mit meinem Hinweis zu tun, zumal es mir nur um die recht genaue Einstufung der Refdesigns ging.
Nö, ist es nicht. Wer sich nicht mit seiner Hardware beschäftigen will kann sich auch eine Konsole kaufen. Oder muss auch ein Server-OS für dich die einfachste Bedienung vorweisen können um gut zu sein ? Bist dann auch am mosern weil sich ein 5000€ Managed Layer 3 Switch net so toll mit Touch wie ein iPad steuern lässt ?

Es ist einfach nur faul wenn man sich nicht mit seinem Gelumpe auseinandersetzen will und dann auch noch drüber jammert. Du kannst nicht Auto fahren ? Kein Ding, nimm den Bus und moser nicht darüber, dass Autofahren so schwer ist und alle die meinen "lern fahren" noch als rotzfrech betiteln.

Gelbsucht schrieb:
Wenns nach dem zitierten ginge, bräuchte die Welt ja keine Partnerkarten bzw keine mit Werks-OC. Weil ja auch das von jedem gemacht werden kann. Blöd nur, das die absolute Mehrheit der Käufer sich drauf verläßt, das die Hardware genau das macht, was die Werbung verspricht und eben nicht dran rumfummelt.
Würde nVidia ihre FE Designs mit entsprechendem Powerlimit produzieren bräuchte es das in der Tat nicht. Die Karten unterscheiden sich ja in der Hauptsache durch eben jenes und evtl. mal mehr oder weniger bessere Kühllösungen. Für mich als Wasserkühler ist aber nur das Powerlimit interessant. Chipgüte ist beim zocken eher irrelevant, nur fürs Benchen. Ob die GPU jetzt 2130 Mhz packt oder 2175 macht am Ende vielleicht 0,2 fps aus. Ob ich aber 250 oder 450W reinpumpen kann macht meistens deutlich mehr aus - wenn auch straff absteigend ineffizient nach oben hin.

Gelbsucht schrieb:
Und das man halt nicht auf ewig mit den damaligen 250W weit kommt, war Nvidia bestimmt schon lange klar.
250W ? Das war aber auch nur das 0815 Referenzdesign. Selbst ne normale Strix lag bei 300W, die Strix OC bei 330W. Es ist jetzt nicht neu, dass mehr Bumm eben mehr Saft braucht. Und wie weit man das treiben möchte hat der Käufer in der Hand. Niemand zwingt einen zum Kauf. Holt man eine Stock 3080 mit 320W Powerlimit, dann hast ggü. der 1080 Ti Strix OC noch 10W eingespart auch Stock und dennoch 80% Mehrleistung.

Und wenn du jetzt noch "rotzfrech" die Karte auch noch minimal undervoltest kommst sofort in die 250er Range bei kaum Einbußen. Oder du holst dir halt eine 450W Karte und jammerst über die böse Welt. Auch ok. 😄🤷‍♂️
 
Zuletzt bearbeitet:
handy.dealer schrieb:
Da fange ich Mal an zu sparen.
Wird so um die 2500.- Euro kosten.....
Das wär ja ein Schnapper, hab gerade 3000 für ne normale 3090 bezahlt.
 
SirSilent schrieb:
Das wär ja ein Schnapper, hab gerade 3000 für ne normale 3090 bezahlt.
Als ich Deinen Post gelesen habe, sah mein Gesicht so aus wie dein Avatar Bild 😂
 
  • Gefällt mir
Reaktionen: Gelbsucht, SirSilent und VoAlgdH
GERmaximus schrieb:
So eine Karte können die auch nur im Winter releasen^^

Möchte da mal sehen was im Sommer los ist.
ich glaube @HisN, du hast es doch auch recht schnuckelig im Sommer mit deiner 3090? Wenn ich das richtig in Erinnerung habe
Lol deshalb steht mein PC, im Sommer imner auf dem Balkon!
😄😄😄😄
 
burkm schrieb:
Ich weiß gar nicht, was die "Aufregung" bedeuten soll ? Die Karte wird sowieso kaum jemand von den Gamern in die Hände bzw. zu Gesicht bekommen
Solche Preise und Watt Verbräuche haben doch nichts mehr mit PC Gaming zu tun, oder?
 
ironie Flag :true

450W ist doch garnichts.
4xA100 Karten die dafür Sorgen das man sein eigenes Wort nicht mehr versteht und jede kleine USV aus den latschen haut macht viel mehr Spaß :)
4x66W im idle...

ironie Flag :false

Aber mal im Ernst, ich frag mich wirklich, warum die gefühlte einzige Lösung der Hersteller ist, immer nur noch mehr und mehr Saft aus der Steckdose zu ziehen.
Müsste es nicht eigentlich in die die andere Richtung gehen, kleiner und weniger Verbrauch?
Einfach mal Anno 1800 auf Max stellen und schon liegt der maximalverbrauch bei einer 3080Ti von 350W an (so lange man das Lüftergeräusch aushält :grr: )
 

Anhänge

  • A100_Test.png
    A100_Test.png
    154,7 KB · Aufrufe: 234
Replay86 schrieb:
Solche Preise und Watt Verbräuche haben doch nichts mehr mit PC Gaming zu tun, oder?
Ne 3090 ist auch keine Gamer-Karte sondern eher für Creator gedacht.
 
Endlich kann ich meine normale 3090 in Rente schicken!
 
  • Gefällt mir
Reaktionen: Laphonso und Mac_Leod
Hejo schrieb:
Wenn das keine LHR wird ist die sowieso unkaufbar
Hi @ Hejo, das wird es ganz bestimmt, da Nvidia eine teure interne Mining Grafikkarte paralell verkauft!
Ansonsten würden sich alle Miner die neue RTX3090TI kaufen, da Sie bestimmt, weit unter 4000€ verkauft wird!
Im Gegensatz zur neuen teuren Nvidia Mining Grafikkarte! 😉

Die beiden Nvidia Grafikkarten, würden sich ansonsten gegenseitig Konkurrenz machen, was einfach nur unlogisch wäre, für Nvidia !

Deshalb verkaufe ich meine Anti LHR RTX3090 OC auf keinen Fall!
Die 2-5 FPS mehr, merkt man sowieso nicht!
 
Auch wenn sie LHR haben, schreckt das keinen Miner mehr ab. Die nutzen dafür dann andere Mining Programme, wo das LHR dann nicht greift.
 
Eine Karte nach der niemand gefragt hat.

Ich glaub für die meisten Gamer hier wäre eine RTX 3070 non-ti 16gb für 570€ als FE die Wunschkarte überhaupt.
 
  • Gefällt mir
Reaktionen: Apple ][ und Vitec
Ich will keinen aufgewärmten Kaffee sehen, sondern RTX 7000…
 
  • Gefällt mir
Reaktionen: Blackvoodoo, Laphonso, Vitec und 2 andere
Onkel Föhn schrieb:
21 Gbps Speicher wurde der 3090 Super ja schon vor einiger Zeit angedichtet.
Die 3090 Ti wird ein Watt Monster werden.
Wer will sich sowas antun, frag ich mich ?!? :confused_alt:

MfG Föhn.
Leuten die den Strom nicht selber zahlen (oder genug Geld dafür haben).
 
  • Gefällt mir
Reaktionen: Gelbsucht
für mich kommt die Karte viel zu spät! 9 Monate später kommt schon die neue Generation die wahrscheinlich +50-80% Performance draufpackt da ist die einfach Sinnlos.
 
Zurück
Oben