News „GeForce RTX 3090 Ti“: Nvidias schnellste RTX-Karte bekommt 21 Gbps GDDR6X

Onkel Föhn schrieb:
Also die "normale" 3090 geht bei 2800 € LOS !
Außer Du meinst die ach so tolle UVP ... :freak:
nö, es gibt eigentlich jeden Tag auf Amazon 3090 Dropps mit um die 1400 €. Und das sind Custom Karten.

Von eben:

Unbenannt.PNG


Auch schon Angebote für 1394 € gesehen. Und zwar einige.
 
  • Gefällt mir
Reaktionen: yahlov
Wie das wohl mit der Verfügbarkeit sein wird, ist ja derzeit immer noch Ebbe bei allen Karten, außer man zahlt unverschämt viel für eine.

Ich würd gerne zu nVidia wechseln nach 14 Jahren ATI/AMD, meine RX580 kann zwa noch das Meiste auf 1440p, aber bei einigen Spielen werdens dann doch nicht die 75 oder 60 FPS.
 
  • Gefällt mir
Reaktionen: Metallsonic
Trimipramin schrieb:
Hm, irgendwie juckt mich die Watt-Zahl gar nicht soo dolle. Ich glaube das dann einfach mehr sich mit Undervolting beschäftigen MÜSSEN, wenn sie eine solche Karte besitzen wollen.

Selbst mit UV säuft meine 3090er in 4k seine 300-320 Watt im Durchschnitt, ohne würde ich weit über 350 Watt verbrauchen. 😅
 
Ich müsste meine mal testen, aber so um die 50-100 Watt sind ja zumeist durchaus drin. Und ja, es ist traurig das so bewerkstelligen zu müssen, aber immerhin...
 
ghecko schrieb:
Ne tolle Karte für Blender, aber den PC mit dem Biest würde ich wohl in einen anderen Raum verbannen.
So was leistet man sich wohl auch nur, wenn man damit seinen Lebensunterhalt verdient. Entweder als freischaffender 3D-Artist oder Miner. Von dem Budget was die Karte kostet kaufe ich mir meine Autos.
Wäre jetzt auch nicht nötig für mich, aber naja, jeder hat andere Prioritäten, für was er sein Geld ausgibt. Ich etwa mag auch mal einen guten Whisky, wo andere Leute nicht verstehen können, wie man sowas sündhaft teures trinken kann, das ja nachher auch noch weg bzw. verbraucht ist, im Gegensatz zu einer Graka oder einem Auto.

Zum Thema, ich hab eine 3080er hier und bin damit zufrieden, genügt mir für die kommenden Jahre wohl. Und die hab ich mir auch bloss geholt, weil mein altes System wirklich uralt war und ich gleich alles neu geholt hab, da ist klar das man dann nicht eine ältere 1080 reinschraubt.
 
OldZocKerGuy schrieb:
Selbst mit UV säuft meine 3090er in 4k seine 300-320 Watt im Durchschnitt, ohne würde ich weit über 350 Watt verbrauchen. 😅
Kommt aber auch stark auf die Spiele an und welche Refresh Rate du anvisierst.
 
Immer mehr Gründe sprechen für den Wechsel auf Konsole.

Für die 2.500€ gibt es die PS5, 5 Spiele und einen guten 65 Zoll Screen.
 
Holy 450W das ist Ansage. Ich bin gespannt wie NV das kühlen möchte. Die Chip Fläche bleibt ja gleich ergo steigert jede Energie die dem Chip zusätzlich zugeführt wird die Energiedichte.

Ein möglicher Weg wäre wohl Serienmäßiges LM als WLP zu verwenden. Ich bin gespannt.
 
handy.dealer schrieb:
Da fange ich Mal an zu sparen.
Wird so um die 2500.- Euro kosten.....
Da kommst du wahrscheinlich nicht mit hin, wenn einige andere Modelle genauso oder auch mehr kosten.
 
Bright0001 schrieb:
Auch NV und AMD haben effiziente Karten im Angebot; Dass es "Brechstangen-Produkte" gibt, ändern ja nichts daran.


Mitte 2016 war die Titan X die schnellste GPU, hatte eine UVP von 1300€ und dabei nur rund 50%-70% der Leistung einer 3070. Hättest du heute lieber eine Titan X mit 12GB oder eine 3070 mit 8GB? Speicher ist halt auch nicht alles.

Im Gegensatz zu Apple hat NV und AMD eben keine effizienten Karten im Angebot. Meist schaut man auf das Topmodell und beschneidet dieses dann. Daraus werden aber nicht maximal effiziente Karten. Ich würde mir als Ziel für eine Grafikkarte mal eine effiziente und nicht nur schnelle Grafikkarte vorstellen. Eben das, was Apple macht.

Damals hat die 1070 einen richtigen Leistungssprung zur Vorgängerkarte gemacht und war trotzdem effizent. Das muss man natürlich immer im jeweiligen Jahr sehen und nicht vergleichen mit einem heutigen 5 - 7nm Verfahren. Die 8GB sind auch heute noch ein Grund, warum ich die Karte weiterverwenden kann. Die 8GB der 3070 werden ein Grund sein, warum man in 3-4 Jahren spätestens wieder neu kaufen muss.
 
Die TDP ist ja der Knaller, früher wurden Dual-GPU Karten für sowas belächelt und jetzt fährt man 450W auf:lol:
Bin mal gespannt wie hörbar die Karte ist, wenn sie die Kühlung aber leise hinbekommen, spricht nichts dagegen.
 
nochmal 100watt/500€ obendrauf für 2-3% mehr reale leistung...das ist mal ein fortschritt...
 
Na also!
2% mehr Shader, 5% mehr Speicherbandbreite, 20% mehr Verbrauch und das Ganze als Gerücht von Computerbase ohne ein Minimum an redaktioneller Recherche!

Läuft…
 
  • Gefällt mir
Reaktionen: Max007
Ayo34 schrieb:
Im Gegensatz zu Apple hat NV und AMD eben keine effizienten Karten im Angebot.
Ayo34 schrieb:
Damals hat die 1070 einen richtigen Leistungssprung zur Vorgängerkarte gemacht und war trotzdem effizent.
Hast du dir mal die Energieeffizienzdiagramme bei den CB-GPU-Tests angeschaut? Die 3000er als auch die 6800er haben bei der Effizienz deutlich einen drauf gelegt, mit der 6800 momentan an der Spitzenposition. Wenn du einen niedrigen Verbrauch in absoluten Zahlen wünschst, dann ist das deine Sache; Aber die Effizienz steigert sich doch durchaus ordentlich, 30-50% pro Generation sind auch nicht ohne.

Ayo34 schrieb:
Daraus werden aber nicht maximal effiziente Karten.
Weil so ziemlich kein Spieler "maximal effiziente" Karten braucht, zumindest keine dedicated Karten im Tower. Da bist du wohl mit Rembrandt nächstes Jahr deutlich besser bedient als mit RTX oder RX.
 
Dauert doch nicht mehr lange und die nächste Generation an Grafikkarten steht an.
Ob die 3090TI jetzt noch kommt oder nicht juckt bei den Preisen doch eh kaum noch einen.
Ich denke mal NV und AMD werden dieses mal nicht so Doof sein und die UVPs so niedrig ansetzen.
4090 2499$ 7900XT oder wie auch immer die heißt 1999$ oder mehr wen sie schneller ist als der NV Pendant.

Hätte AMD und NV geahnt was da passiert wären die UVPS nie so niedrig angesetzt worden.
 
Visualist schrieb:
Hätte AMD und NV geahnt was da passiert wären die UVPS nie so niedrig angesetzt worden.

Du meinst wohl: "Wären die UVPs nie so "normal" angesetzt worden". Über die hohe UVP der 3090 wurde schon viel geredet zu Beginn. Ich glaube leider auch, dass die UVPs in die Höhe gehen werden, wenn sich im nächsten Jahr an den Preisen nicht viel tut.

Meine Hoffnung ist immer noch Intel, einfach weil der Druck etwas mehr steigt und es mehr Grafikkarten insgesamt geben wird. Gerade im günstigeren und mittleren Bereich muss was passieren. Kann ja nicht sein, dass eine gesamte PS5 günstiger ist als eine Einstiegs-Grafikkarte im PC-Markt.

Zweite Hoffnung, dass Kryptowährungen eben nicht weiter steigen und Ethereum endlich mal das macht, was sie lange angekündigt haben.
 
  • Gefällt mir
Reaktionen: C4rp3di3m
@Volker Kurze Frage weil es im Artikel für mich nicht klar rüberkam:

wenn die neuen Micron-Chips 512er sind statt der 256er, hat die 3090Ti Super nicht nur 21 Gbps schnelle Chips, sondern bei gleicher Speichermenge auch die halbierte Chipanzahl auf dem Board.
Da der GA 102 anscheinen ein 384bit SI hat, werden die bei vermutlich 64bit Busbreite ja jetzt schon mit "mehrere Chips pro Controller/Bus" angesteuert.

Würde es durch die Reduktion der Chips dann nicht Performancevorteile bei Latenz respektive innerhalb des Controllers geben? Könnte in manchen Anwendungsfällen sogar für mehr Leistung sorgen als die höhere Bandbreite an sich. Leider vermutlich exakt beim hashen...
Die freigeschalteten shader sind da eher kosmetisch um einen neuen Premiumpreis zu rechtfertigen.
 
Die Chips sind da total flexibel hinsichtlich des Speicherinterfaces geworden. Da kann ein Hersteller dir fast alles bauen, sofern er denn will.
Wie ein GA102 mit halber Anzahl an Chips bei 384bit SI aussieht kennt man ja schon: 3080 Ti. https://www.computerbase.de/2021-06...st/#abschnitt_das_ist_die_geforce_rtx_3080_ti
Eine 3090 Ti würde halt die gleiche halbe Anzahl nutzen, wäre jedoch pro Chip eben doppelt so groß. Also kein Problem.

Sicher gibt es irgendwo auch Vor- und vielleicht auch Nachteile. Aber das diese zu echten Auswirkungen werden, ist nicht realistsich, messbar könnten sie natürlich irgendwo mal sein. Aber frag mich nicht wo :D
 
Währenddessen ich der sein System auf 200-250W max. Verbrauch optimiert hat xD.

Aber warum nicht. Manch einer brauchs/wills.
 
Zurück
Oben