Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Wie das wohl mit der Verfügbarkeit sein wird, ist ja derzeit immer noch Ebbe bei allen Karten, außer man zahlt unverschämt viel für eine.
Ich würd gerne zu nVidia wechseln nach 14 Jahren ATI/AMD, meine RX580 kann zwa noch das Meiste auf 1440p, aber bei einigen Spielen werdens dann doch nicht die 75 oder 60 FPS.
Hm, irgendwie juckt mich die Watt-Zahl gar nicht soo dolle. Ich glaube das dann einfach mehr sich mit Undervolting beschäftigen MÜSSEN, wenn sie eine solche Karte besitzen wollen.
Ich müsste meine mal testen, aber so um die 50-100 Watt sind ja zumeist durchaus drin. Und ja, es ist traurig das so bewerkstelligen zu müssen, aber immerhin...
Ne tolle Karte für Blender, aber den PC mit dem Biest würde ich wohl in einen anderen Raum verbannen.
So was leistet man sich wohl auch nur, wenn man damit seinen Lebensunterhalt verdient. Entweder als freischaffender 3D-Artist oder Miner. Von dem Budget was die Karte kostet kaufe ich mir meine Autos.
Wäre jetzt auch nicht nötig für mich, aber naja, jeder hat andere Prioritäten, für was er sein Geld ausgibt. Ich etwa mag auch mal einen guten Whisky, wo andere Leute nicht verstehen können, wie man sowas sündhaft teures trinken kann, das ja nachher auch noch weg bzw. verbraucht ist, im Gegensatz zu einer Graka oder einem Auto.
Zum Thema, ich hab eine 3080er hier und bin damit zufrieden, genügt mir für die kommenden Jahre wohl. Und die hab ich mir auch bloss geholt, weil mein altes System wirklich uralt war und ich gleich alles neu geholt hab, da ist klar das man dann nicht eine ältere 1080 reinschraubt.
Holy 450W das ist Ansage. Ich bin gespannt wie NV das kühlen möchte. Die Chip Fläche bleibt ja gleich ergo steigert jede Energie die dem Chip zusätzlich zugeführt wird die Energiedichte.
Ein möglicher Weg wäre wohl Serienmäßiges LM als WLP zu verwenden. Ich bin gespannt.
@Trimipramin - wie passt das eigentlich zusammen, Ryzen 7 3700X mit einer RTX 3090 ? Dachte immer, um die GraKa standesgemäß zu befeuern, braucht man einen 5950X ?
Auch NV und AMD haben effiziente Karten im Angebot; Dass es "Brechstangen-Produkte" gibt, ändern ja nichts daran.
Mitte 2016 war die Titan X die schnellste GPU, hatte eine UVP von 1300€ und dabei nur rund 50%-70% der Leistung einer 3070. Hättest du heute lieber eine Titan X mit 12GB oder eine 3070 mit 8GB? Speicher ist halt auch nicht alles.
Im Gegensatz zu Apple hat NV und AMD eben keine effizienten Karten im Angebot. Meist schaut man auf das Topmodell und beschneidet dieses dann. Daraus werden aber nicht maximal effiziente Karten. Ich würde mir als Ziel für eine Grafikkarte mal eine effiziente und nicht nur schnelle Grafikkarte vorstellen. Eben das, was Apple macht.
Damals hat die 1070 einen richtigen Leistungssprung zur Vorgängerkarte gemacht und war trotzdem effizent. Das muss man natürlich immer im jeweiligen Jahr sehen und nicht vergleichen mit einem heutigen 5 - 7nm Verfahren. Die 8GB sind auch heute noch ein Grund, warum ich die Karte weiterverwenden kann. Die 8GB der 3070 werden ein Grund sein, warum man in 3-4 Jahren spätestens wieder neu kaufen muss.
Die TDP ist ja der Knaller, früher wurden Dual-GPU Karten für sowas belächelt und jetzt fährt man 450W auf
Bin mal gespannt wie hörbar die Karte ist, wenn sie die Kühlung aber leise hinbekommen, spricht nichts dagegen.
Na also!
2% mehr Shader, 5% mehr Speicherbandbreite, 20% mehr Verbrauch und das Ganze als Gerücht von Computerbase ohne ein Minimum an redaktioneller Recherche!
Hast du dir mal die Energieeffizienzdiagramme bei den CB-GPU-Tests angeschaut? Die 3000er als auch die 6800er haben bei der Effizienz deutlich einen drauf gelegt, mit der 6800 momentan an der Spitzenposition. Wenn du einen niedrigen Verbrauch in absoluten Zahlen wünschst, dann ist das deine Sache; Aber die Effizienz steigert sich doch durchaus ordentlich, 30-50% pro Generation sind auch nicht ohne.
Ayo34 schrieb:
Daraus werden aber nicht maximal effiziente Karten.
Weil so ziemlich kein Spieler "maximal effiziente" Karten braucht, zumindest keine dedicated Karten im Tower. Da bist du wohl mit Rembrandt nächstes Jahr deutlich besser bedient als mit RTX oder RX.
Dauert doch nicht mehr lange und die nächste Generation an Grafikkarten steht an.
Ob die 3090TI jetzt noch kommt oder nicht juckt bei den Preisen doch eh kaum noch einen.
Ich denke mal NV und AMD werden dieses mal nicht so Doof sein und die UVPs so niedrig ansetzen.
4090 2499$ 7900XT oder wie auch immer die heißt 1999$ oder mehr wen sie schneller ist als der NV Pendant.
Hätte AMD und NV geahnt was da passiert wären die UVPS nie so niedrig angesetzt worden.
Du meinst wohl: "Wären die UVPs nie so "normal" angesetzt worden". Über die hohe UVP der 3090 wurde schon viel geredet zu Beginn. Ich glaube leider auch, dass die UVPs in die Höhe gehen werden, wenn sich im nächsten Jahr an den Preisen nicht viel tut.
Meine Hoffnung ist immer noch Intel, einfach weil der Druck etwas mehr steigt und es mehr Grafikkarten insgesamt geben wird. Gerade im günstigeren und mittleren Bereich muss was passieren. Kann ja nicht sein, dass eine gesamte PS5 günstiger ist als eine Einstiegs-Grafikkarte im PC-Markt.
Zweite Hoffnung, dass Kryptowährungen eben nicht weiter steigen und Ethereum endlich mal das macht, was sie lange angekündigt haben.
@Volker Kurze Frage weil es im Artikel für mich nicht klar rüberkam:
wenn die neuen Micron-Chips 512er sind statt der 256er, hat die 3090Ti Super nicht nur 21 Gbps schnelle Chips, sondern bei gleicher Speichermenge auch die halbierte Chipanzahl auf dem Board.
Da der GA 102 anscheinen ein 384bit SI hat, werden die bei vermutlich 64bit Busbreite ja jetzt schon mit "mehrere Chips pro Controller/Bus" angesteuert.
Würde es durch die Reduktion der Chips dann nicht Performancevorteile bei Latenz respektive innerhalb des Controllers geben? Könnte in manchen Anwendungsfällen sogar für mehr Leistung sorgen als die höhere Bandbreite an sich. Leider vermutlich exakt beim hashen...
Die freigeschalteten shader sind da eher kosmetisch um einen neuen Premiumpreis zu rechtfertigen.
Die Chips sind da total flexibel hinsichtlich des Speicherinterfaces geworden. Da kann ein Hersteller dir fast alles bauen, sofern er denn will.
Wie ein GA102 mit halber Anzahl an Chips bei 384bit SI aussieht kennt man ja schon: 3080 Ti. https://www.computerbase.de/2021-06...st/#abschnitt_das_ist_die_geforce_rtx_3080_ti
Eine 3090 Ti würde halt die gleiche halbe Anzahl nutzen, wäre jedoch pro Chip eben doppelt so groß. Also kein Problem.
Sicher gibt es irgendwo auch Vor- und vielleicht auch Nachteile. Aber das diese zu echten Auswirkungen werden, ist nicht realistsich, messbar könnten sie natürlich irgendwo mal sein. Aber frag mich nicht wo