Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070
Teils, teils. Die Spieledesigner packen dann halt keine hochauflösenden 4K-Texturen für Objekte in der Spielwelt rein, sondern nur so 512x512 Pixel oder gar noch kleiner, damit die Texturen für die vielen Objekte nicht so viel Speicher belegen. Und / oder sparen sich halt die Vielfalt an Texturen, wodurch alles ein wenig repetitiv wirkt ... Die Komprimierungsalgorithmen tun dann ihr übriges.
Und Komplexität und Fehlerrate bzw. Ausbeuten zu erhöhen. Ein großer komplexer Chip ist schwieriger Fehlerfrei zu fertigen als ein kleiner. Aber auch Chiplets haben Probleme was dann die verschaltung untereinander angeht.
Klar, aber das ist ja GPU Design, nicht Belichtung. Der Chip der 4080 ist größer und der MCD von RDNA3 wird in N6 gefertigt, was ebenfalls die Kosten drückt.
Genau und 1-2 Jahre später schreibt CB wieder dass Spiel da min 16 Gb Brauch und genau diese Käufer echauffieren sich dann. Wir kennen es mittlerweile in der 3ten Runde?
Sagen meistens Personen, die seit Äonen keine AMD Karte nutzen oder sogar nie genutzt haben.
Oder ihren Freund herzaubern, der immer Probleme hat.
Die Hörensagen Blase....
Viele Probleme/Instabilitäten können z.b. vom NT kommen.
Auch wenn eine Nvidia drin für kurze Testzeiträume läuft heißt das nicht, dass es nicht auch die Ursache sein kann (Unterschiede bei Lastwechel/Lastspitzen von AMD und Nvidia Karten?)
Der große Vorteil der Chiplets ist doch gerade die günstigere Fertigung? Mehrere kleinere Chips sind einfach günstiger als ein großer. Sonst haben Chiplets doch eher Nachteile, wenn die Fertigung also auch noch teurer wäre wäre es absurd, Chiplets überhaupt in Erwägung zu ziehen.
Ja, stimmt. Aber mir schwirrt irgendwas im Kopf, dass es erstmal teurer ist (oder war?), weil es ein neuer Prozess ist und es dann langfristig gesehen günstiger wird. Kann auch sein, dass ich mich komplett vertue.
ElliotAlderson schrieb:
Was verstehen User wie du daran nicht, dass man bei einer nüchternen Betrachtungsweise mal seine persönlichen Ansprüche außenvor lässt? Mag ja sein, dass dir RT nicht wichtig ist, aber deine Meinung ist nicht die der Allgemeinheit und wenn man es eben objektiv betrachtet, muss man RT berücksichtigen.
Ja, aber objektiv betrachtet sollte man auch einen umfangreichen mehrwert davon haben. Und den hat man meiner Meinung nach nicht, wenn das hier und da mal drin ist. Und dann gibt es auch noch Software Lumen, was auch nicht schlecht ist und @Quidproquo77 bei Until Dawn auch mal verwirrt hat.
Wenn man nur Cyberpunk oder andere RT spiele spielt, dann kann man damit argumentieren.
Wenn du aber z.B. 10 Spiele im letzten Jahr gespielt hast, davon aber nur 2 RT haben und die auch nur 40 Std. oder so gespielt hast, verpufft doch das Argument mit der RT-Performance ins leere... Raster Performance ist das, was man braucht. RT-Leistung ist ein netter Bonus.
Ja, stimmt. Aber mir schwirrt irgendwas im Kopf, dass es erstmal teurer ist (oder war?), weil es ein neuer Prozess ist und es dann langfristig gesehen günstiger wird. Kann auch sein, dass ich mich komplett vertue.
Das trifft auf Nvidia genau so zu. Nvidia nutzt einen angepassten 5 nm Prozess, welcher also nochmal teurer ist. AMD nutzt die Standardvariante von TSMC. Der Chip der 7900 XTX ist auch noch ein ganzes Stück kleiner, was sich ebenfalls im Preis widerspiegelt. Nvidia ist also gar nicht so teuer, wie es behauptet wird. Klar sind die Karten grundsätzlich zu teuer, aber das liegt meiner Meinung nach nicht an Nv/AMD. Die geben die gestiegenen Kosten nur weiter und addieren ihren Gewinn noch oben drauf.
jo0 schrieb:
Ja, aber objektiv betrachtet sollte man auch einen umfangreichen mehrwert davon haben.
Was wieder subjektiv ist und das kann man nicht bewerten. Du magst recht haben, dass RT noch nicht vollends verbreitet ist, aber für mich war es ein Kaufgrund, wenn nicht sogar der Hauptgrund. Du siehst also, dass ich das nicht einfach ausschließen kann.
Das habe ich so nicht gesagt und ich denke du weist auch wie es gemeint war. Natürlich sollte ein Kaufwunsch da sein, aber desto länger du wartest (also Genereationen) überspringst desto weniger wir deine aktuelle Karte Wert sein. Dadurch wird dein Aufrüsten halt immer teuerer.
Wenn ich meine aktuelle RTX40 jetzt verkaufe kann ich mit dem Geld gut den kauf einer RTX50 unterstützen und muss weniger neues Geld ausgeben. Aber wer kauft heute noch eine 1080 oder 3070, verstehst du wo ich hin will?
Zum glück gibt es Cloud Gaming Microsoft, und man kann jedes spiel, spielen. Und man braucht sich keine Sorgen um die Hardware machen. Einfach einen Fernseher mit Internet und Controller und man spielt die spiele, so ist es billiger.
Bitte Zitiere das nächste mal auch den vorläufigen aber noch dazugehörigen weiteren Satz von mir und reiße es nicht aus dem Zusammenhang. Dann würdest du vielleicht merken, dass dein Kommentar absolut keinen Sinn ergibt.
Irgendwie macht das aber auch hinsichtlich lokaler KI-Nutzung (bspw. Stable Diffusion, Flux, Chat-LLM) keinen Sinn, den VRAM nicht auszubauen und die CUDA-Kerne einem größeren Nutzungsbereich zu öffnen. Also zumindest, wenn dieses Feld im Heimbereich bedient werden soll.
Andererseits würde das aber auch den Monetarisierungs-Bestrebungen der "AI"-Firmen entgegenstehen, die ihre Hardware ebenfalls bei Nvidia einkaufen oder diese zumindest per Cloud-Nutzung mieten.
Oder es läuft auf dedizierte KI-Prozessoren hinaus, von denen aber aktuell auch wenig sichtbar ist.
Gibt schon ein paar mehr offenen Punkte, als nur die Gaming-Relevanz.
Ich bin schon oft zwischen NV und AMD Karten gewechselt, und jedes mal beim Wechsel von AMD auf NV ist mir das Problem mit den Texturen untergekommen. Keine Ahnung ob man diese "Optimierungen" ausschalten kann, da ich mittlerweile AMD bevorzuge... ja auch wegen der Treiber.
Zum glück gibt es Cloud Gaming Microsoft, und man kann jedes spiel, spielen. Und man braucht sich keine Sorgen um die Hardware machen. Einfach einen Fernseher mit Internet und Controller und man spielt die spiele, so ist es billiger.
Sicher ist die Einschätzung spekulativ, aber es würde halt Sinn ergeben. Es ist halt schwierig aus einem Mittelklassechip 7900XTX Performance zu pressen.
Dafür wurde der nicht entwickelt..
belive schrieb:
du bist der einzige der tatsächlich meint die gpu preise seien niedrig.
Irgendwie macht das aber auch hinsichtlich lokaler KI-Nutzung (bspw. Stable Diffusion, Flux, Chat-LLM) keinen Sinn, den VRAM nicht auszubauen und die CUDA-Kerne einem größeren Nutzungsbereich zu öffnen. Also zumindest, wenn dieses Feld im Heimbereich bedient werden soll.
Wer sagt das du als Heimanwender das sollst? Die CoPilots haben eine NPU dafür und wenn du es Professionell einsetzen willst dann kauf gefälligst eine Quadro oder Tesla.
12 GB macht schon Sinn, wir hatten 8 GB von der GTX 1070 bis zur RTX 3070. Da müssen also noch mindestens zwei Generationen nach der 4070 mit 12 GB kommen.