News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070

DevPandi schrieb:
In dem Bereiche, schauen alle, dass sie genug Marge mache .

TSMC fährt jedes Jahr 40 - 60 % des Umsatzes als Gewinn ein. Das ist verdammt ordentlich.
Die neuen Fertigungsstätten wollen auch finanziert werden. Wenn so ne Fabrik bis zu 20 Milliarden kostet, muß man das Geld auch mal haben, selbst wenn gefördert wird, wird nicht alles gefördert.

DevPandi schrieb:
Und ja, sie müssen Fabrikneubauten und Geräte bezahlen, die dürfen aber über den Abschreibungszeitraum abgeschrieben werden - schmälert damit den „Gewinn“.
Du mußt es trotzdem erst finanzieren und es ist ja nicht so, daß Kredite gerade billig wären...
DevPandi schrieb:
Diese „Regeln“ zur Abschreibung sind im übrigen auch ein Grund, warum große Firmen immer ein Grundstock an Schulden haben, da auch die Zinsen als Bettiebsausgaben zählen. Ausrüstung „direkt“ bezahlen ist da schlechter, weil man ein Teil der Steuervorteile nicht mit nimmt.
Ich bezweifle, daß nvidia Schulden hat :)
Naja AMD hatte die Schulden auch runter auf 500 Millionen (nach über 6 Milliarden), dann kam Corona und das ging wieder auf 3 Milliarden hoch und letztes Quartal waren es noch 2,4 Milliarden. Also ich denke nicht, daß die gerne Schulden haben.
 
Özil schrieb:
12 GB kommen mir nicht ins Haus

dann muss ich wohl echt zur 5080 greifen (und mächtig undervolten), weil ich warte kein Jahr auf die 5070ti
Tja. Der Plan von Nvidia geht auf. Perfekt !
Shadow86 schrieb:
Der nVidia Käufer will es so.
Der nVidia Käufer will es so.
 
  • Gefällt mir
Reaktionen: Shadow86, Benji18 und sikarr
v3locite schrieb:
Mit anderen Worten, sie ziehen die gleiche Masche ab wie beim letzten Mal. Die 5090 wird obszön teuer, die 5080 hat ein schlechtes Preis-Leistungs-Verhältnis und ab der 5070 abwärts wird der Speicher kastriert.
Mag sein, aber es wird auch vom Angebot von Intel und AMD abhängen. Das tat es ja schon bei dem Launch der 4070 Ti vs 7900XT vor 2 Jahren.

Nvidia war im Vergleich zur Konkurrenz weder extrem teuer noch boten sie ein schlechteres PLV.

4080 vs 7900XTX hat das besonders gezeigt. Am Anfang war jeder empört, nachdem Launch der 7900XTX hat sich das geändert.
v3locite schrieb:
Die Leute werden also zum Premium- oder zum Budgetprodukt gedrängt und zahlen entweder zu viel oder zu oft. Am Ende nochmal ein paar Super-Varianten nachgeschoben und schon geht's wieder von vorne los.
Gedrängt ist überhaupt niemand. Das derzeitige Angebot ist abgesehen von den 8GB Krüppeln ziemlich rund und wer die 5070 12GB nicht kaufen will, holt sich halt das Super Modell mit 16GB und wartet mal eine Generation.

Wenn ich mir anschaue was man früher so an Vram Krüppeln bekommen hat ( HD4870 512 MB, FuryX, 3070, GTX 770)
hat sich in Summe kaum etwas geändert.

In letzter Zeit ist auch die Speicherbelegung kaum mehr gestiegen, sondern stagniert. Gröbere Änderungen wird es erst mit der PS6 geben.
v3locite schrieb:
Ja so läuft das, wenn der Markt kaputt ist und die Wettbewerber keine mehr sind.
Der Markt ist nicht kaputt finde ich. Wer viel Vram will kann eine 7900XT für schmale 650 Euro kaufen, es gibt also genügend Alternativen. Ich denke auch Nvidia wird eine Alternative bieten, halt dann höherpreisiger.

Die Preise im GPU Markt sind mittlerweile ziemlich niedrig. Eine 7800XT schon öfter für 450 Euro gesehen.
 
Eli0t schrieb:
Klar funktioniert es, aber die 120Hz (120fps) kannst dir abschminken.
hab ich doch auch gesagt
Eli0t schrieb:
Entweder Du kaufst ne Karte weil du die mindestens 120fps (144fps) auf Deiner Auflösung haben willst oder Du kaufst eine Karte, die nicht mal 60fps kann. Eine richtige RT Karte sollte das immer mit mindestens 120fps schaffen. Da dem nicht so ist, sind das alles Krücken.
Liegt im Auge des Betrachters was eine "Krücke" ist. Man kauft halt das was man will und/oder sich leisten kann/will, Krücken gibt es da nicht.
Eli0t schrieb:
Und wenn es Krücken sind und ich keine €2000 ausgeben will, kann ich auch auf RT verzichten und dann ist AMD auch nicht schlecht.
Habe nie behauptet das AMD schlecht sei, aber nVidia hat halt das bessere Feature Set. Wenn ich unbedingt RT will muss ich auch dafür zahlen, ist leider so. Wenn ich dann noch mehr FPS dabei will muss ich auch das bezahlen.
Eli0t schrieb:
Den Spielspaß trübt es in den meisten Fällen nicht, wenn man auf RT verzichtet.
Tut es auch nicht wenn man statt 120 nur 90 oder 60 hat, die Frage ist halt will man das auch?
 
daknoll schrieb:
Sie ist nicht von NV.
wer hat das gesagt
Ergänzung ()

ruthi91 schrieb:
Eine GTX1080 lag ja schon auf Niveau einer Radeon 6600XT
nein nicht einmal ansatzweise je nach spiel.

 
Nebula123 schrieb:
Das bestärkt mich, dass es eine gute Idee war statt einer 4060 noch eine 3060 12G gekauft zu haben.


Kommt drauf an, für was. Ähnlich wie ihr damaliges Gegenstück, die RX 6600, ist das mittlerweile nach vier Jahren von der Rohleistung eigentlich das untere Ende. Gut, die 4060 hat auch keine Welten mehr an Power. Meine nächste GPU wird aber auch min. 12 GB haben. Es sei denn, ich entscheide mich für die kleinere der geplanten Battlemages, falls die auch entsprechend zum Budgetpreis angeboten wird.

Andererseits: Wenn ich mir eine RTX 5090 holen würde, hätte ich bei meinem Nutzerprofil vermutlich die nächsten 12-15 Jahre ausgesorgt. :lol:
 
belive schrieb:
ich bin janicht mit dem Produkt unzufrieden sondern mit dem Preis.
Spielt das eine Rolle? Du hast es ja selber gesagt wenn der Preis günstiger wird arrangiert man sich auch mit den technischen Unzulänglichkeiten also hat der Preis schon einen Einfluss darauf ob man mit etwas zufrieden ist oder nicht.
 
Ich finde schon, warum das muss jeder für sich selber wissen. :)
 
  • Gefällt mir
Reaktionen: sikarr
belive schrieb:
Das weißt du nicht auch wird ada in eine 5nm spezial fertigung gefertigt, das kostet wohl auich etwas. Aber wie viel oder was wissen nur die intern. Wenn juckt die Vergangenheit? was jetzt ist. wann hat die 4080 mehr als 400€ mehr gekostet als eine xtx? strix mit der billigsten xtx verglichen oder was.


mist eher fakt lol aber amd fanboys können es nicht zugeben. lmao
Mann, du schreibst soviel Unsinn.
 
Svennc schrieb:
Kommt drauf an, für was.
Ich spiele in FHD, da ist die Karte noch völlig ok für mich.
Eine 4060 wäre nicht in Frage gekommen, 1) wegen dem geringeren VRAM und 2) wegen dem PCIe x8 4.0-Interface, welches auf meinem 10th Gen Intel nur mit x8 3.0 laufen würde. Vor allem wegen letzterem Grund schieden auch die AMD-Karten aus.
70er Karten oder größer wären für meinen Use Case zu overpowered und für das gebotene viel zu teuer.

Die 3060 hat übrigens eine 1060 6GB abgelöst.
 
  • Gefällt mir
Reaktionen: Svennc
Nebula123 schrieb:
Ich spiele in FHD, da ist die Karte noch völlig ok für mich.

Ich hab sogar noch die 1050ti drin, tue mich persönlich aber schwer mit Karten für ~300 Euro, bei denen man auch in Full-HD bereits an die Regler ran darf (Starfield hat noch Ultra-Settings on top). Die RTX 3060 z.B. ist anders als die RX 6600 ja nie riesig unter ihre einstige UVP gesunken. Aber es ist halt so, wie es jetzt ist. Ich warte mindestens noch auf KCDII, das ich von den größeren Titeln schon spielen will. Mal sehen, was das so braucht. :)
 
Bernd075 schrieb:
Tschuldigung mal eine Frage was bringt der GPU Speicherausbau eigentlich Spiele laufen mit 4 gb Ram auch genauso mit 8 .... 12 gb ist schon überdimensioniert selbst in 4k
Sicherlich werden einige Spiele auch mit 4 GB laufen, die Frage ist dann nur, wie und mit welcher Bildqualität. Am Meisten Grafikspeicher wird für die Texturen benötigt. Bei wenige Grafikspeicher muss man also entweder die Texturqualität generell runterdrehen und man hat relativ matschige / verschwommene Texturen oder die Engine des Spiels wechselt abhängig von der Entfernung zum Spieler dynamisch zwischen den verschiedenen Qualitätstufen.

Je nachdem, wie viele Texturen in voller Qualität gleichzeitig in den Speicher passen, desto näher ist die Grenze, bei der dieser Wechsel stattfindet, am Spieler. Das führt dann dazu, dass dieser Übergang deutlich in Form von "Texture Pop-Ins" wahrnehmbar ist. Und es führt auch zu Nachladerucklern, weil ständig Texturen aus dem Speicher geworfen und andere reingeladen werden müssen.

 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Haaase
drago-museweni schrieb:
Zahlen geben Ihnen mehr als recht, es wird alles gekauft.
Gut was wollen die Kunden auch machen. Du bekommst nie alle dazu nicht zu kaufen.
 
daknoll schrieb:
und das hier ist nun kein unsinn wie du vorhin sagtest oder die tausenden beiträge zu driver timeouts bei komplett neuen rechnern.

oder die vega release treiber ein traum

oder die rx 5700xt treiber blackscreens ohne ende. ein traum

dann wundern sich die leute wenn jeder nvidia kauft teuer aber tribier sind ziemlich perfekt.
 
jo0 schrieb:
Die 7900XTX sind ziemlich sicher in der Fertigung teurer wegen dem Chiplet Design.


Der große Vorteil der Chiplets ist doch gerade die günstigere Fertigung? Mehrere kleinere Chips sind einfach günstiger als ein großer. Sonst haben Chiplets doch eher Nachteile, wenn die Fertigung also auch noch teurer wäre wäre es absurd, Chiplets überhaupt in Erwägung zu ziehen.


Der Markt ist halt kaputt. Die 5090 jenseits der 3000€ wird für kaum jemand ernsthaft eine Alternative sein, darunter wird's besser sein die alten Karten zu kaufen, so schwach wie die 50"80" und 50"70" werden dürften, wenn die Gerüchte stimmen. Warum sonst würde nVidia auch die 4080 Super schon vor dem Release der 5080 einstellen? Die wird garantiert die bessere Wahl sein.

Ich würde fast behaupten, dass es am besten wäre jetzt noch schnell eine 4080 Super zu kaufen, wenn man unbedingt RT braucht, oder sonst einfach eine 7900XTX, bevor keine bezahlbaren Karten mit mehr als 16GB mehr gibt.
Warten ist ja eigentlich immer ne gute Wahl, aber wenn nVidia die Konkurrenz im eigenen Haus schon vorher abschafft...

Ich denke bei mir wird es am Ende dann doch eine 7900XTX werden, am besten günstig gebraucht. Für mich sind Treiber und Software der große Grund für AMD, und mit der Rasterleistung und dem VRAM dürfte man einige Jahre Ruhe haben, wenn man auf RT verzichten kann. Dann kann man in Ruhe abwarten, bis der Markt zusammenbricht und Karten endlich wieder bezahlbar werden, oder sich alternativ andere Hobbys suchen.
 
Svennc schrieb:
Mal sehen, was das so braucht.
Eine sehr universelle und pragmatische Frage. Was braucht es? Was will ich erreichen? Was kann und will ich investieren? Was bietet der Markt aktuell und ganz faktisch zu diesem Zeitpunkt? Wie sehen die nächsten ca. 12-24 Monate hinsichtlich Game-Releases aus?

Daran würde ich meine Kaufentscheidung festmachen. Ob es dann in Relation teuer wird oder nicht, ist irrelevant, wenn ich bereit bin und es auch kann, einen bestimmten Preis zu bezahlen.

Alles andere ist doch aktuell Glaskugel-Schaulaufen und Fan-Lager-Tauziehen 🙃.
 
  • Gefällt mir
Reaktionen: sikarr und Svennc
jo0 schrieb:
Die 7900XTX sind ziemlich sicher in der Fertigung teurer wegen dem Chiplet Design.
Gerade deswegen sollte sie günstiger sein. Das war ja der Sinn hinter dem Chiplet Designer. Verschiedene Prozesse für verschiedene Komponenten.

jo0 schrieb:
RT ist immer noch zu unrelevant. Das kannst du argumentieren, wenn mindestens 50% der Spiele Raytracing nutzen und nicht hier und da ein paar Spiele.
Was verstehen User wie du daran nicht, dass man bei einer nüchternen Betrachtungsweise mal seine persönlichen Ansprüche außenvor lässt? Mag ja sein, dass dir RT nicht wichtig ist, aber deine Meinung ist nicht die der Allgemeinheit und wenn man es eben objektiv betrachtet, muss man RT berücksichtigen.

Eli0t schrieb:
Das sind Brotkrummen im Vergleich zum AI Geschäft, also alles quasi irrelevant. Es ist nicht so, daß wenn sie auf die nicht mal 10% Umsatz fürs Gaming verzichten, damit auch 10% an Support, F&E & Marketing eingespart werden würden.
Nein, aber ich würde auch nicht den Gamingbereich durch AI subventionieren. Wieso sollte das irgendjemand tun? Ist doch Quatsch.
Gaming ist Gaming und AI ist AI. Wer denkt, dass ne 4090 unterhalb von 1500€ für Nvidia noch wirtschaftlich wäre, der ist auf dem Holzweg. Ich bezweifle ganz stark, dass Nv pro Karte einen Reingewinn von 500€ macht. Der wird wesentlich niedriger sein.

Eli0t schrieb:
Nein, nvidia ist oben raus teurer. Es ist auch nicht so, daß beide in 3nm GPUs fertigen würden. Die nvidia AI Chips ausgenommen, das sind aber keine echten GPUs im herkömmlichen Sinne. RTX 5000 Chips sind nach wie vor 5nm (4NP Prozess).
Und? Was hat das eine mit dem anderen zutun. TSMC wurde mit jedem Prozess teurer. 90nm lagen damals bei $2000 und heute zahlt man $20000 für 3nm. Meinste das wird bei den Prozessen dazwischen anders sein? Die lassen sich ihr Monopol bezahlen und AMD/Nv gibt es weiter.
 
Zuletzt bearbeitet:
Zurück
Oben