Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070
- Ersteller Vitche
- Erstellt am
- Zur News: Nvidia Blackwell: Gerüchte deuten auf 12 GB VRAM bei der GeForce RTX 5070
daknoll
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 656
Mann, du schreibst soviel Unsinn.belive schrieb:Das weißt du nicht auch wird ada in eine 5nm spezial fertigung gefertigt, das kostet wohl auich etwas. Aber wie viel oder was wissen nur die intern. Wenn juckt die Vergangenheit? was jetzt ist. wann hat die 4080 mehr als 400€ mehr gekostet als eine xtx? strix mit der billigsten xtx verglichen oder was.
mist eher fakt lol aber amd fanboys können es nicht zugeben. lmao
Nebula123
Lt. Commander
- Registriert
- Apr. 2010
- Beiträge
- 1.227
Ich spiele in FHD, da ist die Karte noch völlig ok für mich.Svennc schrieb:Kommt drauf an, für was.
Eine 4060 wäre nicht in Frage gekommen, 1) wegen dem geringeren VRAM und 2) wegen dem PCIe x8 4.0-Interface, welches auf meinem 10th Gen Intel nur mit x8 3.0 laufen würde. Vor allem wegen letzterem Grund schieden auch die AMD-Karten aus.
70er Karten oder größer wären für meinen Use Case zu overpowered und für das gebotene viel zu teuer.
Die 3060 hat übrigens eine 1060 6GB abgelöst.
belive
Banned
- Registriert
- Sep. 2024
- Beiträge
- 346
welchen? das ich mir das einbilde wenn games abschmieren ohne grund loldaknoll schrieb:Mann, du schreibst soviel Unsinn.
Nebula123 schrieb:Ich spiele in FHD, da ist die Karte noch völlig ok für mich.
Ich hab sogar noch die 1050ti drin, tue mich persönlich aber schwer mit Karten für ~300 Euro, bei denen man auch in Full-HD bereits an die Regler ran darf (Starfield hat noch Ultra-Settings on top). Die RTX 3060 z.B. ist anders als die RX 6600 ja nie riesig unter ihre einstige UVP gesunken. Aber es ist halt so, wie es jetzt ist. Ich warte mindestens noch auf KCDII, das ich von den größeren Titeln schon spielen will. Mal sehen, was das so braucht.
daknoll
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 656
Genau. LOLbelive schrieb:welchen? das ich mir das einbilde wenn games abschmieren ohne grund lol
Sicherlich werden einige Spiele auch mit 4 GB laufen, die Frage ist dann nur, wie und mit welcher Bildqualität. Am Meisten Grafikspeicher wird für die Texturen benötigt. Bei wenige Grafikspeicher muss man also entweder die Texturqualität generell runterdrehen und man hat relativ matschige / verschwommene Texturen oder die Engine des Spiels wechselt abhängig von der Entfernung zum Spieler dynamisch zwischen den verschiedenen Qualitätstufen.Bernd075 schrieb:Tschuldigung mal eine Frage was bringt der GPU Speicherausbau eigentlich Spiele laufen mit 4 gb Ram auch genauso mit 8 .... 12 gb ist schon überdimensioniert selbst in 4k
Je nachdem, wie viele Texturen in voller Qualität gleichzeitig in den Speicher passen, desto näher ist die Grenze, bei der dieser Wechsel stattfindet, am Spieler. Das führt dann dazu, dass dieser Übergang deutlich in Form von "Texture Pop-Ins" wahrnehmbar ist. Und es führt auch zu Nachladerucklern, weil ständig Texturen aus dem Speicher geworfen und andere reingeladen werden müssen.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Zuletzt bearbeitet:
Fighter1993
Vice Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 7.120
Gut was wollen die Kunden auch machen. Du bekommst nie alle dazu nicht zu kaufen.drago-museweni schrieb:Zahlen geben Ihnen mehr als recht, es wird alles gekauft.
belive
Banned
- Registriert
- Sep. 2024
- Beiträge
- 346
und das hier ist nun kein unsinn wie du vorhin sagtest oder die tausenden beiträge zu driver timeouts bei komplett neuen rechnern.daknoll schrieb:Genau. LOL
oder die vega release treiber ein traum
oder die rx 5700xt treiber blackscreens ohne ende. ein traum
dann wundern sich die leute wenn jeder nvidia kauft teuer aber tribier sind ziemlich perfekt.
- Registriert
- Aug. 2018
- Beiträge
- 2.762
jo0 schrieb:Die 7900XTX sind ziemlich sicher in der Fertigung teurer wegen dem Chiplet Design.
Der große Vorteil der Chiplets ist doch gerade die günstigere Fertigung? Mehrere kleinere Chips sind einfach günstiger als ein großer. Sonst haben Chiplets doch eher Nachteile, wenn die Fertigung also auch noch teurer wäre wäre es absurd, Chiplets überhaupt in Erwägung zu ziehen.
Der Markt ist halt kaputt. Die 5090 jenseits der 3000€ wird für kaum jemand ernsthaft eine Alternative sein, darunter wird's besser sein die alten Karten zu kaufen, so schwach wie die 50"80" und 50"70" werden dürften, wenn die Gerüchte stimmen. Warum sonst würde nVidia auch die 4080 Super schon vor dem Release der 5080 einstellen? Die wird garantiert die bessere Wahl sein.
Ich würde fast behaupten, dass es am besten wäre jetzt noch schnell eine 4080 Super zu kaufen, wenn man unbedingt RT braucht, oder sonst einfach eine 7900XTX, bevor keine bezahlbaren Karten mit mehr als 16GB mehr gibt.
Warten ist ja eigentlich immer ne gute Wahl, aber wenn nVidia die Konkurrenz im eigenen Haus schon vorher abschafft...
Ich denke bei mir wird es am Ende dann doch eine 7900XTX werden, am besten günstig gebraucht. Für mich sind Treiber und Software der große Grund für AMD, und mit der Rasterleistung und dem VRAM dürfte man einige Jahre Ruhe haben, wenn man auf RT verzichten kann. Dann kann man in Ruhe abwarten, bis der Markt zusammenbricht und Karten endlich wieder bezahlbar werden, oder sich alternativ andere Hobbys suchen.
Vigilant
Vice Admiral
- Registriert
- Mai 2008
- Beiträge
- 7.013
Eine sehr universelle und pragmatische Frage. Was braucht es? Was will ich erreichen? Was kann und will ich investieren? Was bietet der Markt aktuell und ganz faktisch zu diesem Zeitpunkt? Wie sehen die nächsten ca. 12-24 Monate hinsichtlich Game-Releases aus?Svennc schrieb:Mal sehen, was das so braucht.
Daran würde ich meine Kaufentscheidung festmachen. Ob es dann in Relation teuer wird oder nicht, ist irrelevant, wenn ich bereit bin und es auch kann, einen bestimmten Preis zu bezahlen.
Alles andere ist doch aktuell Glaskugel-Schaulaufen und Fan-Lager-Tauziehen 🙃.
ElliotAlderson
Lieutenant
- Registriert
- Juni 2024
- Beiträge
- 978
Gerade deswegen sollte sie günstiger sein. Das war ja der Sinn hinter dem Chiplet Designer. Verschiedene Prozesse für verschiedene Komponenten.jo0 schrieb:Die 7900XTX sind ziemlich sicher in der Fertigung teurer wegen dem Chiplet Design.
Was verstehen User wie du daran nicht, dass man bei einer nüchternen Betrachtungsweise mal seine persönlichen Ansprüche außenvor lässt? Mag ja sein, dass dir RT nicht wichtig ist, aber deine Meinung ist nicht die der Allgemeinheit und wenn man es eben objektiv betrachtet, muss man RT berücksichtigen.jo0 schrieb:RT ist immer noch zu unrelevant. Das kannst du argumentieren, wenn mindestens 50% der Spiele Raytracing nutzen und nicht hier und da ein paar Spiele.
Nein, aber ich würde auch nicht den Gamingbereich durch AI subventionieren. Wieso sollte das irgendjemand tun? Ist doch Quatsch.Eli0t schrieb:Das sind Brotkrummen im Vergleich zum AI Geschäft, also alles quasi irrelevant. Es ist nicht so, daß wenn sie auf die nicht mal 10% Umsatz fürs Gaming verzichten, damit auch 10% an Support, F&E & Marketing eingespart werden würden.
Gaming ist Gaming und AI ist AI. Wer denkt, dass ne 4090 unterhalb von 1500€ für Nvidia noch wirtschaftlich wäre, der ist auf dem Holzweg. Ich bezweifle ganz stark, dass Nv pro Karte einen Reingewinn von 500€ macht. Der wird wesentlich niedriger sein.
Und? Was hat das eine mit dem anderen zutun. TSMC wurde mit jedem Prozess teurer. 90nm lagen damals bei $2000 und heute zahlt man $20000 für 3nm. Meinste das wird bei den Prozessen dazwischen anders sein? Die lassen sich ihr Monopol bezahlen und AMD/Nv gibt es weiter.Eli0t schrieb:Nein, nvidia ist oben raus teurer. Es ist auch nicht so, daß beide in 3nm GPUs fertigen würden. Die nvidia AI Chips ausgenommen, das sind aber keine echten GPUs im herkömmlichen Sinne. RTX 5000 Chips sind nach wie vor 5nm (4NP Prozess).
Zuletzt bearbeitet:
heroesgaming
Commander
- Registriert
- Feb. 2022
- Beiträge
- 2.169
Öhm ... AMD?belive schrieb:wer hat das gesagt
Ich nehme an, dass @daknoll etwa solchen Unsinn meint, wenn du offenbar gar nicht verstehst, was du zitierst Oo
Da hast du technisch gesehen recht, das ist Spekulation von @jo0 ...belive schrieb:Das weißt du nicht
... aber du konterst ja selbst mit Spekulation. Auch hier muss gelten: "Das weißt du nicht", wie du es ja selbst formulierst. Es ist sogar gut möglich, dass Nvidia aufgrund der höheren Stückzahlen weniger bezahlt. Und jetzt?belive schrieb:auch wird ada in eine 5nm spezial fertigung gefertigt, das kostet wohl auich etwas. Aber wie viel oder was wissen nur die intern.
Die UVP zum Marktstart lag etwa 300 € auseinander. Ich nehme nicht an, dass vergleichbare Modelle einmal 400 € auseinanderlagen, aber dennoch war der Abstand zu manchen Zeitpunkten recht groß.belive schrieb:Wenn juckt die Vergangenheit? was jetzt ist. wann hat die 4080 mehr als 400€ mehr gekostet als eine xtx? strix mit der billigsten xtx verglichen oder was.
Ich mache diese Erfahrung ebenfalls nicht. Es tut mir leid, dass du das tust. Es gibt aber Leute, die dasselbe von Geforces sagen können. Kleiner Hinweis: Deine Lebenswirklichkeit ist nicht zwangsläufig repräsentativ. Die Froschperspektive eignet sich nicht für derlei Schlussfolgerung.belive schrieb:mist eher fakt lol aber amd fanboys können es nicht zugeben. lmao
Subjektives Werturteil, das du als Fakt verkaufen möchtest. Manchem mögen die Vorteile das Geld nicht wert sein.belive schrieb:günstiger irrelevant weil die 4080 viel mehr bietet für den Aufpreis.
Das kommt auf den Anwender an. Ein Vorteil bleibt es, kein Grund zur Relativierung.belive schrieb:stromanschluss gebe ich dir recht ich hasse die ada stromstecker, aber auch das macht man einmal.
Ich hoffe im Sinne deines allgemeinen Wohlergehens, dass du so wie hier nicht überall kommunizierst.belive schrieb:cool also wusste gar nicht das ich hier nicht so kommunizieren darf wie es andere überall tun. viellicht sollte cb die regeln erweitern weil du das willst.
Du äußerst dich wie einer. Welche Grafikkarte du im Einsatz hast, ändert daran nichts.belive schrieb:cool ich bin nvidia fanboy mit einer 7800xt.
Genauso peinlich.belive schrieb:wenn schon bin ich ps5 fanboy^^
Ich nehme an, du meinst "gescheitert"? An dem Versuch, dich zu belehren, sind das sicherlich schon viele andere.belive schrieb:wohl gescheiter.💔
Kann es übrigens sein, dass du hier als Nutzer mit Namen keepsmiley5750 schon einmal angemeldet warst? Nur so nebenbei ...
- Registriert
- Okt. 2023
- Beiträge
- 2.289
Intel hat auch seine 8 und 10 Kerner CPUs für > 1000 Euro verkauft. Ganz ehrlich das mussten sie auch, ansonsten wäre AMD pleite gegangen. Und so wird die 5070 sehr wahrscheinlich der Gegner der 8800XT.danyundsahne schrieb:Mit diesem Downsizing hat NV mit der RTX40 Serie begonnen und wird mit RTX50 scheinbar direkt so weitermachen.
Dann heißt es vermutlich wieder:
12GB (13,5GB effektiv) gegen 16GB
Bessere Effizienz gegen schlechtere
Vergleichbare Raster Performance
Mehr RT Performance bei Nvidia
Bessere Features bei Nvidia
Ähnlicher Preis, minimal mehr bei der 5070, die günstiger zu fertigen sein dürfte
Wenn diese Gerüchte stimmen, dann wird die RX 8800XT ähnlich zur 7900XT wie damals die RX 480 zur Fury X stehen, sprich langsamer.
Was soll man denn machen? AMD kann ihre RX 8800 XT auch nicht für einen Appel und nen Ei verkaufen. Und irgendwo ist es auch logisch weniger Shader zu verbauen. Das hat man schon bei 4080 vs 4090 gesehen. Rund 30 bis 35% Mehrleistung bei >60% Shader.danyundsahne schrieb:Wie offensichtlich muss das für manche denn noch gemacht werden, damit man endlich mal aufwacht?
Steht jedem frei zur Konkurrenz zu greifen, aber da kann ich dir ziemlich sicher vorab versichern, dass du auch mit mehr für dein Geld bekommst.danyundsahne schrieb:Sowas kann man doch nicht gutheißen und am Ende auch noch NV mit einem Kauf dafür belohnen?!
Die GPU ist ein Playstation Derivat, wie schon Polaris es gewesen ist. Die wird weder an eine 4080 noch an eine 7900XTX rankommen. Eher 4070 Super oder 7900XT.danyundsahne schrieb:Und da soll auch Navi41 grob liegen. Ob der dann 8800XT oder 8700XT heißen wird, dazu gibt es noch keine genaueren Details.
sikarr
Vice Admiral
- Registriert
- Mai 2010
- Beiträge
- 6.679
Und Komplexität und Fehlerrate bzw. Ausbeuten zu erhöhen bzw. zu veringern. Ein großer komplexer Chip ist schwieriger Fehlerfrei zu fertigen als ein kleiner. Aber auch Chiplets haben Probleme was dann die verschaltung untereinander angeht.ElliotAlderson schrieb:Das war ja der Sinn hinter dem Chiplet Designer.
Zuletzt bearbeitet:
cele
Lieutenant
- Registriert
- Jan. 2015
- Beiträge
- 602
Also kaufen, um zu sparen! Dass ich da noch nicht selber draufgekommen bin!sikarr schrieb:Wirklich sparen tust du so oder so nicht, du verschiebst halt einfach nur den Zeitpunkt der Ausgabe + das auch noch evtl. Preissteigerungen drauf kommen, ich glaube nicht das sich das in naher Zukunft ändern wird.
Vielleicht sollte ich wieder fernsehschauen oder den Adblocker deinstallieren, bin werbetechnisch einfach nicht mehr auf dem Laufenden.
Benji18
Rear Admiral
- Registriert
- Jan. 2005
- Beiträge
- 5.379
Feierbiest schrieb:Der Markt kann nur regeln wenn es a) Wettbewerb gibt und man Marktanteile verlieren könnte oder b) ein Rückgang der Verkäufe sich auf den Umsatz und den Gewinn des Unternehmens auswirken würden.
Beides ist aktuell leider nicht der Fall.
dann fragt dich mal wieso das so ist?
Was war damals mit der Rx6000 Serie vs RTX 3000 da hatte AMD deutlich das bessere Preisleistungsgefüge und dennoch war der Umsatz bei Nvidia besser.
Der Nvida Käufer will es so
belive
Banned
- Registriert
- Sep. 2024
- Beiträge
- 346
was? das meiste darunter reine Spekulationen. dude was zahlt dir nvidia so etwas habe ich selten gesehen. du bist der einzige der tatsächlich meint die gpu preise seien niedrig. Das sieht nvidia wohl auch so.Quidproquo77 schrieb:12GB (13,5GB effektiv) gegen 16GB
ruthi91
Captain
- Registriert
- Nov. 2007
- Beiträge
- 3.866
@Affenbrotmann @Svennc
Für weitgehende Generationenvergleiche finde ich die Tabellen hier hilfreich:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/32.html
https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html
Deswegen ist in der Zeit sogar ihr Marktanteil gesunken.
Erst 2 Jahre nach dem Mining Hype gab es die die 6800XT und 6900/6950 als gute Angebote für 500 / 650€. Nur blöd das man dann bereits gegen RTX4000 antreten musste und auf einmal war man Konkurrenz im eigenen Hause. Die 7900er haben so viel mehr gekostet wie sie schneller waren und die 7800XT war gleichauf bei minimal besserer Energieeffizienz. Wo bleibt da der Fortschritt?
Team Radeon schafft es verlässlich kaum ein Fettnäpfchen auszulassen. Ich versteh es nicht warum sie bei Grafikkarten nicht wie bei Ryzen agieren.
Kann nur schlussfolgern, dass der Chiplet Ansatz bei Radeon 7000 voll in die Hose gegangen ist.
Für weitgehende Generationenvergleiche finde ich die Tabellen hier hilfreich:
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/32.html
https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html
AMD war (wie so oft seitdem) genauso wenig lieferbar, weil sie chronisch zu wenig bei TSMC bestellen.Benji18 schrieb:Rx6000 Serie vs RTX 3000 da hatte AMD deutlich das bessere Preisleistungsgefüge und dennoch war der Umsatz bei Nvidia besser.
Deswegen ist in der Zeit sogar ihr Marktanteil gesunken.
Erst 2 Jahre nach dem Mining Hype gab es die die 6800XT und 6900/6950 als gute Angebote für 500 / 650€. Nur blöd das man dann bereits gegen RTX4000 antreten musste und auf einmal war man Konkurrenz im eigenen Hause. Die 7900er haben so viel mehr gekostet wie sie schneller waren und die 7800XT war gleichauf bei minimal besserer Energieeffizienz. Wo bleibt da der Fortschritt?
Team Radeon schafft es verlässlich kaum ein Fettnäpfchen auszulassen. Ich versteh es nicht warum sie bei Grafikkarten nicht wie bei Ryzen agieren.
Kann nur schlussfolgern, dass der Chiplet Ansatz bei Radeon 7000 voll in die Hose gegangen ist.
Zuletzt bearbeitet:
qu1gon
Lt. Commander
- Registriert
- Apr. 2013
- Beiträge
- 1.349
Für mich ist folgendes GANZ KLAR:
Egal welcher Hersteller. Bei den Preisen, was Grafikkarten inzwischen kosten, kaufe ich keine unter 16GB.
Anders formuliert, ich gebe doch nicht 700€ und oder mehr für z.B. ne 5070 aus und bin dann limitiert.
Selbst wenn es nur ein Spiel "wäre" das mehr braucht, da gehts mir einfach ums Prinzip.
Dann kaufe ich lieber keine bzw. warte ggf. auf eine "super" mit 16GB.
Vielleicht hat der schnellere Speicher einen Einfluss darauf und man hat weniger oder gar keine Probleme.
Keine Ahnung, da stecke ich zu wenig drin im Technischen bezüglich Grakas.
Aber mal so grundsätzlich und natürlich auch, weil mir das bei Nvidia inzwischen richtig, wirklich richtig
auf den Senkel geht. Immer das selbe mit dem VRAM.
Egal welcher Hersteller. Bei den Preisen, was Grafikkarten inzwischen kosten, kaufe ich keine unter 16GB.
Anders formuliert, ich gebe doch nicht 700€ und oder mehr für z.B. ne 5070 aus und bin dann limitiert.
Selbst wenn es nur ein Spiel "wäre" das mehr braucht, da gehts mir einfach ums Prinzip.
Dann kaufe ich lieber keine bzw. warte ggf. auf eine "super" mit 16GB.
Vielleicht hat der schnellere Speicher einen Einfluss darauf und man hat weniger oder gar keine Probleme.
Keine Ahnung, da stecke ich zu wenig drin im Technischen bezüglich Grakas.
Aber mal so grundsätzlich und natürlich auch, weil mir das bei Nvidia inzwischen richtig, wirklich richtig
auf den Senkel geht. Immer das selbe mit dem VRAM.
Ähnliche Themen
- Antworten
- 395
- Aufrufe
- 28.012
- Antworten
- 224
- Aufrufe
- 19.396
- Antworten
- 110
- Aufrufe
- 6.664
- Antworten
- 37
- Aufrufe
- 2.917
- Antworten
- 183
- Aufrufe
- 22.323