News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

cypeak schrieb:
das ist doch keine frage der akzeptanz!
Also nochmal Klartext: Nvidia liefert Produkte selbst im High-End Bereich (bisher) so ab, dass das Produkt nicht alle realen Use Cases abdecken kann, aka ordentliche Performance selbst bei schlecht optimierten spielen. Sie könnten dem relativ leicht beigehen, da 8GB mehr vor allem in Relation zu den aktuellen Preisen einfach nichts kosten.

cypeak schrieb:
man kann nicht alles mit geld kaufen - was bringen dir 500ps unter der haube, wenn du in einer 30er zone hinter einem lieferwagen fahren musst? ist dass dann nauch nicht einsehbar weil dein auto 100k gekostet hat?
Das Beispiel fruchtet nicht so richtig, wie wärs damit: Du kaufst dir nen teuren SUV, bei dem nach dem ersten Schlagloch direkt die Achse bricht. Sagst du dann auch "Aber 95% aller Straßen sind in Ordnung" und "Für schlechte Straßen kann doch der Autobauer nichts"? Und wenn du dann auch noch weißt, dass man die Achse nur so schwach eingebaut hat, weil man aus seinen 40% Marge keine 38% machen wollte, dann wärst du doch irgendwo pissed, oder nicht?

cypeak schrieb:
manche hier habe eine echt kindische einstellung.
Und manch einer einen kindischen Umgangston.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Shoryuken94
Nureinnickname! schrieb:
Normal ist Nvidia doch dafür bekannt am VRAM zu sparen, das die Karten nicht so lange benutzt werden können, da klingen die Daten schon unrealistisch.

Nope. Schonmal geschaut, wie übelst eine Rampreise in den Keller gegangen sind?

Bleibt nur zu hoffen, dass die Chinesen sich jetzt nicht mit Taiwan, wo hier und da produziert wird "friedlich wiedervereinigen" wollen.
Die Kriegsmarine wird da ja massiv hochgerüstet.
 
Also ich versteh nicht was diesen VRAM-Wahn soll...
Es liest sich so als wenn die neue Graka Generation kommt alle die jetzt "nur" 8GB VRam haben nicht mehr spielen können...
Klar mehr VRam ist schön und gut aber da ich keine Interesse an WQHD oder 4K habe und weiterhin in FHD spielen werde (und ich kann alle Spiele auf Max Details spielen), ist das ganze FÜR MICH nur übertrieben: mein Monitor mit FHD / 144Hz reicht mir ganz gut.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, Benni82 und monstar-x
Finde ich echt frech von nvidia. Warum bringt man eine 3060 mit gerade mal 8 GB? Die heutige 2060 super hat schon 8gb Eine 3070 mit 8gb und eine 3080 mit 10 GB?
Das ist viel zu wenig für die heutige Zeit! Und die Karten mit mehr Speicher werden 100 % viel teurer. Wahrscheinlich noch mit leicht besseren Taktraten um das melken zu rechtfertigen. Aber die Leute kaufen es halt...
 
  • Gefällt mir
Reaktionen: Onkel Föhn
freezer255 schrieb:
Warum bringt man eine 3060 mit gerade mal 8 GB?
Weil man es kann, wird immer genug Leute geben die VRAM für unwichtig erklären.
 
  • Gefällt mir
Reaktionen: Wow4ikRU
Das ist ganz schön viel Speicher = ganz schön viel teuer. Bin auf die Leistung und vor allem den Preise gespannt. Grafikkarten über 400 € sind so oder so nicht mein Fall. Das P/L fällt für gewöhnlich stark ab, bzw. der Preisaufschlag für das bisschen mehr Leistung lohnt sich für mich nicht mehr. Bevor ich so viel ausgeben benutze ich einfach die Einstellmöglichkeiten im Spiel.
 
Also die Mittelerde games konnte ich nur auf UHD maxed Out mit meiner 390X zocken weil die 8 GB VRAM hat und diese Games wie viele andere diese auch ausnutzen. Würde mir im Traum nicht einfallen jetzt eine Karte mit 8 GB zu kaufen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
@Chillaholic
Schon klar,ich würde eher sagen weil die Leute es nicht besser wissen und oft keine bessere Option haben, da amd bei vielen einen schlechten Ruf hat.
@Malikos : Weil gerade der Trend zu hohen Auflösungen und RTX geht und beides benötigt viel vram. Außerdem werden die Konsolen deutlich über 8gb vram haben
 
Und weiter geht die Sonderbehandlung von Nvidia!

Einen 2080Super Nachfolger mit 10GB und 20GB zu bringen hat schon was von Ironie.

Entweder man kann einschätzen in welcher Leistungsklasse welche Karte für Games benötigt oder nicht.

Wir sprechen hier schließlich nicht von Computing Karten die unterschiedlich viel VRAM benötigen können.

Mir kann keiner erzählen dass die nächsten Jahre 8 oder 10 GB ausreichen, es ist typisch das Nvidia wieder die kleineren Modelle und sogar eines aus der Oberklasse massiv beschneidet, damit sich Leute nach 1-2 Jahren erneut eine 500 Euro oder noch teurere Karten kaufen.

Bin auch sehr gespannt auf die Preisgestaltung, die 20 GB werden sicher saftigen Aufpreis kosten, ob man dann 700 Euro für so eine Karte hinlegen muss? Bei der Preisgestaltung von Nvidia wäre das alles andere als eine Überraschung.

Mondpreise, verarsche beim VRAM und Features bei den kleinen Karten (die eben nicht genutzt werden können) gehört leider zum Standardprogramm des Herstellers. Wenn die kleinen Karten wenigstens nicht über die Jahre ebenso teuer geworden wären.
Früher hat man ein Flagschiff für 400 Euro bekommen, das war dann auch echt die schnellste Karte. Heute ist das der Einstieg bei Nvidia mit der geringsten VRAM Bestückung, was anderes lässt dieser Leak nicht vermuten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Discovery_1 schrieb:
Es gibt Menschen, die können nicht mal eben so 400€ für eine Grafikkarte hinblättern.

So ist es überall im Leben. Dann muss man halt eine oder auch zwei Klassen kleiner Kaufen. Es kann sich auch nicht jeder den erste Klasse Flug nach Tokio leisten oder einen neuen Porsche Turbo. Trotzdem werden Diese Dinge für den entsprechend vermögenden kunden angeboten.

Seit Jahren gibt es neben den High End Grafikkarten auch genug günstige Modelle, für für Full HD völlig ausreichend sind. Und die wird es wohl auch weiterhin geben.

cypeak schrieb:
nvidia kann doch nichts gegen miese software/gaming engines anderer....

Nö können Sie auch nicht. Sie können mir als Premiumkunden aber das Werkzeug an die Hand geben, mit dem das kein Thema ist. Denn in dem Preisbereich ist es eigentlich kein Thema mal eine entsprechend angemessene Speicherbestückung zu verbauen. Es geht schlicht um den gegenwert den man für sein Geld bekommt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
" Mir kann keiner erzählen dass die nächsten Jahre 8 oder 10 GB ausreichen, es ist typisch das Nvidia wieder die kleineren Modelle und sogar eines aus der Oberklasse massiv beschneidet, damit sich Leute nach 1-2 Jahren erneut eine 500 Euro oder noch teurere Karten kaufen."

Wär als Unternehmer auch bissel doof wenn man Produkte so gestaltet das man in kommenden jahren kein umsatz mehr macht oder?

Und früher hat mein nicht Highend rechner gute 4000 Mark gekostet und ja da war noch viel Luft nach oben offen.
Aber früher war ja alles besser^^
 
  • Gefällt mir
Reaktionen: Onkel Föhn
PS828 schrieb:
Das was hinten raus kommt ist es offenbar.
Du findest einen Algorithmus, der ein 4K Bild darstellt, indem ein 1080p Bild berechnet und per Deep Learning mit 16K Bildern als Basis um Details ergänzt wird und das Ergebnis für die allgemeine Gamingpresse teilweise besser aussieht als natives 4K vergleichbar mit einem Kantenglättungsalgorithmus?

Wusste gar nicht, dass Kantenglättungsalgorithmen die Auflösung von Bildausgabe erhöhen können.
 
Stalin Orgel schrieb:
Mir kann keiner erzählen dass die nächsten Jahre 8 oder 10 GB ausreichen, es ist typisch das Nvidia wieder die kleineren Modelle und sogar eines aus der Oberklasse massiv beschneidet, damit sich Leute nach 1-2 Jahren erneut eine 500 Euro oder noch teurere Karten kaufen.


Ja richtig mies, dass Nvidia mir auch noch die Wahl lässt. Nachdem die leute Jahre lang gemeckert haben, dass es keinen doppelten Speicherausbau gibt, wird nun über die Wahloption gemeckert.

Und wenn man sich hier die Kommentare anguckt, dann bekommt man schon den Eindruck, dass vielen 10Gb reichen. Die können dann ja die kleine Version kaufen.

Stalin Orgel schrieb:
Bin auch sehr gespannt auf die Preisgestaltung, die 20 GB werden sicher saftigen Aufpreis kosten, ob man dann 700 Euro für so eine Karte hinlegen muss? Bei der Preisgestaltung von Nvidia wäre das alles andere als eine Überraschung.

Kommt drauf an, was man unter "saftig" versteht. Da die UCP der 2080 Super bereits bei 740€ lag, sind 700€ wohl kein allzu unrealistische Erwartung.

Stalin Orgel schrieb:
Mondpreise, verarsche beim VRAM und Features bei den kleinen Karten (die eben nicht genutzt werden können) gehört leider zum Standardprogramm des Herstellers.

Was eine Frechheit, dass Sie kleine Karten nicht künstlich bescheiden. Richtig miese Abzocke.... Ach Moment. Hier möchte tatsächlich mal jemand, dass Features künstlich beschnitten werden? Liest man selten.
 
  • Gefällt mir
Reaktionen: JohnnyTexas, milliardo und Leereiyuu
Chillaholic schrieb:
Wir sind ich und der eigentliche Gesprächspartner, bevor du dich eingemischt hast und mich zitiert hast.
Ich habe an keiner Stelle von Ampere geredet, sondern davon gesprochen, dass ich mir auch ne 2080S ohne RTX gekauft hätte.


Bin nicht so der Fan von Spekulatius, aber das wird mir deine Glaskugel sicher gleich verraten.


Es heißt "Mainstream" und die Ports und AAA-Mainstream-Titel interessieren mich herzlich wenig wie ich schon sagte.



Gerade Indie-Shooter fressen Leistung wie nix gutes.
Kannst ja mal nach Escape from Tarkov und Squad googlen.
In keinem der beiden Spiele komme ich auf meine 165 FPS auf 1440p, selbst mit ner 2080S.
RT juckt mich nicht die Bohne und bis sich das ausreichend verbreitet sind wir schon 3 Generationen weiter.


Stalker hat kein DLSS, du hast die News fehlinterpretiert, das gibts jetzt auf Geforce Now.

1. Ich hatte dich mit Rastla verwechselt, der schrieb, dass er nicht extra für RTX zahlen will; mea culpa. Wo ich dich zitiert hatte ging es um RT Kerne, die du für unbedeutend hältst. Wenn man es strikt betrachtet stimmt das vielleicht sogar aus einer subjektiven Sicht. Aus einer deskriptiven Sicht ist es aber völliger Quatsch, weil RT Einzug in den Mainstream und gängige Engines hält.

2. Man braucht nicht spekulieren um zu wissen, dass ein ASIC schneller ist als ein FPGA und ein FPGA schneller ist als eine generische CPU für einen bestimmten Einsatzzweck. Genauso verhält es sich mit generischen Shadern, RT Kernen und Tensorkernen.

3. Ok, ich wusste nicht, dass du 165 FPS brauchst um klarzukommen. Deine persönlichen Ansprüche sind dann schon echt hoch und bei den Anforderungen wäre eine Chipfläche voll mit generischen Shadern für dich besser. Aber wir wissen schlicht nicht, wer die meiste generische Performance liefern können wird. Es kann sein, dass AMD 550mm² Chipfläche hat, nVidia aber 700mm² von denen 550mm² für generische Shader draufgehen. Aber deine Glaskugel weiß es ja vielleicht besser.

4. Da hast du recht, ich hab die News fehlinterpretiert. Dann nehmen wir stattdessen halt Minecraft. Ist die Engine da für euch alt genug? https://www.ozarc.games/best-dlss-games/
 
Bright0001 schrieb:
Also nochmal Klartext: Nvidia liefert Produkte selbst im High-End Bereich (bisher) so ab, dass das Produkt nicht alle realen Use Cases abdecken kann, aka ordentliche Performance selbst bei schlecht optimierten spielen. Sie könnten dem relativ leicht beigehen, da 8GB mehr vor allem in Relation zu den aktuellen Preisen einfach nichts kosten.

der usecase der da lautet "miese software läuft nicht anständig" ist nicht wirklich was, das nvidia lösen könnte.
wenn die lösung eines gpu herstellers, die sich als sehr perfromant herausstellt, wegen der schlechten portierung/implementierung der software ihre performance nicht umsetzen kann, wird man wohl dafür weder amd noch nvidia beschuldigen können.
du kannst auch nicht sagen ich zahle 100k für das medikament aber es konnte kein krebs heilen; ist ja unverschämt, war es doch ein "highend-paracetamol".

und 8gb schnellen vram kosten sehr wohl was; wenn das 4x 2GB gddr6 sind, dann bezahlst du aktuell im 1000er batch rund 96$ dafür - nicht unerheblich bei den hk.

das beispiel das ich brachte, beschreibt den sachverhalt fast perfekt - die erwartungshaltung ist dass ein teueres und ansich schnelles fahrzeug überall diese eigenschaft ausspielen kann - was so auch auf deiner "rumpelpiste" oder eben in einer 30er zone nicht stimmt; man kann da kaum den autohersteller in die pflicht nehmen.

das ist schon einwenig kindisch, da belibe ich dabei.
es schwingt da so ein "mimimi-ich-will-aber" ton den kinder manchmal an den tag legen...

ich würde sagen, wir lassen das an der stelle, bevor es entgleist und die mods eingreifen.

Shoryuken94 schrieb:
Nö können Sie auch nicht. Sie können mir als Premiumkunden aber das Werkzeug an die Hand geben, mit dem das kein Thema ist. Denn in dem Preisbereich ist es eigentlich kein Thema mal eine entsprechend angemessene Speicherbestückung zu verbauen. Es geht schlicht um den gegenwert den man für sein Geld bekommt.

zum einen ist es schon öfters hier im thread gesagt worden: bei den heutigen games geht eher die gpu in die knie, als das einem der speicher ausgeht.
zum anderen kann man nach dieser argumentation ja zumuten dass game-/engine-entwicker jede beliebige menge an vram vorraussetzen können - aber sie müssen sich nach der durchschnittlichen kunden richten um eine entsprechende reichweite bei den kunden zu haben.

und in aller regel hat man ein werkzeug um dem problem zu begegnen wenn ein game mit den ressourcen nicht auskommt: den textur/detail/qualität schieberegler einwenig herunterdrehen.
alles andere ist die überzogene erwartungshaltung dass man alle probleme los wird, wenn man sich das jeweils teuerste produkt anschafft - aber das muss jeder persönlich mit sich ausmachen ob das produkt das geld wert ist.
im zweifelsfall einfach nicht kaufen. (ich weiß, dass ist ein unpopulärer standpunkt wen es um konsum und den "haben-wollen-reflex" geht..)
 
  • Gefällt mir
Reaktionen: Viper2000
Malikos schrieb:
Also ich versteh nicht was diesen VRAM-Wahn soll...
(und ich kann alle Spiele auf Max Details spielen)

Du bist der erste Mensch den ich kenne, der alle Spiele hat.
Aber Du bist nicht der erste, der die leere Floskel "max Details" benutzt.

Ich sag da gerne max Settings zu. Und das sieht bei einer 2080TI z.b. so aus: 13 FPS in FHD.
rdr2_2020_03_08_22_39q8kl8.jpg


Und braucht trotzdem 13GB VRAM.
 
  • Gefällt mir
Reaktionen: Wow4ikRU, Coenzym, Onkel Föhn und eine weitere Person
Chiaki schrieb:
Du findest einen Algorithmus, der ein 4K Bild darstellt, indem ein 1080p Bild berechnet und per Deep Learning mit 16K Bildern als Basis um Details ergänzt wird und das Ergebnis für die allgemeine Gamingpresse teilweise besser aussieht als natives 4K vergleichbar mit einem Kantenglättungsalgorithmus?

Wusste gar nicht, dass Kantenglättungsalgorithmen die Auflösung von Bildausgabe erhöhen können.
Es geht mir rein um das Ergebnis. Die können auch zum Mond Fliegen damit. Und optisch betrachtet fehlt der Mehrwert zum nativen und die Verbreitung.
 
Chiaki schrieb:
4. Da hast du recht, ich hab die News fehlinterpretiert. Dann nehmen wir stattdessen halt Minecraft. Ist die Engine da für euch alt genug?
Das ist ausschließlich der Microsoft-Store-Relaunch den keiner spielt, weil man ihn nicht modden kann.
Der wurde ja extra in DX12 relaunched und hatte schon länger RT-Implementierung.
Hat für mich übrigens auch absolut keine Relevanz.

Chiaki schrieb:
Aber deine Glaskugel weiß es ja vielleicht besser.

Meine Glaskugel? Du bist doch derjnige der die Performance noch vor der Ankündigung kennt. 🤷‍♂️
 
legenddiaz schrieb:
Tu mir bitte nicht so als ob du ne Ahnung der Herstellungskosten hättest...
Ich war auf einer geschlossenen Veranstaltung mit Lars Weinand , official Nvidia Produktmanager, auf der dreamhack letztes Jahr, und ich meine, ich hatte dazu auch schon mal etwas berichtet, insbesondere über das Ti Modell und die Platzierung im Segment und den Preis.

Und was hast du so für Quellen?
Genau, dachte ich mir 😋

Und: Einen 2080Ti Nachfolger für 800 € - 1000 € FE?

Also 999 Euro als offizielle Untergrenze „UVP“ wäre ja schon ein Jackpot.
Ich bezweifle das sehr, vor allem bei 16-24 GB VRAM
 
Manchmal bin ich so paranoid zu glauben es sitzen Leute von Nvidia in den Foren/Reddit und lesen sich die "vorraussichtlichen" Preise durch, die Leute für realistisch halten. Wenn da Leute sagen: "Die 3090 kostet sicher 1999€ oder mehr" und einige Leute zustimmen, dann leiten die es weiter und setzen den Preis auf 2199€ :D Nicht, dass die wirklich hart kalkulieren, sondern auf ihre "Fans" hören, wieviel sie bereit wären zu zahlen.
 
  • Gefällt mir
Reaktionen: TorgardGraufell, russianinvasion, Duffy Duck und 3 andere
Zurück
Oben