News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Auch wenn ea ja anders prophezeit wird.

Ich glaube fest das die 2080Ti auch mit dem Release der neuen Karten in den oberen Plätzen landet und die neuen Konsolen kreise zieht.

Mir ist das zwar relativ egal wenn es das gegenteil wäre da ich auch 1000 Euro für ne neue Karte hinlegen kann aber erscheint das szenario einfach als sehr unrealistisch.
 
  • Gefällt mir
Reaktionen: Laphonso
Stalin Orgel schrieb:
Deine Karte ist ein Witz im Vergleich zu dem was die Next-Gen Konsolen können, die 400 Euro hast du leider zum Fenster raus geschmissen... aber immerhin wirst du ab nächstem Jahr dann immer noch alte Games zocken können, ist doch auch was?

Findest du? Ich finde, dass die 5700XT eine sehr tolle Karte ist, P/L technisch gibt es momentan nix besseres. Meine Karte und die 8GB VRAM werden auch die nächsten 2 Jahre noch völlig ausreichend sein um alles erdenkliche mindestens auf hohen Settings in WQHD spielen zu können. Danach hole ich mir eine neue Karte, am Geld mangelt es definitiv nicht, keinen Sorge.

Und was die Konsolen leisten werden, steht bis dato noch in den Sternen.
 
  • Gefällt mir
Reaktionen: matze313
Gerade eine neue Information auf WccfTech gesichtet hinsichtlich des GeForce RTX Ampere Marktstarts, der wohl schon am 31. August winken soll laut nVidia Countdown.


Sehe gerade, dass das schon als Notiz auf CB verarbeitet wurde :).
 
Zuletzt bearbeitet:
Stalin Orgel schrieb:
Was hier viele nicht checken, der Big-Step kommt nicht zum Spaß, ohne diesen Fortschritt wäre man hinter den Konsolen. Diese haben sowieso die bessere Speicherarchitektur.

Guter Witz 😂
 
  • Gefällt mir
Reaktionen: Gsonz
Die Option ist sicherlich "nett", wird sich aber sicherlich in saftigem Aufpreis niederschlagen! Ich lass mich wirklich mal überraschen, ich wäre inzwischen aber nichtmal mehr überrascht wenn Nvidia bei den Preisen sogar leicht runtergeht, immerhin will ja auch ein Reiz für Kunden der 2xxx Karten vorhanden sein. Sicherlich spielen auch die neuen Konsolen eine Rolle, wenn die PC Hardware zu teuer wird dann ist der Reiz einfach zunehmend vorhanden einfach eine Konsole zu kaufen, da spielen die leicht höhren Preise für die Games auch keine Rolle mehr wenn der PC insgesamt das 5x kostet.
Leider scheint sich ja abzuzeichnen das die neuen Karten alle richtige Stromfresser werden. Der Stromhunger ist nicht das Problem, die Abwärme schon, gerade jetzt bei regelmäßig über 30°C wird es glaube ich selbst in meinem Gehäuse mit richtig ordentlicher Belüftung grenzwertig....
Persönlich will eigentlich einen Big Navi, bzw. werde defentiv warten was diese kann, bin aber ehrlich gesagt leider etwas skeptisch insbesondere was den Treiber angeht. Wollte eigentlich zum Release schon eine 5700XT kaufen bis ich von den massiven Problemen gelesen habe die ja teilweise heute noch nicht gelöst sind. Ich hoffe einfach das die Karte so gut und stabil wird wie mein Ryzen.

Mfg
PaWel
 
wundert mich kein Stück, das die RAM größe "deutlich" wächst.

wir erinnern uns an die Marble RTX Demo Link Youtube

Im intro der stolze hinweis, dass diese Demo mit einer einzelnen Quadro 8000 RTX gerendert wurde.... mit schlappen 48GB RAM. Für mich ein extrem deutliches Zeichen das RTX extrem RAM hunrig ist zur zeit.

Wenn dem nicht so wäre, hätte man die Demo auf einer 6000er RTX mit "nur" 24 GB laufen gelassen. Die Leistung der beiden GPU's ist quasi identisch bis auf dem RAM.

Mit einem AMD Fanboy Auge würde man jetzt behaupten, dass die Rote Fraktion in sachen RT einen anderen weg gefunden hat der "extrem" viel weniger RAM braucht für RT aber das ist jetzt nur reines spekulieren aber nett wäre es schon ;)
 
Eine 3070 mit 16GB könnte ich mir als Ablösung für meine 1080 vorstellen. Wenn die Preise allerdings utopisch sein werden (was ich befürchte), dann bleibe ich wohl noch eine Weile länger bei Pascal.
 
  • Gefällt mir
Reaktionen: angband1, SyntaX und Grimey
Kandira schrieb:
Bin mal gespannt wie sich der Release der 3000er auf die Preise der 2000er auswirkt.

Gar nicht, die 2000er gehen einfach EOL.
 
  • Gefällt mir
Reaktionen: Cpt.Willard, icetom und Col.Maybourne
SKu schrieb:
Gar nicht, die 2000er gehen einfach EOL.

Und in der kurzen Zeit bis die alten Karten ganz aus den Regalen/Onlineshops verschwunden sind, wird sich wahrscheinlich auch fast nichts tun bei den Preisen. Jedenfalls wenn es so läuft wie bei den letzten GPU-Generationen. Die neuen Karten werden einfach um das selbe teurer, wie sie schneller/besser sind als die alten Modelle, so dass sich am gesamten P/L-Verhältnis nichts tut und es keine nennenswerten Preissenkungen gibt.

Wenn man das positiv sehen will: Noch nie war Computerhardware so preisstabil wie in den letzten Jahren. :evillol:
 
  • Gefällt mir
Reaktionen: icetom, Col.Maybourne, the_pi_man und eine weitere Person
yummycandy schrieb:

Das sind echt Komiker. Um den August zu "halten" wird es am 31. August vorgestellt. ;)

Chiaki schrieb:
AMD hat keine dedicated Kerne für Maschinelles Lernen, worauf DLSS 2.0 aber nun mal basiert. Das heißt der Klon von Sony wird das Ganze zwar GPU-beschleunigt können, aber bei ähnlichem Algorithmus auf keinen Fall so gut wie Tensorkerne.

Die Aussage ist gefaehrlich, da sich die AMD Karten generell sehr gut im Machine Learning schlagen. Die Kerne sind nicht zwingend noetig, sondern nur Nvidias Weg das umzusetzen. Ausserdem, wer sagt, dass AMD oder Sony einen aehnlichen Algorithmus/Weg gehen muessen? Von dem her ist die Aussage, dass es ohne Tensorkerne nie so gut werden kann zumindest mal gewagt.

Chiaki schrieb:
Die RT Leistung an sich könnte bei AMD sogar besser sein, sofern die Konsolenports nicht nennenswert optimiert werden, da es auf derselben Architektur basiert.

Koennte ja, weil eh auf die Umsetzung von AMD optimiert werden muss fuer die Konsolen.

Chiaki schrieb:
2. Stalker Clear Sky und Stalker Shadow of Chernobyl sind hoffentlich von der Engine her alt genug für dich, dass du einsiehst, dass deine Aussage Mist ist. RT als absolutes Requirement wird bei modernen Engines wahrscheinlich nie kommen (es sei denn ein Spiel ist nur für Pathtracing gedacht) - aber genausowenig zwingt dich irgendwer 30 FPS zu schaffen. Es ging bei der Diskussion um Wirtschaftlichkeit von Tensorkernen.

Das sieht so aus als waeren es Mods. Das unterstuetzt dein Argument mal null, sondern unterstuetzt die Aussage, dass es sich eben nicht lohnt. RT only wird kommen sobald es genug Karten im Umlauf unterstuetzen. Dafuer muessen aber alte ersetzt werden und das dauert Jahre.

Und warum kommst du schon wieder mit den Tensorkernen?! Die haben mit Raytracing nur im entfernten was zu tun.

Chiaki schrieb:
3. Du versuchst dabei wirklich zu behaupten ein generischer Rechenkern kann genau so gut sein wie ein hochspezialisierter Rechenkern? Ich glaube du solltest dich noch einmal im Bereich der theoretischen Informatik umsehen. Dass generische Rechenkerne für alle nicht-RT/-DLSS/-whatever Games besser sind und dafür keine Leistung brachliegt ist genau der Grund warum AMD diesen Weg gegangen ist. Vielleicht ist das sogar der klügere Weg, aber das ändert nichts an den bisherigen Aussagen und der Entscheidung über Wirtschaftlichkeit von RT-/Tensorkernen.

Vielen Dank fuer den Hinweis, ich habe Informatik studiert. Dein hochspezialisierter Rechenkern bringt dir genau null wenn der Rest nicht passt. Oder glaubst du die RT Kerne sind nicht komplett in die Pipeline eingebunden bei Nvidia? Ausserdem war meine Aussage nicht, dass generische Kerne besser sind, sondern, dass dir deine spezialisierten Kerne nur was nuetzen wenn sie wirklich genutzt werden. Werden sie nicht genutzt sind sie tote Chipflaeche. Der generische Kern kann allerdings so oder so genutzt werden und ist damit eben keine tote Chipflaeche. Das ist gerade bei der Wirtschaftlichkeit eine wichtige Ueberlegung. Nvidia benoetigt vorerst mehr Chipflaeche, was teurer ist und die Ausbeute verringert.

Taxxor schrieb:
Das könnte ja nun tatsächlich das erste mal seit langem sein, dass AMD mal in der gleichen Klasse weniger VRAM als Nvidia bietet.
Waren ja für Big Navi bisher nur 12 oder 16GB im Gespräch, steht man dort nun gegen 20 und 24 GB.

Da bin ich auch mal gespannt. Theoretisch gesehen koennten sie aber einfach das doppelte draufklatschen wenn sie GDDR nutzen. Bei HBM wird es wohl schwieriger.

SavageSkull schrieb:
DLSS 2.0 schon gesehen. Diese Raytracing Kerne bringen momentan verdammt viel GPU-Computing, was einem schon heute einiges bringt. An so einer Karte hätte ich sicherlich kein Problem auf einem 4K Fernseher zu spielen.
RTX-Voice nutze ich momentan auch sehr gerne, wenn auch noch mit deutlichen Einbußen auf der 1080.

Auch fuer dich: RT Kerne != Tensorkerne. RT fuer Raytracing, Tensorkerne fuer KI/Compute. Fuer DLSS werden Tensorkerne genutzt.
 
  • Gefällt mir
Reaktionen: Laphonso
Kandira schrieb:
So schnell geht das nicht. Es wird sicherlich ein „Abverkauf“ mit dem ein oder anderen Schnapper geben. Ist nur wichtig, dass man die auch rechtzeitig findet :)

Das geht ratzefatz. Die obligatorischen "Abverkäufe" sind nur reine Psychologie, weil die Rabatte schon zum Start der Karten in den Angebotspreis inkludiert werden. Läuft überall so. Wenn es einen Sale gibt, dann nur kurztfristig und die Ersparnis dürfte überschaubar bleiben. Die dicken Karten bleiben nahezu unverändert im Sortiment und verschwinden irgendwann.
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Schokolade schrieb:
Aber wieso dann so sauer auf Nvidia? Du kannst auch einfach AMD Karten kaufen
Bin nicht sauer auf Nvidia. Bin mir durchaus bewusst, dass ich auch AMD Karten kaufen kann und auch nicht davon abgeneigt. Hatte noch nie persönliche Probleme damit zwischen den beiden hin- und her zu wechseln.
Schokolade schrieb:
Man kann es aber auch anders sehen, mit RTX GPUs kannst du DLSS nutzen und kriegst damit bedeutend mehr FPS, es müssen nicht nur die Rechenintensiven Grafikaufhübschungen sein
Ich war bisher der Meinung, dass DLSS nur im Zusammenhang mit RTX verwendet werden kann und daher auch nur für RTX relevant ist.
Wenn ich mir die Reaktionen von @Xes und @Chiaki hier allerdings anschaue, dann scheint dies ja wohl nicht so zu sein.
Dann kann man (also ich) sich ja durchaus auf eines der neuen Features freuen.
Schokolade schrieb:
Wenn das Argument kommt "Kaum Spiele nutzen das", ist das nur semi richtig. Denn alle AAA Spiele (Die die Grafik vorantreiben) die so erscheinen unterstützen die Funktionen, nur sind eben jetzt nicht all zu viele erschienen seit RTX. Die nächste Welle kommt aber und alle unterstützen es.
Solche Argumente würde ich nicht nützen, da du es allerdings schon aufbringst... AAA Spiele würden mich auch nicht wirklich interessieren. Bis auf HL Alyx und Tomb Raider war ich auf kein AAA Spiel der letzten Jahre gehyped.
 
  • Gefällt mir
Reaktionen: Chiaki und Xes
schnellere Karte, doppelter Speicher,... Hm?! ,... bestimmt auch der doppelte Preis so wie wir Nvidia kennen! :lol:
 
  • Gefällt mir
Reaktionen: Nureinnickname! und Gsonz
ragnaroek666 schrieb:
Meine Karte und die 8GB VRAM werden auch die nächsten 2 Jahre noch völlig ausreichend sein um alles erdenkliche mindestens auf hohen Settings in WQHD spielen zu können.

Guter Witz.
Vielleicht in FullHD gerade so, was ich aber auch bezweifle.
Bis in 2 Jahren hat sich die neue Technik etabliert und eine Konsole knackt deine Grafikkarte nicht nur beim VRAM.
Und wie gesagt, da man eh nur Ports bekommt wirst du eher noch mehr Leistung benötigen.

Was du schreibst trifft höchstens auf eine 2080Ti zu.


Bis in 2 Jahren kauf ich mir eine Karte mit 20 GB VRAM und kann vermutlich gerade so das was du hier dir einbildest ;)

Wir reden ja nicht von Retro Games!
 
Ist Stalin Orgel der neue Account von Player<>One oder wie der hieß?
 
  • Gefällt mir
Reaktionen: Oneplusfan
Shoryuken94 schrieb:
Ich auch. Aber mal bei den Preisen und den Leistungsabstufungen schauen. Würde aber für doe PG132-20 schaon mit 1000€ rechnen.



Jedes Hobby ist Luxus. Gaming ist da aber doch eher noch ein günstiges Hobby. Es gibt viele Möglichkeiten günstig zu zocken und das ganze zu skalieren. Mit steigenden Ansprüchen steigt auch der Preis für das ganze. Aber wo ist das nicht so. Der Golf GTI kostet auch weniger als der Porsche Turbo. Nur weil es teure Optionen gibt, ist ja nicht das ganze Hobby selbst auch teuer. AM PC ist die Preisspanne gigantisch. Und dann gibts da ja auch noch die Konsolen. Gaming ist 2020 nicht mehr Luxus als es vor 10 oder 20 Jahren war.



Wobei man für ~1000-2000€ auch nicht sonderlich viel Auto bekommt. Natürlich kostet alles über Full HD Geld. Keine Frage. Aber mit angepassten Settings kann man heute die meisten Spiele problemlos mit Mittelklassehardware in 1440p spielen. Viele beliebte Multiplayer Games theoretisch sogar in 4K. Aber die beliebtesten PC Spiele sind eSports titel, die eh nicht von hohen Auflösungen viel profitieren. Zumal enorm viele Notebooks hinzukommen.

Ein 15,4 Zoll Notebookdisplay mit 1080p ist schon in etwa so scharf, wie ein UHD 32 Zöller und deutlich schärfer als ein 27 Zoll 1440p Display. Daher ist im mobilen bereich die nachfrage da auch recht gering.


Bleib ich bei. Früher war es auch nicht grad günstig. Aber mittlerweile wurde so an der Preisschraube gedreht. Die 7900 GTX als beispiel damals high end und kostete 525€. Was zahlste denn heute für ne High end karte , es dreifache mittlerweile. Die 525 € kjostet heute ne Mittelklasse Karte. Und es wird leider nicht billiger.
 
  • Gefällt mir
Reaktionen: Stalin Orgel
Onkel Föhn schrieb:
Also wenn es sich dabei um die Karte aus Deiner Signatur handelt GTX 1650 super 4 GB für ca. 165 €,
hätte meiner einer eher zur RX 580 mit 8 GB oder 5500XT mit 4 GB gegriffen.
Die 580´er hat doppelt soviel Speicher und ist gleich schnell und 5500XT hat gleich viel Speicher,
ist dafür aber schneller (siehe Bench im Anhang) und das zum gleichen Preis ...
MfG Föhn.
Bewusst hierzu gegriffen: Effizienter, da ich einen Fertig-PC habe mit schwachen Netzteil (kein Standard Netzteil!) und nur in FullHD gezockt wird. Ein komplett neuer zusammengestellter Rechner lohnt sich für mich derzeit nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
R O G E R schrieb:
Bald haben die Grafikkarten mehr RAM als die CPU :freak:
Beim zocken macht die GPU ja die meiste Arbeit. Passt dann schon.

Frag mich halt was die alles in den VRAM packen wollen!? Die Spiele jetzt gerade nutzen doch deutlich eniger als 10 GB Vram... oder irre ich da?
 
  • Gefällt mir
Reaktionen: Laphonso
Zurück
Oben