News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Beatmaster A.C. schrieb:
geb ich dir Recht. Allerdings macht einiges kein Sinn, im Bereich 4k Gaming z.B., vor allem beim PC. Das ist nur herausgeworfenes Geld. Warum? Stichwort: Abstand
man merkt kaum ein unterschied von 1440p (die goldene Mitte) zu 4k, auf ein 32zoll TFT, bei 20-40cm Abstand (Standard Desktop Tisch), außer dass die fps um die hälfte einbrechen, um (bei dem kleinen Abstand zum Monitor) ein klein wenig mehr schärfe zu bemerken.
Ich finde (persönliche Meinung) der Unterschied von meinem 13 Jahre alten 2560x1600 aufgelösten 30" zum 3840x2160 aufgelösten 40" (vor 5 Jahren) war genau so eine Welt wie der Sprung von FHD vor 13 Jahren zum alten Dell.

Endlich Details sehen und auch begreifen können, die vorher schön im Bildrauschen untergegangen sind.

Das man nicht 40cm vor seinem Bildschirm sitzen sollte, geht dann wohl dabei unter.
Sitzt ihr wirklich so nah vor euren Briefschlitzen? gg
 
https://twitter.com/NVIDIAGeForceDE/status/1292807987615211521


2020-08-10 15_20_59-(20) NVIDIA GeForce DE auf Twitter_ _#UltimateCountdown https___t.co_VOkdT...png


#21days
 
  • Gefällt mir
Reaktionen: Mumusud, Falc410, legenddiaz und eine weitere Person
Marc53844 schrieb:
Krass, was nvidia plötzlich für Geschütze auffährt.

Wahrscheinlich baut nvidia die karten massiv auf mit einem enorm hohen Preis. Amd kommt dann mit weniger Leistung aber zu einem erheblich besseren Preis den nvidia nicht bieten kann oder nur mit weit weniger Gewinn.

Ist nur meine Meinung. Auf jeden Fall scheint nvidia seinen Konkurrenten ernst zu nehmen und begehen damit nicht den gleichen Fehler wie intel.

Ich bin gespannt.
Ich befürchte das hat weniger damit zu tun die Konkurrenz "Ernst zu nehmen", sondern eher damit das nicht mal Nvidia weiter beim Vram knausern kann.
Die Zeit für mehr ist einfach gekommen.

Nein, ich befürchte das AMD wieder mal gerade so mit der oberen Mittelklasse der Grünen mithalten kann.
Für die Preise im High End bedeutet das dann nix gutes.
 
  • Gefällt mir
Reaktionen: v3locite
@cypeak
Ich weis ja nicht. Freesync ist nett, weil es kein Tearing mehr gibt aber das gleicht noch lange keine deutlich höheren fps aus.
Bei RPGs und Strategiespielen ist mir das fast egal, letztere gehen auch noch mit 40+fps. Aber zumindest in Shootern möchte ich dann doch gerne dreistellige Frameraten, alles andere fühlt und sieht sich einfach schwammig an wenn man besseres gewohnt ist.
 
  • Gefällt mir
Reaktionen: DerKonfigurator
War bei der letzten
Beatmaster A.C. schrieb:
man merkt kaum ein unterschied von 1440p (die goldene Mitte) zu 4k, auf ein 32zoll TFT, bei 20-40cm Abstand

Also wenn du bei 20cm bei 32 Zoll keinen Unterschied merkst, dann würde ich ganz dringend einen Optiker aufsuchen! Liegt aber vielleicht auch gerade daran, dass du so dicht davor sitzt.

Mal zu schweigen davon, dass 40+ bei Monitoren immer gängiger werden. UDH bei 43 Zoll hat in etwa die gleiche Bildschärfe wie 1440p auf 27 Zoll.

Beatmaster A.C. schrieb:
geb ich dir Recht. Allerdings macht einiges kein Sinn, im Bereich 4k Gaming z.B., vor allem beim PC. Das ist nur herausgeworfenes Geld. Warum? Stichwort: Abstand

Genau wegen dem abstand macht es nur wirklich beim PC Sinn, anders als bei Konsolen am Fernseher...

Xes schrieb:
Würde mein Monitor heute kaputt gehen, würde ich mir ernsthaft überlegen nicht doch nur einen 24" FullHD Monitor (eventuell gleich mit 240hz) zum daddeln zu kaufen.
24" reicht ganz nüchtern betrachtet auf meinem Schreibtisch eigentlich auch und bei der Größe ist FullHD noch in Ordnung.


Ganz unabhängig von Spielen möchte ich höhere Auflösungen schon bei anderen Programmen nicht missen. Wer nicht nur am PC zockt liebt die Auflösungen über FHD ziemlich.

Ich selbst habe einen UDH 60Hz und einen 1440p 165Hz Monitor. Möchte beides nicht missen. Der 60Hz Monitor wird aber wohl gegen Ende des Jahres gegen ein UHD 120Hz Modell gewechselt.

Den FHD Pixelbrei würde ich mir bei einer Neuanschaffung nicht mehr antun. Dafür sind 1440p viel zu günstig. Und man kann sogar mit einer geringeren Auflöung als der nativen spielen. Entgegen der vielen Unkenrufe sieht das auch nicht schlimm aus.
 
  • Gefällt mir
Reaktionen: Retroyer, GINAC und Xes
cypeak schrieb:
ja, speicher kostet geld! (oh wunder!)
so eine verdopplung nicht sicherlich nicht billig - gerade bei neuerem gddr6x ...
Ich finde es ist ein großer Unterschied, ob es bspw. nur eine 3070 mit 10 GB gibt (mit passendem Interface natürlich) oder ein Modell mit 8 und eins mit 16 GB.
Zumal Nvidia ganz sicher am Premium-Modell mehr verdient.

Kann mir gut vorstellen, dass einige dann vor der Entscheidung stehen, eine 3070 für 16 Gb zu holen oder eine schnellere und kaum teurere 3080 mit aber nur 10 GB?
Am Ende wird es dann die 3080 20 GB und 300 € über dem Budget :D
 
  • Gefällt mir
Reaktionen: DerKonfigurator, ahuev0 und Shoryuken94
Chiaki schrieb:
Worauf wird sich hier bezogen? Ich habe in diesem Thread immer explizit von DLSS 2.0 und nicht von DLSS gesprochen.
Im Übrigen kann DLSS 2.0 von jedem Spielehersteller selbst implementiert werden; einfach mal besser informieren.
Ich habe mich auch auf 2.0 bezogen. Aber erstmal unfreundlich werden :)

Vergleich verschiedener Kantenglättungsmethoden und vergleich zur nativen Ausgabe sind zwei verschiedene paar Schuhe. Lediglich darauf wollte ich aufmerksam machen. Den Rest meines Kommentars hast du ja gekonnt irgnoriert. Problem ist halt bei der Eigenverantwortlichkeit von DLSS Implementierungen dass es immernoch nur wenige tun. Dies ging auch aus dem Kommentar oben hervor wenn man diesen gelesen hätte.


Wie dem auch sei. Im wesentlichen ging es hier um den potentiellen VRAM und es ist nach wie vor nicht ausgeschlossen dass es einfach die quaddros mit doppeltem VRAM sind und die RTX Modelle haben nur den halben. Werden wir sehen. Ebenso ist nach wie vor nichts über die RT Leistung bekannt oder dessen Umsetzung. Hier wird wohl erst die offizielle Vorstellung Klarheit bringen. Ebenso der Preis ist eine große Unbekannte.

Immerhin muss man Nvidia zu gute halten dass sie, wenn auch unfreiwillig, Diskussionsstoff liefern. AMD hält sich dieses mal ja bewusst zurück. Ich warte ohnehin auf beide Hersteller.
 
Shoryuken94 schrieb:
Ganz unabhängig von Spielen möchte ich höhere Auflösungen schon bei anderen Programmen nicht missen. Wer nicht nur am PC zockt liebt die Auflösungen über FHD ziemlich.
Da hast du auch recht.
Ich hatte in meinem Beitrag ursprünglich auch drinnen stehen, dass dann ein zusätzlicher, großer IPS Monitor mit WQHD oder gleich 4K als Hauptmonitor für alles außer Zocken dazu kommen müsste, hatte das aber zwecks Lesbarkeit rausgeworfen.
Shoryuken94 schrieb:
Den FHD Pixelbrei würde ich mir bei einer Neuanschaffung nicht mehr antun. Dafür sind 1440p viel zu günstig. Und man kann sogar mit einer geringeren Auflöung als der nativen spielen. Entgegen der vielen Unkenrufe sieht das auch nicht schlimm aus.
Für WQHD auf einem 27-32" 4K Screen mag das noch gelten, aber FullHD auf einem WQHD 27" Monitor sieht echt besch...eiden aus.
 
Chillaholic schrieb:
Nein, wir sprachen ursprünglich über ne 2080S ohne RTX.
Du bist derjenige der reingegrätscht ist, meinen Satz aus dem Zusammenhang gerissen hat und ständig versucht mir Dinge vorzuwerfen die ich so nicht gesagt habe. Zuletzt sprachen wir dann über schlechte Verfügbarkeit von DLSS 2.0, nicht der Hardware. Denn die RTX-Serie ist weiterhin gut verfügbar.


DXR ist ein DX12 Feature, wie ich schon sagte.
Das setzt voraus, dass diese Spiele dann auch in aktuellen APIs laufen.
PS5 ist ne AMD-APU, also warum ist das interessant für mich?
Hast du nicht oben noch Leuten erklärt, dass AMD kein echtes RT hat?



Na wenn du dich stattdessen lieber auf wenige AAA-Titel fokussierst mach mal.
Ich zocke eher weniger AAA-Titel, daher für mich ziemlich uninteressant.
Cyberpunk wird wohl das erste AAA-Spiel seit langem, welches ich mir geben werde.
Übrigens zock ich in 1440p, nicht in 4K. 4K-Performance geht voll an mir voll vorbei.
1. Es gibt über 20 Titel mit DLSS 2.0 und es werden immer mehr. Ich weiß nicht wen du mit "wir" meinst, aber der Thread dreht sich um Ampere und du hast dich über Preise von Ampere beschwert, weil Tensorkerne auf der Chipfläche mitbezahlt werden müssen - und das aufgrund von angeblich weniger FPS. Diesen Zahn galt es zu ziehen und nichts anderes. Und da stimmen andere mit mir überein.

2. Die Next-Gen-Konsolen sind allesamt DXR- und somit DX12-fähig. Damit werden alle kommenden Ports und Meinstream-Spiele es auch sein. PS5 hat eine AMD-APU, korrekt. Das heißt es wird Möglichkeiten geben sowohl auf AMD als auch auf nVidia-GPUs so etwas wie DLSS 2.0 zu fahren - aber rate mal welche Kerne bei so einem Machine Learning-Ansatz die bessere Performance haben werden...

3. Oh, ich wusste nicht, dass man für Nicht-AAA-Titel so verdammt viel Leistung braucht. Komische Welt, die du dir da zusammenstrickst. Selbst für 3440x1440 reicht im Übrigen eine 1080 Ti locker für jeden Nicht-AAA-Titel; ich habe nämlich genau dieses Setup. Du solltest dich schon entscheiden ob es um deine persönliche Präferenz geht (dann war dein ganzer Beitrag völliger Nonsens) oder ob es um eine allgemein wirtschaftlich kluge Entscheidung geht (die nach FPS begründet ebenfalls Nonsens wäre).



Kacha schrieb:
Vielleicht solltest du dich vor dem naechsten Kommentar noch mal hinsetzen und dich ueber die Begriffe die du verwendest erkundigen. Du bringst einiges durcheinander.

Aber kurz fuer dich:
Raytracing Kerne != Tensorkerne.
RT Kerne sind Nvidias Implementierung in Hardware, AMD kann das komplett anders loesen und es ist trotzdem Hardware Raytracing.
RT und DLSS sind erstmal unabhaengig.
RT kostet Leistung.
DLSS kann auf eine hoehere Aufloesung skalieren.
RT nutz RT Kerne.
DLSS (ab 2.0) nutzt Tensorkerne.
DLSS war erstmal Nvidias versuch die Leistung von RT zu kompensieren.

Klar soweit?



Kann, machen aber die wenigstens. Erstens, weil sie noch aeltere Engines verwenden. Zweitens, weil es trotzdem mehr Aufwand ist und die grosse Basis der Kunden schlicht keine RT faehigen Karten hat. Und das wird auch noch einige Jahre dauern, bis ueberhaupt mal was mit RT als Requirement kommt.

Edit:



Das setzt aber keine RT Kerne voraus. Das ist nur das was Nvidia macht. Wenn AMD das anders implementiert und in ihre Shader integriert kommt es aufs selbe heraus. Es wird von der Hardware berechnet. Nvidia klatscht halt eigene Einheiten fuer RT, fuer KI, fuer was weiss ich drauf und hofft, dass das der richtige Weg ist. Wenn AMD alles in vorhandene Einheiten integriert hoffen sie eben darauf, dass das so klappt. Vorteil waere bei zweiterem Weg zumindest, dass die Einheiten nicht komplett brach liegen wenn man kein Raytracing verwendet.
1. Danke für die Erläuterung. Dann will ich meine Aussage umformulieren:
AMD hat keine dedicated Kerne für Maschinelles Lernen, worauf DLSS 2.0 aber nun mal basiert. Das heißt der Klon von Sony wird das Ganze zwar GPU-beschleunigt können, aber bei ähnlichem Algorithmus auf keinen Fall so gut wie Tensorkerne.
Und darum ging es mir.

Die RT Leistung an sich könnte bei AMD sogar besser sein, sofern die Konsolenports nicht nennenswert optimiert werden, da es auf derselben Architektur basiert.

2. Stalker Clear Sky und Stalker Shadow of Chernobyl sind hoffentlich von der Engine her alt genug für dich, dass du einsiehst, dass deine Aussage Mist ist. RT als absolutes Requirement wird bei modernen Engines wahrscheinlich nie kommen (es sei denn ein Spiel ist nur für Pathtracing gedacht) - aber genausowenig zwingt dich irgendwer 30 FPS zu schaffen. Es ging bei der Diskussion um Wirtschaftlichkeit von Tensorkernen.

3. Du versuchst dabei wirklich zu behaupten ein generischer Rechenkern kann genau so gut sein wie ein hochspezialisierter Rechenkern? Ich glaube du solltest dich noch einmal im Bereich der theoretischen Informatik umsehen. Dass generische Rechenkerne für alle nicht-RT/-DLSS/-whatever Games besser sind und dafür keine Leistung brachliegt ist genau der Grund warum AMD diesen Weg gegangen ist. Vielleicht ist das sogar der klügere Weg, aber das ändert nichts an den bisherigen Aussagen und der Entscheidung über Wirtschaftlichkeit von RT-/Tensorkernen.
 
Bright0001 schrieb:
Nein, wie gesagt, bei Preisen rund um 1000€ seh ich es nicht ein auch nur diese 5% in hässlich spielen zu müssen, nur weil das Unternehmen in Grün dadurch größere Margen einfahren kann. AMD verkauft 8GB Karten ab 130€, man möge mir einmal begründen, inwiefern das für eine 5-10 Mal so teure Grafikkarte eine akzeptable Ausbaustufe ist.

das ist doch keine frage der akzeptanz! man kann nicht alles mit geld kaufen - was bringen dir 500ps unter der haube, wenn du in einer 30er zone hinter einem lieferwagen fahren musst? ist dass dann nauch nicht einsehbar weil dein auto 100k gekostet hat?
manche hier habe eine echt kindische einstellung.

nvidia kann doch nichts gegen miese software/gaming engines anderer....
 
PS828 schrieb:
Ich habe mich auch auf 2.0 bezogen. Aber erstmal unfreundlich werden :)

Vergleich verschiedener Kantenglättungsmethoden und vergleich zur nativen Ausgabe sind zwei verschiedene paar Schuhe. Lediglich darauf wollte ich aufmerksam machen. Den Rest meines Kommentars hast du ja gekonnt irgnoriert. Problem ist halt bei der Eigenverantwortlichkeit von DLSS Implementierungen dass es immernoch nur wenige tun. Dies ging auch aus dem Kommentar oben hervor wenn man diesen gelesen hätte.
Moment... nur, dass ich das richtig verstehe. Du denkst DLSS 2.0 sei mit einem einfachen Kantenglättungsalgorithmus vergleichbar?
 
Also 20cm bei 32 Zoll in1440p find ich schon sehr an der Scheibe kleben !
Ich habe selber ein 32 Zoll in 1440p 165Hz und sitze so 80-90 cm weg da geht das schon.
Aber finde auch bei 32 zoll ist die grenze für 1440p.
 
Bright0001 schrieb:
Nein, wie gesagt, bei Preisen rund um 1000€ seh ich es nicht ein auch nur diese 5% in hässlich spielen zu müssen, nur weil das Unternehmen in Grün dadurch größere Margen einfahren kann. AMD verkauft 8GB Karten ab 130€, man möge mir einmal begründen, inwiefern das für eine 5-10 Mal so teure Grafikkarte eine akzeptable Ausbaustufe ist.

stimmt AMD verkauft 8GB Karten für 130€ und AMD verkauft 8GB Karten für über 400€.
Und jetzt?
Also ist eine RX5700 mit 8GB gemessen an der Leistung genauso Schwachsinn wie eine RTX 2070/80 mit 8GB VRam.

Bei der 5700 hätte AMD auch Modelle mit 16GB bringen können. Interessiert aber niemanden weil die Konkurrenz auch nur 8GB verbaut.
Somit Melken die genauso wie Nvidia.

Was noch deutlicher wird wenn man als Beispiel eine 5600XT mit 6GB Vram herranzieht.
 
  • Gefällt mir
Reaktionen: CrustiCroc
Chiaki schrieb:
Moment... nur, dass ich das richtig verstehe. Du denkst DLSS 2.0 sei mit einem einfachen Kantenglättungsalgorithmus vergleichbar?
Das was hinten raus kommt ist es offenbar.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Chiaki schrieb:
Ich weiß nicht wen du mit "wir" meinst, aber der Thread dreht sich um Ampere und du hast dich über Preise von Ampere beschwert, weil Tensorkerne auf der Chipfläche mitbezahlt werden müssen
Wir sind ich und der eigentliche Gesprächspartner, bevor du dich eingemischt hast und mich zitiert hast.
Ich habe an keiner Stelle von Ampere geredet, sondern davon gesprochen, dass ich mir auch ne 2080S ohne RTX gekauft hätte.

Chiaki schrieb:
aber rate mal welche Kerne bei so einem Machine Learning-Ansatz die bessere Performance haben werden...
Bin nicht so der Fan von Spekulatius, aber das wird mir deine Glaskugel sicher gleich verraten.

Chiaki schrieb:
Damit werden alle kommenden Ports und Meinstream-Spiele es auch sein.
Es heißt "Mainstream" und die Ports und AAA-Mainstream-Titel interessieren mich herzlich wenig wie ich schon sagte.

Chiaki schrieb:
Oh, ich wusste nicht, dass man für Nicht-AAA-Titel so verdammt viel Leistung braucht. Komische Welt, du dir da zusammenstrickst. Selbst für 3440x1440 reicht im Übrigen eine 1080 Ti locker für jeden Nicht-AAA-Titel; ich habe nämlich genau dieses Setup.

Gerade Indie-Shooter fressen Leistung wie nix gutes.
Kannst ja mal nach Escape from Tarkov und Squad googlen.
In keinem der beiden Spiele komme ich auf meine 165 FPS auf 1440p, selbst mit ner 2080S.
RT juckt mich nicht die Bohne und bis sich das ausreichend verbreitet sind wir schon 3 Generationen weiter.

Chiaki schrieb:
Stalker Clear Sky und Stalker Shadow of Chernobyl sind hoffentlich von der Engine her alt genug für dich, dass du einsiehst, dass deine Aussage Mist ist.
Stalker hat kein DLSS, du hast die News fehlinterpretiert, das gibts jetzt auf Geforce Now.
 
Zuletzt bearbeitet:
Floppy5885 schrieb:
stimmt AMD verkauft 8GB Karten für 130€ und AMD verkauft 8GB Karten für über 400€.
Und jetzt?
Also ist eine RX5700 mit 8GB gemessen an der Leistung genauso Schwachsinn wie eine RTX 2070/80 mit 8GB VRam.

Bei der 5700 hätte AMD auch Modelle mit 16GB bringen können. Interessiert aber niemanden weil die Konkurrenz auch nur 8GB verbaut.
Somit Melken die genauso wie Nvidia.

Was noch deutlicher wird wenn man als Beispiel eine 5600XT mit 6GB Vram herranzieht.
So siehts aus ! Guter Beitrag. AMD ist nicht weniger gierig, und schon gar nicht die Samariter, für die sie hier nicht wenige halten.
Ich denke Big Navi wird auch teuer, aber günstiger als Nvdias "Pendant". Aber das auch nur weil sie von Ampere eh nur die Rücklichter sehen.
 
  • Gefällt mir
Reaktionen: Floppy5885
Discovery_1 schrieb:
Es gibt Menschen, die können nicht mal eben so 400€ für eine Grafikkarte hinblättern.

Das lässt sich doch auf alles übertragen.
Verstehe dieses Argument nicht.

Ich kann auch keine 80.000€ für einen Audi A8 hinblättern, also muss ich mir was kleineres kaufen.
u.s.w
 
  • Gefällt mir
Reaktionen: Bright0001
Zurück
Oben