News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Spannend ist uebrigens am Rande, dass Micron wohl bei der Entwicklung der naechsten HBM Speichergeneration, HBM Next bzw. HBM3, einsteigen wird, wie bei PCGH zu lesen.

Das duerfte fuer das Gaming-GPU Segment vorerst nicht bedeutend sein, es sei denn die HBM-Technik wird durch den Einstieg eines dritten/nicht-koreanischen Herstellers (nach SK Hynizx und Samsung) und durch steigenden Bedarf im Vergleich zu GDDR-Speicher insgesamt guenstiger.
 
Dann ist ab heute alles optimiert, egal wie es läuft. Wenn das deine Ansicht der Dinge ist, dann gute Nacht. Für mich ist diese Diskussion an dieser Stelle beendet, es wurde genug zum Thema gesagt. Ich habe auch keine Lust mit Menschen zu diskutieren, die nicht mal lesen können.
 
Mcr-King schrieb:
Also ein Ai Chip ist bei weitem nicht so kompliziert wie eine GPU mit RT und Tensor Cores.

Auch hier, woher nimmst du die info? Hast du da genaue Angaben? Bis auf News zu z.B. dem Chip von Baidu habe ich keine technischen Daten gefunden, nur ein Bild mit einem GPU großen Chip auf einem Interposer inkl. HBM.
Wie groß keine Ahnung, wie groß andere Chips sind, wissen wir nicht. Warum also diese Aussage ohne Belege?

Allgemein für AI Chips kann man auch nicht sprechen. Muss man sich ja nur Googles TPU Chips anschauen. Auch das sind GPU Große High Energy Chips, die bei Größe und Leistungsaufnahme auf GPU Niveau spielen.

Mcr-King schrieb:
Ganz davon abgesehen das der GA102 fast 700 mm² mist.

Bislang geht man von 627mm² aus. Und auch hier wissen wir bis zur Bestätigung nichts sicher und auch nicht ob Samsung je so einen Chip gebaut hat und selbst wenn nicht, ob es für sie problematisch wäre. Ausschlaggebend ist hier am Ende eh die Defect Density des Prozesses und die kennen wir nicht. Aber selbst die könnte theoretisch recht hoch sein, wenn die Wafer günstig genug sind, zumal ja auch eine sehr beschnittene Variante des GA102 im Gespräch ist (68 statt 84 SM).

Samsung wird aber auch hier als erster die groben Richtlinien vor Annahme des Auftrags bekommen haben und Nvidia nicht ohne Referenzen auf gut Glück bestellen.

Mcr-King schrieb:
Nein schon alleine durch die RT und Tensor Cores nicht denke die RTX3050 wied bei 150-175 Watt landen.

RT und Tensorcores haben die Effizienz bei Turing auch nicht negativ beeinflusst. Die 2060 hat eine 50% höhere TDP, als die 1060 6GB. Der Realverbrauch liegt etwa bei normalen Spielen 40% höher, die Karte ist aber 65-70% schneller.

Der Mehrverbrauch kommt rein durch mehr Recheneinheiten bei nahezu gleicher Fertigung. RT und Tensorcores verbrauchen nur Energie, wenn Sie genutzt werden und auch dann bedienen sie sich nur am TDP busget.

Werden diese genutzt, dann sprechen wie aber auch von Leistungssteigerungen von mehreren 100% im Vergleich zu Karten, die diese Einheiten nicht haben. Ob man sie nutzt, ist einem ja selbst überlassen.

Das eine 3050 eine TGP von 175Watt hat, wage ich leicht zu bezweifeln, es sei denn, Nvidia bringt weitere Karten darunter. Denn für OEMs und Systemintegratoren braucht man eine Karte, man ohne Probleme und ohne zu großen Anspruch in Fertig PCs bringen kann, sprich optimalerweise 75 Watt bis um die 100 Watt.
 
  • Gefällt mir
Reaktionen: Lübke82
feidl74 schrieb:
wer braucht denn wirklich 16gb vram+? hier werden wieder gezielt bedürfnisse geweckt, die man nicht braucht. abgesehen von der weit höheren stromaufnahme.... werde ich iwann meine 1070 gtx nicht mit einer 3000er aufwerten. warten was da noch so kommt;)

Das kommt auf die Beduerfnisse an, wenn man nur in niedrigeren Aufloesungen mit niedrigen Texturdetails spielt (bspw. kompetitive, hochherzige Shooter-Spieler) oder alle 1 bis allerspaetestens 2 Jahre eine neue Grafikkarte glaubt kaufen zu muessen (da freut sich dann die Umwelt und die Preise werden dadurch natuerlich befeuert), dann reichen RTX 3070 und RTX 3080 mit jeweils 8 und 10GB wohl dicke.

Wer aber mittel- bis langfristig GPUs nutzt (eine oder mehrere GPU-Generationen gerne ueberspringt) oder mit maximalen Texturdetails auf hoeheren Aufloesungen nicht nur Horizon Zero Dawn (das ist erst der Anfang und wenn nVidia Speicherverdoppelung anbieten sollte, duerfte das definitiv einen Schnitt markieren und die Entwickler werden sich jetzt und zukuenftig daran orientieren und vielleicht sieht nVidia das auch gerne, wenn durch so einen Schnitt viele aufruesten werden muessen mangels GPU-Speicher ;) ) sondern auch zukuenftige Titel in 2-4 Jahren oder gar darueber hinaus noch maximal grafiktechnisch ausreizen moechte, der greift jetzt zum doppelt so grossen Speicher bzw. Grafikkarten mit mindestens 16GB Speicherausbau.

Natuerlich duerften 20 GB oder gar 24 GB etwas zuviel des guten sein und die 16 GB der Sweet Spot (von nVidia und AMD/RTG im Gamingbereich der hoechste gemeinsame GPU-Speichernenner), wenn die Geruechtelage denn eintreffen sollte, aber diejenigen, die eine 20+ GB Speicher GPU kaufen, werden diese wegen der Zusatzleistung und nicht der 4 oder 8 GB zusaetzlichen Speichers kaufen wollen.

Die Stromaufnahme spielt ab Performance-Klasse Grafikkarten (also RTX 3060Ti/3070 bzw. RX 6700XT/6800) und darueber) eigentlich nur noch eine untergeordnete Rolle fuer die meisten, denn da zaehlt mehr brachiale Leistung und Langlebigkeit/Speicherausbau als Strom zu sparen im Gegensatz zu Einsteiger- und (untere) Mittelklassekarten sowie Mobil-dGPUs.

Voellig unwichtig ist Effizienz natuerlich nicht, aber man hat ja voraussichtlich auch die Wahl zwischen den Chipgroessen und Verbrauch, sollte den Geruechten nach auch bei den Oberklasse-Chips (GA 104) noch doppelten Speicher bekommen (also bei einer RTX 3070Ti), die sich dann evt. mit dem abgespeckten Grosschip der RDNA2 Navi21 (RX 6900) duellieren koennte oder aber noch deutlich darunter bleiben wird in der Leistung (dann stellt sich die Frage nach der Navi 22/RX 6800(XT) als Gegenspieler und der dort verbauten Speichermenge, mindestens 12 GB GDDR6(X) werden dort aber schon vermutet).
 
  • Gefällt mir
Reaktionen: Shoryuken94
Die einzige Realitätsverweigerung, die ich in dem Thread ausmachen kann sind die hartnäckigen Kommentare, welche darauf pochen, dass "niemand mehr VRAM braucht". Wenn dann ein Spiel (oder mehrere) auftaucht das eindeutig schon mehr als 8 GB VRAM braucht ist es plötzlich "schlecht programmiert".

Das ist schon fast beeindruckende mentale Gymnastik gepaart mit einem sehr kleinen Tellerrand, über den man um jeden Preis versucht, nicht auch nur einen Blick zu erhaschen.
 
  • Gefällt mir
Reaktionen: Pisaro, MCCornholio, TorgardGraufell und 4 andere
Auch du scheinst es nicht verstanden zu haben zwecks der Speicherauslastung.
 
PS828 schrieb:
… bin mal gespannt was eine Hypothetische RTX 3050 Leistet und das bei welchem Preis. Ob RT hier sinnvoll nutzbar ist selbst mit DLSS?

Hm, ich weiss nicht, ob Du mit einer RTX 3050 noch gluecklich werden wirst, denn wenn wir drei GPU-Auskopplungen pro Chip unterstellen, dann koennte ein GA 104 eine RTX 3070Ti, eine RTX 3070 und eine RTX 3060Ti bekommen, ein GA 106 eine RTX3060 und eine RTX3050Ti, aber ob dann auch noch eine RTX 3050 da hineinfaellt und wie weit der Chip dann beschnitten sein wird?

Mit mehr als 6GB wuerde ich fuer eine RTX 3050 in keinem Fall rechnen (auch eine RTX 3050Ti wird wohl bei einigen Texturen dann wegen maximal 6GB Speicher verhungern) … allerdings koennten die Karten wegen der Effizienz als Mobil-dGPUs doch sehr interessant werden, wenn es 6GB Varianten davon geben sollte (bei 4GB Speicher waere das m.E. schon zu wenig/veraltet).

DLSS wird Dir da wenig nutzen, wenn Dir der Speicher einer RTX 3050 oft genug ausgeht, es sei denn Dir sind hoehere Texturdetails generell schnuppe, aber wieso dann eine neue Grafikkarte kaufen ;).
Alleinig DLSS-Faehigkeit wuerde ich da nicht als Massstab nehmen, wenn die Speicheranforderungen (auch bzgl. der Einsteiger- und Mittelklasse-GPUs) rapide zunehmen koennten und unter 6GB dann nur noch wenig geht und erst mit 8GB (als neuen Mindeststandard in 1-2 Jahren) man bei neueren Titeln noch unbeschwert spielen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828 und Mcr-King
Ben81 schrieb:
Diese Individuen ignoriert man ganz einfach die denken nicht weiter als von der Tapete bis zur Wand.

Richtig ich will meine 8GB VRAM nicht mehr missen, auch von 8GB auf 16GB Arbeitsspeicher hat sich gelohnt wenn auch nicht mit maximalem XMP 3433MHz.

Warte noch bis Vermeer und damit sollten sie auch mit vollem XMP laufen. 😉
 
Mcr-King schrieb:
Richtig ich will meine 8GB VRAM nicht mehr missen [...]

Besonders bei deiner recht "schwachen" 570 macht sich der größere VRAM bemerkbar. Über die Texturen bekommst du quasi leistungsneutrale Bildqualität!
 
  • Gefällt mir
Reaktionen: Chismon
Mcr-King schrieb:
Nein schon alleine durch die RT und Tensor Cores nicht denke die RTX3050 wied bei 150-175 Watt landen.

Das Problem ist, dass mit Einfuehrung und ueber die Lebenszeit 6GB noch gut dimensioniert waren fuer eine GTX1060, mit Einfuehrung einer RTX2060 (Vanilla) aber schon nicht mehr (denn da schob man seitens nVidia ja schon einsichtig die 8GB beim "Super" Refresh" nach) und das gleiche wird vermutlich fuer eine RTX 3050 gelten, 6GB werden da leider zum Flasschenhals werden, dann am besten die kleinste 8GB Karte waehlen (eine RTX 3060 oder RTX 3060Ti) und nicht am falschen Ende sparen.

Alternativ koennte man auch bei AMD/RTG vorbei schauen, denn andere Muetter haben evt. auch schoene Toechter (etwa eine RX 6600(XT) kaeme da evt. in Frage, insbesondere, wenn diese mit 8GB kommen sollte, wovon ich eigentlich ausgehe), zumal RT-Raytracing da mangels Leistung noch grenzwertig sein koennte (falls eine RX 6600 eine RX 5700 Refresh auf RDNA1 Basis sein sollte mit etwas besserer Effizienz oder gut undervoltbar).
 
  • Gefällt mir
Reaktionen: Cohen und Mcr-King
Chismon schrieb:
Spannend ist uebrigens am Rande, dass Micron wohl bei der Entwicklung der naechsten HBM Speichergeneration, HBM Next bzw. HBM3, einsteigen wird, wie bei PCGH zu lesen.

Ja um HBM3 war es lange ruhig, interessant, dass hier Micron mit aufspringt. Mal sehen was uns da erwartet, denn HBM hat es im Consumerbereich schwer. Alles über 2 Stacks wird ziemlich teuer. Aber mit GDDR6 und vor allem jetzt GDDR6x erreicht man an kleinen Interfaces im Grunde die gleiche Leistung, und das wohl ein gutes Stück günstiger. Mit dem neuen 21Gbps Speicher erreicht man schon bei 256 Bit 672GBs, bei 384 Bit erreicht man über 1TB/s.

Chismon schrieb:
Das duerfte fuer das Gaming-GPU Segment vorerst nicht bedeutend sein, es sei denn die HBM-Technik wird durch den Einstieg eines dritten/nicht-koreanischen Herstellers (nach SK Hynizx und Samsung) und durch steigenden Bedarf im Vergleich zu GDDR-Speicher insgesamt guenstiger.

Bin gespannt. Schaden wird es den preisen sicher nicht, wenn es einen Player mehr gibt. Die Frage ist nur eher allgemein, wie teuer die Technik am ende wird. Gen 1 ist am Speicherlimit gescheitert. Gen 2 schaiterte bei vielen Produkten erst bei der Verfügbarkeit und dann beim Preis. Nun hat GDDR6(x) so weit eingeholt, dass sich der Aufwand nur in sehr speziellen Anwendungsfällen lohnt. Vielleicht schafftHBM3 ja den Durchbruch in der breiteren Masse und kann sich wieder etwas besser von GDDR6 absetzen. Wünschenswert wäre es.

Da es aber erst 2022 losgehen soll, werden wir wahrscheinlich frühestens 2023 erste Produkte sehen.

scheru schrieb:
Die einzige Realitätsverweigerung, die ich in dem Thread ausmachen kann sind die hartnäckigen Kommentare, welche darauf pochen, dass "niemand mehr VRAM braucht". Wenn dann ein Spiel (oder mehrere) auftaucht das eindeutig schon mehr als 8 GB VRAM braucht ist es plötzlich "schlecht programmiert".


Ist doch alle paar Jahre so. Keiner braucht mehr als 1GB, keiner braucht mehr als 2GB, alles über 4GB ist unnütz und nun sind es halt 8GB.

Es hat sich die letzten Male gezeigt, dass es nicht stimmte und das wird sich auch dieses Mal zeigen. Besonders die Generationswechsel bei den Konsolen haben das meist sehr fix vorangetrieben und so wird es auch dieses Mal sein.

Dabei sind die Anzeichen für einen höheren Vram Bedarf gegeben. Neben den neuen Konsolen brauchen auch viele der neuen Techniken einiges an Speicher. Raytracing ist tatsächlich ziemlich speicherintensiv und wenn die RT leistung steigt, so dass man es in höheren Auflösungen oder mit mehr Rays nutzen kann, dann steigt auch hier der Speicherbedarf. Es steigt im übrigen auch trotz geringerer Framerate die Anforderung an die CPU, da RT massig Draw Calls verursacht und man so trotz extremer GPU last teils auch in CPU Grenzen laufen kann.

Mehr Speicher hat noch keiner Karte geschadet und es gibt es gab bisher auch keine Consumerkarte, die von haus aus so viel Speicher hatte, das man ihn nicht sinnvoll während der Lebenszeit nutzen konnte. Die Liste an Speicherkrüppeln ist hingegen ziemlich lang...

Chismon schrieb:
Alternativ koennte man auch bei AMD/RTG vorbei schauen, denn andere Muetter haben evt. auch schoene Toechter (etwa eine RX 6600(XT) kaeme da evt. in Frage, insbesondere, wenn diese mit 8GB kommen sollte, wovon ich eigentlich ausgehe), zumal RT-Raytracing da mangels Leistung noch grenzwertig sein koennte (falls eine RX 6600 eine RX 5700 Refresh auf RDNA1 Basis sein sollte mit etwas besserer Effizienz).

Das stimmt. Da könnte es auch spannend werden. Denke bei AMD wird man im High End bereich (6900XT) 16GB sehen, in der gehobenen Mittelklasse 12 und darunter dann wahrscheinlich durchgängig 8GB. Evtl im ganz unteren Low End Bereich 6GB.

Beim Refresh sind sich die Gerüchte ja noch nicht einig. Halte aber ein 5700XT Refresh nicht für ausgeschlossen. Erfahrungsgemäß dauert es ja immer recht lange, bis AMD mehrere Chips auf dem markt hat. Da kann man sicher eine Zeit lang gut mit einem 5700Xt Refresh überbrücken.

Vielleicht weckt Nvidias Vram offensive ja auch AMD etwas auf und wir sehen auch da doppelte Speicherausbauten bei den Endkunden, so wie es jetzt schon bei Apple der Fall ist.
 
  • Gefällt mir
Reaktionen: HisN, Mcr-King, PS828 und 3 andere
Shoryuken94 schrieb:
Nun hat GDDR6(x) so weit eingeholt, dass sich der Aufwand nur in sehr speziellen Anwendungsfällen lohnt.

Noch nicht ganz, wenn man dem nachfolgenden, auf WccfTech geposteten Diagramm glaubt, denn HBM2E legt ja gut zu und GDDR6X ist nicht so ein grosser Zuwachs von GDDR6 kommend wie damals wohl noch GDDR5X von GDDR5 kommend:

1597655725257.png


Richtig ist aber was Du schreibst, dass GDDR6X vorlegt und HBM3 bzw. HBM Next das wieder ausgleichen muss (damit HBM2E erschwinglicher/massentauglicher wird) und natuerlich erwaehnst Du ganz richtig, dass HBM(2) eben leider nicht ganz im Gaming-GPU Markt etabliert ist (zumal AMD/RTG - vielleicht mit der Ausnahme einer wassergekuehlten, extra teuren RX 6900XTX Halo-Grafikkarte vielleicht - wohl jetzt keinen HBM2(e) mehr im Radeon Gaming-Segment vorerst mehr bringen duerfte, aber das kann sich mit AMDs Antwort auf Intels FOVEROS bei MCM-GPUs evt. in wieder Zukunft aendern, das wird spanned zu beobachten sein) anders als bei den (semi-)professionellen GPUs.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King und Shoryuken94
Chismon schrieb:
Noch nicht ganz, wenn man dem nachfolgenden, auf WccfTech geposteten Diagramm glaubt, denn HBM2E legt ja gut zu und GDDR6X ist nicht so ein grosser Zuwachs von GDDR6 kommend wie damals wohl noch GDDR5X von GDDR5 kommend:

Das sind besagte besondere Einsatzgebiete. Die Effizienz vom Speicher spielt nur selten wirklich eine große Rolle. In den meisten Bereichen zählt entsprechender Durchsatz und die Kosten. Das heißt nicht, dass HBM2(e) keine Daseinsberechtigung hat. man sieht ja genug anwendungsfälle dafür. Sollte HBM3 der erhoffte große sprung werden, könnte er auch bei gesunkenen preisen wieder für Consumer interessant werden.

Mal sehen, wie sich der markt bis dahin entwickelt. Bis 2022 / 2023 dürfte sich auch beim GDDR Speicher noch was tun.
 
  • Gefällt mir
Reaktionen: Chismon und Mcr-King
Shoryuken94 schrieb:
Mehr Speicher hat noch keiner Karte geschadet und es gibt es gab bisher auch keine Consumerkarte, die von haus aus so viel Speicher hatte, das man ihn nicht sinnvoll während der Lebenszeit nutzen konnte. Die Liste an Speicherkrüppeln ist hingegen ziemlich lang...

QTF
 
  • Gefällt mir
Reaktionen: Cohen und Mcr-King
HisN schrieb:
Ich kann das Game voll angezogen in UHD wundervoll zocken, es schmiert nicht ab, es macht Spaß, es gibt keine Questblocker. Das ist für mich ein guter Port.

Wenn es bei dir läuft, dann ist es ein guter Port? Wie kommst du zu der Aussage? Wenn es bei mir läuft und bei dir nicht, ist es dann ein schlechter Port? Ist deine Erfahrung mit einem Spiel die einzig wahre? Oder meinst du es ist für dich und speziell dein System ein guter Port?

Du merkst hoffentlich, dass wir bei so einer Betrachtungsweise in Schwierigkeiten geraten, weil dann jedes Spiel, was bei dir lauffähig wäre automatisch ein guter Port ist. Wie ich schon geschrieben habe, Igor hat dein Statement eigentlich widerlegt.

Programmierer sind nicht dumm oder faul, dieses Extrem ist genauso schlecht wie zu behaupten, dass alles was bei mir läuft ein guter Port wäre. Wie immer liegt die Wahrheit oft in der Mitte.
 
  • Gefällt mir
Reaktionen: Mcr-King und Shoryuken94
Schön zu sehen dass es mal voran geht. In den letzten Jahren gab es keine klare Abtrennung zwischen High End und Mainstream. AMD zieht mit Big Navi sicherlich auch mit.
 
  • Gefällt mir
Reaktionen: Mcr-King
Mcr-King schrieb:
Ganz davon abgesehen das der GA102 fast 700 mm² mist.

Und anscheinend hat man nicht nur Nvidia für große Chips gewinnen können, sondern auch IBM. Ähnlich groß fällt auch Ampere GA102 aus.

Hier allerdings als 7nm EUV Chip. Und nicht wie bei Nvidia wohl in älteren und einfacheren 8nm.

Aufgrund der Preissituation dürften wir wohl in nächster Zeit mehr von Samsung sehen. Auch wenn deren Prozess nicht ganz mit TSMC mithalten kann. Minimal schlechter, dafür aber verfügbar und günstig sind für viele Firmen sicher eine willkommene Alternative.
 

Anhänge

  • 7B32EE5A-EE56-41E4-A72B-20F119A54BD0.png
    7B32EE5A-EE56-41E4-A72B-20F119A54BD0.png
    817 KB · Aufrufe: 288
Ich glaube ein paar Leute sind unzufrieden das die dickere Grafikkarte die den eigenen Ansprüchen gerecht wird zu teuer fürs Budget ist. Leute wenn ihr Spiele wollt die immer die beste Leistung und Qualität auf eurer Plattform bringen, dann ist ein PC vielleicht zu stressig für euch. Kauft euch eine Konsole oder streamt halt aus dem Netz mit Stadia & Co. Die Passion und die Profession lese ich aus den diversen Beiträgen hier jedenfalls nicht heraus. Nur unzufriedenheit und selbstgemachtes Leid.
 
  • Gefällt mir
Reaktionen: Mumusud, PHuV, Shoryuken94 und eine weitere Person
Die vergessen aber auch immer wieder in den Artikeln, daß es noch Steuern gibt, und vermixen das kräftig. So wie sie es geschrieben haben, ist das alles falsch, was sie da rechnen.
He has now posted on Chiphell forums that NVIDIA's GeForce RTX 3090 is going to feature a starting price of $1399 US. This is $200 US more than the GeForce RTX 2080 Ti which had a price of $1199 US for the Founders Edition. It is stated that this is the starting price as the Founders Edition of the GeForce RTX 3090 could cost an extra $100 which should put the price of the card at $1499 US.
Die 2080TI FE war damals mit $999 angekündigt. Das war OHNE Steuern, was dann zum Endpreis inkl. Steuern bei uns von 1259 € führte. Und die hier angegebenen $1199 waren der Endpreis.

Wenn die Gerüchte mit diesem Preis stimmen würden, dann wären das mit hoher Wahrscheinlichkeit $1399 OHNE Steuern, und bei uns kostet dann die Karte ca. 1699-1799 €, je nach Kurs. Sprich, die 3090 würde dann netto $400 mehr kosten als eine 2080TI FE vor 2 Jahren, und nicht $100 mehr wie im Artikel beschrieben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ArrakisSand, Cyberbernd, Mcr-King und 2 andere
Zurück
Oben