News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Wenn eine Karte 4GB Speicher hat und die andere 8GB, die 4GB Karte aber 3-mal effizienter mit dem Speicher umgehen könnte, würden hier trotzdem 90% die 8GB Karte nehmen, weil ist ja mehr.

Also ist es erstmal sowieso sinnlos, sich über den Speicherausbau einer neuen Architektur und Kompression zu beschweren, wenn noch keiner weiß, wie es am Ende wirklich aussieht.

Und mal ehrlich, eine krumme Anbindung kann doch niemand ernsthaft wollen.
Ich hätte es an Nvidias Stelle genauso gemacht, an einem Mehrangebot ist noch nie jemand gestorben. Soll ja auch Menschen geben, die mit Low Texturen spielen wollen, wenn das Vorteile im Gameplay hat. Warum soll man so jemandem die Möglichkeit nehmen, Geld zu sparen?
 
  • Gefällt mir
Reaktionen: CoolerTypderTyp, Shoryuken94 und Hardware_Hoshi
Vitec schrieb:
Ampere wird teuer, aber hat auch potential ein ordentliches Leistungspaket abzuliefern.
Billig wird es sicher nicht, aber man kann die Hoffnung haben, dass Sie die Themen die Sie mit Turing angefangen haben nun auf ein Level bringen, wo man diese Features nicht mehr missen möchte.

Ich mag den Ansatz, dass man nicht einfach nur immer mehr Recheneinheiten auf den Chip packt, sondern einen smarten Weg sucht, um die Architektur zu verbessern. Und in den paar Spielen die es aktuell mit DLSS 2.0 gibt, ist die potentielle Leistungssteigerung wirklich extrem. Ich bin gespannt.


Vitec schrieb:
Und wem es zu teuer ist, warum nicht auf dem Gebrauchtmarkt dann die jetzige Gen abgreifen. Nur weil Ampere kommt sind die jetzt ja nicht unbedingt Altmetall.

Zum einen das zum anderen wird die eigene aktuelle Hardware ja nicht schlechter, nur weil es eine neue Generation von Nvidia gibt. Wer jetzt eine 5700XT, 2070S, 2080 oder was auch immer hat, kann damit noch lange Spaß haben. Alles was Ampere dieses Jahr in High End Karten zeigt, wird es früher oder später dann auch in günstigen Mittelklasseprodukten geben.
 
  • Gefällt mir
Reaktionen: Lübke82
Oneplusfan schrieb:
Wenn eine Karte 4GB Speicher hat und die andere 8GB, die 4GB Karte aber 3-mal effizienter mit dem Speicher umgehen könnte, würden hier trotzdem 90% die 8GB Karte nehmen, weil ist ja mehr.

Von 4 auf 8Gb vielelicht nicht, aber in der Vergangenheit hat man durchaus gesehen wie Nvidia mit z.b. 6 vs 8GB gepunktet hatte. Leider sind viele Spieler geradezu gierig und wollen aus Prinzip höhere Zahlen.
Dass dann aber Karten oftmals nicht genügend Rohleistung haben um diesen vRAM auch mit Rohleistungs aus der GPU zu versorgen, wird jedoch nur all zu gerne verschwiegen.

Ich schüttle bis heute noch den Kopf, wie viele uninformierte Leute z.B. die 290X mit 8GB loben. Wurden zwar von AMD preislich verramscht und wieder und wieder als refresh gebracht. Richtige Vorteile gab es meist nur im Kopf!

Oneplusfan schrieb:
Also ist es erstmal sowieso sinnlos, sich über den Speicherausbau einer neuen Architektur und Kompression zu beschweren, wenn noch keiner weiß, wie es am Ende wirklich aussieht.

Genau das finde ich das tükische und sogar verlogene an der Diskussion. Da sind mal wieder unzählige Experten unterwegs, die alles aus dem Kaffeesatz lesen können. Ohne echte Infos ist mir das zu vage.

Oneplusfan schrieb:
Soll ja auch Menschen geben, die mit Low Texturen spielen wollen, wenn das Vorteile im Gameplay hat. Warum soll man so jemandem die Möglichkeit nehmen, Geld zu sparen?

Low Texturen ist vielleicht übertreiben, es sei denn man hat eine zu alte und in Sachen Rechenleistung zu unterdimensionierte Karte. Meistens reden wir eher vom Unterschied von High auf Ultra Texturen. Diesen Sprung sieht man in den meisten Titeln nicht einmal ohne Standbild und Superlupe.

Texturen bringen aber meiner Meinung nicht so viel wie z.B. Upscaling mit DLSS 2.0. Die KI des Deep Learning Netzwerks holt oftmals noch mehr aus der Grafik. Darunter auch Texturen, die im Bestfall aufgewertet werden. Das kommt von den vielen Samples beim Training im Nvidia Server.
Wir Gamer profitieren davon, egal wieviel vRAM wir haben. Das wird leider zu oft unter den Tisch gekehrt!
 
Shoryuken94 schrieb:
[..]Rechnen wir da mal fix 35% drauf. Hoppla da sind wir ja auch bei 2080Ti Preisen.
Ja also, dann passt es ja was ich gesagt habe:
>_< schrieb:
[..]Wir könnten uns also in weiteren 12 Jahren irgendwo bei 5.250 € wiedersehen - für eine Grafikkarte...

Hardware_Hoshi schrieb:
Bei PCs sind es die immer kleineren Fertigungsverfahren, deren Forschung und Entwicklung enorme Summen verschlingt. [..]
Mag sein, dafür wird dieses Produkt aber auch weltweit verkauft - viele Alternativen gibt es gar nicht. Wer in der kapitalistischen Welt nicht am Ball bleibt, schafft automatisch ein Spielraum für andere Entwickler -aus klein wird groß.
Meiner persönlichen Meinung nach werden das in naher Zukunft chinesische Hersteller übernehmen.
 
>_< schrieb:
Mag sein, dafür wird dieses Produkt aber auch weltweit verkauft - viele Alternativen gibt es gar nicht. Wer in der kapitalistischen Welt nicht am Ball bleibt, schafft automatisch ein Spielraum für andere Entwickler -aus klein wird groß.

Nein, überhaupt nicht!
Im Grafikkartenbereich hatten wir bereits ein großes Sterben in den 90'ern bis Anfang 2000er. Nvidia und ATI waren als einzige üblich mit ein paar Nischenherstellern wie Matrox. Heute haben rot und grün so viel Vorsprung, es wird nahezu unmöglich das aufzuholen.

Aber selbst damit ist keine Gleichheit gegeben. Nvidia steckt wesentlich mehr Geld in Forschung und Entwickler als AMD überhaupt Umsatz hat. Auf Dauer merkt man den Unterschied. Das kostet jedoch viel Zaster, genau so bei Foundries wie TSMC. Diese Kosten werden an uns Endkunden weitergegeben. So funktioniert Kapitalismus und das soll er auch!

Also weniger heulen und schauen was in dein Budget passt. Alternativ hast du noch Boykott, aber das ist auch keine Dauerlösung!

>_< schrieb:
Meiner persönlichen Meinung nach werden das in naher Zukunft chinesische Hersteller übernehmen.

Falsch!
Die Chinesen können nur kopieren, selbst aber nichts entwickeln. Alles was sie je getan haben, sind billige Kopien oder eine Frankensteinversion bekannter Technologien. Man darf China nicht überbewerten. Den Ruf der billigsten Ramschware haben sie sich nicht umstonst verdient!

Außer Überwachung und dikatorischen Maßnahmen ist nichts weltführend in China!
 
  • Gefällt mir
Reaktionen: CoolerTypderTyp, Lübke82 und Cyberbernd
>_< schrieb:
Ja also, dann passt es ja was ich gesagt habe:

Na ja nicht wirklich. Dann gäbe es ja keinen Grund sich aufzuregen, denn dann wäre ja eine 2080Ti nicht stärker im Preis gestiegen, als deine anderen vergleiche ;)

>_< schrieb:
Mag sein, dafür wird dieses Produkt aber auch weltweit verkauft

Autos etwa nicht? Und weil ein Produkt weltweit vertrieben wird, ist es egal, wenn die Komplexität extrem steigt? Kaum ein Herstellungsprozess wurde in den letzten Jahren schwieriger, als der in der Halbleiterindustrie. Wenn man mal alleine schaut, wie lange die EUV Beleuchtung gebraucht hat, bis sie Serienreif ist.

>_< schrieb:
Meiner persönlichen Meinung nach werden das in naher Zukunft chinesische Hersteller übernehmen.

Gewagte These. Bislang sieht man relativ wenig Eigenentwicklung. Im CPU Bereich sieht man meist irgendwelche ARM Derivate auf lizenzierten Kernen oder Weiterentwicklungen von Uralten Via x86 Designs.

Im GPU Bereich ist es bislang ziemlich ruhig. Klar relativ einfache Halbleiterprodukte wie Speicher sind da kein Problem. Aber eine High End CPU oder GPU Architektur stampft man nicht mal eben aus dem Boden. Intel, ein Milliardenkonzern mit extrem fähigen Leuten ist schon mehrfach an einer Konkurrenzfähigen Hochleistungs GPU gescheitert. Genauso wie sie momentan an einer modernen Fertigung scheitern.

Eine konkurrenzfähige GPU / CPU entwirft man nicht mal eben über Nacht und anders als bei weniger komplexen Produkten ist es auch nicht ohne weiteres möglich aus Serien Produktsamples bei einer GPU eine Kopie durch Reverse Engineering zu liefern.

Bislang haben sich die Chinesen nicht gerade durch Engineering hervorgetan. Das meiste Knowhow in dem Bereich stammt aus dem Ausland. Je komplexer die Themen werden, umso weniger wirkliche chinesische Entwicklungen sieht man. nd ich meine wirklich chinesische Entwicklungen und nicht irgendwelche aufgebohrte Altdesigns von anderen Firmen.
 
  • Gefällt mir
Reaktionen: Lübke82
Gesundes Mittelmaß kann nVidia einfach nicht. Fängt gut an und wird wieder total Sinnfrei vor allem wenn man dann noch den Preis dazu nimmt welche definitiv nicht unter dem Niveau der jetzigen Super Karten liegen wird. Wohlgemerkt die "Einstiegsvarianten" der 30er Karten.

3060 8GB > Top Kombi.
3070 8GB > Naja, geht in Ordnung. 16GB sind Top aber Preislich wohl dann bei 3080 10GB.
3080 mit 10GB > Krücke mit viel zu wenig Speicher und 20GB wohl mit min. 30% Preisaufschlag wobei wir hier bestimmt bereits bei über 1000€ sein dürften. Bezahlbare 16GB wären perfekt gewesen. Hoffe das kommt dann von AMD ;-)
3080Ti 24GB > Für Prosumer sicher ein Segen aber für Consumer einfach zu viel. Sicher nicht unter 1500€ und die Titan dazu gibt es später ja auch noch. Den Preis daher schön hoch halten. Für 8K die Karte bestimmt vom Speicher ausreichend aber wiederum der Chip dann zu schwach.

Mal schauen. Bin vor allem auf die Preise gespannt.
 
Hardware_Hoshi schrieb:
Die Chinesen können nur kopieren, selbst aber nichts entwickeln. [..] Man darf China nicht überbewerten.
Shoryuken94 schrieb:
Bislang haben sich die Chinesen nicht gerade durch Engineering hervorgetan. Das meiste Knowhow in dem Bereich stammt aus dem Ausland.
Ohje, ich wünschte ihr beiden würdet recht haben, den ich selber kann auch das chinesische System nicht befürworten. Wie sich China verändert hat und sich weiter verändern wird, verheißen aber nichts gutes. Mag sein das momentan noch viel kopiert wird, aber es gibt eine riesige Arbeiterschicht und die patriotische Denkweise wird letzten Ende das Know-how ins eigene Land tragen.

Wenn man eins nicht machen sollte, dann ist es (in der heutigen Zeit) China zu unterschätzen -ganz ganz großer Fehler!
top10 worlds biggest economies.png
 
Zuletzt bearbeitet:
>_< schrieb:
Wenn man eins nicht machen sollte, dann ist es (in der heutigen Zeit) China zu unterschätzen -ganz ganz großer Fehler!


Hat doch keiner gemacht. Man sollte die Engineeringleistung der Chinesen nur nicht überschätzen. Hier ging es um ein sehr spezielles Thema, wo China bislang nicht wirklich viel geleistet hat und auf dem man ohne eine Strategieänderung auch nicht mit den üblichen Methoden Fuß fassen kann.

Das China eine enorme Wirtschaft und ein entsprechendes wirtschaftliches potential hat, ist doch ein ganz anderes Thema.

>_< schrieb:
die patriotische Denkweise wird letzten Ende das Know-how ins eigene Land tragen.

Na ja da sollte dann eher eine eigene Entwicklung im Fokus sein, wenns eine made in China Architektur werden soll. Anders als bei vielen anderen Themen kommt man bei einer GPU Architektur auch nicht mit 2-3 Wissensträgern weit.

China sollte man nicht unterschätzen richtig. Man sollte aber auch realistisch sein und sich mal anschauen, was kann das Land wirklich leisten und was nicht. Und gerade beim Engineering haben Sie noch extrem viel aufzuholen. Und da arbeiten Sie auch mit Hochdruck dran. Aber das sind Themen, die man auch mit beliebig Viel Geld und politischem Einfluss im Land nicht aus dem Boden stampfen kann. Zumal man neben all den Zahlen auch die wirkliche wirtschaftspolitische- und soziale Lage im land betrachten sollte. Man darf die chinesen nicht unterschätzen. Sollte aber auch realistisch einschätzen wo sie stehen und welche Möglichkeiten Sie haben.
 
  • Gefällt mir
Reaktionen: Lübke82
Hardware_Hoshi schrieb:
Falsch!
Die Chinesen können nur kopieren, selbst aber nichts entwickeln. Alles was sie je getan haben, sind billige Kopien oder eine Frankensteinversion bekannter Technologien. Man darf China nicht überbewerten. Den Ruf der billigsten Ramschware haben sie sich nicht umstonst verdient!
Du hast gerade die Königsklasse im Schubladendenken erreicht: 1,4 Milliarden Individuen als entwicklungsunfähig abstempeln. Respekt!
 
  • Gefällt mir
Reaktionen: Onkel Föhn, CloudConnected, v3locite und eine weitere Person
Artikel-Update: Die Speichergrößen und Speicherinterfaces werden immer klarer, jetzt gibt es auch etwas Neues zum Speichertyp. Von GDDR6X hört man schon lange etwas, bis jetzt gab es diesen Speichertyp offiziell aber noch nicht. Doch Micron erwähnt nun in einem Dokument erstmals offiziell GDDR6X (gefunden über VideoCardz).

Und nicht nur das, Micron spricht explizit von GDDR6X auf Nvidias Ampere-Generation und nennt gar die GeForce RTX 3090 als Grafikkarte. Die Namensgebung sollte aber trotzdem noch nicht als gesetzt angesehen werden, auch wenn immer mehr auf die Bezeichnung hindeutet.

Darüber hinaus spricht Micron von 19 bis 21 Gbps als Geschwindigkeit von GDDR6X. Aktuellen Gerüchten zur Folge sollen es 19 bis 20 Gbps auf Nvidias neuem Flaggschiff werden. Entsprechend bestätigt das Dokument die bisherigen Spekulationen. Ob GDDR6X Micron-exklusiv ist, ist dagegen noch unklar. Das wäre nach GDDR5X der zweite Grafikkartenspeicher, den nur Micron anbieten würde. Andere Hersteller haben noch nichts von GDDR6X verlauten lassen.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: gartenriese, BrollyLSSJ, fox40phil und eine weitere Person
Die Amperes werden immer interessanter!
 
  • Gefällt mir
Reaktionen: gartenriese
Da wird jemand bei Micron einen Anruf von Nvidia bekommen. Das Dokument wirkt ja zumindest mal echt.
Es tauchen immer mehr Infoschnipsel auf, bin auf die Präsentation gespannt.
 
All das, was Igor bisher schon vor Wochen/Monaten rund um Ampere von sich gegeben hat, bestätigt sich nach und nach immer mehr. Dann wird das wohl auch auf die 350W zutreffen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, GERmaximus, jemandanders und eine weitere Person
12 Gb Ram gibt es in der Übersicht ohne Update noch nicht, also ist die Schwankungsbreite doch nicht so klein wie es schien.
 
  • Gefällt mir
Reaktionen: Lübke82
Um so realistischer die Angaben werden, desto mehr Angst habe ich vor der Präsentation. Mr. Lederjacke wird uns die UVP sicher genüsslich reinwürgen.
 
  • Gefällt mir
Reaktionen: Fuchiii, Onkel Föhn, legenddiaz und 5 andere
Wolfgang schrieb:
Artikel-Update: Die Speichergrößen und Speicherinterfaces werden immer klarer, jetzt gibt es auch etwas neues zum Speichertyp. Von GDDR6X hört man schon lange etwas, bis jetzt gab es diesen Speichertyp offiziell aber noch nicht. Doch Micron erwähnt nun in einem Dokument erstmals offiziell GDDR6X (gefunden über Videocardz).

Und nicht nur das, Micron spricht explizit von GDDR6X auf Nvidias Ampere-Generation und nennt gar die GeForce RTX 3090 als Grafikkarte. Die Namensgebung sollte aber trotzdem noch nicht als gesetzt angesehen werden, auch wenn immer mehr auf die Bezeichnung hindeutet.

Darüber hinaus spricht Micron von 19 bis 21 Gbps als Geschwindigkeit von GDDR6X. Aktuellen Gerüchten zur Folge sollen es 19 bis 20 Gbps auf Nvidias neuem Flaggschiff werden. Entsprechend bestätigt das Dokument die bisherigen Spekulationen. Ob GDDR6X Micron-exklusiv ist, ist dagegen noch unklar. Das wäre nach GDDR5X der zweite Grafikkartenspeicher, den nur Micron anbieten würde. Andere Hersteller haben noch nichts von GDDR6X verlauten lassen.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
Wolfgang es fehlt die Info, das die RTX 3090 nur 12 GB GDD6X VRAM hat.

Zitat von videocardz.com:
NVIDIA GeForce RTX 3090 graphics card is listed on the Micron website with 12GB GDDR6X memory.
 
  • Gefällt mir
Reaktionen: Mydgard und Lübke82
Klingt spannend. Auf Reddit ist auch auch ein Bild vom einem angeblichen Custom PCB aufgetaucht. Auf der Rückseite der GPU soll ein bisher noch unbekannter Zusatzchip sein. Hier gab es mal Gerüchhte, dass es einen Zusatzchip für raytracing gibt.

Zudem sieht man auf der Rückseite 11 Speicherchips, was eher für eine 22GB Karte 352 Bit spricht. Kann aber natürlich auch ein Fake sein.

1597409041321.png
 
ich hoffe auf eine nicht besonders teure 3070rtx mit mehr als 10gb ram (wunschpreis wäre ca. 500€, real werden es aber wsl. 900€) inkl. HDMI 2.1 und viel Ram, damit ich dann auch wieder die nächste 2-3 Generationen überspringen kann :)
meine 980TI hat es sich wirklich verdient in Pension geschickt zu werden :)
 
Zurück
Oben