News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Anstatt die Spiele zu optimieren- aber hey der PC Pleb kauft ja gerne eine 1300 Euro Karte um einen schlechten Multisystem Port zuspielen.
 
  • Gefällt mir
Reaktionen: Fuchiii, dohderbert, Mydgard und 13 andere
Gordon-1979 schrieb:
Wolfgang es fehlt die Info, das die RTX 3090 nur 12 GB GDD6X VRAM hat.

Zitat von videocardz.com:

Nein, viele können leider nicht mehr lesen. In dem Dokument steht "TYPISCHE GRÖßE EINER KARTE MIT GDDR6X".

Eine 5700XT hat ja auch keine 12GB VRAM, obwohl es dort "steht".

Wartet doch einfach ab.


Es sind nur noch 18 Tage, dann gibt es alle Infos, die wir wollen, inklusive einer Überraschung.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, gartenriese, fox40phil und eine weitere Person
captaincapri schrieb:
und auch der ein oder andere Sys-Admin ist nicht mehr vom Gedanken "Serverhardware von AMD" abgeschreckt (kenne einige, die das bis vor 1-2 Jahren gewesen wären).
Die waren vollkommen zurecht abgeschreckt. Je nach Einsatzzweck bekommst halt keine Software, weil nur auf Intel zertifiziert wurde. Auch heute noch.
Ich kann mir aber gut vorstellen dass der ein oder andere Database-Admin sich über Epyc ein drittes und viertes A.loch freut.
ragnaroek666 schrieb:
Lisa Su hat übrigens schon bestätigt, dass es 2020 Raytracing auf AMD Karten geben wird
Wenn das so gut läuft wie 1st Gen RTX, ist das mEn kein Verkaufsargument.
"Wird es geben" ist zunächst mal ein zahnloser Papiertiger solange man nicht weiß was dabei rum kommt.
Auch schlechte Dinge "gibt" es.
Ich lass mich aber gerne positiv überraschen.
Shoryuken94 schrieb:
Zudem sieht man auf der Rückseite 11 Speicherchips, was eher für eine 22GB Karte 352 Bit spricht. Kann aber natürlich auch ein Fake sein
Oder es ist keine neue RTX, sondern was für Datacenter/Ai o.Ä., wobei das PCB auf den ersten Blick schon verdammt nach herkömmlicher GraKa aussieht.

Anders betrachtet:
Stellt euch vor ihr seid nVidia und müsstet den Hype Train steuern.
Was würdet ihr eher leaken? Eine Titan von der keiner weiß dass es eine ist, oder eine xx70?
 
  • Gefällt mir
Reaktionen: evilhunter und captaincapri
Affenzahn schrieb:
Anders betrachtet:
Stellt euch vor ihr seid nVidia und müsstet den Hype Train steuern.
Was würdet ihr eher leaken? Eine Titan von der keiner weiß dass es eine ist, oder eine xx70?

kommt ganz drauf an was ich liefern kann. wenn meine xx70er karte ballert, würde ich natürlich diese leaken, um nach oben hin alles offen zu lassen.
wenn ich es nötig hätte, die absolute performancekrone zu leaken ist alles andere darunter ja erwartbar langsamer. für einen hypetrain ist das mMn nix.
 
Hardware_Hoshi schrieb:
Falsch!
Die Chinesen können nur kopieren, selbst aber nichts entwickeln. Alles was sie je getan haben, sind billige Kopien oder eine Frankensteinversion bekannter Technologien. Man darf China nicht überbewerten. Den Ruf der billigsten Ramschware haben sie sich nicht umstonst verdient!

Außer Überwachung und dikatorischen Maßnahmen ist nichts weltführend in China!

Genau, deshalb hält z.B. Huawei einen nicht unerheblichen Anteil an 5G Patenten.
China ist genau den gleichen Gang wie andere aufstrebende Industrienationen vorher gegangen.
Japan hat nach dem Krieg schamlos kopiert und wo stehen sie jetzt?
Südkorea hat genau den gleichen Weg genommen und z.B. Samsung ist nun mit führend in der Welt.
Und nun ist eben China schon weiter als "Wir bauen billige Westkopien". Wem das noch nicht klar ist und China immer noch als Billigeimer ansieht sollte endlich mal aufwachen und der Realität ins Auge sehen.
China mag politisch nicht den westlichen Werten entsprechen, was mMn mittlerweile einige westliche Nationen auch nicht mehr tun, industriell sind sie sicher nicht mehr der Copyshop den Einige noch darin gerne sehen wollen.
Nur weil sie noch nicht in allen Sparten vorne mit dabei sind, heisst das noch lange nicht, dass sie es nicht können.
Die Prioritäten liegen halt im Moment für sie wo anders. Und die Geschwindigkeit der Entwicklung in China ist enorm.

Cunhell

PS: Dir ist schon klar, dass z.B. die China-Handies alles andere als Ramsch sind, oder?
 
  • Gefällt mir
Reaktionen: GERmaximus, dohderbert, Mydgard und 10 andere
Wolfgang schrieb:
nennt gar die GeForce RTX 3090 als Grafikkarte. Die Namensgebung sollte aber trotzdem noch nicht als gesetzt angesehen werden, auch wenn immer mehr auf die Bezeichnung hindeutet.

Kleiner aber freundlicher Insider Hinweis an die Community zwischen den Zeilen, dass es sich um eine 3090 Ti handeln könnte? :)
 
Allein so ein neuer Speicher könnte aus alten Chips einen ordentlichen Boost zaubern oder?
Z.B. eine RX 580 mit so einem Speicher könnte doch auch locker einige zweistellige % besser sein als aktuelle Versionen?

Das hier fand ich auch sehr schräg in der Tabelle:
RX 5700XT mit 12GB?! :D

1597411940614.png
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Deathless schrieb:
Discovery_1 schrieb:
Kommen keine GTX-Karten mehr?
Nö, mit RTX lassen sich die Kunden besser melken

Entweder ist das nur sinnloses "haten" oder ihr beide seit viel zu jung.

Wie viele GTX Karten sollen noch kommen?
Warum sollte man das Zahlen und Buchstaben Muster von damals wiederholen? Das sorgt nur für Verwirrung, wenn man online danach sucht. Versucht mal nach 9900 GTX zu suchen... und nein das ist keine Karte aus der Zukunft, das gehört zur Vergangenheit!

Zuerst gab es mehrere Generationen mit 1234 GTX, dann mehrere Generationen mit GTX 1234 und selbst das war schon eine nicht optimale Namenswahl.
Soll man wieder mit 1234 GTX oder GTX 1234 anfangen? Die gab es alle schon!

Da macht es nur Sinn, wenn man sich endlich von GTX verabschiedet und eine etwas neuere Bezeichnung wählt.
Wer weiß, vielleicht wird Nvidia auch in ein paar Jahren so einfallslos bleiben und nachdem alle RTX 1234 Generationen durch sein werden, mit 1234 RTX beginnen.
 
  • Gefällt mir
Reaktionen: gartenriese
maximus_hertus schrieb:
Nein, viele können leider nicht mehr lesen. In dem Dokument steht "TYPISCHE GRÖßE EINER KARTE MIT GDDR6X".
Eine 5700XT hat ja auch keine 12GB VRAM, obwohl es dort "steht".
Wartet doch einfach ab.
Es sind nur noch 18 Tage, dann gibt es alle Infos, die wir wollen, inklusive einer Überraschung.
Jo, richtig nur 8 oder 16 GB gibt es bei der 5700xt.
Aber die Angaben von 24 GB GDDR6X, da kostet dann die Karte 2000€.
Bei 20 GB GDDR6X, kostet dann die Karte 1800€.
Und mit 10 GB GDDR6X, kostet die Karte 1500€.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Highspeed Opi schrieb:
Entweder ist das nur sinnloses "haten" oder ihr beide seit viel zu jung.
Ich zu jung? Och, wäre das schön. :p Ich meine damit, ob es keine Nvidia-Karten ohne Raytracing mehr geben wird. Ich brauche das nicht und wenn man es vernünftig haben möchte, muß man schon sehr tief in den (nicht vorhandenen) Geldbeutel greifen.

Edit: Und "gehatet" habe ich auch nicht. Ich habe nur eine Frage gestellt. ;)
 
  • Gefällt mir
Reaktionen: m3rch3r, Onkel Föhn und GERmaximus
Also in der Liste die "RTX 3090" mit 12 GB. Meine 1080 TI hat 11GB was für ein Sprung :=) Und darum sehe ich den kommenden Event eher gelassen. Da wird wieder ein riesen Fass auf gemacht und wenn man rein schaut ist der Boden zu sehen. Aber wie der alte Fritz schon gesagt hat schaun ma mal....
 
  • Gefällt mir
Reaktionen: jemandanders
@Discovery_1
Stimmt, bei dir war es eine simple Frage. Sorry...

Raytracing wird irgendwann bestimmt eine super Sache. Jetzt gibt es ein paar aktiv genutzte Kleinigkeiten wo es realistischer aussieht, aber wer weiß wie es in ein paar Jahren aussehen wird.

Ich kann mich doch gut daran erinnern, wie ich die Grafik von Tekken auf Playstation 1 bewunderte.
Heute müsste man schon zwei über dem Durst getrunken haben, damit das halbwegs okay aussieht:
 
  • Gefällt mir
Reaktionen: Onkel Föhn, gartenriese, Lübke82 und eine weitere Person
Chiaki schrieb:
Da hat wohl jemand DLSS 2.0 komplett verschlafen. Und spätestens mit Cyberpunk 2077 ist die Tatsache, dass ich mit einer RTX meine FPS bis zu mehr als verdoppeln kann wohl durchaus mehr als "unbedeutend". Unglaublich diese Ignoranz.
DLSS haben die AMD User gar nicht auf dem Schirm weil es keine vergleichbare Technik bei AMD gibt.
Raytracing ist nett, aber DLSS ist der heiße Scheiß. Wolfenstein, Control und MechWarrior zock ich schön mit DLSS und hohen FPS mit G-Sync.
 
  • Gefällt mir
Reaktionen: Chiaki, MrNejo, Mydgard und 5 andere
Ob GDDR6X Micron-exklusiv ist, ist dagegen noch unklar.

Da stellt sich m.E. eher die Frage, ob wie zuvor bei GDDR5X ebenso GDDR6 X exklusiv nur (per Vertagsabkommen zwischen Micron und nVidia) in nVidia Grafikkarten verbaut werden wird/darf ;)?
 
  • Gefällt mir
Reaktionen: Onkel Föhn, MrNejo, fox40phil und eine weitere Person
Gabs da nicht irgendwann mal letztes Jahre eine Meldung, daß Nvidia exclusiv sich bei Micron alle Speicher auf Lager aufgekauft hatte?
 
Highspeed Opi schrieb:
Ich kann mich doch gut daran erinnern, wie ich die Grafik von Tekken auf Playstation 1 bewunderte.
So ging es mir und meinem Kumpel bei Tomb Raider...wir dachten besser kann es nicht werden !! :D
 
  • Gefällt mir
Reaktionen: Acedia23, fox40phil, Smartbomb und eine weitere Person
Die Versionen mit halbem Speicherausbau sind wichtig für den Absatz, weil die Karten damit nicht so extrem teuer werden und die GPUs insgesamt in größeren Mengen verbaut werden können. Würden nur die Karten mit maximalem Speicherausbau produziert, wurden viele nicht verkauft, weil sie schlicht zu teuer sind. Oder meint jemand, die Karte mit 20GB wird noch für 999$ UVP angeboten? Das wird dann die mit 10GB sein für die Leute, die nicht mehr ausgeben können, als die 2080Ti gekostet hat. Die 20GB Version wird ein paar Hundert $ mehr kosten, ohne dass Kunden verprellt werden.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und RogueSix
Zurück
Oben