News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Shoryuken94 schrieb:
Keine Ahnung was alle immer bei der Fertigung haben, aber Samsung 8nm

Ganz einfach Samsung hat keine Erfahrung mit großen Chips und dichter heißt auch immer mehr leckströme.

Erstmals warten bis November ist noch lange hin.
 
  • Gefällt mir
Reaktionen: Chismon
Mcr-King schrieb:
Ganz einfach Samsung hat keine Erfahrung mit großen Chips

Woher nimmst du die Info? Kennst du alle von Samsung Produzierte Chips? Ich habe mal bisschen recherchiert und Samsung fertigt so einige relativ unbekannte Chips, zu denen man relativ wenig Infos findet. Von ASICs, über KI Beschleuniger, Interposer bis hin zu komplexeren CPUs, die sich im Bereich einiger 100mm² bewegen, wie die Qualcomm Server Chips. Zu sehr vielen Chips findet man auch öffentlich keine Infos.

Aber sagen wir so. Als Nvidia sich nach Fertigungspartnern umgeschaut hat, wird man sich da schon informiert haben, was geht, wo die Erfahrungen sind und wo die Technik steht.

Da ich jetzt nicht alle Samsung Chips kenne bzw, bei vielen keine öffentliche Angaben bekannt sind, würde ich nicht wagen zu sagen, Samsung hat in dem Bereich keine Erfahrung.


Mcr-King schrieb:
und dichter heißt auch immer mehr leckströme.

Sicherlich. Nvidia setzt aber auch bei ihrem bisher einzigen bestätigten 7nm Chip auf eine im Vergleich zu AMD sehr hohe Packdichte. Der GA100 hat eine fast 60% höhere Packdichte als Navi 10 oder auch der Xbox Series X Chip auf RDNA2 Basis. Und zumindest auffallen ist auch, dass Nvidia beim GA100 in TSMC 7nm in etwa die Packdichte nutzt, die auch mit Samsung 8nm möglich ist.

Alleine da sieht man doch schon sehr gut, dass alleine der Fertigungszrozess noch nicht alles über den Chip aussagt und das selbst beim gleichen Prozess enorme Unterschiede bestehen können. Und noch viel weniger über das letztliche Produkt, wo die Architektur das größte Stück im Puzzle ausmacht.
 
  • Gefällt mir
Reaktionen: MrNejo
Viper2000 schrieb:
Ich bin aber auch mal gespannt......16GB bei ner 3070 wäre zwar nett, allerdings stell ich mir auch die Frage was dann die 10/20 bei der 2080 sollen.
Riecht mir sehr nach einer rein wirtschaftlichen Entscheidung, aber gut, dem Kunden wird ja die Wahl gelassen.
Allerdings wären 10/11 GB bei der 3070 und 16 bei der 3080 wohl im Verhältnis zur Leistung (aus Gamersicht betrachtet) wohl sinnvoller.

Deine ganze Argumentation bricht zusammen, wenn man den technischen Aspekt auch mal beachten würde. Und der ist relativ simpel. An 256bit gibt es keine (sinnvolle) 10, 11 oder 12 GB Konfiguration, weil das einfach nicht gescheit umsetzbar ist. Das gleiche gilt bei 384bit und 16GB.
Das Problem hat AMD ebenfalls, ist also keinesfalls so ein Nvidia-Ding.
Einzig bei der 2060 würde ich dir zustimmen, allerdings hatte man auch da wieder das Interface Problem: An 192bit gehen nur sinnvoll 6 oder 12GB. Der Karte hätten sie dann ein 256bit Interface spendieren sollen.
Nur so als Beispiel: Eine 150€ teurere 2080 mit 16GB wäre preislich noch weniger akzeptabel als die 8GB Version. Zudem hat man dann noch das Problem, dass die 2080ti dann weniger VRAM als das Modell darunter hätte. Dann hätte man dieser 22GB geben müssen.

Viper2000 schrieb:
Also die PS5 wird vermutlich sogar "nur" 500€ kosten.
Und Midrange Grafikkarte wäre für unter 700 ne 2080S. Allerdings ist das kein Midrange.

Vorsicht - die Vergleichskonsole zu Pascal ist die PS4 Pro. Die Vergleichskonsole zu Ampere ist die PS5. Turing hat keine Vergleichskonsole.
Bitte den Release beachten: Turing - 2018, Ampere - 2020, PS5 - 2020.
 
  • Gefällt mir
Reaktionen: orlof und Shoryuken94
Malikos schrieb:
Also ich versteh nicht was diesen VRAM-Wahn soll...
Es liest sich so als wenn die neue Graka Generation kommt alle die jetzt "nur" 8GB VRam haben nicht mehr spielen können...
Klar mehr VRam ist schön und gut aber da ich keine Interesse an WQHD oder 4K habe und weiterhin in FHD spielen werde (und ich kann alle Spiele auf Max Details spielen), ist das ganze FÜR MICH nur übertrieben: mein Monitor mit FHD / 144Hz reicht mir ganz gut.

Für dich "übertrieben", da du kein Intresse an WQHD / 4K hast.. ist es "VRAM-Wahn" ? 🤯
Na dann stell dir vor, du hast einen 4K Monitor, ist doch nicht schwer zu "verstehen"
 
Ich werfe mal was in den Raum zum Thema vram ..... war es nicht so das "früher" die ti Variante in Spielen schneller war als die titan mit mehr RAM.?...
 
Shoryuken94 schrieb:
Woher nimmst du die Info? Kennst du alle von Samsung Produzierte Chips

Kann ich dir sagen bis jetzt habe sie maximal die GTX1650 hergestellt und ja sie haben viele Geheime Projekte Waffen KI und und trotzdem so ein Monster wie der GA102 ist noch mal was anderes.
 
  • Gefällt mir
Reaktionen: Chismon
wer braucht denn wirklich 16gb vram+? hier werden wieder gezielt bedürfnisse geweckt, die man nicht braucht. abgesehen von der weit höheren stromaufnahme....
falls es sich ausgeht werde ich iwann meine 1070 gtx nicht mit einer 3000er aufwerten. warten was da noch so kommt;)
 
Wollen ist hier über brauchen. Brauchen ist ansichtssache. Wie bei den meisten Features würde in einem Blindvergleich bei 95% der Leute eine 8GB Karte keinen unterschied zu einer 16GB karte machen.

Wer aber einen 4K monitor hat und sein System eh schon mit 12-16 Kernen vollstopft gehört nicht zum Mainstream dem das egal ist.. sondern gibt gern mehr für sein Hobby aus und kauft sich dann halt 16 oder mehr GB Vram karten.

@HisN Du hast es sicher schonmal irgendwo erzählt. Aber du hattest doch von einer 2080Ti auf eine Titan gewechselt oder? Würdest du sagen das außer im Afterburner du ingame effektive einen unterschied merkst beim zocken durch den VRam?
 
feidl74 schrieb:
wer braucht denn wirklich 16gb vram+?
4K spieler alles was dieses, und vorallem nächstes Jahr an spielen released wird braucht sicherlich nicht weniger VRam.
 
Zuletzt bearbeitet:
Nur ein kleiner Teil von Spielern spielt in 4K. 1080p und 1440p sind nach wie vor die gängigsten Auflösungen und da reichen 8GB locker aus.
 
  • Gefällt mir
Reaktionen: Laphonso
  • Gefällt mir
Reaktionen: .Sentinel.
Kann man, muss aber nicht zwingend. Das ist auch die einzige Käuferschicht dann, zumal ich selbst auch das ein oder andere Spiel mit 8GB VRAM in 2160p spiele und das ohne Probleme.

Man braucht sich doch nur bei Steam die Systeme anschauen, ich glaube kaum, dass sich das durch 16GB VRAM groß ändern wird, zumindest die nächsten Jahre noch nicht.
 
Zuletzt bearbeitet von einem Moderator:
ragnaroek666 schrieb:
Kann man, muss aber nicht zwingend.
Von "müssen" hat hier auch keiner was gesagt. Nur sterben muß man irgendwann.

ragnaroek666 schrieb:
Das ist auch die einzige Käuferschicht dann, zumal ich selbst auch das ein oder andere Spiel mit 8GB VRAM in 2160p spiele und das ohne Probleme.
Dann bleibt man weiterhin bei 8GB. Ich würde aber etwas zukunftsicherer kaufen, und keine 8GB GPU mehr kaufen sofern es welche mit 12/14/16/20 GB geben sollte.
 
Was heißt denn Zukunft für dich? Das Spiele Entwickler auf Optimierung verzichten wie hei Horizon Zero Dawn oder Warzone? Es werden auch die nächsten Jahre noch 8GB VRAM völlig ausreichend sein (1080/1440p). Wer 4K besitzt und auch in 4K spielt, kauft sich dann halt mehr VRAM aber das sind nur sehr wenige.
 
  • Gefällt mir
Reaktionen: Laphonso
Sunjy Kamikaze schrieb:
@HisN Du hast es sicher schonmal irgendwo erzählt. Aber du hattest doch von einer 2080Ti auf eine Titan gewechselt oder? Würdest du sagen das außer im Afterburner du ingame effektive einen unterschied merkst beim zocken durch den VRam?

Kleines Beispiel gefällig? Den Unterschied im Spielgefühl kann man sich eventuell selbst vorstellen, auch ohne das ich ihn erkläre.
ffxv_s_2018_03_08_21_tbs4l.jpg
ffxv_s_2019_03_11_00_h2kb5.jpg



@Allgemeine Diskussion
Warum hängt ihr euch so an der Auflösung auf?
Es ist immer die Software/Settings.
Wenn ein Game in FHD schon 10GB VRAM verschlingt, dann macht es das in höheren Auflösung auch.
Wenn ein Game in FHD nur 1GB braucht, dann wird es in höheren Auflösungen auch nicht signifikant mehr brauchen.

Die Auflösungs-Diskussion ist umsonst.

blackops4_2019_07_01_chke0.jpg

horizonzerodawn_2020_ctjyt.jpg

rottr_2018_07_23_14_19if70.jpg
 
  • Gefällt mir
Reaktionen: ThunderS01, Onkel Föhn, PHuV und 3 andere
Ben81 schrieb:
4K spieler alles was dieses, und vorallem nächstes Jahr an spielen released wird braucht sicherlich nicht weniger VRam.
also ich zocke manche sachen in 4k sonst 2k und da reichen meine 8gb vram. btw das 4k marketing geht ja nun auch schon jahrelang und nur wenige spielen wirklich in 4k^^
 
  • Gefällt mir
Reaktionen: Mcr-King
ragnaroek666 schrieb:
Es werden auch die nächsten Jahre noch 8GB VRAM völlig ausreichend sein (1080/1440p). Wer 4K besitzt und auch in 4K spielt, kauft sich dann halt mehr VRAM aber das sind nur sehr wenige.
Korrekt du hast es verstanden. ;)
 
  • Gefällt mir
Reaktionen: Mcr-King
@HisN

Nur weil 10GB VRAM anliegen, heißt das nicht das diese auch genutzt werden. Ich kann FFXIV auch in UHD spielen. Bei Warzone dasselbe, wenn du mehr VRAM besitzt, wird auch mehr gefüllt. Das zeigt einfach schlechte Optimierung, Horizon Zero Dawn genau dasselbe.
 
  • Gefällt mir
Reaktionen: bensen und Laphonso
Jupp, ich konnte FFXV auch mit weniger VRAM spielen, und ich hab ständig Textur-Swap-Ruckler gehabt und RAM GarbageCollections, weil das als Aushilfsspeicher genutzt wurde, die lustigerweise mit der Titan RTX verschwunden sind.

Genau darauf will ich hinaus.
Und die ganze Heulerei von den 8GB-Usern in Horizont Zero Dawn die ihre Texturen gezwungenermaßen auf Medium stellen müssen, weil es sonst ruckelt, die hast Du natürlich auch geflissentlich übersehen.
Ich hab nie behauptet das man es nicht spielen kann.
Ich behaupte das Spielgefühl ist ein anderers.

Das kann man honorieren, muss man aber nicht.
 
  • Gefällt mir
Reaktionen: ThunderS01, Onkel Föhn, PHuV und 6 andere
Zurück
Oben