News Ampere: Nvidia nährt Gerüchte um GeForce RTX 3080 mit 20 GB

flou schrieb:
Kann mir kaum vorstellen, das ich meine programierbare Maus an der X-Box anschliesen kann und programmieren wie am PC. Das ist mir sehr wichtig.
Du bist echt nen schwieriger Kandidat. Man kann sich natürlich alles so drehen, dass es nur eine Lösung geben kann. Aber was solls, jeder ist seines eigenen Glückes Schmied. An deiner Stelle würde ich dann nicht lang fackeln und zu 3090 greifen, dann haste Ruhe. Eine 3080 mit 20GB wird preislich wahrscheinlich recht unattraktiv und ich glaube nicht mehr an einen Release in diesem Jahr.
Ergänzung ()

wertertzu schrieb:
Reviews zeigen schlechter as die FE und auch ~40w weniger max power limit...
Steht hier aber ganz anders. Wo ist deine Quelle?
Ah gefunden.
 
Zuletzt bearbeitet:
Mr. Rift schrieb:
im pcgh forum sagen sie alle, es gab nie kaufen button zu sehen. immer nur benachrichtigung erhalten und dann direkt out of stock.
gegen Script bots für die Miner machste nix.
was für eine armselige vorstellung von nvidia.

Jo das ist wirklich dämlich.
Im Prinzip hätten die einfach 3 Wochen lang ne Freischalte machen müssen, wo man sich per Mail-Adresse und Adresse anmeldet und dann wird halt zum Tag X fair ausgelost.
 
@wertertzu

Habe ich auch gerade gelesen, passt mir natürlich nicht so in die Tüte.
Extra eine Zotac geholt das ich ohne Garantieverlust den Alphacool Kühler draufpacken kann.

Naja mal sehen vielleicht ist ein BIOS Flash drin....
Dadurch wäre aber die Garantie offiziell wieder weg.
 
wertertzu schrieb:
Reviews zeigen schlechter as die FE und auch ~40w weniger max power limit

OC ist zwar noch mal ein anderes Thema, aber je nach Möglichkeit würde an dieser Stelle dem Pfad von CB folgen und das Power-Limit auf 270W festsetzen. die 4-6 % für 50W mehr können mir gestohlen bleiben.
 
wertertzu schrieb:
Reviews zeigen schlechter as die FE und auch ~40w weniger max power limit...

Quelle, die ersten Reviews welche Google ausgespuckt hat waren durchwegs positiv - klar kann man keinen Brüller zum Preis der FE erwarten...
 
  • Gefällt mir
Reaktionen: Apocalypse
GrooveXT schrieb:
Finde mein Zitat auf die Schnelle gerade nicht. Aber auch die Konsolen haben effektiv nicht mehr als 10GB VRAM, also warum sollte es deswegen zum Problem werden?
Bei den 16GB handelt es sich nach wie vor um den kompletten RAM der Konsole. Davon gehen schon mal mindestens 2 GB ans System. Dann hat der Dev noch ~14GB. Ich kenne aktuell kein AAA Spiel das nicht mindestens 2-3 GB System-RAM einfordert, meistens eher mehr. Bei der XBOX Series X sind 10 GB VRAM (wegen Bandbreite) sogar vorgegeben, bei der PS5 wird es ähnlich sein.

Wie viel GB hat eine Ps4 pro? 8 und wie viel GB braucht ein PC Spiel was auch auf der PS läuft oftmals mehr und so wird es auch mit der 10gb Variante kommen irgendwann ist der Bart ab und mit 20gb hätte es noch funktioniert.
 
  • Gefällt mir
Reaktionen: Aquilid und Hatsune_Miku
Wenn die 3080 20G als Konter zu Big Navi 16G gesehen wird finde ich das einen mega smarten Schachzug von Nvidia. Mit dem Preisaufschlag orientiert man sich an AMD und ist damit sehr gut aufgestellt. Well done!
 
Strange gegenüber der 24GB 3090er.
Oder kommt dann ne 32GB 3090er ?

Ich wäre schon mit einer 3070S oder eben 3080 mit 16GB zufrieden. Nicht für Games.

Sondern für AI/DeepLearning usw.

Edith : Aber nehme dennoch 20GB gerne mit :D

LG
 
Also wenn es Nvidia selber schon so listet wird wohl was an der 20GB Variante dran sein.
Ich frage mich schon seit der Ampere Präsentation warum es Tensorcores der 3. Generation sind. Bei Turing war es die 2. Generation. Aber wo gab es denn Tensorcores der 1. Generation?
 
Coeckchen schrieb:
Wozu? AMD kann eh nich Kontern. Die RX6000 serie ist der Konter gegen RTX2000, nur 2 jahre zu spät und nach Release der 3000er serie.

Immerwieder beeindruckend, mit welcher Selbstverständlichkeit sowas als gesetzt in die Welt posaunt wird.

Ich steig da aber mal drauf ein und frage dich, was ist denn wohl, wenn AMD in der Lage ist die eine 2080Ti@OC um ~20% zu schlagen? Damit hat AMD ja dann klar gekontert und es spielt keine Rolle, dass dieser Konter dann 2 Jahre zu spät kommt oder? :D

So und jetzt muss ich meine Glaskugel pollieren, die wird irgendwie schon wieder so milchig...
 
  • Gefällt mir
Reaktionen: Aquilid
Fighter1993 schrieb:
Wie viel GB hat eine Ps4 pro? 8 und wie viel GB braucht ein PC Spiel was auch auf der PS läuft oftmals mehr und so wird es auch mit der 10gb Variante kommen irgendwann ist der Bart ab und mit 20gb hätte es noch funktioniert.
Auf der PS4 Pro läuft auch so gut wie kein Titel auf nativen 4K. Das sind immer Checkerboards und Upscales. Die Games brauchen auf der Konsole deshalb auch keine 4K Texturen. Für den PC werden dann aber sehr wohl fette 4K Texturen reingepackt, genau wie bei jedem anderen Game auch. Hat also nüscht mit dem Konsolenport an sich zu tun, wenn da viel VRAM gefressen wird. Eher damit das man sich keine Mühe macht die Texturen vernünftig zu optimieren.
Außerdem stehen der PS4 Pro mehr als 8GB RAM zur Verfügung, es sind sogar 9 GB. Für das Spiel selbst stehen allerdings nur 5,5 GB RAM zur Verfügung (wieviel davon VRAM ist, ist den Entwicklern überlassen, ich tippe im Schnitt mal auf 3,5GB), der Rest gehört dem System. Da müsste man sich als Entwickler schon sehr dämlich anstellen wenn man auf ner Konsole die gleichen Texturen in knapp 4GB presst um am PC dann 8GB schwitzen.
 
Aractor schrieb:
Immerwieder beeindruckend, mit welcher Selbstverständlichkeit sowas als gesetzt in die Welt posaunt wird.

Ich steig da aber mal drauf ein und frage dich, was ist denn wohl, wenn AMD in der Lage ist die eine 2080Ti@OC um ~20% zu schlagen? Damit hat AMD ja dann klar gekontert und es spielt keine Rolle, dass dieser Konter dann 2 Jahre zu spät kommt oder? :D

So und jetzt muss ich meine Glaskugel pollieren, die wird irgendwie schon wieder so milchig...

Is halt die Verbitterung. Ich würde gerne AMD kaufen (was ich zumindest beim notebook mit 4800h getan habe) allerdings sind sie seit jahren nicht mehr konkurenzfähig im High end, und ein Doppelter 5700 wird daran nicht viel ändern. Zumal AMD in der vergangenheit bewiesen hat dass wenn sie mehr Shader platzieren diese Pro einheit ziemlich verlangsamt werden. Doppelte Shaderzahl. Das Letzte mal wo ich AMD empfehlen konnte war bei der R9 290 und 7970. Danach kam nur Ineffizienter Müll wenn mans gegen NV vergleicht.

Heute ist die Lage ja noch bescheidener durch DLSS. Da wird AMD bei 4k kaum mithalten können.
 
TøxicGhøst schrieb:
... Ich frage mich schon seit der Ampere Präsentation warum es Tensorcores der 3. Generation sind. Bei Turing war es die 2. Generation. Aber wo gab es denn Tensorcores der 1. Generation?
Das war soweit ich mich erinner die Volta Quadro oder ne Volta Tesla. Also nichts unbedingt was für uns normalos.

Edit:
Jap war die Tesla V100
 
  • Gefällt mir
Reaktionen: TøxicGhøst und Coeckchen
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: TøxicGhøst
Fighter1993 schrieb:
Und auch dir schreibe ich es wir sprechen uns sobald Testergenisse da sind...

Wenn sie was in der Hand hätten würden sie verhindern dass die leute sich auf die 3080 Stürzen. Und wenns nur mit Papiertiegern is, aber da kommt gar nix relevantes. Hier und da mal ein Leak aber nix wirklich schneller wie ne Custom 2080ti. Aber ja, wir sprechen uns :D
 
ceem schrieb:
Das gabs doch früher auch schon einmal. Ich glaube da gabs Grafikarten mit 1 oder 2 GB VRAM und auch GPUs mit 2GB oder 4GB ansonsten gleiche Modellvariante- weiss jemand welche Modelle das noch waren?
Da hat sich gezeigt dass die höheren VRAM Modelle für die Zukunft weit besser geeignet waren.

Naja waren zb. eine seltene Asus GTX 285 mit 2gb ram, 3gb GTX 580, 4gb 680, 4gb 770 , 780 6gb ,
Mit mehr Speicher können die Karten in manchen Games weniger einbrechen, aber sehen trotzdem gegen die nachfolge gen meist kaum land.
Die MAxwell und Pascall Titans können auch trotz 12gb vram nicht wirklich einer 2080 /3070 gefährlich werden.
Aber das wären Karten die man einer 2080/3070 gegenüber stellen könnte und FF14 oder H:ZD und mal die fps und frametimes begutachten. Immerhin nehmen sich die games über 10GB.

Auch interessant würde ich einen artikel finden wo man die 1080/2080/3070 hernimmt und sieht wieviele vram sich die karten nehmen bei games die nahe an die 8gb kommen, dürften halt nicht mehr als 8gb haben bei der schlechtesten karte. Dann kann man evtl auch ein wenig zur kompression sagen.

VII 16GB vs 3080 3080 mit 10GB in RDR II 4k 90% schneller
1080TI 11GB so schnell wie eine aktuelle 2080 8gb oder in kürze eine 3070 8GB.

Und eine RTX 3K oder auch RX 5K kann in Zukunft durch PCIe 4.0 bis zu einem gewissen teil fehlenden vram kompensieren.
Ich behaupte mal vram ist ein nice to have, aber kein must have und zur Not gibt es ja die 3090, falls man bedenken hat.

Wobei eben im Raum steht, was sich den nun RTX extra noch an vram nimmt, das Feature gab es bis jetzt ja nicht und daher musste man es nicht in die VRAM Rechnung miteinbeziehen.
Würde die 3080 auch lieber mit 12 - 16 Gb sehen. Ich kann mir halt nicht vorstellen, dass eine RX 6900 XT nur 2080Ti /3070 erreicht, wenn das wirklich wieder mal ein big die sein sollte von AMD. Eher die 3080 und da sind dann die 16Gb bei ähnlichen Preis durchaus ganz nett.
NV kann zwar mit 20Gb kontern, aber das wird kosten und ist halt schon etwas overkill.


In einem Vergleichsvideo zu H:ZD hat zb. eine 2080Ti ca. 400mb mehr vram Verbauch, dafür hatte die 3080 beim Arbeitsspeicher ca. 500MB mehr Belegung. 4k@ultra war dabei die Settings.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Leereiyuu
@Vitec
Würden die Karten generell mehr haben, würden viele diesbezüglich ruhig sein, mich eingeschlossen.
Auch ist die Lücke zwischen der 3080 und der 3090 mit 10 zu 24GB einfach viel zu groß.
Hätte nvidia der 3080 16GB und der 3070 12GB verpasst, wäre glaub ich niemand am meckern gewesen.
Aber wenn man die xx70er reihe dazustellt, hier ist in der 4ten Generation stillstand bei der Vram größe
 
  • Gefällt mir
Reaktionen: Aquilid
eine RTX 3070 TI mit 16GB ist fix.
Ich weiß nur noch nicht ob die OEMs vorenthalten bleibt oder nicht
mehr kann ich dazu nicht sagen. :D
 
Zurück
Oben