News Ampere: Nvidia nährt Gerüchte um GeForce RTX 3080 mit 20 GB

boika schrieb:
Ok eine AMD Grafikkarte wird mit mehr Vram erscheinen, was denkst du wann Nvidia dann
mehr Vram bei 3080 verbauen wird ???

Eine 3080 mit 10 GB für 700 Euro ist nur ein Schlag gegen die Konsolen gewesen,
die haben sogar die Preise für PS 5 gesenkt und für Spiele erhöht,
weil eine 3080 30 Tflops statt 10 Tflops wie bei PS5 hat.
Ampere TFlop ist gleich 2/3 Turing TFlop (bei dem was hinten rauskommt)
 
Für mich heißt das: Abwarten. Die extra 10 GB VRAM einer 20 GB 3080 können eben doch einiges besser, schneller oder sogar überhaupt möglich machen, nicht nur bei Spielen, sondern auch bei Anwendungen. Ein Bei-Spiel für Spiele wäre der Flight Simulator, der sehr gerne viel VRAM hat, um die 4K Panoramas mit hohem Detail zu zeigen. So, CB, wie gut oder schlecht fliegt der FS denn so auf den 3080 Karten die ihr im Test hattet?
 
GrooveXT schrieb:
Überlanges Zitat entfernt

Bei nVidia ist es doch auch ein Paperlaunch und meinst Du, dass Du die paar Monate mit einer GTX 1080 nicht mehr verkraften kannst, nachdem Du wie lange mit dem aufruesten gewartet hast?

Klar, wenn Du die RTX maximal 2 Jahre nutzen wirst (wobei es schon Schaetzungen gibt - auch angelegt an den Next-Gen Konsolenspeicher - dass vorher in einigen Titeln die 10GB Speicher ausgehen werden bzw. man eingeschraenkt wird, also man dadurch bspw. bzgl. der Texturen limitiert werden koennte trotz an sich ausreichend Leistungsreserven des GA-102 Chips bzw. einer RTX 3080 in UHD/4K) und dann wieder aufruestest, dann kauf Dir eine.

Aber die GTX 1080 hast Du ja auch laenger genutzt und die kommenden MCM-GPUs duerften richtig teuer werden (Stichwort MCM-GPU-Erstgeneration, siehe Turing), zumal die Fertigung auch immer teurer wird und ein ein- bis zweijaehriges aufruesten von Grafikkarten auch alles andere als nachhaltig/umweltfreundlich ist (nur so nebenbei) und zudem die Preise immer mehr in die Hoehe treibt.

In zwei Jahren noch mehr als 750 Euro auf den Tisch zu legen (wer weiss, ob die nVidia Founder's Edition nicht bewusst verknappt werden und nach der ersten mickrigen und ausverkauften Charge dann nicht nur noch teurer zu haben sind) und bis dahin evt. schon mit Einschraenkungen fuer die RTX Ampere Gaming-Flaggschiffkarte (die RTX 3090 ist eher ein Titan Ersatz basierend auf Speicher und bisher nicht relevanten 8K-Gaming Bereich auch mangels passender anderer Hardware).

Mir und vielen anderen waere das wohl zu viel Geld (fuer ein zu kurzes Vergnuegen) und die RTX 3080 mit 10GB wie im vorherigen Beitrag angeschnitten zu kurzlebig bzw. eingeschraenkt fuer so viel Geld und ich fuerchte, die Leute die jetzt eine solche (auf laengere Frist vermutliche Bauernfaenger-GPU) kaufen, werden von nVidia genauso durch den Kakao gezogen, wie damals mit dem RTX 2060 "Super" Refresh, der dann auf einmal 8GB bot nachdem einige auf die speicherverkrueppelte Vanilla RTX 2060 6GB Version kurz zuvor herein gefallen sind, die ja jetzt schon gut limitiert.

Was ist denn, wenn Du wegen der 10 GB bei einem der von Dir genannten Titel mit Einschraenkungen leben muesstest, weil der Speicher (bewusst von nVidia) zu knapp bemessen worden ist und wieso glaubst Du, wird nVidia mit speicherverdoppelten Karten an den Start gehen wollen (damit ein zwei Klassen-Gamingsystem fuer die gleichen Chipmodelle vermutlich aufmachen und das bei den Preisen)?

Ergo, warten lohnt sich bis Anfang kommenden Jahres m.E. allemal (es sei denn Du hast gar keine funktionierende GPU mehr und bekommst ansonsten einen Krise mangels Gaming-Entzug), zumal es dann wohl auch keine Early Adopter/Apothekenpreise mehr geben wird und der Wettbewerb auf dem GPU-Markt (nicht nur durch die Intel GPUs) weiter zunehmen duerfte und man sich dann ggf. aergern wird in 2020 gekauft zu haben.

Mit der angekuendigten Vorstellung von AMD/RTG fuer Oktober finde ich es hochgradig unlogisch (diplomatisch ausgedrueckt) jetzt nicht noch weiter zu warten, sondern dem nVidia Marketing auf den Leim zu gehen und jetzt eine RTX 3080 mit knappen 10 GB zu bestellen/kaufen nach gerade einmal einem getesteten RTX Ampere-Chipmodell, aber gut, natuerlich ist es Deine Entscheidung und ich hoffe, Du wirst damit nicht durch den Kakao gezogen ;).
Ergänzung ()

tidus1979 schrieb:
... war oft genug nicht der Fall. Die GTX 1080 war zu Release am günstigsten, danach Schlug Mining zu und AMDs Schwäche tat ihr übriges. Könnte dieses Mal genauso werden, wissen wir nicht.

Ach so, weil die RTX Ampere Verbrauchsmonster so gut zum Mining sein werden und einen neuen Boom ausloesen werden (?) .... das glaube ich eher weniger.

Vielleicht naht ja auch ein RyZen 1 Moment bei den GPUs fuer AMD(/RTG) mit den RDNA2 Karten (zumindest hoffe ich darauf) und wenn die Kundschaft das annehmen sollte, koennte das langfristig ein Wendepunkt werden (trotz nVidia-Treue vieler ... auch wenn diese ausgepraegter als die Intel-Treue damals im CPU-Bereich gewesen zu sein scheint).

nVidia hat auch vorher die eigenen GPUs nicht dermassen ueber dem Sweet Spot ab Werk anbieten muessen (von Thermi/Fermi einmal ausgenommen), das ist doch schon ein Fingerzeig, dass man sich dort wegen der nahenden RDNA2 Karten von AMD/RTG evt. ein wenig in die Hose macht ;).

Natuerlich ist der fuer nVidia entwickelte 8nm-Fertigungsprozess von Samsung wohl auch eher bescheiden im Vergleich zu TSMC und fuer den hohen Verbrauch der RTX Ampere GPUs mitverantwortlich, aber es ist ja nicht so, dass nVidia nicht bei TSMC haette fertigen koennen, nur dann wuerden die Gewinne nicht so sprudeln bei RTX Ampere (weil man den Kunden dann bessere effizientere Fertigung zu hoeheren Herstellungspreisen und niedrigen eigenen Margen bieten wuerde, aber fuer nVidia ist das gewiss ein No-Go als deutlicher dGPU Marktfuehrer).
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Smartbomb und Holindarn
rasenschach schrieb:
Ampere TFlop ist gleich 2/3 Turing TFlop (bei dem was hinten rauskommt)
Was auch nur daran liegt, dass die TFLOPs vorher schon ein theoretischer Maximalwert waren und jetzt mit der Art wie Nvidia ihren Shader Count angibt, noch sehrviel theoretischer werden^^

Und es ist sogar etwas weniger als 2/3:

Die 2080S kommt mit den Taktraten aus dem test auf ca 11.7 TFLOPs, die 3080 FE auf ca 32.2 TFLOPs.

Von der so errechneten Rohleistung wäre die 3080 175% schneller, sie ist aber nur 60% schneller als die 2080S.

11,7TFLOPs für 100%
32.2 TFLOPs für 160%, also umgerechnet 20,1 TFLOPs für 100%

Die 3080 würde für die gleiche Performance also fast doppelt so viel Rohleistung benötigen, ein Ampere TFLOP entspricht hier 0,58 Turing bzw auch RDNA1 TFLOP.

Wenn AMD mit RDNA2 die IPC erhöht, braucht eine Big Navi theoretisch nur 18-20 TFLOPs haben um an die 3080 ran zu kommen, je nachdem wie viele Shader man einsetzt und wie gut sie skalieren..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Holindarn
Na also, alles andere hätte auch keinen Sinn gemacht. Die 10 GB Variante war nur zum Anfüttern gedacht, um zu sehen wer trotzdem kauft.
Ich warte entspannt ab. Verfügbarkeit ist ja auch nicht soo dolle..
 
  • Gefällt mir
Reaktionen: Aquilid
3070 16gb ... sehr gut, darauf warte ich :)
 
  • Gefällt mir
Reaktionen: Aquilid, Zwirbelkatz, mcbloch und eine weitere Person
Majestro1337 schrieb:
@eselwald warum so aggressiv? Hab ich deine Religion beleidigt oder was?
Natürlich kommt immer was neues und besseres, aber doch nicht unmittelbar nachdem gerade etwas neues rausgekommen ist.
Warum meine geistigen Fähigkeiten an meiner Nasenspitze aufhören, nur weil ich mich von Konzernen nicht gerne melken lasse und ökonomisch rational handele ist mir unklar und ich verbitte mir solche sinnlosen Angriffe du kleingeistiger Internettroll...

Sorry, wenn es aggressiv wirkte, es sollte nicht aggressiv gemeint sein. Mhh die 2080ti ist nun schon recht "lange" draußen und eine Variante mit 20 GB ist aktuell ein Gerücht, auch wenn es plausibel wirkt, aber auch das ist normal halt eine Variante mit 10 und eine mit 20 GB bedeutet mehr Auswahl für den Enduser also warum so "anti" gegen Auswahl?

Ich habe hier nicht DEINE geistige Fähigkeit gemeint sondern dies war "Allgemein" gemeint. Du entscheidest ja zum Glück für Dich was Du brauchst und was nicht. Kein Konzern zwingt Dich etwas zu kaufen wenn Du gerade etwas "neues" gekauft hast.
Rational handeln bei "Unterhaltungselektronik" sowas gibt es nicht, man handel dort immer "Irrationalität" und redet sich ein "rational" gehandelt zu haben. Denn JEDER Konzern möchte seine Kunden bis zur persönlichen Schmerzgrenze "melken" so funktionieren Unternehmen halt denn sonst wären sie nicht erfolgreich. Ein HOCH auf den Kapitalismus ;-)
 
@Chismon

Ich kann nun wirklich nichts dafür, das sich schon viele eine 3080 mit 10 GB für 4K statt WQHD und eine
Playstation 5 vorbestellt haben.

Das gleiche wurde mir auch bei PS4 erzählt, als ich dann Assasins Creed mit 25 Fps gespielt habe...
Besonders meine Arbeitskollegen verteidigen ihren Fehlkauf immer :D die kaufen Schrott und wollen das andere auch Schrott kaufen, um ihren Fehlkauf zu rechtfertigen

Ich wollte 500 Euro sparen, aber ich werde mir eine 3090 mit SLI Anschluss kaufen und wenn diese nach 3 Jahren knapp wird, eine zweite 3090 SLI mit (Nvidia Profile Inspector) kann man alle Spiele SLI fähig machen.
 
Coenzym schrieb:
Nehmt doch die 3090, dann haben sich die RAM Diskussionen erledigt :-)
Wenn es die um 900€ geben würde ... ich würde hier sicher nicht diskutieren ^_^
Ergänzung ()

M3930 schrieb:
u hast natürlich Recht. Ich hab da was durcheinander gebracht. Mir geht es vor Allem um das Kühlerdesign.
Auch auf die Gefahr hin mich jetzt unbeliebt zu machen, ich war wirklich kein "Fan" des FE-Designs. In meinem System ist der RAM schon so temperaturempfindlich, das ich ihn mit einem Lüfter kühlen muss.
Das neue FE Design lässt doch RAM und CPU weniger Leiden als die gute alte 2080. Ist doch ein Fortschritt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aquilid
Also mir reichen 10GB und ich zahle bestimmt keine 30% mehr für Ram den ich nicht brauche :D Ich glaube Diese VRAM Gier kommt ganz allein von den Nutzern selbst weil er sich in den Vergangenheit meist verdoppelt hat. Nun tut er das auch einmal nicht und alle schreien auf. Ich wette 70% der, die hier schreien, werden nie mehr als 10 GB brauchen.
 
Coenzym schrieb:
Nehmt doch die 3090, dann haben sich die RAM Diskussionen erledigt :-)

Es gab eine 3080 Zotac bei Amazon für 700 Euro mit 5 Jahre Garantie,
eine Zotac 3090 mit 5 Jahre Garantie für 1500 Euro hätte ich sofort bestellt, obwohl EVGA viel mehr bittet.
Aber bitte nicht weiter erzählen, ich warte auf eine Zotac 3090 für 1500 Euro und 5 Jahre Garantie.
 
Auf meiner 1080ti gönnt sich Crysis Remastered auch mehr als 10 GB VRAM, bei der 3080 mit nur 10 GB reicht es wohl aber trotzdem auch so. Ist es nicht so dass sich die Spiele auch gerne mal mehr gönnen als zwingend notwendig, nur weil halt noch Raum da ist? Somit müsste man schauen ob es schon Spiele gibt die bei weniger als 10 GB ram auch wirklich Performanceprobleme haben und nicht einfach nur, was GPUZ anzeigt.
 
  • Gefällt mir
Reaktionen: Smartbomb, machiavelli1986 und Tallum
@Raidr

Es gibt Beides, also Spiele die den Vram einfach nur voll machen, aber auch welche die ihn wirklich benötigen.
Zudem kann es sein das du einfach schlechtere Texturen in Kauf nehmen musst wenn der Vram voll ist...
 
  • Gefällt mir
Reaktionen: Aquilid und GamingWiidesire
Kleptomanix schrieb:
Also mir reichen 10GB und ich zahle bestimmt keine 30% mehr für Ram den ich nicht brauche :D Ich glaube Diese VRAM Gier kommt ganz allein von den Nutzern selbst weil er sich in den Vergangenheit meist verdoppelt hat. Nun tut er das auch einmal nicht und alle schreien auf. Ich wette 70% der, die hier schreien, werden nie mehr als 10 GB brauchen.

Hallo, dafür gibt es AMD mit mehr Speicher und wahrscheinlich mit einem besseren Preis/ Leistungsverhältnis.

boika schrieb:
Es gab eine 3080 Zotac bei Amazon für 700 Euro mit 5 Jahre Garantie,
eine Zotac 3090 mit 5 Jahre Garantie für 1500 Euro hätte ich sofort bestellt, obwohl EVGA viel mehr bittet.
Aber bitte nicht weiter erzählen, ich warte auf eine Zotac 3090 für 1500 Euro und 5 Jahre Garantie.

5 Jahre schön und gut wenn man die Karte auch volle 5 Jahre vor hat zu nutzen, in der Zeit ist das Ding leider schon wieder alteisen.

Raytracing 2.0 oder weiß der Geier ;)


Hab ich ja schön mit meiner RX 5700 XT miterlebt, vor einem Jahr gekauft und nu? Unterstüzt soweit ich weiß gar kein DX12 Ultimate ( Raytracing )

Wenn ich also jetzt auf den Raytracing Zug aufspringen will muss ich meine 1 Jahr alte Karte bereits abstoßen...
 
Zuletzt bearbeitet:
Also auf eine RTX 3080 mit 20GB VRAM da hätte ich definitiv Bock drauf :)
Da hätte ich auch beim Arbeiten Vorteile von bzw. könnte erstmalig diveres überhaupt erst nutzen.
 
lovef13fdxn51.png
 
  • Gefällt mir
Reaktionen: Smartbomb, cypeak, Klopskopp und 4 andere
Zurück
Oben