News GPU-Gerüchte: GeForce RTX 3080 Ti kommt mit 20 GB GDDR6X

Himbernuub schrieb:
Ich frage mich ob neue Grafikkarten vor 10 Jahren den selben shit Storm im forum ausgelöst haben. :D
Och....
hier mal ein paar 2008er und 2012er Threads :D

https://www.computerbase.de/forum/t...durchweg-ordentliche-multi-gpu-karte.1056378/
https://www.computerbase.de/forum/t...epler-ist-nvidia-wieder-die-nummer-1.1039507/
https://www.computerbase.de/forum/t...epler-ist-nvidia-wieder-die-nummer-1.1039507/
https://www.computerbase.de/forum/t...u-zur-schnellen-neuen-ati-grafikkarte.433553/

Viel Spaß!

Willkürliche Zitate:
"Du musst an deiner Fähigkeit, gelesenes auch zu verstehen arbeiten."
" Och wie ich dieses Fanboy gelaber doch mag. "
"Was gibts da zu gratulieren? Wo bleiben nochmal die, die meinen eine 4870 versägt eine GTX 280?"


Die Antwort @Himbernuub lautet: JA
🤣
 
  • Gefällt mir
Reaktionen: fox40phil, alkaAdeluxx, Cpt.Willard und 7 andere
An alle Gamer, die mehr Vram für Gaming begrüssen:

Fakt ist,dass mehr Vram für den Kunden auch mehr kostet und mehr Ressourcen bedeutet.
Fakt ist dass die überwiegende Mehrzahl der Gamer mit unter 10GB Karten ausgerüstet sind und nicht gewillt sind ein bestimmtes Budget dafür zu überstreiten oder auch schlicht nicht können.
Fakt ist,das Konsolen um 500 Euro mittlerweile ein akzeptables bis gutes Spielerlebnis liefern.

Ist es nicht sinnvoller die Softwareschmieden durch das Kaufverhalten zu zwingen bessere Arbeit zu leisten als den umgekehrten Weg zu gehen und durch immer mehr Geldeinsatz in Hardware die teils schlampige Arbeit/Portierung zu kompensieren?
Natürlich dreht sich das Rad weiter,wir haben mit VR Möglichkeiten,die noch vor einem Jahrzehnt undenkbar gewesen sind aber dennoch sind wir noch weit von z.B. Holodecks :D etc...Die Meisten hocken doch vor einem Monitor und sehen genau das Gleiche wie vor 10 Jahren nur bisschen hübscher und schneller.Stimmt hier noch die Relation und wenn nicht was ist die Ursache?

Ich fände es schade wenn PC-Gaming auf hohem Niveau in Zukunft nur einem elitären Kreis erschlossen bleibt.Und damit meine ich nicht VR&Holodecks:D.

Wie sind eure Ansichten dazu?
 
  • Gefällt mir
Reaktionen: Rush
Fighter1993 schrieb:
Ein Tritt für alle 3090 Besitzer wow...
Nicht wirklich.
  • Die 3090er bekommt man "jetzt" und kann entspannt die Advents+Weihnachtstage kompromisslos durchzocken.
  • Die 3080Ti wird auch 20-40% aftermarket Preise vorfinden = 1200-1400 Euro Korridor
    Das wäre dann bis zu 100 Euro unter 3090 UVP...
  • Die 3080Ti muss erst beweisen, dass sie kein Paperlaunch Produkt ist wie die 3080, die man IMMER noch quasi gar nicht erhält. Und wenn, dann weniger beliebte customs oder alles weit jenseits der 700 Euro.
    Im worst case wartet man also bis in den Februar oder März 2021 auf "die" Customs, die man haben will. Das sind nochmal 3 oder 4 Monate
  • Der stabil hohe Wiederverkaufswert für early adopter tech ist ein Faktor, ich erinnere an die 2080Ti Gebrauchtpreise von 800-1000 Euro bis in den Spätsommer
  • die 2080Ti geht heute noch "dank" der 3070 Preise für 450-550 Euro weg, neuere mit 2020er Garantie sogar für mehr, vor allem die Strix und Co.
  • Die 3090 wird die Prosumer als Zielgruppe haben, die in 2 Jahren günstiger an eine 3090 als Arbeitstier kommen möchten, sie ist "uncut" (ist sie technisch nicht, da sind noch 2 chips locked, aber das ist ein anderes Thema), und hier sind die 24 GB VRAM das, welche die 3080TI "ausstechen" werden. Für diese Zielgruppre. Siehe die CAD,Blender/gfx Foren.


Wer keine 3090 a priori haben wollte, hat sowieso nicht zugegriffen.
Wir alle wussten, die 3080Ti kommt. Und sie hat die viel bessere Preis/Leistung.

Ob das jemanden in schlaflose Nächte führt, die/der bereit war, 1500-2000 Euro für eine GPU auszugeben?
Hm ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: guillome, Brian330xi, Rush und 2 andere
Fighter1993 schrieb:
Ein Tritt für alle 3090 Besitzer wow...
Wieso? 3090 behält breiteres Speicherinterface und +4GB VRam bleiben auch. Kohle ist eh weg, und wer sein Leben wegen so einer Karte finanziell umstellen muss, hätte sie besser nicht gekauft. Davon, dass es bald eine fast so schnelle Karte gibt, wird die 3090 nicht langsamer.
So gesehen ist jede neuere Karte ein Tritt für die Besitzer der Vorgänger, aber nur für Leute, die ihr Ego und Selbstwertgefühl an so einem Stück Hardware festgemacht haben. Da läuft dann aber woanders was falsch. :freak:
Also chillen und nicht alles als "Tritt" oder "Schlag ins Gesicht" dramatisieren.
Wenn ich meine 3090 wieder 3 1/2 Jahre (wie die 1080Ti) behalte, erwarten mich noch viele "Tritte".
 
  • Gefällt mir
Reaktionen: DDM_Reaper20, Cpt.Willard, usmave und 4 andere
Das wäre ja genau ein Design was mr gefällt.
2x 8pin PCIe und diese auch noch an einer Position wo man die Kabel sehr gut "verstecken" kann.
Bin gespannt ob das Bild "echt" oder "gephotoshoppt" ist.
 
Stunrise schrieb:
Das beste Ampere Produkt ist und bleibt die normale RTX 3080 für 699€, genau aus diesem Grund ist die Karte auch weltweit restlos ausverkauft,
Gibt keine Ampere für 699€.
Und vlt ist sie ausverkauft, weil es die einfach nicht gibt?
 
  • Gefällt mir
Reaktionen: Duffy Duck und Bright0001
Laphonso schrieb:
...was man aber auch erkennen kann ist, dass Spitzentechnik sehr viel mehr gewürdigt wurde damals.
Auch, dass es erheblich mehr um das Produkt bzw. die Technik geht, als um irgendwelche Kindergarten Flamewars oder Fanboykriege.

Da wird sich deutlich weniger gegenseitig an die Gurgel gegangen.
Ein hervorragendes Beispiel dafür, wie sich die Diskussionskultur in Foren immer weiter zum Negativen hinentwickelt.
 
  • Gefällt mir
Reaktionen: Rush und Laphonso
Nahrungsmittel schrieb:
@KlaraElfer
Ich werde mir zukünftig günstig eine RX 5700 XT Abstauben weil ich nicht immer das neuste haben muss. ;) Wobei die RX 5700 XT nun auch nicht zum alten Eisen gehört..

Ich würde da fast, da die Preise ähnlich sind derzeit gebraucht, eine RTX 2070/2070 super oder 2080 erwerben. RT kann man auf diesen evtl. nicht nutzen, aber DLSS .
 
  • Gefällt mir
Reaktionen: Laphonso
Tornavida schrieb:
Wie sind eure Ansichten dazu?

Nunja, wie so oft, treiben die early adopter und das technisch Machbare die Front der Entwicklung.

Wir wollen 34 Zoll Monitore, wir wollen 4K und VR.
Wir wollen zocken auf 4K 65 Zoll OLED HDR TVs über Displayport.
Wir wollen noch bessere Grafik, Raytracing und komplexe offene Welten mit viel LOD und wenig "plop ins", sondern alles smooth und Detailgrade bis an den Horizont.

Wir wollen den MS Flightsimulator 2020 mit 60-100 fps spielen und Drawdistanz bis in den Nachbarkontinent (flat earther gags hier bitte!)

May Payne war damals ein so tolles Spiel, grandios inszeniert.
Aber gegen Red Dead Redemption 2 sieht das aus wie Strichmännchen Grafik.

Wir wünschen uns ja von den devs nicht nur eine gute Spielmechanik, sondern das alles mit toller Immersion und super inszenriert, und da sind wir bei den Effekten, bei Texturen, bei Licht und Schatten und Spielelungen und Detailgraden und Animationen, die wegkommen von Ragdolleffekten des vergangenen Jahrzehnts.

Das erfordert Rechenpower.
Ich möchte gerne mehr Games grafisch wie RDR2, nicht weniger.
Das wird nur klappen mit mehr Render+Raster+Drawpower, mehr VRAM und dann wohl auch AI-Scaling.
Dafür zahlen wir den Preis, den diese Evolutionen oder Innovationen kosten.
Nur so als Gedanke.

So lange die Konsolen nicht (inflationsbereinigt) 1000 Euro kosten, finde ich es unkritisch. Sie halten den PC Markt auch in Schach, denn wenn ich müsste, kaufe ich lieber PS5 und XBox statt einer 3090.
Aber ich muss nicht, ich will "mehr" Grafik und mehr Optionen.

PC Gaming war somit immer "mehr" für mehr Geld und die technische Speerspitze, die Konsolen konfektionieren die laufende und bisherige CPU+GPU Generation für den mainstream. Das ist win win.

Anbei meine Lieblings RDR2 Screens
 

Anhänge

  • pcrdr2d.jpg
    pcrdr2d.jpg
    505,6 KB · Aufrufe: 350
  • pdrdr2e.jpg
    pdrdr2e.jpg
    351 KB · Aufrufe: 351
  • rdr2co3.jpg
    rdr2co3.jpg
    776,9 KB · Aufrufe: 350
  • rdr2ultra.jpg
    rdr2ultra.jpg
    377,1 KB · Aufrufe: 354
  • train.png
    train.png
    5,9 MB · Aufrufe: 361
  • pcrdr2c.jpg
    pcrdr2c.jpg
    352,5 KB · Aufrufe: 333
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil, der dude, tomcat66 und 5 andere
Solid1984 schrieb:
Was habt ihr alle für Schadenfreude?
Es wird immer etwas Besseres rauskommen. Erfreut euch jetzt an eurer Hardware und vor allem an dem wofür sie da ist bei den meisten (Spiele zocken), alles Andere ist Kindergarten.

So sieht es aus. Ich hab jetzt eine GTX 1080 drin, die RTX 3080 ist bestellt, die 10GB VRAM reichen mir, ich spiele in WQHD meistens nur competitive Shooter, da sind die Settings eh unten.

Singlerplayer Games wie Witcher 3, der SP von COD MW oder SP von Cold War und in Zukunft Cyberpunk spiele ich auf höchsten Einstellungen und selbst da reicht der Vram aus.

Ob er in 2 oder 3 Jahren noch reicht wird sich zeigen, aber selbst die neue Konsolen Generation hat nur 16GB RAM für CPU und GPU und damit erwarte ich auch keine Quantensprünge in Sachen VRAM. In 2 oder 3 Jahren gibt es eh wieder eine neue Karte :)

Also immer locker durch die Hose Atmen, ich bin viel zu lange dabei um mir jetzt bei meiner RTX 3080 (wenn sie dann mal kommt) sorgen zu machen, dass der VRAM nicht reicht.


MFG Rush
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: der dude und idlop
Ich frage mich schon wozu die Karte gut sein soll?
Die 6900XT soll ja die 3090 schlagen oder auf gleicher Stufe sein.

Das wäre ja P/L technisch immer noch zu hoher Aufschlag im Vergleich zur 3080.

Ich werde nächstes Jahr aufrüsten müssen, da ich auf WQHD umsteige, aber für mich werden ~600€ die Schmerzgrenze sein.
 
Tornavida schrieb:
-Komplettzitat entfernt-
Wie es richtig geht, ist hier nachzulesen.
Die Gamer wollen, aber sicherlich auch mal etwas, in 4K spielen oder?

Wenn ja dann sind die 10GB VRAM, echt mager.

Bei Godfall, wärst du dann leider mit deiner 10 GB VRAM Karte gezwungen die Auflösung, von 4K auf 2K um zu stellen!

Daher begrüße ich mehr VRAM, auf allen Karten,

Die Frage ist nur ob 16GB VRAM, in 4K reichen, oder ob man unbedingt 20GB VRAM benötigt, um alles auf Ultra zu stellen?
Ergänzung ()

Euphoria schrieb:
-Komplettzitat entfernt-
Für 4K ultra Settings braucht man diese Karte!
Die RTX 3080 macht da sch ell schlapp, mit ihren mickrigen VRAM, lol!
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Nvidias Fehler ist das man nur 10GB oder 20GB verbauen kann.
10GB zu wenig für 4K, 20GB zu viel.
AMD hat das sehr gut gelöst, 16GB Perfekt

Ich werde warten bis alle Grafikkarten erscheinen und dann vergleichen.
Aber 1500 Euro werde ich dafür nicht bezahlen
 
  • Gefällt mir
Reaktionen: fox40phil, Vitec, catch 22 und eine weitere Person
Metallsonic schrieb:
Die Frage ist nur ob 16GB VRAM, in 4K reichen, oder ob man unbedingt 20GB VRAM benötigt, um alles auf Ultra zu stellen?
Das kommt doch wie immer auf die jeweiligen Titel an. Aber es zeichnet sich ab, dass die 16GB der AMD-Karten z.Z. (!) in der Leistungsklasse wohl den besten Kompromiss aus Zukunftsfähigkeit und Kosten darstellen.
 
  • Gefällt mir
Reaktionen: Vitec
@Alphanerd
:confused_alt: Wenn es eine RTX 3080 nicht für 699€ gibt, wie konnte ich die dann für 699€ kaufen? :confused_alt:
Wegen Knappheit haben aktuell alle Ampere zwar einen kleinen oder weniger kleinen Aufpreis, aber der ist ja übergreifend und würde auch nicht vor einer 3080Ti halt machen. Insofern muss man schon die MSRPs miteinander vergleichen, Straßenpreise gibt es ja noch nicht für künftige Modelle.
1605183820259.png
 
3080 owners will cry in agony ^^
 
rumpel01 schrieb:
Das kommt doch wie immer auf die jeweiligen Titel an. Aber es zeichnet sich ab, dass die 16GB der AMD-Karten z.Z. (!) in der Leistungsklasse wohl den besten Kompromiss aus Zukunftsfähigkeit und Kosten darstellen.
Ich bin sehr defensiv bei dem "futureproof" Kram, denn die GPUs "verlieren" mit jeder neuen DX und Vulkan und Grafik-Engine- und Feature.-Evolution an Boden.

Siehe Pascal GPUs unter DirectX12.
Und als Gag: Die Sapphire Radeon R9 290X hatte 8GB VRAM.
Anfang 2015 war das.

8 GB VRAM galt laut PCGH als "zukunftssicher" im Test.
Die wahre COmedy brachte tweaktown im Review im Januar 2015:
"and it shows that the additional VRAM has some use for the future - 8K gaming."
🤣🤣

Realität:
4,5 Jahre später, im 2019er Game Metro Exodus knackt sie die 60 fps nur noch in LOW Settings.
Unter 4K? Nein.
Unter 3440x1440?? Nein
Aber unter 1440p??? Nein !

Wo denn? Ach...In 1080p.
Alles klar? ;)

Das zu "4K Gaming mit 8 GB VRAM!" in 2015 und "zukunftssicher".

Die 3080, 3080Ti, 6800XT und 3090 und 6900XT werden in einem GTA VI in 2022 oder 2023 in Ultra maxed Settings in 4K keine 60 avg fps mehr sehen (roh, ohne DLSS oder AMD alternatives AI upscaling).

Da sind 10 GB und 16GB und 20 oder 24 GB VRAM "egal".

Auch hier, zitiert mich dann wieder. Ich mache es, wenn ich richtig liege, sowieso :D

(P.S.: RDR2, auch ein "last gen Spiel", in 4K Ultra drückt eine 3090 (!) phasenweise bereits unter 70 fps....das sind sind nicht die Welten mehr an Reseven über der 60 fps Grenze...)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ComputerJunge, fox40phil, alkaAdeluxx und 5 andere
aappleaday schrieb:
mit 8 oder 10GB kommt man ja laut euren Aussagen nicht mehr weit. :D
So sieht es aus.
 
  • Gefällt mir
Reaktionen: MeisterOek und Brian330xi
Was Konkurrenz plötzlich für Wunder bringt. Da wird einfach mal aus 1500€ für ne 3090 (die damit übrigens obsolet wird) einfach mal 1000€
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil, Onkel Föhn und Laphonso
Verstehe die Aufreger von der 10gb vram Fraktion nicht.
Als die Specs offiziell waren, war mir schon klar dass ich so nen vram-fail nicht kaufen werde.


edit die 3090 bietet kaum mehr Rohleistung für den doppelten Preis -> sinnfrei ebenfalls.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zurück
Oben