News GeForce RTX 3090/3080: Gainward führt vier Custom Designs in allen Details

@R-47

1. Weil sie für die 3090 dann auch Höchstpreise verlangen können. Außerdem weiß man ja nicht, ob nicht eine 3080ti mit 12 GB nachgeschoben wird.
2. IMHO kann Nvidia damit die 8GB und 10GB rechtfertigen. Sie bleiben sparsam beim RAM haben aber gleichzeitig eine Lösung parat für größeren Speicherverbrauch.

Vieles von den Gerüchten, wurde durch die Leaks ja bestätigt, und das gehört zu den stimmigeren bzw. sinnvolleren.
Im Endeffekte ist hier das meiste Spekulation. Erst Morgen werden wir ja genau wissen was Nvidia genau vorhat.
Nur wie du selbst sagst, Speichermangel will keiner haben.
 
@guillome die 3090 wird eine 4K+ Karte und warum sollte die niemand brauchen? Du spielst ja, auch in UWQHD 120Hz. Wenn man die Regler lieber nach rechts stellt, ist sie sicher zu gebrauchen. :hammer_alt:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: evilhunter und strempe
@Syrato
Nur so aus Interesse ,da wir fast das gleiche System haben :) Welche Karte hast dir vor zu holen und bleibt der 7700K erstmal drin?
 
Du wirst heute und auch morgen bei keinem Spiel vanilla 24GB vram brauchen. Mods und Demos ausgenommen. Ich spiele in UWQHD und nicht 4K.
 
  • Gefällt mir
Reaktionen: Laphonso
R-47 schrieb:
Und wer heute einen fast vierstelligen Betrag in die Grafikkarte investiert, möchte doch nicht nur die Spiele von gestern, sondern auch die von morgen ohne Kompromisse spielen.

Wer kompromisslos spielen wollte, musste die letzten Jahre, da AMD leider hier nichts im Portfolio hatte, bisher immer das Nvidia Topmodell kaufen, die 2080Ti, die 1080Ti, die 980 Ti.
Das waren Nonstop die Benchmarksieger und sicherten für alle Käufer ab Launch die Slider auf Ultra.

Allerdings gibts es auch hier Grenzen, denn eine 2080Ti bekomme ich unter 1440p in vielen Games deutlich unter 100 fps gedrückt, in manchen sogar deutlich unter 60 fps. Da limitiert nicht das VRAM. Ja huch?! ;)

VRAM nutzt nix, wenn der GPU im Rendering bereits die Puste ausgeht.

Auch die best in slot GPU erfordert Kompromisse, weil die Engine einfach Performancekiller Optionen hat oder nicht top optimiert ist.

Die VRAM prevalence sind 4, 6 und 8 GB VRAM Karten.
Das ist Maßstab für die Enwickler.

Die neuen Konsolen haben shared memory und taugen nicht als 1:1 Vergleich.

Manche tun hier so, als sind 8 GB VRAM Karten morgen nicht mehr spieletauglich.
Pure Hysterie.

Wer für "morgen " keine "Kompromisse" möchte, landet automatisch bei der 3090 oder bei dem, was AMD dagegen stellt.
 
  • Gefällt mir
Reaktionen: Affe007, andy484848 und maloz
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.
 
Desto näher die Veröffentlichung rückt, desto ungeduldiger werde ich. :D
Nur schade, dass AMD sich wieder so lange Zeit lasst!
 
  • Gefällt mir
Reaktionen: Pinsel und Laphonso
Che-Tah schrieb:
Für 8K wirds noch sehr viele Jahre dauern. 4K ist mit HighEnd gerade mal spielbar. Der Anspruch geht doch eher Richtung mehr Hz als mehr Auflösung. Wozu brauchst du 8K mehr DPI oder größere Diagonale?
....und DLSS ist doch bei vielen das Böse.
Ich denke es wird eher mehr Leistung in Raytracing usw. gesteckt werden als in reine Rechenleistung.


...ist doch umso beachtlicher dass da AMD trotzdem nicht mit kann.
Ich lass mich gern überraschen, aber dass AMD +100% Leistung auf die Radeon 5700 XT findet glaub ich einfach nicht.
Doppelte CU, 30% mehr Verbrauch, 10-15% mehr Takt und mehr als doppelte Speicherbandbreite, unbekannte IPC Steigerung -> unmöglich ist es nicht
 
  • Gefällt mir
Reaktionen: Strahltriebwerk und Brrr
alkaAdeluxx schrieb:
Extra eine 2. Version die Ganze 30 MHz höher taktet.
Das ist so was von unnötig AUA :utrocket: :stock:

Ich finde solche Werte sind völliger Quatsch. Was bringt es schon wenn Karte A 152 Fps hat und Karte B 153 Fps? Genau so das Geheule mit dem Boosttakt vom Ryzen letztes Jahr. Was sind schon 50 Mhz mehr oder weniger, wenn heutige CPUs eh schon mit 4-5 Ghz takten?

Das hat früher mehr Spaß gemacht.
Mein Pentium 166MMX lief mit 233 Mhz. Der Celeron 300A mit 450 Mhz (da wäre vermutlich noch mehr drin gewesen, aber mehr als 100 Mhz FSB hatte mein Board nicht). Und ein Freund hat seinen AMD Duron 600 (oder 700?) auf über 1 Ghz geprügelt.
Eine schöne Zeit war es damals. Mal eben 50% mehr Takt für lau :)
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
KlaraElfer schrieb:
Könntest du mir die Titel nennen? Würde mich sehr interessieren.
Ich habe mit der 2060 6GB in WQHD bisher keine Probleme.

Ich wunder mich auch immer wieder dass ich mit einer 2080 in WQHD so gar keine Probleme habe.

Spiele die ich habe, und die mMn am besten aussehen, alles @Ultra:
BF5: ca. 5,5 GB VRAM
RDR2: ca 5,1 GB VRAM
Anno 1800: ca. 5,1 GB VRAM

Von Spielen wir RS6, Satsifactory etc. die deutlich weniger brauchen mal ganz abgesehen. Heißt ich habe noch 2,5 GB - 3 GB Puffer beim VRAM. Bis die voll sind ist mir die Karte dann glaube ich eh zu lahm ;)
 
guillome schrieb:
Und dann der ganze Rest (3080 3070 usw) der gerade so VRAM- technisch heute ausreichend und für die Zukunft unterdimensioniert ist.

Aber woher nimmst du dein Wissen darüber, wie viel RAM mit der Ampere Architektur nötig ist?
Ampere beherrscht so viel wie Gerüchte besagen Tensor Memory Compression, die eine Reduktion des Speicherverbrauches um 20 bis 40% in Aussicht stellt.

Mal angenommen das funktioniert reibungslos, dann hat die 2080 10GB mit der neuen Kompression eben mindestens 12GB zur Verfügung.
 
  • Gefällt mir
Reaktionen: Salamitaktik
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.

Stimmt. Die Abwärme und Lautstärke interessiert dafür aber umso mehr. Mal weiter als bis Viertel-Zwölf denken?
 
  • Gefällt mir
Reaktionen: Excel, GERmaximus, miro98 und 5 andere
RNG_AGESA schrieb:
solch häßliche karten von Gainward können einfach nicht viel kosten. no way!
wette NV hält sich +/- 50,- an die vorgänger gen.

das bezweifle ich, denke das es nen ordentlichen Preisaufschlag geben wird, da 7nm big chip und deutlich gesteigerte RTX Leistungen sicherlich die kosten erhöht haben. Dann hieß es noch das die Kühlung deutlich aufwendiger ist weil punktuelle hotspot schlechter kühlbar sind.
 
MiaSanMiaaa schrieb:
Kann man so machen, wäre aber ziemlich dumm aus wirtschaftlicher Sicht.
Wir sprechen hier nicht von strategischer Kriegsführung und Caesars nächster Schlacht, wo das Ziel darin besteht, der Konkurrenz heimtückisch von hinten mit der Kavallerie den Hintern zu versohlen.
Hmm, da bin ich anderer Meinung. Kannst du dich an das Vega Marketing erinnern? Sowas will man nicht. Aber vermutlich wird AMD nicht die Performance-Krone erobern können. Nvidia scheint nicht zu kleckern mit der Performance. Aber mal Tests abwarten.
Ich vermute mal AMD wird hier vielleicht mit Performance/Watt punkten können, aber alles Spekulation^10.
 
  • Gefällt mir
Reaktionen: bad_sign
MiaSanMiaaa schrieb:
Stimmt. Die Abwärme und Lautstärke interessiert dafür aber umso mehr. Mal weiter als bis Viertel-Zwölf denken?
Es sind ja entsprechende Kühlkörper und Lüfter dran die leise sein sollen. Die 1080ti hatte auch enorme Abwärm, selbst unter Last war sie zwar wahrnehmbar, aber nicht störend
 
hahaqp schrieb:
Ich wunder mich auch immer wieder dass ich mit einer 2080 in WQHD so gar keine Probleme habe.
Habe auch keine Probleme mit meiner 1080Ti, selten mal das 8GB genutzt werden.
Das passiert nur wenn man sinnlose Regler bedient, bzw. wenn man blind alles auf Ultra zieht. ;)
Spiele übrigens auch in WQHD.
 
  • Gefällt mir
Reaktionen: Laphonso
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.

Geht ja auch nicht um die Kosten, sondern um die Hitze, die abgeführt werden muss.
High End Boliden waren die letzten Jahre meist um die 300 Watt eingestellt, ob das nun 20, respektive 50 Watt mehr sind, kann relativ egal sein.
Angenommen AMD schafft eine GPU herauszubringen die die Leistung bei 200 Watt abliefert, dann macht auch die Kostenrechnung Sinn.
 
Und Nvidia wird mit der 3090 das Maximum ausloten wollen um zu sehen was die Leute bereit sind zu zahlen, ich bin definitiv raus hatte ich bei der 2080ti schon gesagt aber mehr wie 1,5K werde ich nicht locker machen dann überspringe ich doch mal eine Generation, hoffe das machen dann noch mehr Leute so wie ich.

Was mich stört sind die 350 Watt, es sind 100 Watt mehr als zum Vorgänger da bin ich mal auf die Erklärung gespannt. Wenn sie doch nur zweigleisig fahren könnten den Misst mit Raytracing brauche ich nicht ich will Shaderleistung !
 
Der Merowinger schrieb:
Es sind ja entsprechende Kühlkörper und Lüfter dran die leise sein sollen. Die 1080ti hatte auch enorme Abwärm, selbst unter Last war sie zwar wahrnehmbar, aber nicht störend

Wir sprechen hier von einer TDP die mal eben 40%! höher liegt. Dazu die engere Bauart der einzelnen / mehrerer Komponenten.
Ich bin zwar auch der Meinung, dass NVIDIA sich im Jahr 2020 hier keinen Mist leisten wird, aber anzweifeln / kritisch sehen darf man das trotzdem erstmal. Der Strom ansich, worauf du dich bezogen hast, interessiert jedenfalls die wenigsten. Es sind eher die Folgen die daraus resultieren (können)
 
  • Gefällt mir
Reaktionen: GERmaximus, Maxxx800, Strahltriebwerk und eine weitere Person
Zock schrieb:
Wenn sie doch nur zweigleisig fahren könnten den Misst mit Raytracing brauche ich nicht ich will Shaderleistung !

Willkommen im Jahr 2020.;) Mich persönlich interessiert die RTRT Leistung wesentlich mehr als die Shaderleistung, letzteres wird nun Schritt für Schritt abgelöst werden.
 
  • Gefällt mir
Reaktionen: pietcux, Salamitaktik, GERmaximus und 2 andere
Zurück
Oben