News GeForce RTX 3090/3080: Gainward führt vier Custom Designs in allen Details

Mr. Smith schrieb:
3080 wäre OK; aber nicht mit 10GB VRAM. Werde auf jeden Fall erstmal RDNA2 abwarten.

Lieber 12GB oder 16GB mit FreeSync auf meinem aktuellen Monitor; als nur 10GB mit GSync.

komischerweise haben bisher 8gb gut gereicht; wer meint in uhd alle regler auf anschlag schieben zu müssen hat sowieso ein erwartungsproblem.

aber ganz unabhängig davon: je nach speicherinterface kann man nicht einfach mal so 12 oder 16gb dranklatschen; bei 320bit sind nunmal 10 chips a 32bit möglich: also 10gb oder 20gb.
dass die 3090 relativ teuer wird und tief im vierstelligen bereich kostentechnisch aufschlägt, das ist fast schon zu erwarten; genügend käufer scheint es dennoch zu geben.
(ich persönlich gehe davon aus dass die nachfrage anfangs das angebot an 3090er um längen übertreffen wird...)
jedenfalls machen da 12gb mehr vram den kostenanteil auch nimmer wirklich "teuer".
bei einer 3080 wird man bei den customs den aufpreis auf die 20gb vram ordentlich bezahlen. (ich spekuliere mal dass die 10gb variante um die 800€ kosten wird und die 20gb variante von den aib-partnern dann irgendwo zw. 900-1000€ zu finden sein wird.)
 
Rtxler schrieb:
Die Lücke werden wahrscheinlich 12,16, 20Gb Versionen übernehmen, aber dann später erst.

ja das Problem ist, ich brauch ja jetzt eine neue Grafikkarte :p Wäre halt schön wenn es sich solche Variante direkt zum Release gibt. Statt irgendwann später :(


@Mr. Smith 8GB reicher locker
 
Haaase schrieb:
Wegen denen die den Speichermangel nicht verstehen:
  • Division 2, noch nicht alles auf Max, über 7GB teilweise
  • Breakpoint, Texturen auf Hoch, habe Framedrops auf 5fps, WEIL DER VRAM VOLL IST

Also wenn mir das jetzt schon in 4k, und nicht Max Texturen passiert, warum sollte ich dann so nen Minispeicher holen?

Gespielt in 4k auf RTX2080.
Das Problem ist dein 4k Monitor. Da musst du halt tatsächlich mehr Speicher und mehr Leistung haben. Zocke selber beide Games in WQHD, da hab ich das Problem nicht. Wobei mit Breakpoint bin ich immer noch nicht richtig warm geworden, ist eine echte Enttäuschung nach Wildlands.
Ich werde erst auf 4k gehen, wenn es die Grafikkarten locker erlauben. Wobei höchste Settings schon Pflicht sind. Du bist dann bestimmt schon bei 8k.
 
ZeroStrat schrieb:
Der Prozess für die Consumer Ampere soll wohl ein Fake 7nm von Samsung sein, welcher in Wirklichkeit ein 8LPP ist, welcher wiederum nur ein erweiterter 10nm ist.
ich kann mich entsinnen dass ich vor einer weile irgendwo die listung der samsung fertigungsprozesse sah; neben den bekannten 8nm variante, gab es in der liste auch ein 7nm der mit vielen "sternchen" und fußnoten versehen war.
würde mich ebenfalls nicht wundern wenn am ende samsung nvidia einfach ein zu gutes angebot im wettbewerb gemacht hat (was samsung gerne mal macht..)

dann wären die leistungsaufnahme nicht schwer zu erklären..
Ergänzung ()

Dark1989 schrieb:
Also ich hatte letztes Jahr schon Arges Bauchweh als 1440p Spieler mit einer 2080S und 8GB..
komisch. ich bisher garnicht. die anzahl an games die einem den speicher unter wqhd vollpacken, beschränkt sich auf einige wenige titel die sowieso berüchtigt sind garnicht genug leistung und vram zu bekommen...dafür gibt es dann entsprechende scheiberegler...

(anfang 2000er jahre war zwar speicher weniger das problem, denn alle karten haten gleich wenig davon ( :-p ) - aber die settings einwenig runterzudrehen war eher die regel als ausnahme und wir haben trotzdem viel spaß gehabt, haben kompetitiv gespielt und haben wohl eine "gaming-ära" erlebt, die die neulinge heutzutage sich garnicht vorstellen können..und das trotz des ganzen technischen fortschritts..)
 
Zuletzt bearbeitet:
cypeak schrieb:
bei einer 3080 wird man bei den customs den aufpreis auf die 20gb vram ordentlich bezahlen. (ich spekuliere mal dass die 10gb variante um die 800€ kosten wird und die 20gb variante von den aib-partnern dann irgendwo zw. 900-1000€ zu finden sein wird.)

Hängt auch davon ab, wo die beiden Top AMD GPUs liegen, die man bei 16 GB VRAM und das Topmodell ggf. sogar bei 24 GB VRAM verorte. Und mindestens das Topmodell wird auf 3080 fps Niveau liegen.

Die Raytracing Performance RDNA 2 vs Ampere bei gleichen wird sicher auch ein Faktor, wieviel Preisdruck AMD ausüben kann, oder eben auch nicht.
 
Thane schrieb:
Allerdings auch die Entwicklung der Preise bei gebrauchten Karten aus der 1000er Serie. Aber so lange die Leute das zahlen... Es gibt ja auch so Experten, die über 500€ für eine gebrauchte 1080ti hinblättern
die preise für gebrauchte grakas orientieren sich auch an der performance; ich kann mich noch gut an die pascal einführung erinnern, als die gtx1070 sich empfahl - etwas mehr leistung als eine 980ti für um die 400€. damals konnte man auch besten 980ti customs für weit unter 400€ gebraucht abstauben.
so wird es auch diesmal sein - je nachdem wie eine 3070 dann performt - und wichtiger: welches preisschild diese bekommt (und was big navi bietet), wird man für eine 2080ti wahrscheinlich etwas unterhalb des marktpreises einer 3070 dafür als gebrauchte karte bekommen...eher sogar gut weniger als das.

deshalb suchen sich die gebraucht-verkäufer bei release einer neuen generation gerne uninformierte oder schlicht unwissende user, welche ihnen die alte hardware überteuert abnehmen sollen...leider gibt es genügend leute die dann meinen ein vermeintlich gutes geschäft zu machen..
 
BlackhandTV schrieb:
ja das Problem ist, ich brauch ja jetzt eine neue Grafikkarte :p Wäre halt schön wenn es sich solche Variante direkt zum Release gibt. Statt irgendwann später :(

naja gut durchdacht von NV, abwarten was AMD so abliefert und ggf. dann neue Speichergrößen auf den markt werfen als "super" varianten dann kann man den kunden doppelt schröpfen.
 
HAse_ONE schrieb:
Ich hab mit meiner 2070 Super ein einziges Mal Raytracing aktiviert gehabt und das auch nur ausversehen, weil COD die Einstellungen zurückgesetzt hat. Mir ist nichts aufgefallen, außer dass meine FPS auf einmal voll niedrig waren.
Wer explizit Raytracing als early adopter tech ideal genießen wollte, kam um eine 2080Ti nicht herum, und das ist schon vor 2 Jahren hier umfassend diskutiert worden. Die 2080 Super erlaubt zumindest noch eine Leistung im näheren fps Umfeld.

Man musste "leider" RT mitkaufen bei den 2080ern und 2070ern und 2060ern aufhrund der Architektur , auch wenn man das nicht genutzt hatte.
Auch DLSS ist ja erst im Kommen und zeigte mit Death Stranding z.B. was möglich ist.

Mit einer 2080Ti waren BF V, Control, Metro Exodus, CoD MW und die Tomb Raider Games aufgrund RTX ON manchmal "nur hübscher", manchmal aber auch eine echte Bereicherung der Atmosphäre und der Immersion.
Und dafür hat sich das gelohtn. Prämisse immer: RT als Addon. Die 2080 Ti kaufte ich für die 1440p Performance per se.

Allen war klar, dass die zweite Raytracing Iteration, die mit Ampere kommt, die ausgereiftere Stufe wird mit mehr Punch und Performance.

Höchst gespannt bin ich, wie AMDs RDNA 2 in Raytracing Segmenten performt.
 
  • Gefällt mir
Reaktionen: JPsy
poly123 schrieb:
Man sollte halt auch mal an seinen gesellschaftlichen Ressourceneinsatz gesamt und nicht nur an sich denken.
poly123 schrieb:
In Bezug auf die 3er Generation gilt mein Interesse vor allem der 3070, sollte aber dann schon deutlich mehr leisten, als meine 2070.
Ich weiß ja nicht, erst von gesellschaftlichem Ressourceneinsatz sprechen und sagen man soll nicht nur an sich denken, aber dann von einer 2070 auf eine 3070 upgraden. Widerspricht sich irgendwie.
 
  • Gefällt mir
Reaktionen: OZZHI und Benji18
HAse_ONE schrieb:
Jetzt kauft ihr euch für um die 800 fu**ing € ne 3080 und dankt Nvidia noch, für die 10GB VRAM, bis dann ganz plötzlich nächstes Jahr ein Spiel rauskommt oder vielleicht schon Cyberpunk mit super geilen Texturen, wo die 10GB nicht reichen und ihr müsst bei eurer nagelneuen teuren Graka schon die Texturen runterdrehen. Na geil, da kommt Freude auf.

Du glaubst also NVIDIA wird eine Grafikkarte rausbringen, die ihr größtes Tech-Showcasespiel seit Jahren nicht vernünftig rüberbringen kann? Cyberpunk wird auf ner 3080 mit nahezu allem auf Ultra in 4K DLSS laufen auf mindestens 60 fps laufen. Alles andere wäre medialer Suizid.
 
Spannend wird :

  • Gibt es über HDMI 2.1 UHD mit 120Hz und 4:4:4 mit 10 Bit ?
  • wird die 3080 signifikant schneller als die 2080ti ?
  • kostet die 3090 wirklich über 2000€

Grüße
Sascha
 
@Mr. Smith
also ich habe vor über einem jahr für meine 2080 keine 850€ bezahlt...nichtmal 700 - selbst die 670€ fand ich für eine graka viel; etwas was heutzutage offenbar kaum noch 2 jahre genutzt wird...
Ergänzung ()

Dana_X schrieb:
wird die 3080 signifikant schneller als die 2080ti ?
definiere "signifikant" in diesem fall...
Ergänzung ()

Schraube24 schrieb:
Es soll ja auch Gehäuse geben, bei denen man die Karte vertikal oder sogar umgedreht einbauen kann (z.b. Dark Base 700)
es gibt sogar gehäuse, da ist es egal, weil man nicht hineinsehen kann.
es gibt sogar leute die haben ein case mit glasfenster und keinerlei leuchteffekte.
und es gibt leute die haben gase mit glasseiten und rgb, aber es juckt sie schlicht nicht, weil dass teil irgendwo unter dem tisch bitte möglichst leise "leuchten" soll... :evillol:
 
Für 15% mehr FPS gebe ich inkl. Wasserkühler keine 1000€ aus. Das lohnt sich schlichtweg nicht.
 
  • Gefällt mir
Reaktionen: poly123
xexex schrieb:
Ich will hier nichts relativieren, aber es ist ein Hobby und gerade bei Strom sollte man sich die "Umweltkeule" sparen. Nicht nur weil 300W geradezu lächerlich sind, wenn man sich die Kosten für Elektrofahrzeuge, Klimaanlagen, Rechenzentren oder vor allem die Industrie anschaut,[...]
xexex schrieb:
Autorennen, Fliegen oder auch nur mit Freunden zum Grillen treffen, verbraucht mehr Energie als ne Runde mit Freunden zocken. Alleine für die Herstellung von ein paar Aluschalen könntest zu vermutlich ein ganzes Jahr spielen.

Deswegen kann ich nur nochmal wiederholen, der Umweltaspekt ist bei den 300W im Vergleich lächerlich.

Ich will ja nicht sagen, dass das eine sehr schwache Argumentation ist, aber... das ist eine sehr schwache Argumentation.
Geradezu Whataboutismus in seiner Reinform.

Soll im Umkehrschluss natürlich nicht heißen, dass es einen richtigen Umgang mit dem Thema gibt; ist schließlich immer noch ein Hobby. Eine Switch ist sparsamer, als eine der nächsten Konsolen und die Konsolen sind sparsamer, als die High-End RTX Karten. Da steht es mir nicht zu, eine Linie zu ziehen, aber zu sagen "Egal, andere Dinge sind schlimmer" ist immer der (zu) einfache Weg.
 
  • Gefällt mir
Reaktionen: poly123
Mr. Smith schrieb:
Aber 820€ Startpreis für die 1080Ti vs. 1260€ Startpreis der 2080Ti für 15-30% mehr Rechenleistung?
Absoluter Quatsch. Und aus welchem Grund man solche Steigerungen jetzt auch noch Schönreden sollte; entzieht sich mir aus Kosumentensicht vollkommen.

man muss nichts schönreden. ich fand den move seitens nvidia jetzt nicht unerwartet.
die geschichte zeigt dass es genügend kaufwillige kundschaft gab und da es hier bereits kaufbekundungen für die 3090 gibt, wird es die auch in der neuen generation geben.
aus geschäftlicher sicht eines kommerziellen unternehmens macht nvidia alles richtig.

das mag uns nicht gefallen, aber so läuft es nunmal.
das ziel von nvidia ist noch am ehesten heruaszufinden wie hoch sie den preis für die top-tier-gpu verlangen können, damit zw. der nachfrage und dem chip yield dieser gpu die ballance erreicht ist.
 
  • Gefällt mir
Reaktionen: voalirus
@McLovin14 Wieso? Das zweite Zitat spiegelt doch den Gedanken wieder - wenn, dann muss es sich deutlich wegen Mehrleistung lohnen, Verbrauch wäre konstant derselbe. Ich ersetze aber sicher nicht bei nur 10% oder 15% (wobei ich wohl eh passen werde) und beim Verbrauch ist auch mein persönliches „Power Limit“ überschritten, bzw. hart an der Grenze, bei der ich mich mittlerweile selbst hinterfrage ^^

Bin auf die ersten Benchmarks gespannt, halte aber die Technik langsam von der Struktur im gegenseitigen Wettbewerb zwischen AMD und NVIDIA als ausgereizt - so Ausreißer gibt es ja immer wieder, siehe R390 <-> 780ti/980ti
 
Zuletzt bearbeitet von einem Moderator:
Da Nvidia greedy Preistreiber ist und am VRAM knausert, bin ich mir sehr sicher, dass AMD in ihrer Samariterform eine Top RDNA 2 auf 3080 Niveau (edit: inklusive next gen Raytracing Power) mit 16 GB VRAM für 599 Euro bringt.
Denn mehr, so schreiben viele in den Ampere Threads seit Tagen, sollte High End doch nicht kosten.

Falls nicht, und AMD liegt in ähnlichen Preisregionen wie Nvidia, erwarte ich das gleiche Gejammer, Geflenne und Gehate AMD gegenüber, das wäre dann ja konsequent im Narrativ ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Fraggball
Sp4wNickle schrieb:
Aus meiner Sicht wird alles über 1500 Euro dazu führen, dass sich die Karte nur sehr begrenzt verkaufen wird. Und selbst wenn die Kaufkraft da ist, wird man bei einem solchen Preis sehr genau mit sich selbst ins Gericht gehen.

ja, die leute werden "ins gericht mit sich gehen" und dann dennoch kaufen. ist ja ein hobby und wenn man es sich leisten kann (und will), ist das kein hinderniss.

man könnte ja auch mit unsäglichen autovergleichen kommen, denn auch hier finden sich offenbar ausreichend käufer für einen 120k€ porsche, obwohl man auch mit einem gti von a nach b kommt... :D
 
Zuletzt bearbeitet:
Zum Strom interessant :

Ich habe eigentlich meist die größte Karte genommen und stark untervoltet - bei meiner 2080ti habe ich ein Preset mit 0,8375 Volt konstant mit 1750MHz Chiptakt. Das reicht auf meinem OLED 48 Zoll LG für nahezu jedes Spiel mit 60 Hz aus. Mehr gehen ja aktuell nicht wegen 2.1 HDMI.

Klar ist natürlich, die 3090 würde, mit 120Hz die dann jetzt unterstützt werden, bei aktivem GSYNC uU auch untervoltet genug Power haben um die 300 Watt aber auch niemals zu benötigen.

Dagegen spricht das Argument das man soviel Kohle raushaut und die Karte nicht ans Limit bringt - wie manns macht :).

Ich bin gespannt was wirklich real auf dem Bildschirm übrig bleibt !
 
Daggy820 schrieb:
Deswegen bin ich auch der Meinung das es Kundenverarsche ist, zumal vor vier Jahren eine Karte schon mit 11GB auf den Markt kam und dann will ich vier Jahre später mehr statt weniger VRam haben.
ja, die 11gb karte kam als die größte variante heraus - und trotzdem gibt es mehr als genug gamer die noch auf 4 und 6gb vram unterwegs sind! es wäre vielleicht mal angebracht auch über die grenzen eines "enthusiastenforums" wie dem hier hinwegzuschauen...

mein bester kumpel zockt noch mit einer gtx970.
meine kleine mittwochs-zockergruppe aus zwei kumpels ist mit einer gtx1050ti und einer gtx1070 unterwegs...
Ergänzung ()

Novasun schrieb:
Der Prozess lieferte auf dr XT ja schon eigentlich Taktraten bis 2 GHZ...
falls es überhaupt der 7nm tsmc prozess ist und nicht samsungs 7nm...
 
Zuletzt bearbeitet: (typo..)
  • Gefällt mir
Reaktionen: guillome und Laphonso
Zurück
Oben