News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

kicos018 schrieb:
Sieht halt wirklich extrem attraktiv aus. Glaube nicht das AMD das groß kontern kann...

Und endlich mal ein annehmbares Upgrade zu meiner 1070 :)

Jaaa. Bin auch schon ganz kirre :D
 
Sk3ptizist schrieb:
naja, ich freu mich schon auf die ganzen "billigen" gebrauchten 2080(TI)s

Das ist für jeden Schnäppchenjäger ein positiver Nebeneffekt und es betrifft nicht nur die 2080Ti! Eine 2080Ti kannst du vielleicht für 500€ verkaufen, wenn die Leistung der 3070 das halten kann was versprochen wurde. Was kosten dann eine 2080(S) oder eine 2070(S)? Zu welchen Preisen kann man dann noch eine 2060(S) verkaufen? Wer kauft überhaupt noch die aktuellen AMD Karten?

Im Grunde genommen ist der Preis für die 3070 eine absolute Kampfansage an alles was aktuell im Grafikkartenmarkt verkauft wird.
 
  • Gefällt mir
Reaktionen: DagdaMor und Aduasen
PS828 schrieb:
@Banger bei so einer asymmetrischen Bestückung wird's wie bei der 970 oder entsprechend schlimmer. :D um Gottes Willen Bitte nicht.

Die Verteilung muss gleichmäßig sein damit immer die gleiche Bandbreite vorliegt

Darkseth88 schrieb:
Das dürfte dann wie bei Dual Channel beim Ram sein oder?

Denke ich mir doch auch wie bei Dualchannel? Auf meinem alten Board habe 4+4+2+2GB betrieben. Sollte doch auf einer Grafikkarte auch gehen? Ansonsten gib ihm und 20GB auf der 3080 rauf und 16 auf der 3070, dann speicherkrüppelt es nicht im Flugsimulator. Ist doch dann immer noch besser als wenn die Grafikkarte auf die M.2-PCI-E-SSD zugreift?
 
Klar ist ein krummer Zugriff besser als einer von der SSD. Aber trotzdem Grütze. Deshalb sind auch nur Karten angekündigt welche ordnungsgemäß bestückt sind :D
 
Banger schrieb:
Oder ist das fast so ein Mist wie bei bei der 970 mit 3,5GB schnell und 0,5GB langsam?
Das ist so ähnlich, aber nicht ganz so schlimm. Aber die zweite Hälfte der 2GB Chips wird dann nur noch mit der halben Bandbreite angesprochen. Im Prinzip wie ein Dual Channel Mainboard das man mit 3 glerich großen Modulen bestückt.

Wobei es solche Grafikkarten schon mal gab. Ich glaub die GTX 660 war so eine, von der 460 gabs glaub ich auch einer Version mit gemischter Bestückung.
 
  • Gefällt mir
Reaktionen: Banger
Banger schrieb:
Denke ich mir doch auch wie bei Dualchannel? Auf meinem alten Board habe 4+4+2+2GB betrieben. Sollte doch auf einer Grafikkarte auch gehen?
Da sind an jedem Channel jeweils 6GB, das würde gehen... würde aber bei der 3070 dann bedeuten das man 1Gb und 2GB Chips verbauen müsste... da kämen in Summe 24GB an Speicher raus ;-)

Der besser Mainbaordvergleich sind drei 4GB Module bei Dualchannel. Da laufen zwei im Dualchannel und das dritte nicht.
 
  • Gefällt mir
Reaktionen: Banger
Banger schrieb:
Denke ich mir doch auch wie bei Dualchannel? Auf meinem alten Board habe 4+4+2+2GB betrieben. Sollte doch auf einer Grafikkarte auch gehen? Ansonsten gib ihm und 20GB auf der 3080 rauf und 16 auf der 3070, dann speicherkrüppelt es nicht im Flugsimulator. Ist doch dann immer noch besser als wenn die Grafikkarte auf die M.2-PCI-E-SSD zugreift?
Nicht ganz, bei deinem Fall hast du 4 Riegel, aber nur Dual Channel. Du konntest also 4+2 gb jeweils pro Kanal haben.

Bei einer Grafikkarte skaliert das mit jedem Speicherchip mehr, also mit jeden zusätzlichen 32-bit die da sind.

Also bei 8 Speicherchips wären das 8 Kanäle.
Bei 10 Speicherchips wären das 10 Kanäle. Und so weiter.


Dein Beispiel würde passen, wenn du ein Quad-Channel Mainboard hättest, und dann 4+2+4+2 gb verbauen würdest.
 
  • Gefällt mir
Reaktionen: Banger
Banger schrieb:
640 Bit mit 20x1GB wäre auch wieder (teurer) Schwachsinn.
Das würde auch mit 320Bit gehen, man kann zwei Chips an einen 32Bit Controller hängen. Genau das wird ja bei der 3090 gemacht um auf die 24GB zu kommen.
 
  • Gefällt mir
Reaktionen: Banger
Quark. Die hätten einfach die 3070 und 3080 mit dem doppelten Speicher bringen sollen und von mir aus dann auch etwas teurer machen können. So sind sie einfach nicht kaufbar!
 
  • Gefällt mir
Reaktionen: mylight, Mracpad und Banger
cookie_dent schrieb:
Aber nein, alles Blödsinn, die 8GB der 3070 werden noch die nächsten Jahre dicke reichen... :lol:
Und die Referenz für Simulationen und Hardwarefresserei kann man natürlich mit normalen Anwendungen und Spielen vergleichen. #Logiconpoint
Oder kommst du mit dem RAM-Bedarf für DNA Berechnung an, wenn jemand fragt wieviel sein Gaming-PC so an RAM braucht und ob 32 oder 64GB reichen würden..

Birnen mit Backsteinen zu vergleichen ist selbst im unreifen Zustand der Birne sehr ähm gewagt
 
  • Gefällt mir
Reaktionen: Mracpad
Also sind wir uns einig, auf der 3070 16GB mit 2er-Chips und 20GB auf der 3080 (TI), ganz ohne Mischbestückungs-Theater. Also macht mal hin und nicht erst in einem Jahr mit der Super-Variante. :D

Ich weiß es gar nicht mehr, ob ich beim Board je 4+2 im Dualchannel hatte oder 4+4 und 2+2.
 
  • Gefällt mir
Reaktionen: Mracpad
DarkerThanBlack schrieb:
Die Karten mit doppelten Speicher anzubieten dürfte vor allem bei der 3080 wohl nicht nur "etwas" teurer werden... wenn da 20 Chips statt 10 aufs PCB müssen. Bei der 3070 würds wohl gehen da für GDDR6 die 2GB Chips schon verfügbar sind.

Die 20GB 3080 werden wir wohl erst nächstes Jahr sehen wenn Micron die GDDR6x 2GB Chips liefern kann.
 
Banger schrieb:
Ich weiß es gar nicht mehr, ob ich beim Board je 4+2 im Dualchannel hatte oder 4+4 und 2+2.
Kommt drauf an, welche Sticks in welchen Slots drin waren.

In der Regel ist korrekter Dual Channel: Slot 1+3 oder 2+4 (beides gleich gut).
Richtig wäre daher: 4gb - 2gb - 4gb - 2gb (oder anders rum), also abwechselnd.

Hättest du in einem Kanal 4+4 gb, und im anderen kanal 2+2gb, wären die ersten 8gb im Dual Channel gewesen, und die übrigen 4gb im Single Channel.
Dabei wäre es zufall, ob die daten im Dual-channel bereich abgelegt werden, oder im Single Channel bereich.

Fun Fact: Dual Channel würde (in der Regel!!) auch mit 3 sticks funktionieren.
4+4 gb z.B. in einem Kanal, und einen einzelnen 8gb Stick im zweiten Kanal.

(Quelle, ziemlich interessant so verschiedene Konfigurationen mal getestet zu haben^^)
 
Magicnorris schrieb:
Hier mal der VRAM Usage beim Flight Simulator in 4k beim Flug über New York.
Einige Spiele nutzen auch sehr gerne mehr als 8gb Vram und laufen dennoch ruckelfrei butterweich mit 8gb. Erst mal egal, was bei manchen Spielen genutzt wird. Ruckelfrei muss es halt laufen, reichen muss es.
 
Ich muss zugeben, dass ich über das Gesamtpaket von Nvidia schon ein wenig überrascht bin und sollte AMD tatsächlich liefern können, hat Nvidia deren Auftritt schonmal bereits im Vorfeld deutlich torpediert.

Hehe, dass könnte ja wahrlich wie in den alten Zeiten werden. "It's Showdown!"
 
Ebenbürtige Karten von AMD dürfen es auch gerne sein, auch mit dem Raytracing-Zeug, Zudem mal AMD-Treiber so programmieren, dass auch G-Sync-Module damit laufen, ohne dass die eine spezielle Firmware im Monitor benötigen.
 
Banger schrieb:
Zudem mal AMD-Treiber so programmieren, dass auch G-Sync-Module damit laufen, ohne dass die eine spezielle Firmware im Monitor benötigen.
woher hast du denn diese Info?

Ich bin gerade am überlegen ob ich die 3080 nicht am Tag 1 direkt kaufe. Egal was AMD bringt, solange ich meinen G-Sync Monitor nicht ersetze und RTX Voice benutze bleibt es eh bei Nvidia. Der FE Kühler passt perfekt in meinem Airflow und ob der Test nachher 5fps mehr oder weniger anzeigt ändert letztlich nichts an dem Interesse der 3080, da ich ja schlecht auf eine 3079 oder 3081 ausweichen kann. Wenn ich warte, kann es passieren, dass sie dann nicht mehr verfügbar ist und sogar kurzfristig im Preis steigt.
 
  • Gefällt mir
Reaktionen: xexex
Zurück
Oben