News GeForce RTX 3090/3080: Gainward führt vier Custom Designs in allen Details

cypeak schrieb:
ja, die 11gb karte kam als die größte variante heraus - und trotzdem gibt es mehr als genug games die noch auf 4 und 6gb vram unterwegs sind! es wäre vielleicht mal angebracht auch über die grenzen eines "enthusiastenforums" wie dem hier hinwegzuschauen...

Wir sind aber in 2020, VRAM kostet aktuell nichts, die Speerspitzenmodelle müssen mehr bieten, die 3070 10GB ( wenn technisch möglich ), die 3080 20GB und die 3090 ist so ok. Da gibt es nix dran zu drehen, es ist einfach zu dünn.
 
cypeak schrieb:
ja, die leute werden "ins gericht mit sich gehen" und dann dennoch kaufen. ist ja ein hobby und wenn man es sich leisten kann (und will), ist das kein hinderniss.

man könnte ja auch mit unsäglichen autovergleichen kommen, denn auch finden sich offenbar ausreichend käufer für einen 120k€ porsche, obwohl man auch mit einem gti von a nach b kommt... :D
Ach, man nehme nur mal den Unterhalt über das Jahr, im worst case noch Fianzierung und Leasing (wer kann ein neues Auto bar bezahlen?), und dagegen ist PC Gaming wirklich harmlos. Auch mit einer teuren GPU.

Und ich sitze mehr an meinen Games als im Auto, weiß nicht, wie das bei Euch ist ^^
Ergänzung ()

Dana_X schrieb:
Wir sind aber in 2020, VRAM kostet aktuell nichts, die Speerspitzenmodelle müssen mehr bieten, die 3070 10GB ( wenn technisch möglich ), die 3080 20GB und die 3090 ist so ok. Da gibt es nix dran zu drehen, es ist einfach zu dünn.
Die "Standard" 3080er Variante ist wieder für die, denen das reicht und die für das gesparte Geld eine größere SSD z.B. kaufen.

AMD wird hier sicher für Preisdruck sorgen, definitiv im 3060, 3070 und 3080 Segment.
Wer abwarten kann, wartet bis zum Weihnachtsgeschäft sogar, dann haben wir auch AMD RDNA 2.

Und Preiskämpfe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JPsy
Dana_X schrieb:
Wir sind aber in 2020, VRAM kostet aktuell nichts,
das ist einfach falsch.
gddr6 kostet bei 1000er stückzahlen pro 1GB-baustein ca. 11 dollar und der 2GB-baustein ca. 24 dollar.
(preise für gddr6x habe ich nicht, aber ich gehe davon aus dass dieser sogar etwas teuerer ist..)

natürlich erhalten große fertiger einen riesigen discount bei den speicherherstellern, aber "kostet nichts" ist schlicht "geblöke".

10gb gddr6 (non x!) sind 10 chips a 1GB - selbst mit 50% preisnachlass sind dass immernoch 55 dollar bei den hk - und dass merkt man beim endpreis definitiv.
Ergänzung ()

SKu schrieb:
Davon abgesehen, gibt es noch keine Preise seitens Nvidia. Die werden die paar Stunden vor Ankündigung festlegen und dann auch nur UVPs aussprechen.
falls sie überhaupt welche uvp aussprechen,,,,
 
Zuletzt bearbeitet:
poly123 schrieb:
Paar Cent - ja genau, wohl noch im Hotel Mama beheimatet, in dem der Strom einfach aus der Steckdose kommt? Ich platz bei so Polemik immer auf :grr:
Na na na, kaufst du auch einen Ferrari und beschwerst dich über den hohen Spritverbrauch? Es ist mittlerweile sowas von üblich geworden, dass die Leute hochpreisige Luxusgüter anschaffen und dann bei den Folgekosten määh machen... ganz gleich ob es sich um Sprit, Strom oder Wartungskosten handelt. Die Erkenntnis daraus, man leistet sich Sachen die man sich eigentlich doch nicht leisten kann oder sollte. Aber so ist das nun mal, wenn überall mit Ratenzahlung geworben wird und fleißig auf Pump gekauft wird.
 
thommy86 schrieb:
Bei der 3080 hätte man wenigstens 12 GB Videospeicher machen sollen statt 10
ist es sooo schwierig zu verstehen dass man vram mengen nicht beliebig an einen chip hängen kann?
für 12gb vram bräuchtest du das 384bit interface der 3090, was dann bei 19gbps eine speicherbandbreite von 912gb/s bedeuten würde - das wäre wohl zu nahe an der 3090 dran.

was jedoch möglich ist, ist eine 20gb variante - das lässt das 320bit speicherinterface zu.
Ergänzung ()

passi0509 schrieb:
10 GB in der 3080 ist ein No-Go in 2020, finde ich. Insbesondere bei 5120x1440.
das ist aber auch sooo eine gebräuchliche auflösung.. :evillol: .selbst schuld wenn die erwartungshaltung nicht zum produkt passt...als zielgruppe mit dieser auflösung möchte dir nvidia die 3090 ans herz legen...
 
Zuletzt bearbeitet: (typo..)
  • Gefällt mir
Reaktionen: Markenprodukt, Laphonso, .Sentinel. und 3 andere
v_ossi schrieb:
Ich will ja nicht sagen, dass das eine sehr schwache Argumentation ist, aber... das ist eine sehr schwache Argumentation.
Geradezu Whataboutismus in seiner Reinform.
Da steht es mir nicht zu, eine Linie zu ziehen, aber zu sagen "Egal, andere Dinge sind schlimmer" ist immer der (zu) einfache Weg.

Moralapostelismus in seiner Reinform.

Kann man noch so oft schreien und zetern. Bevor ich mich hier in good old Germany weiter einzuschränken habe, haben das circa 95% der restlichen Weltbevölkerung. Angefangen mit 99% aller Industrien die es so gibt.
Aber hey - so 2-3 Grashalme sind sicher schon gerettet, weil ich ne Graka mit 100W weniger nutze und mein Auto 5 anstatt 6 Liter schluckt.
 
cookie_dent schrieb:
Man könnte ja auch Monopoly im Kerzenlicht anstatt Cyberpunk in 4K spielen.
Aber will ich das?
du möchtest cyberpunk in uhd spielen? dann musst du dir doch nur die entsprechende hardware besorgen - wo ist das problem?
 
  • Gefällt mir
Reaktionen: Laphonso und DaHans
cypeak schrieb:
natürlich erhalten große fertiger einen riesigen discount bei den speicherherstellern, aber "kostet nichts" ist schlicht "geblöke".

Wie du schon selber sagst....riesigen Discount. Es wäre ein leichtes BEIDE Varianten anzubieten, damit der Kunde entscheiden kann.3080 mit 10 & 20 GB. Das wäre fein.
 
Dana_X schrieb:
Wie du schon selber sagst....riesigen Discount. Es wäre ein leichtes BEIDE Varianten anzubieten, damit der Kunde entscheiden kann.3080 mit 10 & 20 GB. Das wäre fein.

10 x 2Gb gddr6 (wieder non-x, da ich hier die preise nicht kenne) wären bei 50% preisnachlass von micron dann 120 dollar hk. das ist nicht ohne!
 
cypeak schrieb:
deshalb suchen sich die gebraucht-verkäufer bei release einer neuen generation gerne uninformierte oder schlicht unwissende user, welche ihnen die alte hardware überteuert abnehmen sollen...leider gibt es genügend leute die dann meinen ein vermeintlich gutes geschäft zu machen..

daran ist aber auch nichts verwerflich. Ich Verkauf egal was, gebraucht auch eher an diejenigen die bereit sind den geforderten Preis zu zahlen. Wenn’s halt nicht weg geht dann an den Höchstbietenden.

wenn jemand lieber 10Monate täglich 2h bei Mydealz recherchiert um 3% zu sparen, gönn ich dem das(den Sinn dahinter wiederum hab ich noch nie verstanden)... genauso wenn jemand nen dummen findet der Mondpreise zahlt.

Streiten/bewerten lohnt da doch garnicht.Leben und leben lassen, wird ja niemand gezwungen zu kaufen.

Ich fände es aber auch genial wenn die 3070 zu nem guten Preis die 2080ti schlägt und dadurch ggfs gute schnapper für gebrauchte 2080ti s möglich werden.
 
  • Gefällt mir
Reaktionen: DaHans
Zock schrieb:
Na dann kann der Lederjackenheinz den Benchmark von Tombraider dieses mal flüssig vorführen hatte mich beim letzten launch kaputt gelacht als das vor sich hinruckelte.
Also ich hab zwischen RTX Off und On, sogut wie keinen unterschied gesehen. Entweder liegt es daran, das RTX von anfang an ein Flop war, oder ich viel zu viel davon erwarte. Da merke ich zwischen 3 GHz und 3,3 GHz bei meinem Ryzen 1700 größeren unterschied ^^ und das im GPU limit :D

Mal gespannt wie teuer die Karten werden, 1400€ für die 3090 ? :D #Melkenbisderarztkommt
 
Nolle schrieb:
Für den Preis hätte man der 3070 auch locker 10GB und der 3080 12GB spendieren können. Aber Nvidia geizt schon immer beim Speicher...
aaaaaargh....nein, hätte man bei diesen speicherinterfaces eben nicht tun können!!
das ist doch kein "wünsch-dir-was" ding, sondern hängt direkt mit dem chipdesign zusammen - und den kann man auch nicht einfach kurzehand ändern.
man kann ein speicherinterface einigermaßen konfigurierbar machen um salvage lösungen bieten zu können, aber beliebige kombinationen sind nicht möglich.

bei 256bit interface -> 8 oder 16gb
bei 320bit interface -> 10 oder 20gb
bei 384bit interface -> 12 oder 24gb.
 
  • Gefällt mir
Reaktionen: Laphonso, Toni_himbeere, Nolle und eine weitere Person
poly123 schrieb:
Paar Cent - ja genau, wohl noch im Hotel Mama beheimatet, in dem der Strom einfach aus der Steckdose kommt? Ich platz bei so Polemik immer auf :grr:
naja, es ist ja wirklich so...jemand der sich eine karte für 600 oder 1000 euro hinstellt, der wird wegen den 50€ mehr stromkosten in jahr wohl kaum meckern, oder? gerade auf die 2-3 jahre in der er die karte überhaupt nutzt..
 
cypeak schrieb:
für 12gb vram bräuchtest du das 384bit interface der 3090, was dann bei 19gbps eine speicherbandbreite von

Wurde das nicht schon vor Ewigkeiten widerlegt?
Wie kann dann folgende Karte existieren

NVIDIA GeForce GTX 460 v2 hier z.b
 
offenbar muss man dass in einem thread wie diesem extra betonen:
es kommt nicht nur auf die größe des vram an und größer ist nicht pauschal besser!

die 1070, 1080, 2070 und 2080 hatten alle 8gb vram. die 1080ti und 2080ti je 11gb.

trotzdem gibt es dazwischen große unterschiede: bei der 1070 hingen diese an einem 256but interface und lieferten 256gb/s bandbreite.
bei der 1080 war es ebenfalls ein 256bit interface, allerdings mit 320gb/s bandbreite, da speicher höher getaktet.
wenn man sich dann den sprung zu zu den 2000er varianten dieser karten anschaut, stellt man fest dass wieder ein 256bit interface verwendet wird, aber die speicherbandbreite bei beiden bei 448gb/s liegt! das macht sich bmerkbar, auch bei vollem vram!

bei den ti karten ist es ein 352bit interface, wobei die turing es auf 484gb/s bringt und die pascal auf über 610gb/s - auch das macht was aus!

die speicherbandbrite sollte man in der betrachtung nicht vernachlässigen - die 3080 liegt mit dem 320bit interface und den 19gbps vram chips bit 760gb/s - dass sind fast 25% mehr als bei der 2080ti (!).
 
  • Gefällt mir
Reaktionen: KarlsruheArgus, Laphonso, Toni_himbeere und 3 andere
Ich meinte nicht die Bandbreite, sondern die Speicher Menge. Also 1 GB bei 192 Bit
 
@Nureinnickname!

Es geht einiges, aber dann hast du nicht gleichmäßig bei allen Speicherchips die gleiche Bandbreite.
Sieh dir nur die GTX970 an. Klar waren es 4GB, an dem krummen Interface waren die letzten 512 MB aber auch verdammt langsam.
Bei der Series X werden auch 16 GB an an einem 320 Bit Interface hängen. Das hat aber auch seine Nachteile.
Dann lieber 10Gb mit Voller Bandbreite.
wie @cypeak versucht zu erklären ist auch nicht alles was geht sinnvoll.
 
  • Gefällt mir
Reaktionen: Laphonso
xexex schrieb:
Ich will hier nichts relativieren, aber es ist ein Hobby und gerade bei Strom sollte man sich die "Umweltkeule" sparen. Nicht nur weil 300W geradezu lächerlich sind

erzähl das mal den Leuten die hier immer die Watt Keule Auspacken um AMD zu bashen :)
 
  • Gefällt mir
Reaktionen: schkai
Nureinnickname! schrieb:
Wurde das nicht schon vor Ewigkeiten widerlegt?
Wie kann dann folgende Karte existieren

NVIDIA GeForce GTX 460 v2 hier z.b

jein - da sind bestückungen die mit multicontroller-designs realisiert werden.
z.b. hängt an so einem 192bit interface ein verbund aus drei separaten 64bit controllern, an welchen wiederrum mischbestückungen möglich werden..z.b. statt 768mb die man an einem 192bit interface mit 6 chips erwarten würde, sind es 1024mb: an zwei controllern hängen je zwei 128mb chips und an dem dritten zwei 256mb chips.

wie man sich es jedoch vorstellen kann, hat sowas beim zugriff über drei controller dann wiederrum andere nachteile..

interessanterweise war die reguläre gtx460 über ein 256bit interface angebunden - d.h. nvidia hat bei der "v2" kosten gespart: das interface ist schmaler geworden und die speicherbandbreite sank bei der "v2" auf 96,2 gb/s - gegenüber 108,8 gb/s der "v1"...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: evilhunter
Zurück
Oben