News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

Die werden wohl die Preise niedrig halten, um PC Spieler am PC zu halten. PS5 released ja auch zum Jahresende. Nicht, dass die alle auf Konsole wechseln, da PC Graka zu teuer geworden ist.
 
  • Gefällt mir
Reaktionen: Andybmf, Vendetta und nekro1
Vitec schrieb:
Doch die Kosten/Verbrauch/ bzw auch architektur da die 32bit an shadercluster gebunden sind je nachdem.
Sowas wie auf der GTX 970 muss nun auch nicht nochmal kommen.

Lies bitte meinen Beitrag nach dem, welcher von dir zitiert wurde - da habe ich das etwas ausfühlicher dargelegt, was ich meine.

Dass sämtliche Umstände nur so gemeistert werden konnten, dass wir jetzt erstmal zwischen 10 (700 Euro) und 24GB (1500 Euro) eine riesige Lücke haben ist kein Kompromis wiedriger Umstände sondern gewollt (denke ich zumindest).

512bit/16GB, 448bit/14GB, 352bit/11GB - gabs alles schon mit diversen Architekturen und Preisen (mit anderen Rammengen).
12GB, 16GB oder 20GB vllt. noch - das wollen die meisten jetzt haben bzw haben viele erwartet bin ich der Meinung. Man kann die Architektur auch anpassen, wenn man auf andere Ramlösungen hin entwickelt, hat man hier nur nicht.

Man bringt einfach später Karten mit doppelter Speichermenge (wie ja schon durchgesickert vor einigen Tagen dem Anschein nach).
Falls AMD mit 512bit und 16GB um die Ecke kommt kann man zurückschlagen und wenn AMD das nicht tut bringt man die Karten trotzdem.

So kann man mehr abgrasen von den Kunden, als wenn die Karten mit doppeltem Speicher gleich am Anfang mit gelauncht werden. Manch einer wird vllt doppelt kaufen, weil ihm die Rammenge dann doch nicht große genug ist. :p
Preislich ist man zudem breiter gefächert bzw schließt die 800 Euro Lücke im Portfolio. Daher gehe ich mal davon aus, dass der NV-Plan genauso ausschaut.


Meine subjektiven 2 cent:
Dennoch hätte ich mir gewünscht jetzt gleich schon eine 3080 mit 16GB - oder halt 20GB der Architektur geschuldet - kaufen zu können bzw die Option drauf zu haben.
Möchte mehr Leistung und mehr Ram, aber inkl. Wakü nicht gleich ca 1700 Euro oder mehr ausgeben müssen und einen deutlichen höheren Verbrauch dazu noch oben drauf.

Wenn man seit über 3 Jahren schon mit 11 GB fährt, welche für 700 Euro miterworben wurden, will man jetzt keine Karte für 700 Euro kaufen, die auch noch weniger Speicher hat. Dann lieber 1000-1200 Euro (mal so in den Raum geworfen) für die 20GB.

Gab viele Generationen, wo schon fast unsinnig viel Speicher angeboten wurde zu bezahlbaren Preisen, ganz zu schweigen von Midrange-Karten mit viel Ram ohne Bandbreite als Bauernfänger. Jetzt fehlt der Ram eher. Texturen werden immer größer, 4k ist immer mehr bei Gamern anzutreffen, nv zeigt schon Richtung 8k Gaming. Schon 6 Monate nach dem Kauf lief mir das erste mal der VRAM meiner 1080 Ti voll durch den kauf eines neuen Monitors mit WQHD und ein paar Mods in Games.

Die Käufer einer 1060 mit 3GB können da Lieder von singen aktuell, selbst wenn die die Ansprüche garnicht so hoch sind.
Da will ich in 1 oder max. 2 Jahren nicht mit einer 10GB 3080 mit einstimmen - dann kommt spätestens 4k oder gar mehr ins Haus.
Gerade weil ich seit der Geforce 8000er Serie immer eine Generation überspringe müssen Reserven da sein.
Ergo, falls doch keine 20GB Karte mehr kommt, setze ich definitiv noch eine zweite Generation aus und schraub die Regler einfach etwas runter - der hohe Stromverbrauch sagt mir eh schon nicht zu.
 
Zuletzt bearbeitet: (Grammatik ftw)
  • Gefällt mir
Reaktionen: Aldaris und silent2k
cypeak schrieb:
umweltschutzgründe? ich glaube die zielkundschaft dieser gpu klasse kann das wort nichtmal buchstabieren, geschweige denn dass es wirklich jemanden interessiert.

(nicht schön, aber andererseits auch nicht so wild)
hast schon recht, aber ist es nicht oft genau (natürlich nicht nur) die Gruppe, die Freitags bei fridiay for future die Schule auslässt um für die Umwelt und Zukunft zu demonstrieren?
:freak:
und Freitag abends dann die Gamerkiste bis Sonntag nacht anwirft....bzw die wahrscheinlich 24/7 durchläuft...auch wenn niemand zu hause ist
:freak:

Bin mal gespannt wann der EU einfällt Stromverbrauch bei PC Hardware zu regulieren....zutrauen kann man es ihr durchaus..
 
Warlock-Gaming schrieb:
Gerade eine Anzeige gelesen 😂 Suche Rtx 2080Ti um 480€ wegen der RTX 3070 🤣 nicht schlecht. Mein Beileid an alle die eine besitzen! Das meine ich Ernst 😥
lol..für eine gebrauchte 2080ti bezahlt man doch keine 480€!! um 400€ herum ist für etwas gebrauchtes noch gerade gut genug, wenn die 3070 wirklich wie angekündigt performt; sollte die 3070 ein paar prozentpunkte drüber liegen, bei etwas weniger verbrauch, modernerer architektur etc. dann sogar noch weniger. (die 3gb vram merh sind da fast schon irrelevant - entscheidend ist was an fps und frametimekonstanz hinter rauskommt)
 
Linmoum schrieb:
Nachdem seit heute bekannt ist, dass 3070, 3080 und 3090 (also GA102 und GA104) bei Samsung gefertigt werden, ist das mit nicht ausreichenden Kapazitäten bei TSMC für Nvidia realistisch nicht nur mehr ein Gerücht - ironischerweise ausgerechnet wegen einer Aussage von Jensen persönlich im Dezember 2019:


https://www.igorslab.de/nvidias-kom...uv-eine-kleinere-rolle-als-bisher-angenommen/

GA102 und GA104 sind alles, aber nicht einfach nur eine geringe Anzahl an Chips...
Lederjacke hat TSMC und Samsung gegeneinander ausspielen wollen, entweder ist TSMC der Kragen geplatzt(Gerüchte) oder Samsung hat Nvidia ein Angebot gemacht, das die nicht ablehnen konnten(würde die 699 3080 erklären, die eigentlich ne 3080ti ist wenn man sich die Daten ansieht)
 
mal schauen wie die Customs Design performanen und was AMD so raushaut.

Eine 8GB Karte, egal welche Leistung, würde ich heute nicht mehr kaufen wollen.
Somit müsste es auch die 3080 sein.

Wer weiß - wir werden sehen.
 
  • Gefällt mir
Reaktionen: Thorque
krucki1 schrieb:
Ich glaube die haben das in einem Geschäft gefilmt. Es sieht so aus als würde da ein Preisschild dran hängen.

1599002267527.png


"From your Partners at Unity" steht da und kein Preisschild.
 
  • Gefällt mir
Reaktionen: Nefcairon, Recharging, gartenriese und 3 andere
RaptorTP schrieb:
Eine 8GB Karte, egal welche Leistung, würde ich heute nicht mehr kaufen wollen.
Somit müsste es auch die 3080 sein.
nvidia wird sicherlich noch in 6-15 Monaten (oder nach den AMD Karten) die Super und Ti raushauen mit speicher upgrades..
deshalb auch so viel Platz zwischen den karten (preis und ram)
 
  • Gefällt mir
Reaktionen: Pisaro und RaptorTP
Thorque schrieb:
Bin mal gespannt wann der EU einfällt Stromverbrauch bei PC Hardware zu regulieren....zutrauen kann man es ihr durchaus..
ich wäre froh wenn die eu so manchen unsinn regulieren würde, aber ob gpu/hardwareverbrauch so dringend reguliert werden muss wie manch anderes?
ich wäre eher froh wenn manche produkte wie smartphones längere nutzungszyklen hätten und nicht bereits nach 30 monaten softwaretechnisch zum alten eisen gehören...nur als beispiel.

letztenendes ist das einwenig wie beim auto: jemand der 100k für einen fahrbaren untersatz ausgibt, für den sind die höheren spritkosten auch kein hinderniss.
eins darf man nicht vergessen: geld findet irgendwie immer einen weg sich eine sonderstellung zu verschaffen - das ist quasi so seit es geld gibt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese, Aldaris, xexex und eine weitere Person
Eine 3070 mit 8GB, wie wahrscheinlich ist es, dass der Speicher da in 4k zum bottleneck wird? Er ist ja relativ flott(gleich schnell wie bei der 2080Ti scheinbar) aber alleine die Highres Texturen der kommenden Spiele werden da doch viel des Speichers belegen... dazu noch DLSS und RT Rechenvorgänge usw.

Wird man also mit ner 3070 auf high res texturen verzichten müssen, damit man die Karte ausreizen kann? Ich denke die 3080 mit nur 2GB mehr wird sogar noch schwerer auszureizen sein oder?
 
Thorque schrieb:
(und das bei aus Umweltschutzgründen nicht mehr zeitgemässen 300W und 320W Verbrauch)
cypeak schrieb:
umweltschutzgründe? ich glaube die zielkundschaft dieser gpu klasse kann das wort nichtmal buchstabieren, geschweige denn dass es wirklich jemanden interessiert.

Umweltschutzgründe, so ein Schwachsinn ...

mit dem Auto alleine zur Arbeit, in jedem Raum ne verkackte Glühbirne die man mit dem Handy steuern kann, nen 85 Zoll tv an der Wand, nen Kühlschrank der mit einem spricht... aber dann Käufer solcher Gpus als Deppen hinstellen ... ich glaub eure Aluhüte sitzen nicht richtig.

ich glaub ich spinne
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nikky, Biervampyr, Nefcairon und 15 andere
ich finde eben die leute fragwürdig bzw paradox, scheinheilig, die Freitags auf FFF auf die Straße gehen, dann aber zu Hause den gaming PC 24/7 laufen lassen mit Grafikkarten, die bei last dann bis zu 300W oder mehr verbrauchen...
also auch die welche du erwähnst mit dem 85'' Fernseher und und dem Kühlschrank aber stolz auf FFF Demos sind.
sorryx wenn das falsch rüber kam.

edit: 350W Stromverbrauch finde ich leider schon viel irgendwie.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iceshield, DarkerThanBlack, gartenriese und 3 andere
TorenAltair schrieb:
Inflation ist im Bereich Computer aber anders als allgemein ;)
RAM beispielsweise wurde um Welten billiger, genauso Bildschirme, nur als 2 Beispiele.
jau, allerdings sind das auch produkte bei denen die technologien weitestgehend ausgereift und ausgeforscht sind - bei ram kommt hinzu dass es ein nachfrage/angebot getriebenes massengeschäfft ist.
wenn dein ram noch in 22nm gefertig ist, fällt dir das nichtmal auf...bei grakas mit der komplexitäte allerdings sehr wohl.
dazu kommen noch yield raten und und und...

nicht wirklich vergleichbar.
 
Thorque schrieb:
dann aber zu Hause PC 24/7 laufen lassen mit Grafikkarten die bis zu 300W oder mehr verbrauchen...
1599002957075.png


Ich kenne da Router, die verbrauchen mehr Strom von den Milliarden an Smartphones lieber ganz zu schweigen.
 
  • Gefällt mir
Reaktionen: KlaasKersting, gartenriese und Thorque
danke dir,
trotzdem natürlich unnötiger verbrauch und paradox wenn dann so jemand dann auf FFF rennt ;)

aber lieber back to topic.
:schluck:
 
Trinoo schrieb:
/e: die 4 Monate alte RTX 2080 Super bekommt mein kleiner Bruder mit Familienrabatt... der wechselt von ner 1070... alles richtig gemacht
wenn ich meine etwas mehr als ein jahr alte 2080 dann für einen fairen preis an die zockkumpels abgebe, weine ich dem nicht nach - im grunde schreibe ich hardware bereits nach dem kauf ab und gehe garnicht davon aus dass ich dafür am ende noch mehr als paar kröten bekomme.
ich würde mich schämen meinen freunden jetzt 450-500€ für eine gebrauchte 2080ti abzunehmen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ebgnvc und Pisaro
Tobi86 schrieb:
60-100% Mehrleistung (Digital Foundry Video) ist einfach nur heftig und hat es bis dato nicht gegeben. Dann hoffe ich mal, dass AMD absolut nichts entgegenzusetzen hat...
Dieser Satz ergibt so keinen Sinn. Warum sollte man hoffen dass AMD nichts entgegenzusetzen hat? Das Gegenteil ist der Fall.
Wir müssen hoffen, dass AMD was entgegenzusetzen hat. Damit NVidia das Feld nicht alleine überlassen wird. Daran ist nämlich absolut gar nix gut.

Aber ich glaube nicht so recht dran, dass AMD da was entgegensetzen kann. Zumindest nicht über die 3070 hinaus.
 
  • Gefällt mir
Reaktionen: nikky, CrustiCroc, gartenriese und eine weitere Person
cypeak schrieb:
ich wäre eher froh wenn manche produkte wie smartphones längere nutzungszyklen hätten und nicht bereits nach 30 monaten softwaretechnisch zum alten eisen gehören...nur als beispiel.

Kein Mensch wird gezwungen den Google Müll zu kaufen, mein Iphone 7 ist schon 48 Monate alt, und bekommt noch mindestens bis übernächsten Weihnachten 2021 frische Updates spendiert. Aber stimmt habs vergessen, Iphone-Käufer kaufen das ja eh nur wegen dem Status...
 
  • Gefällt mir
Reaktionen: gartenriese und stevefrogs
  • Gefällt mir
Reaktionen: JohnnyTexas, iceshield, gartenriese und eine weitere Person
Zurück
Oben