News Nvidia GeForce: RTX 3090, 3080 & 3070 mit viel mehr Leistung ab 499 €

calNixo schrieb:
Da bin ich mal auf die Abwärme und den Verbrauch gespannt. Für die Leistung wird es mir mit meiner Vega 64 nämlich zu schnell zu warm im Zimmer. Wäre schön wenn die 3080 das besser macht!
Bei 320 Watt ? Mir wird es im Sommer schon mit meiner RTX 2070 (175 Watt) zu warm.
 
Ich warte auf was bezahlbares mit mehr Ram als meine olle 1080ti ... das speichergeknauser will mir nicht in den Kopf. Ansonsten aber ein großer Wurf anscheinend. Respekt.
 
  • Gefällt mir
Reaktionen: DarkerThanBlack
Na ich warte dann noch besser auf die AMD-Karten, da gibt´s für um die 400 sicher mehr Leistung ;)
 
Nom4D schrieb:
Na ich warte dann noch besser auf die AMD-Karten, da gibt´s für um die 400 sicher mehr Leistung ;)

Würde auch gerne mal einen Blick in deine Glaskugel werfen
 
  • Gefällt mir
Reaktionen: gartenriese, Ben81 und stevefrogs
FrittiDeluxe schrieb:
Welche Dimension müsste ein NT haben für die 3070 und 3080 bei einem 65 Watt Ryzen 5?

Hab noch ein 550W von Seasonic, denke da muss ich aufrüsten...
3070 wird gehen ist nur 1x 8 pin, bei der 3080 wirst das selbe Problem wie ich mit meinem 550W haben, bräuchtest 2x 8 pin Kabel oder 1x 8 pin und 1x 6+2 aber separat aus dem Netzteil. Abgesehen davon ist 550W für eine 3080 sehr mutig, selbst wenn du die voraussetzungen haben würdest.

Kannst also zu der 3080 100 Euro Aufpreis für ein gutes 650 bis 750W Netzteil zahlen. Würde gleich 750W nehmen, wer weiß wie das weitergeht beim Stromverbrauch lol...
 
Sminka schrieb:
Wie viel hat die denn verbraucht? :D
Hm.. gute Frage . Gemessen hab ich das nie, aber war eine Asus Rog Strix Oc die mit ~2000/6000 gelaufen ist und max PT was bis zu 330W sein dürfen und somit einer 3080 nahekommen für einen Vergleich , zumal das Nt ja auch noch ein neueres SP 11 550W ist. Bleibt auch noch abzuwarten wie der Verbrauch dann bei den ersten Test aussieht und was man dann evtl noch mit UV rausholen kann.
 
Irrlicht_01 schrieb:
Das einzige, was mich positiv überrascht, ist der 3080 Preis. Aber es hätten ruhig 12 oder 16GB sein dürfen - da hätte ich etwas mehr als 700 Euro gezahlt.
AAAAAAHH..ich laufe gleich amok!
kann CB bitte mal einen aufklärenden tech artikel schreiben der kurz und knackig die speicherinterfaces und mögliche bestückungen erklärt? so dass man den bei solchen posts einfach verlinken kann...

für diejenigen mit tierferen interesse kann man auch multicontroller designs mit mischbestückung erklären, sowie die nachteile darlegen.

kurz: an ein 320bit interface passen 10 bausteine a 32bit - wenn es die bausteine nur in 1GB und 2GB variante gibt, sind nur 10gb oder 20gb vram möglich.
(jaaa, ja..es sind auch andere asymertrische bestückungen möglich, aber das erfordert weiteren aufwand an den speichercontrollern...ist ziemlich unüblich.)
 
  • Gefällt mir
Reaktionen: Alex1966, Rockstar85, gartenriese und 8 andere
Mehr Speicher und weniger Strombedarf wären wünschenswert. So ist es etwas bitter für 700€ von 8GB auf 10GB umzusteigen. Aber es werden sicherlich noch die „Super“ oder Ti Varianten mit mehr Speicher kommen, damit die Erstkäufer sich erst recht betrogen fühlen. Ich bin noch nicht zu 100% überzeugt.
 
  • Gefällt mir
Reaktionen: Nefcairon
PXL_Shoot3r schrieb:
Die 3080 geht auf keinen Fall die braucht 750w bei der 3070 bin ich grad nicht sicher

Wenn du schon andere auf die Webseite verweist, dann solltest du die dort angegebene Empfehlung auch richtig lesen.
2 – Die Empfehlung basiert auf einem PC mit Intel Core i9 10980XE-Prozessor. Je nach Systemkonfiguration kann auch eine niedrigere Nennleistung funktionieren.

Wer hat schon einen Intel Core i9 10980XE, der sich locker auch um die 300W gönnen kann in seinem PC laufen? Der Fragesteller jedenfalls nicht!
 
  • Gefällt mir
Reaktionen: gartenriese
Nvidia hat eben schon vor ein einigen Jahren verstanden, dass es eben nicht einfach mehr ausreicht gute Hardware zu bauen, sondern sich mit ein paar extra "Goodies" einen entsprechenden Vorteil zu sichern.

Angefangen bei PhysX / CUDA / G-Sync / zu eben jetzt RTX und DLSS sowie diverser anderer Kleinigkeiten. Mögen nicht immer offene Standards gewesen sein, aber das zählt für die Mehrheit der Kundschaft eben nur am Rande. Am Ende zählt für die meisten das Gesamterlebnis und dafür wird ggf. halt auch ein Aufpreis bezahlt.

AMD hat sich da die Jahre in vielen Punkten verrannt, vor allem beim HBM-Speicher für Consumer-Grafikkarten und das Vega-Design war jetzt auch nicht unbedingt der Knaller für den klassischen Gaming-Bereich. Dazu teils heftig miese Referenz-Lösungen mit praktisch unverkäuflich lauten Kühlungen gepaart mit Custom-Designs, die dann erst ein halbes Jahr später auf den Markt kamen. Das Video mit "Poor VOLTAge" war da echt noch die Krönung.
 
Irrlicht_01 schrieb:
Niemand zwingt NV ein 320 bit SI auf - schon garnicht den Chip so zu entwickeln, dass nur 12 oder 24 bei vollem SI angebunden werden können
ja mei, nvidia ist bestimmt einfach nur faul mal kurzfristig das speicherinterface des chips so zu überarbeiten dass er mal eben jede beliebige kombination an speicherbestückung ermöglicht.
was für vorstellungen haben hier leute eigentlich vom chipdesign und entwicklung von solchen produkten??
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alex1966, BGnom, Toni_himbeere und 3 andere
nvidia hätte ja der 3080 das gleiche Interface wie der 3070 verpassen können, dafür 16GB aber das hätte wohl den tollen GDDR6X ordentlich eingebremmst...
 
RoboHackfeld schrieb:
Würde auch gerne mal einen Blick in deine Glaskugel werfen

Erfahrungswerte. Ich für meinen Teil bin immer noch megazufrieden mit der RX 590, die auch schon mittlerweile fast 2 Jahre alt ist. Und die auf 2560x1440 rennt wie Sau. Horizon Zero Dawn auf ultra bei durchschnittlich 80 Fps. Und die hat nur 210 Euro gekostet .... was aber nicht heissen soll, daß ich keine 719 Euro für eine neue Grafikkarte ausgeben könnte. Wenn ich das will, und brauche, dann mache ich
 
Vendetta schrieb:
3070 wird gehen ist nur 1x 8 pin, bei der 3080 wirst das selbe Problem wie ich mit meinem 550W haben, bräuchtest 2x 8 pin Kabel oder 1x 8 pin und 1x 6+2 aber separat aus dem Netzteil scheinbar. Abgesehen davon ist 550W für eine 3080 sehr mutig, selbst wenn du die voraussetzungen haben würdest.

Kannst also zu der 3080 100 Euro Aufpreis für ein gutes 650 bis 750W Netzteil zahlen. Würde gleich 750W nehmen, wer weiß wie das weitergeht beim Stromverbrauch lol...
550W ist kein Problem. Beim Zocken im GPU Limit verbraucht eine CPU nicht viel. Einfach austesten bevor man gleich ein neues Netzteil dazu kauft. Selbst in worst case kann man auch UV oder Power Limit reduzieren.
 
  • Gefällt mir
Reaktionen: miro98 und xsx
Nom4D schrieb:
Na ich warte dann noch besser auf die AMD-Karten, da gibt´s für um die 400 sicher mehr Leistung ;)
Klar und kostet 50% weniger Geld. :D
 
  • Gefällt mir
Reaktionen: gartenriese und Nom4D
Und schon sind die Preise hoch. War das Feedback wohl zu gut. 😁
Preiserhöhung.jpg
Edit: Sind Österreich-Preise, hab ich bisher noch nie erlebt, dass man für Ö die UVP anpasst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging
L1TerminalFault schrieb:
Möchte ungern dir die Illusion nehmen: Nvidia wollte bei TSMC 7nm, nur es gab keine ausreichenden Kapazitäten mehr, weil AMD alles bekommen hatte!
Solche News waren bisher nur Gerüchte, und wurden nie bestätigt von TSMC, AMD, oder Nvidia.

Nvidia lässt schon viel länger bei TSMC produzieren als AMD, und man kann davon ausgehen dass sie sehr gute Kontakte zu TSMC haben.

Das man sich bei Nvidia für Samsungs 8N Prozess entschieden hat, wird allein finanzielle Gründe haben.
Der Prozess ist älter, und wahrscheinlich (deutlich) billiger als TSMCs 7nm.

Nur so kann man bei Nvidia die Margen halten, und trotzdem günstiger sein als bei Turing.

Gleichzeitig ist das die Feuertaufe für Samsung, die bisher nie solche großen und komplexen Chips fertigen müssten. Und für TSMC ist das ein herber Verlust, da Samsung jetzt einen riesigen Auftrag von Nvidia bekommen hat, der sonst immer bei TSMC war.

Was GPUs betrifft ist Nvidia ein Riese gegenüber AMD, der gerade noch einmal 9% vom weltweiten dGPU-Markt dazu gewonnen hat. AMD hat jetzt hier nur noch 20%, und ist damit wirklich ein Underdog.

Und diese Masse von GPUs fertigt jetzt Samsung, und nicht mehr TSMC.

Ironischerweise schließt sich hier jetzt der Kreis. AMD die lange Zeit bei Global Foundries fertigen ließen, wechseln zu TSMC, und Nvidia geht zu Samsung, die vorher oft mit GF zusammen gearbeitet haben.

Und beim Speicher hat Nvidia schon bei Pascal GDDR5X VRAM genutzt.
Da würde ich nicht zu viel hinein interpretieren.
Der Speicher wird exklusiv für Nvidia produziert, was wieder wirtschaftliche Gründe haben wird.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: gartenriese
Nom4D schrieb:
Erfahrungswerte. Ich für meinen Teil bin immer noch megazufrieden mit der RX 590, die auch schon mittlerweile fast 2 Jahre alt ist. Und die auf 2560x1440 rennt wie Sau. Horizon Zero Dawn auf ultra bei durchschnittlich 80 Fps. Und die hat nur 210 Euro gekostet .... was aber nicht heissen soll, daß ich keine 719 Euro für eine neue Grafikkarte ausgeben könnte. Wenn ich das will, und brauche, dann mache ich
Meine 1070Ti läuft auch noch super aber 4k ist halt nicht oder nur mit Abstrichen und 30fps. 700 Euro ist ein sehr fairer Preis für die gebotene Leistung. Die 3080 hat gute Chancen so legendär wie die 1080Ti zu werden, sprich: die Karte hast 3 bis 4 Jahre und verkaufst danach noch immer für 500 weiter.
 
basic123 schrieb:
Aber es werden sicherlich noch die „Super“ oder Ti Varianten mit mehr Speicher kommen, damit die Erstkäufer sich erst recht betrogen fühlen.

Werde ich mich "betrogen" fühlen, wenn es in ein paar Monaten eine Variante mit doppelten Speicher für 200€ mehr gibt? Lasss mich mal nachdenken......... Eeeeehmmm.... Nö!

Man kauf immer das was man kauft, wenn man damit nicht leben kann, dass es irgendwann später wieder was neueres und besseres gibt, sollte man besser gar nichts mehr kaufen.
 
  • Gefällt mir
Reaktionen: nikky, Alex1966, Maggolos und 5 andere
Zurück
Oben