News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

MrNejo schrieb:
Aktuell produzierte Karte mit dem meisten VRAM (Gaming sprich GeForce und Radeon):
Nvidia: 11GB
AMD: 8GB
Sonst noch: 2070S vs 5700XT sind 8 vs 8GB oder 2060 vs 5600XT sind 6 vs 6GB.

Auf welcher Basis triffst du also deine Einschätzung?

Auf Basis dessen, dass AMD mit den neuen Karten auf 16GB gehen kann und vor allem bei Big Navi auch wird.

Selbst wenn AMD dann "nur" auf 2080Ti + 10% liegt, würde ich eher von der 1080Ti 11GB auf eine Big Navi Karte gehen, anstatt eine 3070 oder 3080 zu kaufen. Ich will und brauch meinen VRAM - so einfach ist das.

Es ging nicht um aktuelle Grafikkarten - wieso sollte es auch, wenn hier alle über RTX3000 und Big Navi reden?


PS: nVidia verlangt aktuell 1100-1300€ für 11GB. Ich hab für meine 11GB 499€ gezahlt - NEU! Merkste?
 
  • Gefällt mir
Reaktionen: Mracpad und cookie_dent
Und warum sollte AMD unbedingt auf 16GB VRAM setzen? Das würde ein 512-Bit Speicherinterface voraussetzen und ist teurer, benötigt mehr Strom und auch Platz.
 
  • Gefällt mir
Reaktionen: KlaraElfer und B.L. Swagger
Gemäß dem Fall, die 10GB VRAM sind bei der 3080 gesetzt.. für Grafiklastige Spiele wird das - gerade bei 4K - doch zum Flaschenhals oder?
 
Mit 16GB muss AMD ja entweder nen 512Bit Bus nehmen mit 14Gbps oder 256Bit mit 20Gbps.
Zweites wäre aber langsamer als ne 3080 von der Bandbreite.
18GB @384Bit macht viel mehr Sinn imo.
@SKu

Meine Rede;)
 
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.

Ich würde noch einen Schritt weiter gehen und sagen dieser "Stromverbrauch" wird gleich in das Konzept der E-Heizung einfliessen.
Ich heize mit meinem Home-Office jetzt schon im Winter 2/3 des Hauses mit. Im Sommer darf ich dann immer schön mit 30 Cent/Tag 1.5 KW Abwärme wegkühlen.
 
Die Leistungsaufnahme soll ein gutes Stück unterhalb der größeren Karten rangieren und noch 220 Watt betragen. Die Stromstecker sind noch unklar, ein 8-Pin und ein 6-Pin sind aber denkbar.

Für eine 70er Karte sind 220W als Basis schon heftig (von den beiden GA 102 Schluckspechten mit über 300W ganz zu schweigen), aber wieder nur 8GB gehen wohl leider gar nicht und es wird eine mit mehr Speicher bestückte "Ti" oder "Super" Chipvariante wohl hoffentlich noch nachgereicht werden.

Ob die RTX 3070 den GA 104 Vollausbau darstellen wird oder man dann mit noch einer stärkeren evt. 250-260 W GA 104 Vollausbau-Version rechnen wird können?

Das werden wohl heiße Zeiten Richtung Fermi/Thermi gehend bei nVidia, ich hoffe 'mal, dass das bei AMD/RTG mit den Big Navi Grafikkarten nicht noch mehr ausartet, zumal man dort wohl eine gute Chance hätte, sich seit langer Zeit wieder die Effizienzkrone zu schnappen.

Übrigens gut möglich, dass nVidia da fertigungstechnisch zweigleisig fahren wird, mit dem größten (oder den größten beiden) Chip(s) bei TSMC auf 7nm und darunter günstiger bei Samsung in 8nm.
 
Nureinnickname! schrieb:
Das Lustige ist ja die Leistungsklasse verringert sich und der Preis steigt. Solange der Kunde nicht begreift das er gemolken wird, werden die Preise immer weiter Steigen und die Leistungssteigerungen immer geringer ausfallen ;-) Pascal war jedenfalls erstmal meine Letzte Nvidia Karte.

Wie, "die Leistungsklasse verringert sich" ?? Sofern die Gerüchte stimmen wird Ampere der absolute hammer werden und auch der "Beweis" das Nvidia die Leute mit der RTX 2000 Serie verarscht hat wie noch nie zuvor (dieser Meinung bin ich seit Release der 2000er Serie).

Die 3070er soll genausoschnell werden wie eine 2080Ti ! Falls das stimmt wäre die 3070er nen absoluter Preishammer bei 600€.. Die 3080er soll 30-40% schneller werden als eine 2080Ti. Wäre für 800€ ebenfalls nen richtig fetter Deal im vergleich zur grottigen 2000er Serie.

Ich bin froh die 2000er Serie abgewartet zu haben. War die richtige Entscheidung. Nun kauf ich mir für kleines Geld entweder eine 3070er (zocke noch in 1080p, da sollte eine 3070er mit der Leistung einer 2080ti massivst overpowered sein für die nächsten 2 Jahre bis die 4000er Serie kommt) oder vielleicht sogar "nur" eine 3060er, sofern sie nur ~20-25% langsamer sein wird als eine 2080Ti. Diese soll ja bei 400€ liegen. Wäre die perfekte übergangsgraka bis zur 4000er Serie in 2 Jahren wo ich sowieso einen komplett neuen Rechner zu bauen plane (inklusiv 4K TFT und dann fetter 4080er oder ähnlichem die die 4K mit 60fps auch in jedem Spiel stemmen kann ohne drops).
 
asm schrieb:
Gemäß dem Fall, die 10GB VRAM sind bei der 3080 gesetzt.. für Grafiklastige Spiele wird das - gerade bei 4K - doch zum Flaschenhals oder?
Es kommen 20 GB VRAM Varianten für die 3080er, gab schon leaks über die Boardpartner.
 
  • Gefällt mir
Reaktionen: JohnnyTexas
Naja, die 3090 gut und schön. Aber direkt darunter schon nur noch +2GB VRAM, das finde ich jetzt nicht so top......Leistungsplus +20%-30%?

Wie sieht es mit Raytracing aus? Wie ist da das Plus? Es hat sich im Vorfeld alles nach mehr angehört.

Mal abwarten, aber überzeugt bin ich noch nicht.
 
Apocalypse schrieb:
Da verzichte ich auf Malle oder ein Auto, aber doch nicht auf 100W beim zocken.
Es geht dabei nicht um die einzelne Grafikkarte, aber die Masse macht es halt auf Dauer aus. Warum hat man denn 100W Glühbirnen abgeschafft? Und guck dir mal an, wie viel Strom für's Mining mit Grafikkarten verbraucht wird.

Nicht mal bis zum nächsten Zigaretten Automaten, weil jeder der Fridays for Future auch ernst nimmt, auch schon seinen Öko-Strom Vertrag hat und halt für Sonne, Wind und Wasserkraft ein paar Cent pro kWh extra zahlt, so er nicht eh schon ne Anlage am Dach hat und selbst ne kleine Rendite mitnimmt.
Der Bau (und später die Entsorgung) dieser Anlagen setzt aber auch CO2 frei und je höher der Strombedarf ist, desto mehr CO2 muss man investieren.

Ich will hier nicht den Obergrünen mimen, Grafikkarten sind sicher eines der kleinsten Probleme, aber sollte die 3090 und die 3080 wirklich mit einer TDP von >300W kommen, dann passt das schon nicht mehr so wirklich in die heutige Zeit und zu schreiben "wen interessiert der Stromverbrauch" ist schon ziemlich dreist.
 
  • Gefällt mir
Reaktionen: bondki, s0UL1 und Tommy_H
P4P800 schrieb:
Wird Zeit, dass die RTX 2080 günstiger wird..

Eher nicht. Ich hab gestern mal die 1070 gecheckt. Kostet noch immer soviel wie bei Release. Da musst du schon ganz genau schauen bei Release ob irgendwo ein einzelner Händler grade sein Lager unbedingt leer kriegen muss.
 
papa_legba schrieb:
Eher nicht. Ich hab gestern mal die 1070 gecheckt. Kostet noch immer soviel wie bei Release.
Das kannste net als Beispiel herziehen. Denn das sind wenige Restbestände die sie noch auf Lager haben. Wenn neue Karten mit einer neuen Generation kommen, wird die alte Generation innerhalb von 3-6 Monaten als EOL aus den Lagern geworfen und die Preise gehen meist je nach Modell sowie Preis, um bis zu 30% und mehr runter.

Noch nie nen Next Gen. Wechsel mitgemacht ?
 
  • Gefällt mir
Reaktionen: Lübke82
Mahlzeit, ich hab mir nicht jeden Post durchgelesen! Was aber hier wieder abgeht spottet jeder Beschreibung. Leute, Leute ...wer es sich nicht Leisten kann, kann dies halt nicht.

Das Thema CO2 passt hier nicht rein!

Ich für mein Teil werde erstmal abwarten und schauen was AMD bringt und danach mich entscheiden!

Schönen Samstag.
 
  • Gefällt mir
Reaktionen: OR4LIFE und Sin_VII
Naja ich glaube dass der Stromverbrauch im Durchschnitt bei aktuellen Spielen weit unterhalb der vermuteten 320-350 Watt ist.
Nvidia hat ja da denke ich noch was anderes im Sinn wie Computing etc. oder vllt. um Overclocker Spielraum zu lassen. Bzw. wollte ich sagen dass Nvidia die Bezeichnung TGP eingeführt hat.

Ich wollte/will mir eigentlich vornehmen unter 200 Watt besser 180 Watt beim Spieledurchschnitt zu bleiben, auch bei sonstigen Berechnungen mit CUDA.
Ich denke nicht primär an den allgemeinen Stromverbrauch in Deutschland/Welt, wo man evtl. Kraftwerke einsparen könnte (Atomenergie), aber doch denke ich da ein bisschen mit.

Mein Problem ist auch mit meinem G-Sync Monitor seit erster Stunde wo es auf den Markt kam. Jetzt auf AMD zu warten und auf FreeSync zu setzen, ich weiß nicht...nach Forendurchforstungen hab ich nichts gutes über FreeSync und G-Sync compatible gelesen. G-Sync modul und es ist perfekt, sei es unterstützte Frequenzen. Andere Eigenarten haben FreeSync und G-Sync compatible..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
aldaric schrieb:
Turing war eine recht enttäuschende Generation, vor allem was Preis/Leistung angeht.

aldaric schrieb:
Alle wünschten sich effizientere Karten. nVidia scheint genau den anderen Weg zu gehen.

aldaric schrieb:
Vielen würde 2080 Ti Leistung mit deutlich weniger Stromverbrauch reichen, wirds aber halt nicht geben.

aldaric schrieb:
Architekturvergleich von Turing vs. RDNA1 zeigte schon, dass RDNA minimal im Vorteil ist.

Na da läuft sich ja jemand warm für den Launch.^^ Halbwahrheiten, Unwahrheiten, und polierte Glaskugel.
Alles schlecht bei Nvidia, bei AMD ist/war alles besser, immer die gleiche Schallplatte.
Von der Filterblase aus gesehen, verstehe ich zumindest warum du dich immer fragst, wieso Nvidia 80% Marktanteil hat.😆 Aber danke für die Satire, ich hoffe da kommt noch mehr. xD
 
  • Gefällt mir
Reaktionen: hahaqp, Mumusud, BlaueElbe und 7 andere
firejohn schrieb:
nach Forendurchforstungen hab ich nichts gutes über FreeSync und G-Sync compatible gelesen.

Nutze Freesync seit Release, ca. Anfang 2016 mit meinem alten Monitor zuvor und kann nur positives berichten und will es auch nicht mehr missen. Genauso habe ich auch bisher kaum negatives über Gsync Compatible gelesen, bis auf das es halt nicht alle adaptive Sync Monitore unterstützen. Dafür gibt's aber mittlerweile genügend Listen, wie auch zum Beispiel bei Geizhals in der Produktinfo.
 
Chismon schrieb:
Für eine 70er Karte sind 220W als Basis schon heftig (von den beiden GA 102 Schluckspechten mit über 300W ganz zu schweigen),

Das ist weniger als das was die 2080 Super an TDP hatte, bzw 5 Watt unter der 5700XT.
Die 3070 ist übrigens hier quasi eine 2080 bzw 2080 Super, bedeutet zugleich auch, dass die Preise nicht wirklich ansteigen, denn man bekommt den zweit größten Chip günstiger als zur RTX 20er Reihe.

Bei der 5700XT hat dich die 225Watt TDP hingegen nicht gestört.;)

Chismon schrieb:
aber wieder nur 8GB gehen wohl leider gar nicht...

Na dann warte mal ab was AMD an Speicherbestückung bringen wird.
Seit Jahren wird bei den Launches als erstes über die Preise und dann über die Speicherbestückung gemault.
Dass ein kleinerer Speicher die Karten auch günstiger macht, bzw günstiger in der Anschaffung sind, wird dabei immer ignoriert.

Chismon schrieb:
Das werden wohl heiße Zeiten Richtung Fermi/Thermi gehend bei nVidia, ich hoffe 'mal, dass das bei AMD/RTG mit den Big Navi Grafikkarten nicht noch mehr ausartet, zumal man dort wohl eine gute Chance hätte, sich seit langer Zeit wieder die Effizienzkrone zu schnappen

Im Grunde genommen ist es völlig egal ob oben raus, die Leistungsaufnahmen steigen.
Solange man die 3070 mit 2080Ti Leistung mit 55 Watt weniger Leistungsaufnahme bekommt, ist doch alles gut, man muss ja nicht zum Topmodell greifen.

Bei Fermi V1 stimmte die Effizienz nicht, die Leistungsaufnahme alleine sagt wenig aus.

Chismon schrieb:
So gesehen sehe ich AMD/RTG bei dem derzeitigen Navi-GPU Gesamtpakt inkl. aktueller Preise mit Erscheinen der Custom-Modelle (von XFX, Sapphire, Powercolor, ASRock, MSI, Gigabyte, usw.) klar als bessere Wahl an, es sei denn fuer ausgesprochene nVidianer, die am Status Quo/der Dominanz nVidias zum Nachteil der Kundschaft im GPU-Markt nicht ruetteln wollen.

Eben, Nvidia GPUs werden nur von Nvidianern gekauft, jetzt ist alles klar. 😆
 
Zuletzt bearbeitet von einem Moderator:
catch 22 schrieb:
In der gesamten kurzen Geschichte des "Gaming PC", die erst irgendwo nach der Jahrtausendwende begann (irgendwo während der Übergangszeit von Single Core zu Dual Core Systemen), gab es nicht einen Tag, in der ein 400Watt Netzteil "komplett übertrieben" war.
Unter 550 Watt lief praktisch nie was, 625 bis 650 Watt ist immer schon der Mittelweg gewesen, bei dem man allerdings doch noch genau drauf achten sollte, was man verbaut, 750Watt ist (abseits von SLI / Crossfire und sonstigen extravaganten System Konfigs) das normale Maximum.

Dualcore kam erst 2005/2006. Ein Gaming-PC ist für mich ein PC, der für Spiele geeignet ist und es gab schon lange vor der Jahrtausendwende reine Gaming-Grafikkarten. Die Voodoo von kam 1996 und zwar als reine 3D-Karte. Diese Karte hat man sich ausschließlich zum spielen gekauft, genauso wie die Nachfolger. Und nein, nicht erst ein Mehrkernprozessor macht einen PC zum „Gaming-PC“.
 
  • Gefällt mir
Reaktionen: Mracpad und Apocalypse
Ich bin auf die Tests und erste Erfahrungen gespannt.
Mal schauen, was die so können.


Werd mit aber garantiert keine kaufen.
 
  • Gefällt mir
Reaktionen: adius
Zurück
Oben