News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

TDP zu hoch, zu wenig Speicher, wird bestimmt sehr teuer, die 3080 ist Quak
 
  • Gefällt mir
Reaktionen: RitterderRunde, Harpener, Smartbomb und 11 andere
10 oder 8 GB VRAM hört sich ja nicht so dolle an und 1500 Euro für ne 3900 bin ich nicht bereit zu zahlen.
Big Navi (angeblich 12 und 16 GB) wird für mich immer spannender. Raytracing kann AMD auch und eine DLSS Implementierung auf Basis von DX12 wird bestimmt noch kommen.
Aber erstmal die Tests abwarten.
 
  • Gefällt mir
Reaktionen: Harpener, rockfake, Smartbomb und 10 andere
Anstatt das die TDP runter geht oder gleich bleibt bei höherer Performance, geht die mal eben 100W rauf.
Bei 350W TDP braucht AMD auch nicht zaubern und kann ein riesen Chip raushauen. Das Argument Mehrverbrauch ist dann auch vom Tisch.
 
  • Gefällt mir
Reaktionen: EyRaptor, Harpener, Dimitri Kostrov und 25 andere
Liefern net labern Nvidia. Dass sie diesmal Bruteforce auspacken (350Watt TDP), finde ich insgesamt aber eher negativ.

Edit: 1500€ (inkl. Fullcover) sind in meiner Kriegskasse aber nur! wenn ordentlich abgeliefert wird.
 
  • Gefällt mir
Reaktionen: daknoll, AtotheX und poly123
Für mich klingt dass.. nach Rückschritt. Doppelt so groß, doppelte Verbrauch, vermutlich doppelt so teuer. Ich warte auf AMD
 
  • Gefällt mir
Reaktionen: Harpener, Kirschgeschmack, Partyarty und 26 andere
AMD braucht gar nicht die 3090 schlagen... so 3080 Niveau, beim Verbrauch mehr an 200W als an 300 orientieren sowie nicht beim VRAM sparen (mind. 12 GB) hätten sie doch komplett gewonnen.

Da ich nicht notleide, warte ich mal das Jahresende ab. Power für 4k, HDMI 2.1 und die weiteren Feature-Upgrades wären aber nett :D

Beim Verbrauch geht es mir auch nicht (hauptsächlich) um die Kosten, sondern um die Temperatur im Gehäuse und den Aufwand (Drehzahlen) die da rauszubekommen.
 
  • Gefällt mir
Reaktionen: Harpener, rockfake, Smartbomb und 9 andere
Nvidia hat einfach das Titan label weg gelassen und in das normale RTX 30x0 Muster übernommen (aka 3090) und suggeriert somit, dass es dieses Generation massig Speicher und Performance in der "normalo" Reihe gibt aber das stimmt so nicht, die 3080 hat trotzdem nur 10GB und die 3070 läppische 8GB.

Trotzdem feiern sich alle einen ab. Unverständlich.
 
  • Gefällt mir
Reaktionen: EyRaptor, Harpener, Kirschgeschmack und 28 andere
Die technischen Eckdaten sind einfach nur ekelerregend übel.
So etwas werde ich definitiv nicht kaufen.
Was hat sich die technische Leitung bei NVidia da nur bei gedacht?
Dufte jeder Mitarbeiter Werte notieren und dann wurde aus dem Topf gezogen und dann in der Reihenfolge auf die Tafel in die Spalten geschrieben?
Die Karten sind zu klobig, 12 Pin Kagge, zu stromdurstig, 3090 hat für NVidia-Verhältnisse fast schon viel zu viel RAM, die anderen Karten haben viel zu wenig RAM, und sind dabei viel zu teuer.
Die 3070 liest sich wie meine alte 1080 OC Karte, bei den hohen Kosten lohnt sich auch wegen dem viel zu geringen RAM kein Upgrade, selbst wenn die dafür 50-70% schneller sein sollte.
Mit allen angekündigten Karten könnte ich so nicht glücklich werden.
Bleibt mir nur AMD als Hoffnungsträger.
Oder Intel? Iiiiiih! Bah! Näää!
Notfalls warte ich dann bis 2022, mir auch recht.
 
  • Gefällt mir
Reaktionen: Newblader, loser, Smartbomb und 17 andere
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch...
Schonmal was von "Fridays For Future" gehört?
 
  • Gefällt mir
Reaktionen: RitterderRunde, Harpener, Newblader und 24 andere
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.

Sorry, das ist Bullshit. Für mich spielt das eine Große Rolle!
 
  • Gefällt mir
Reaktionen: ReinerReinhardt, Newblader, ro///M3o und 21 andere
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.
Doch der Verbrauch ist wirklich heiß. Die 200w meiner 1080Ti sind schon däftig :/
 
  • Gefällt mir
Reaktionen: ro///M3o, Smartbomb, ~Executer~ und 5 andere
Die 3070/Ti mit 16 GB für 500€ und ich würde mir die als Nachfolger für meine 1070 holen.
2020-08-28 15_40_17-Nvidia GeForce RTX 3090_3000 - Benchmarks ALLER Karten aufgetaucht _ Erste...png
 
  • Gefällt mir
Reaktionen: ro///M3o, Smartbomb, fox40phil und eine weitere Person
Klingt wirklich gut, Preis/Leistung wird wahrscheinlich eher schlecht.
Da ich garantiert eine neue Grafikkarte brauch kauf ich mir sicherlich einen, aber wirklich interessant werden die Benchmarks.
 
  • Gefällt mir
Reaktionen: gartenriese
Okay, meine GTX 1070 für 300€ hat ne TDP von 150W und die RTX 3070 von 220W(+47%)? In Anbetracht der Effizienzsteigerung durch verringerte Prozessgröße müssen da bei gleichem Releasepreis wie der 1070 mindestens 70% mehr an Leistung rauskommen um bei gleichbleibenden 8GB VRAM einen Kauf auch nur annähernd zu rechtfertigen. Was soll denn in dieser Generation für eine Karte mit 150W TDP und signifikant mehr Leistung kommen? Eine 3050 TI mit 4 bis 6 GB VRAM? Lächerlich, Nividia......
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ro///M3o, Smartbomb, Aquilid und 6 andere
Kuestennebel79 schrieb:
... und 1500 Euro für ne 3900 bin ich nicht bereit zu zahlen.

Wieso 1500, es ist die Rede von 2000 Dollar und somit wohl dann 2000 Euro.
 
  • Gefällt mir
Reaktionen: Unnu, Smartbomb und Baal Netbeck
8GB bei der 3070 wären echt sehr bescheiden. wäre dann die dritte xx70 in folge mit 8GB. auch 10GB bei der 3080 sind nichts weswegen man vor freude in die luft springen muss. dazu ein extremer stromverbrauch bei den dicken karten. fortschritt...

Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt.
mehr verbrauch bedeutet mehr abwärme bedeutet schwerer leise zu kühlen. nicht immer nur an die stromkosten denken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JPsy, Smartbomb, Aquilid und 8 andere
-Hier Stand Unsinn-
 
Zuletzt bearbeitet: (Doppelpost)
Wenn das tatsächlich TSMC N7 ist, sind die 350W ja noch übler. Und die 3080 säuft auch noch wie ein Loch. Wenn das nicht überraschenderweise +>80% auf eine 2080Ti werden, dann ist das ein richtig harter Fail.
 
  • Gefällt mir
Reaktionen: Kloin, ro///M3o, Smartbomb und 9 andere
Der Merowinger schrieb:
niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.

Nicht nur Stromverbrauch, auch Wärmeentwicklung... jap, das interessiert den einen oder anderen.
 
  • Gefällt mir
Reaktionen: Newblader, ro///M3o, Smartbomb und 21 andere
Zurück
Oben