News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt

HerrRossi schrieb:
Schonmal was von "Fridays For Future" gehört?
Da verzichte ich auf Malle oder ein Auto, aber doch nicht auf 100W beim zocken. Weiß du wie weit du mit dem CO2 Außstoß von 73kWh pro Jahr kommst? (2 Stunden pro Tag zocken, JEDEN Tag).

Nicht mal bis zum nächsten Zigaretten Automaten, weil jeder der Fridays for Future auch ernst nimmt, auch schon seinen Öko-Strom Vertrag hat und halt für Sonne, Wind und Wasserkraft ein paar Cent pro kWh extra zahlt, so er nicht eh schon ne Anlage am Dach hat und selbst ne kleine Rendite mitnimmt.

Und selbst mit Kohlestrom würde es nicht mal für einen Innerdeutschen Flug reichen. Das nun wirklich nur eine kleine Sünde. 380g co2 pro Kilometer beim fliegen, 360 Gramm pro kWh beim Kohlestrom.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Acedia23
Darkscream schrieb:
Ja genau und auf 12GB runter gerechnet eben nur 30W. Die verbrauchen eher mehr als X Version.
Es ging aber doch um die Hohe TDP der 3000er und die 3080 liegt mit 10GB genau diese 30W unter der 3090, somit nur noch 70W über der 2080Ti, wenn die X tatsächlich etwas mehr verbrauchen vielleicht auch nur noch 60W und wer weiß wie viel an RT- und Tensor Cores an Board sind, die auch noch zusätzlich kosten. Der Chip als ganzes ist ja trotz 7nm nicht viel kleiner geworden.
 
  • Gefällt mir
Reaktionen: NMA
ZeroStrat schrieb:
Speicher ist nicht alles.

Yo hab ich auch gesagt als ich mir die R9 Fury gekauft habe. ;) Aber nicht ganz so lange Wie ich es gerne gehabt hätte! :D
 
  • Gefällt mir
Reaktionen: fox40phil und Apocalypse
3090
nvidia_3090_GA102-300.jpg
3080
nvidia_3080_GA102-200.jpg
3070
nvidia_GA104-300_2944_Cores.jpg
 
@michelthemaster ändert nichts daran dass du nicht weißt, was geplante Obsoleszenz ist ... abgesehen davon, kann man dein ganzes geschwurbel auch auf Grafikarten anwenden. Vl tbin ich Streamer und brauche das, damit die Kiddies einschalten? Hör doch auf für andere reden zu wollen, und dann selber mit Ausnahmen daher zu kommen... aber hey, du bist du der master 😂
 
dohderbert schrieb:
komisch, das war immer das schlag mich tot argument gegen AMD / ATI
Aber wahrscheinlich nicht für die gleichen Leute, die 300W sind mir bei der 290 auch egal.
 
  • Gefällt mir
Reaktionen: MrNejo
#stype schrieb:
Die TDP ist so hoch, ich neige fast dazu, dass sowas reguliert werden müsste, wie der Schadstoffausstoß von Autos.
Nvidia kann ja schon mal mal bei VW und Bosch nachfragen.
 
  • Gefällt mir
Reaktionen: fox40phil, Grundgütiger, Apocalypse und eine weitere Person
Taxxor schrieb:
und wer weiß wie viel an RT- und Tensor Cores an Board sind, die auch noch zusätzlich kosten.
Ja genau um die geht es mir. DLSS ist aber nun mal was, was richtig Punkte bringen kann bei hochauflösenden Monitoren. Eine ähnlich gute Bildqualität mit 40-50% höheren Frameraten hat schon was.
 
  • Gefällt mir
Reaktionen: fox40phil, Col.Maybourne, adAstra und eine weitere Person
Aha..also werden die, die am Anfang kaufen mit weniger Speicher bestraft xD

Wäre wünschenswert wenn das beukotiert würde - wir aber eh keiner machen :D
 
  • Gefällt mir
Reaktionen: Hardwarious
dohderbert schrieb:
komisch, das war immer das schlag mich tot argument gegen AMD / ATI
Dort war es aber auch meist der Fall, dass sie eben mit dem höheren Verbrauch trotzdem nicht die beste Karte hatten, die 290X war hier in den letzten Jahren die Ausnahme.
 
  • Gefällt mir
Reaktionen: fox40phil, Alex1966, tomasvittek und eine weitere Person
Coca_Cola schrieb:
Alle Karten werden bestimmt wieder völlig überteuert, wird sich aber wie die letzten Jahre wie geschnitten Brot verkaufen.
wat?

wenn sich etwas wie geschnitten brot verkauft ist es per definition NICHT zu teuer.
 
  • Gefällt mir
Reaktionen: Sophisto, .Sentinel. und Apocalypse
TIMOTOX schrieb:
Mehr Verbrauch mehr Abwärme mehr Lautstärke. Und die Lautstärke Interessiert mich sehr.
Sapphire hat iirc auch die 300W von ner 290x knapp unter 40DB geprügelt bekommen. Vapor-Chamber und Tripple-Axial-Lüfter Design können da schon einiges an Wärme wegbringen ohne super laut zu werden.
 
Darum ist mir DLSS sehr wichtig. Wird AMD nicht etwas ähnliches wie DLSS liefern und RT mit an Board haben, wird für mich leider nur Nvidia als Auswahl bleiben.
 
  • Gefällt mir
Reaktionen: Alfred_E., fox40phil und nurfbold
Buggi85 schrieb:
Nvidia hat NVenc, DLSS und Raytracing zu bieten. Dagegen hat es AMD schon schwer anzustinken. Trotz der hohen Preise ist Nvidia the way to Go und sei es der besseren Treiber wegen. 350W bleiben unter Wasser auch ziemlich leise. ^^
NVenc finde ich um ehrlich zu sein ziemlich nutzlos.
Raytracing wird AMD auch haben, das wird interessant wer's besser kann.
DLSS … finde ich in der 2.0 Version toll, aber an Unterrstützung mangelt es und soll es was von AMD auch für Konsolen geben. Die 1.0 Version war auf jeden Fall ein Fall fürs Bullshit Bingo.

Abwarten, Tee trinken und eine Menge Benchmarks im November lesen.
 
  • Gefällt mir
Reaktionen: AssembIer
temnozor schrieb:
ich frag mich auch warum die 3080 mit 20% weniger Recheneinheiten als die 3090 fast genauso viel Saft zieht. Da stimmt doch was nicht.
Wäre nichts ungewöhnliches. Nvidia hat schon öfters bei deutlich unterschiedlichen Chips sehr ähnliche TDP Angaben.

2080 Super und 2080Ti haben auch die gleiche TDP Einstufung von nvidia. Eine GTX 770 ist offiziell mit 230 Watt angegeben, eine viel größere 780Ti mit 250 Watt. Daraus würde ich also nicht viel schließen. Auch gut möglich, dass Nvidia bei der 3090 sich beim Takt zurückhält und die 3080 etwas freier boosten kann.
 
  • Gefällt mir
Reaktionen: MrNejo
tomasvittek schrieb:
wenn sich etwas wie geschnitten brot verkauft ist es per definition NICHT zu teuer.
Das stimmt nicht... Etwas kann überteuert sein und sich trotzdem Prima verkaufen..siehe sämtliche Luxusprodukte auf dem Markt.
 
  • Gefällt mir
Reaktionen: ~Executer~
:) wie ich vermutete geizt Nvidia also bei der 3080 mit Speicher. So treibt man viele Käufer eben zur margenträchtigeren 3090, meint man zumindest. Es kann auch aufgehen... Dann ordnet sich die AMD Karte mit 16GB dazwischen ein und ich halte es für denkbar dass je nach AMD Konter 2021 eine 20GB quasi 3080 kommen kann. Vllt eine 3080 TI.
 
tomasvittek schrieb:
wenn sich etwas wie geschnitten brot verkauft ist es per definition NICHT zu teuer.

Exakt. Nvidia verzichtet sicher nicht auf Marktforschung. Die wissen ganz genau, bei welchem Preis sie mit welcher Nachfrage rechnen können und welche Preise sie aufrufen müssen, um den maximalen Umsatz zu machen. Die Grafikkarten sind so teuer, weil genügend Käufer bereit sind, so viel Geld hinzulegen.
 
  • Gefällt mir
Reaktionen: Unnu, Sophisto und BlackhandTV
Fuchiii schrieb:
Das stimmt nicht... Etwas kann überteuert sein und sich trotzdem Prima verkaufen..siehe sämtliche Luxusprodukte auf dem Markt.
luxus produkte verkaufen sich nicht wie BROT. brot ist ein hinweis auf ein massenprodukt. luxus produkte sind auch deshalb luxus weil sie eben nicht jeder hat. wie zb brot.

wenn eine firma ihre preise festlegt für ihre produkte hat sie versagt wenn sie weniger verkauft als prognostiziert.
wenn sie viel verkauft. als sagen wir mal wie „geschnitten brot“ dann hat sie den preis gut getroffen oder sogar zu günstig angesetzt.

was du natürlich sagen kannst und vlt auch gemeint hast:

für DICH ist der preis zu hoch, andere kaufen die karte aber dennoch wie wild.
 
  • Gefällt mir
Reaktionen: fox40phil, Sophisto und .Sentinel.
tomasvittek schrieb:
wenn sich etwas wie geschnitten brot verkauft ist es per definition NICHT zu teuer.

Es sei denn es gibt keine Konkurrenz, wie bei High End GPU´s. Dann hat der Kunde ja keine Wahl. Also ja, das geht doch.
 
  • Gefällt mir
Reaktionen: Darkscream
Zurück
Oben