Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 3090 & 3080 & 3070: Finale Spezifikationen der Ampere-Grafikkarten bekannt
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 14.858
Die Karte war selbst mit 3,5GB Speicher für ihre 300€ trotzdem eine extrem gute Karte. Zu dem Zeitpunkt fand ich die Fury mit ihren 4GB als den weitaus schlimmeren Speicherkrüppel. Die hatte nämlich nur 4GB aber den doppelten Preis. Hier ist die Kritik ja berechtigt, weil die extrem teure Speerspitze der neuen Generation eben mit so wenig Speicher ankommt. Niemand beschwert sich bei einer Budget Karte, das die nicht üppig ausgestattet ist. Wenn ich mich an den Test hier erinnere, war das Speicherproblem bei der 970 rein theoretisch, denn die Probleme gab es ja erst bei Settings, wo der kastrierte (Mittelklasse-)Chip eh schon massiv geschwächelt hat.michelthemaster schrieb:Leute, erinnert euch bitte zurück an die GTX970. Die Leistung einer Karte bringt einem absolut nichts, wenn man keinen Video-Speicher hat.
Lesen wir unterschiedliche Kommentare? Also ich lese hier überwiegend nur Kritik.chb@ schrieb:Trotzdem feiern sich alle einen ab. Unverständlich.
Du wirst auch in dieser Generation zu 99% wieder mehr Leistung bei gleichem Stromverbrauch bekommen, du musst ja keine 350W Karte kaufen.Fernando Vidal schrieb:Die Entwicklung geht in die völlig falsche Richtung.
Früher gab es doch auch jedes Jahr neue Karten, also wo ist das Problem?catch 22 schrieb:Nach der "Super" Nummer letztes Jahr, ist doch der Releasetermin in ein paar Tagen absolut uninteressant.
Ich muss ja nicht deinem gesamten Beitrag zustimmen, aber dieses Zitat werd ich glaub ich öfter benutzen.milliardo schrieb:Bunte Bildchen am Monitor gibts immernoch für jeden Geldbeutel, auch für deinen.
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Allgemein bin ich auf den 1. September sehr gespannt, der Livestream wird geschaut und dann noch auf AMD gewartet und dann wird die Entscheidung getroffen.
Sa.Lt schrieb:320W die haben nen Knall..
3700 klingt deutlich besser, dann aber mit 16GB, 8 wäre mir zu wenig für die Zukunft.
Die FPS / Watt werden bestimmt nicht weniger, also wo haben die bitte einen Knall?
michelthemaster schrieb:Tja, und dann gibt es noch Leute, die verteidigen sowas... Ganz davon abgesehen, dass die Karte unabhängig von der Leistung dank der absolut armseligen Speicherbestückung entweder im VRam-Limit innerhalb der nächsten 2 Jahre (spätestens, ist eigentlich schon JETZT in 4k bereits zu wenig) landen werden oder dann direkt ersetzt werden (arme Umwelt :-( ).
Dies hier ist ein Enthusiastenforum. Für diese wird es ziemlich sicher Varianten mit mehr Speicher geben. Ein Großteil der "normalen" Spieler ist froh darüber, nicht für die 16GB Speicher einen Aufpreis bezahlen zu müssen, sondern eben nur 8GB. Der Durchschnittsspieler bemerkt im Spielbetrieb überhaupt keinen Unterschied zwischen 8GB und 16GB VRam, genausowenig wie er 60 und 144FPS unterscheiden kann. Es ist diesen Leuten schlicht egal, weil sie diese Details überhaupt nicht bemerken. Die 3080 mit mehr Speicher wird früher oder später kommen. Die 3090 sieht mir mehr nach einem Prestigeobjekt seitens Nvidia aus.
michelthemaster
Lieutenant
- Registriert
- Dez. 2011
- Beiträge
- 948
DFFVB schrieb:Igor sagt viel wenn der Tag lang ist, und auch nicht immer die Wahrheit ;-)
Sei so gut und schau nach was das genau ist. Und wenn ich mir die Dinge in Deiner Signatur anschaue, dann hast Du kein problem damit dich preislich abziehen zu lassen ;-)
Hey Kollege,
hast du denn Ahnung von Fotografie oder ist das jetzt einfach nur so daher gesagt? Weißt du etwa, dass ich Vieles aus meiner Signatur etwa gebraucht gekauft habe und das z.B. Objektive sehr wertbeständig sind (ganz im Gegensatz zu Hardware, welche nach spätestens 8 Jahren komplett veraltet ist). Es gibt sogar Gläser, die kann man für viele Jahre verwenden. Außerdem weißt du dann sicher auch, dass ich nebenbei Geld verdiene mit Hochzeiten und Portraits und leidenschaftlich gerne Videos mache. Also, wenn man (in dem Fall du) keine Ahnung hat, besser mal die ##### halten ;-)
LG
Micha
Linmoum
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 1.447
Relevant ist auch nicht ob sie mehr werden, sondern wie viel.Kenjiii schrieb:Die FPS / Watt werden bestimmt nicht weniger, also wo haben die bitte einen Knall?
350W sind dann übel, wenn es nur 50-60% zu einer 2080Ti. Nach aktuellen Gerüchten von VCZ scheint es ja sogar 7nm zu werden. Das würde die Geschichte noch schlimmer machen, als mit Samsungs 8nm.
Dass zu viel Verbrauch..Kenjiii schrieb:Die FPS / Watt werden bestimmt nicht weniger, also wo haben die bitte einen Knall?
Muss man schauen wie die Skalieren, ist eigtl. immer so, dass W/fps schlechter werden.
Solang alles im Sweetspot läuft ok, trotzdem sind 350W einfach viel zu viel..
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Noch eine Theorie .... NV macht ein "intelligentes" PCIe 4.0 "Feature" für die VRAM Auslagerung ![Evil LOL :evillol: :evillol:](/forum/styles/smilies/evillol.gif)
Und was mich auch interessiert, wie sieht es mit dem Verbrauch und dem vram unter der 3070 aus ohne die RT/Tensor Cores, falls es noch normale GTX Karten geben wird.
![Evil LOL :evillol: :evillol:](/forum/styles/smilies/evillol.gif)
Und was mich auch interessiert, wie sieht es mit dem Verbrauch und dem vram unter der 3070 aus ohne die RT/Tensor Cores, falls es noch normale GTX Karten geben wird.
B.L. Swagger
Lt. Commander
- Registriert
- Aug. 2009
- Beiträge
- 1.039
Darkscream
Fleet Admiral
- Registriert
- Feb. 2010
- Beiträge
- 17.542
Da sich eine Titan beim Speicher nicht sinnvoll von einer 3090 absetzen kann, schätze ich das es eine Titan mit anderem Namen ist. Sind doch nur Namen, glaube kaum das da jetzt eine einzelne Gaming Karte mit 32GB HBM2 kommt.Zotac2012 schrieb:Von daher ist mir immer noch nicht klar, was die RTX 3090 eigentlich darstellen soll???
schlingel3377
Lt. Junior Grade
- Registriert
- Jan. 2007
- Beiträge
- 307
Ich denke bei den Preisen werden wir eher positiv überrascht. Man darf nicht nur den Vergleich mit den Vorgängerkarten sehen, sondern auch die Wettbewerbssituation mit einbeziehen. Und dazu gehört neben AMD auch die Ankunft der beiden Konsolen, wo man für maximal 500 € auch 4K Gaming bekommen wird.
S
so_oder_so
Gast
schlingel3377 schrieb:Ich denke bei den Preisen werden wir eher positiv überrascht. Man darf nicht nur den Vergleich mit den Vorgängerkarten sehen, sondern auch die Wettbewerbssituation mit einbeziehen. Und dazu gehört neben AMD auch die Ankunft der beiden Konsolen, wo man für maximal 500 € auch 4K Gaming bekommen wird.
"4K" Gaming. Wieder mit Upsampling oder Checkerboard Rendering und sicher nicht bei allen Spielen gleichermaßen.
Richtig natives 4k bei 30fps bei schicken Games vielleicht und 60fps bei alten Games oder grafisch mauen Titeln.
Da werde sich aber einige umschauen hey.
Klingt immer mehr nach NV30 is back.
Gerade die 320Watt und der neue Stromstecker klingen für mich als hätte man hier nochmal extra die Brechstange ansetzen müssen.
wenn da mal bei den ersten Konsolen ports nicht das hier bei rauskommt
14 vs 35 FPS
https://www.computerbase.de/artikel...ro.71970/#diagramm-far-cry-v11-cb-cooler-1024
- übergrosser Kühler vs NV30 Föhn - check
- neuer "stromstecker" vs. NV30 Stromstecker - check
- 320 Watt
- von Konkurenz ist diesmal was größeres zu erwarten vs FX5800Ultra - 9700Pro
- erstmal nur 10GB vram
Gerade die 320Watt und der neue Stromstecker klingen für mich als hätte man hier nochmal extra die Brechstange ansetzen müssen.
wenn da mal bei den ersten Konsolen ports nicht das hier bei rauskommt
14 vs 35 FPS
https://www.computerbase.de/artikel...ro.71970/#diagramm-far-cry-v11-cb-cooler-1024
Zuletzt bearbeitet:
Fighter1993
Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 7.426
Was glaubst du denn warum Nvidia so viel Speicher raushaut, weil AMD zur Konkurrenz geworden ist.bigfudge13 schrieb:Jap, vA mit dem massiven Speicherupgrade der 3070.
Nvidia war immer dafür bekannt "Speicherkrüppel" rauszubringen.
Und wenn sie keine Konkurrenz zu fürchten hätten wären da nur 12gb drauf und beim top Modell evt 16gb.
B
Buck Rogers
Gast
Meine nächste Karte wenn es sich von den FPS lohnt gegenüber einer RTX 2080Super.
Mal schauen abwarten und Tee trinken. Brauche ca 20FPS bis 30 FPS mehr umd meine 144FPS
zu haben mit dem LG34GN850-B in manchen Spielen
RTX 3080 10 GB GDDR6X
Mal schauen abwarten und Tee trinken. Brauche ca 20FPS bis 30 FPS mehr umd meine 144FPS
zu haben mit dem LG34GN850-B in manchen Spielen
RTX 3080 10 GB GDDR6X
Z
ZeroStrat
Gast
Ich bin so gespannt auf die Karten. Ich bin fast noch mehr gespannt darauf, wo meine wirkliche Schmerzgrenze preislich liegt und ob das noch weiter verschoben wird.
Bei 1500 Euro für die 3090 bin ich aber raus. Dazu käme dann noch der WaKü-Block. Ne sorry, dann muss einfach passen.
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Spike Py
Lieutenant
- Registriert
- Mai 2006
- Beiträge
- 771
Der Strompreis ist mir da auch egal, für die Umwelt find ich es natürlich blöd aber ok, so einen riesen unterschied macht das jetzt auch nicht am Ende. Was mich daran stört ist, dass beim Zocken die Wärme auch irgendwo hin muss und im Sommer bei über 30 Grad Außentemperatur wird es im Gaming-Room schnell unangenehm warm ohne eine Klima! Das ist der wahre Grund, warum ich mir das Teil wahrscheinlich nicht holen werde 😢Der Merowinger schrieb:niemand interessiert sich für den stromverbrauch wenn man sich so eine karte holt. und sind wir mal ehrlich, die paar cent die man im jahr dann mehr für strom bezahlt juckt keine sau.
Ähnliche Themen
- Antworten
- 341
- Aufrufe
- 59.969
- Antworten
- 455
- Aufrufe
- 83.496
- Antworten
- 52
- Aufrufe
- 7.097
- Antworten
- 961
- Aufrufe
- 216.053
- Antworten
- 345
- Aufrufe
- 63.780