Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

xexex schrieb:
Nochmal! Die Behauptung war die Leute würden sich kleine Netzteile nur deshalb kaufen, weil sie billiger sind wie große. Das stimmt aber eben nur bedingt, man kauft kleinere Netzteile weil ein dickes Netzteil was kaum gefordert wird, schlichtweg viel Strom verschwendet.
Inwiefern verschwendet ein dickes Netzteil mehr Strom als ein kleines?

Wenn das System 350 Watt verbraucht, dann tut es das mit einem 500 Watt Netzteil genau so wie mit einem 1000 Watt Netzteil.

Tendiere mittlerweile immer zu größeren Netzteilen. Nicht nur weil diese Zukunftssicherer sind, sondern auch weil es mir lieber ist das mein Netzteil nur mit 60% statt mit 90% Auslastung arbeitet.
 
  • Gefällt mir
Reaktionen: Mike_MTL, Derenei, iceshield und eine weitere Person
Zock schrieb:
Was die meisten auch nicht beachten ist das die 3080 der Nachfolger der 2080 ist und nicht der Ti aber ich bin je
Auch nur in Nvidias PR
Beide, 3080 und 2080TI, haben den Bigchip und sind somit absolut vergleichbar.
 
  • Gefällt mir
Reaktionen: McLovin14
Toller und ausführlicher Test. Vielen Dank dafür.
Grundsätzlich bin ich überzeugt, doch mich schreckt tatsächlich der VRAM von „nur“ 10 GB ab. Für das Hier und Jetzt mag das ja ausreichen, doch was passiert nachdem die NextGen-Konsolen released sind? Wie siehts in 1-2 Jahren aus? 12-16 GB wären da schon zukunftssicherer gewesen.

Ich denke, ich warte auf die Ti oder aber 6900 XT.
 
Als 2080Ti Besitzer ist man ein wenig in der Zwickmühle. Die 3080 ist zwar schneller in 4K aber der Sprung gefühlt doch irgendwie zu klein.
Die Entscheidung wäre einfacher gewesen wenn sie mehr Speicher hätte. Ich denke Nvidia wird noch etwas in dem Preisbereich zwischen der 3080 und 3090 schieben.
 
bad_sign schrieb:
Wenn kein Speicher limitiert, dann passt das schon.
Und was ist mit der Fähigkeit der Architektur, die Shader bei geringerer Pixellast auszulasten? Bringen denn all die zusätzlichen Transistoren im Vergleich zu 2080 auch noch in 1440p so viel?
 
  • Gefällt mir
Reaktionen: thuNDa, Maggolos und .Sentinel.
ich kaufe den speicherkrüppel mit spulenfiepen und mache mein zimmer zur sauna...

... und damit katapultiere ich mich an die pc master race leistungsspitze , wuhu :)
... wenns in 2 jahren nicht mehr reicht, kaufe ich mir ne m2 ssd gepaart mit optimierten dlss games und lache die leute die sich ne überteuerte 20gb variante gekauft haben aus, ok nein, ich würde auch warten, aber ich will jetzt an die spitze ! :)
 
Da hat Nvidia aber schon die Brechstange angesetzt. Die Leistungsaufnahme geht garnicht, den Trend können sie beim nächsten Mal gleich wieder aufhören.
Woran das liegt, darüber kann man nur spekulieren.
Liegt es an RDNA2?
Liegt es daran, dass man Ampere besser aussehen lassen will im Vergleich zu Turing.

Jedenfalls hat Jensen im Rahmen des legalen zu viel versprochen.
 
  • Gefällt mir
Reaktionen: GUN2504
Diese Leistungsaufnahme...
Junge, das geht nicht!
 
  • Gefällt mir
Reaktionen: Neronomicon und mildmr
Esenel schrieb:
Juhu.
Nun darf mans offiziell sagen :-)

Der 3900X ist einfach zu lahm für die Karte in 1440p und 1080p :-D

Aber wollte ja bis gestern keiner glauben :-P
Wird bestimmt noch kommen... Mal nicht so spitzfindig...
So brachial viel mehr FPS werden wir da aber auch ned sehen. Wie du hoffst, dir wünschst...
Ein Stock 3900X ist halt realistischer als ein Cherry Picked Golden Sample 10900K Ultra OC Monster was nur der eine Glückspilz besitzt.
So ein Test wäre dann wie Aussagekräftig?
Test wohl das flachen Wort. Machbarkeitsstudie trifft es dann wohl besser.

You Know

MfG
 
  • Gefällt mir
Reaktionen: miro98, GUN2504 und Benji21
Tronx schrieb:
Was meint ihr, 650 Watt (hier als Beispiel Seasonic Prime 650W) mit Ryzen7 2700+ sollte das Netzteil reichen?! oder ist man hier mit 750 erst auf der sicheren Seite?
Reicht. Bei SeaSonic hast du noch massive Reserven also 650W sollte eher 750W sein^^
Lastspitzen noch nicht mal mit eingerechnet.
 
  • Gefällt mir
Reaktionen: Tronx
st33L schrieb:
Was ist eigentlich Thema mit Mining-Boom? Geht auch schon wieder los Schicksal wie GTX 1080/Ti.
Das kann man getrost in der pfeiffe rauchen denn würde es sich bei den alten Karten rentieren dann würde der Boom noch anhalten. Den neuen Karten könnte der Stromhunger des Speichers und bei der 3090 zusätzlich noch der Anschaffungspreis auf die Füße fallen.
 
WommU schrieb:
Das ist hier schon leicht abartig: Eine RTX3080 zu kaufen, nur um dann gedrosselt zu spielen.
Weil es ja viel smarter wäre +100€ für ne neue PSU in den Wind zu ballern, um bloß nicht mit 96% statt 100% der Performance zu spielen (und dabei nochmal 20€/1000 Spielstunden mehr für Strom auszugeben). Vielleicht nicht abartig, aber doch irrational, und, um mal dein Sprachniveau zu verwenden, "dämlich". Aber jedem das Seine. :)

Project-X schrieb:
Ich kaufe doch auch kein BMW M5 mit 600/625PS V8 Bi-Turbo und erwarte dass der verbrauch bei 6l/100km liegen soll!?
Der erste M5 hatte weniger als 300PS und hat (offiziell) rund 11l verbraucht, der jetztige hat die doppelte Leistung bei praktisch gleichem Verbrauch. Es geht nicht um die absoluten Zahlen, sondern um die relativen Effizienzsteigerungen. Und hier hat Nvidia auf Brechstange gesetzt, man muss es ja auch nicht schönreden. :P
 
  • Gefällt mir
Reaktionen: Daniel D., Black Orphan und Andre Prime
Danke für den Test. Tolles Stück Hardware. Bin schon auf die 3090 und 3070 gespannt. (bzw. auch auf die AMD-Karten). Hoffentlich geht was weiter bei der Performance.
 
  • Gefällt mir
Reaktionen: Laphonso, Trinoo und sialickiz
monitorhero schrieb:
Und die 1Gb mehr helfen bei ner 1080ti oder 2080ti?
Glaub nicht dass das sein Punkt ist, aber jetzt in eine Karte zu investieren die "nur" 10GB hat und man, wenn man so wie ich ist, 3 Jahre nutzt wie eine 1080ti nicht mehr zeitgemäß bis da hin...

Bin auf die 3090 test und die custom modelle gespannt
 
st33L schrieb:
Was ist eigentlich Thema mit Mining-Boom? Geht auch schon wieder los Schicksal wie GTX 1080/Ti.
amds alte karten sind sogar jetzt noch effizienter als nvidias neues flagschiff, von daher, nope gibt kein miningboom bei nvidia, bei amd karten aber nicht auszuschließen...
 
Bin kein Nv Fanboy aber diese Karte bietet wirklich ein ordentliches Paket für den Preis. Insbesondere wenn man bedenkt das DLSS noch als Ass im Ärmel steckt!
 
zeedy schrieb:
Dass die neue Grafikkarte trotz neuer Architektur und Fertigung nur 10% effizienter ist als der Vorgänger, ist ein Armutszeugnis für Nvidia.

Da muss man glaub ich eines bedenken:
Die Effizienz unter RT workloads, trotz ausgequetschter Karte liegen schon bei 25 bis 40%, auf 270 Watt limitiert dann eher bei 50%. Man darf da ruhig Pathtracing und RT On mit reinnehmen, da das ja später häufiger genutzt werden wird.

zeedy schrieb:
Dass die extrem hohe Leistungsaufnahme nicht wirklich kritisiert wird, verstehe ich nicht.

Das liegt zum einen an der guten Kühlung und der Leistung in Relation zur Effizienz.
AMD wird das nicht deutlich übertreffen können, insofern wäre Kritik hier fehl am Platz.

zeedy schrieb:
Die Technik ist echt enttäuschend. Einzig der Preis rettet die Karte noch.

Die Technik ist, wenn man die Leistung unter Pathtracing und RT mit einbezieht, nicht enttäuschend.
Ob etwas enttäuschend ist oder nicht, hängt immer auch davon ab, was andere Marktteilnehmer leisten.
2080Ti + 31% ist eine harte Nuss für Big Navi, das ist eine 5700XT + 100% und ich denke nicht, dass wir hier am Ende der Fahnenstange stehen, was die Treiber angeht.

Bedenke auch mal DLSS, das ist ein Werkzeug, was die Effizienz noch erheblich steigert.
 
Avarios schrieb:
deswegen den deutlichen mehrverbrauch kleinreden braucht keiner

Man bekommt auch mehr Leistung also alles ok... Und den Regler kann man ja zur Not anpassen wenn es so wichtig ist.
 
Taxxor schrieb:
Und was ist mit der Fähigkeit der Architektur, die Shader bei geringerer Pixellast auszulasten? Bringen denn all die zusätzlichen Transistoren im Vergleich zu 2080 auch noch in 1440p so viel?
Also weniger FPS wird die Karte sicher nicht liefern.
Wichtig ist das Verhältnis der Karten untereinander, weniger die absolute Leistung
 
Zurück
Oben