Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

@cruse
Ups, danke dir!
Bei so viel Text kann man das schonmal überlesen :rolleyes:
 
Jan schrieb:
Es sei denn, die 699 für die FE lösen sich im Lager schnell in Luft auf. Dass die Preise verfügbarer Custom Designs dieses Mal tendentiell erst einmal über UVP liegen werden, will ich mal nicht ausschließen.
Klasse Test wie immer.
Kommen heute um 15 Uhr von euch dann Tests der Customs? Konnte noch nirgends eine Bestätigung dafür sehen. Wäre sehr dankbar für die Info.

/edit sehe jetzt hier Ja:

Tests GeForce RTX 3080 Custom Designs (CD)17.9. 15:00 Uhrja
 
Zuletzt bearbeitet:
WuuulF schrieb:
Versteh die Aufregung nicht über den Verbrauch der Karten. Ich vergleiche es immer gerne mit Autos, hat man ein Auto mit 400PS verbaucht es auch mehr als einer mit 90PS. Irgendwoher muss die Leistung ja kommen, alle schreien immer nach mehr Grafikleistung, sehen es aber nicht ein das damit auch mehr Verbrauch einhergeht.

Die Effizienz wurde gesteigert und es ist massiv an der Leistung geschraubt wurden - also ist doch alles schick.
okay dann erkläre ich es dir
schau dir mal die älteren topmodelle an 2080/2080ti, 1080/1080ti, 980/980ti usw ....
und schau auf die tdp angaben bzw verbräuche

nvidia spart mit dem schritt zu samsung statt tsmc vielleicht 30dollar pro chip und halst uns damit den ganzen ärger des höhren verbrauchs auf

höhere stromkosten, mehr hitze im gehäuse, lauter bzw man brauch einen besseren kühler aber das allerschlimmste ist die abwärme im zimmer bzw unter dem schreibtisch
als ehemalter besitzer extrem übertakteten 980ti oder vega 64 die aber immernoch nicht ganz so krass im verbrauch waren wie die 3080 kann ich davon ein lied singen
ich werde mir niemals mehr eine gpu mit über 250watt verbauch zu legen
im winter gehts noch halbwegs aber im sommer einfach unerträglich
 
  • Gefällt mir
Reaktionen: Silencium
Wadenbeisser schrieb:
Dir ist aber schon klar das die 2080Ti von sich aus lediglich mit 250W und die 3080 mit 320W geführt wird, oder?
270W, aber ist ja Wurst.
edit: k sorry, steht mit 250W in der offiziellen Liste...
Der Vergleich von Turing mit Ampere bei 270 Watt zeigt, dass Nvidia viel von der Effizienz für das letzte Stück Leistung geopfert hat. Warum so vorgegangen wurde, darüber lässt sich aktuell nur spekulieren.
Ich für meinen Teil werde das Powerlimit bei anspruchsvolleren Titeln senken.

@Bentica auch für dich nochmal: Morgen 15:00 steht im Text(Test).
Feligs schrieb:
Bei so viel Text kann man das schonmal überlesen
Steht ganz oben, direkt nach dem Inhaltsverzeichnis und ganz unten steht es auch nochmal. Dazu stand es in jeder News der letzten paar Tage.
 
Zuletzt bearbeitet:
Aber wie viel GIGA RAYS schafft die Karte denn nun? Ist diese Maßeinheit schon wieder so überflüssig wie der USB-C Anschluss? 😜

Jetzt noch eine ernst gemeinte Frage: Ich habe VR Benchmarks vermisst. Schade! Könnte so etwas vielleicht noch nachgereicht werden oder beim Test der RX6000 berücksichtigt werden? 😇
 
  • Gefällt mir
Reaktionen: Cohen
Jan schrieb:
Es sei denn, die 699 für die FE lösen sich im Lager schnell in Luft auf.
Naja, es wird ja wohl auch Customs für 700-800€ geben, die leise und kühl sind. Außer du weißt da mehr ;) Und es war grundsätzlich noch nie eine gute Idee bei anfänglich geringer Verfügbarkeit sich wie die Hyänen drauf zu stürzen. Wer ungeduldig ist, muss halt mehr zahlen. Rechtfertigt am Ende aber nicht den Preis. Bis Weihnachten wird man schon eine Karte bekommen.
 
GerryB schrieb:
Der Vgl. hinkt, weil der 2070s sicher in manchen Games der Vram ausgeht.
Wenn, dann lohnen sich nur Vgl. zw. der Ti und der 3080, wobei die Ti-FE schon im Thermal-Limit eff.Takt verliert.
Na dann können sich CB, PCGH, usw. ja viel Arbeit ersparen, wenn alle Vergleiche mit 8GB-GPUs (und darunter) hinken. Zukünftig also nur noch mit 10GB aufwärts vergleichen?

Danke für deine Experise. ;-)
 
cruse schrieb:
270W, aber ist ja Wurst.

Ich für meinen Teil werde das Powerlimit bei anspruchsvolleren Titeln senken.

@Bentica auch für dich nochmal: Morgen 15:00 steht im Text(Test).

Finde sogar mit dem 270 Watt eine Hervorragende Karte unter dem preis einer 2080ti !
 
  • Gefällt mir
Reaktionen: Heschel
Wann kommen denn heute die neuen RTX 3080 im Handel? Sehe überall nach und nix zu finden
 
Der deutlich höhere Stromverbrauch schreckt mich irgendwie ab, auch weil ich erst ma testen muss ob mein bq e11 550 Watt nicht aussteigt. Andererseits zicke ich eh nur ein paar Stunden pro Monat , das sollte nicht viel ausmachen und das PowerPoint kann ich ja auch herunter setzen...
 
thommy86 schrieb:
Wann kommen denn heute die neuen RTX 3080 im Handel? Sehe überall nach und nix zu finden
Dann solltest du deine Suchfertigkeiten vielleicht nochmal etwas ausbauen, es gibt direkt auf der letzten Seite dieses Artikels ne Tabelle wo der ganze schmarn drin steht.....

1600326467522.png
 
  • Gefällt mir
Reaktionen: Coenzym und Jan
Summerbreeze schrieb:
Ist er aber immer noch Toll, wenn AMD seine Karten auf den Tisch gelegt hat?
Wenn man sich die letzten Jahre anschaut, darf man durchaus an AMD zweifeln.
Richte ich den Blick auf die Verbesserungen von RDNA1 und die angekündigten für Gen2 dürfte es durchaus eng werden.
Welches Gesamtpaket besser ist muss man mal schauen.

Ich möchte mich nicht zu sehr in diesbezüglichem Optimismus verlieren, aber dass Nvidia die GA102-Karten offenbar so auf Kante näht, könnte schon auf erstarkende Konkurrenz hindeuten. Ansonsten hätte man in der Tat so verfahren können (und meiner Ansicht nach wäre das mit Blick auf Pascal und Turing die weit typischere Vorgehensweise gewesen) wie du es vorschlägst und hätte einen größeren Effizienzsprung bei gleichzeitig dennoch starker Leistung präsentieren können.

Aber wir werden es früh genug erfahren ... auch wenn ich es eigentlich lieber jetzt wüsste, das muss ich ehrlich sagen. Aber wirklich "brauchen" werde ich eine neue Grafikkarte ohnehin erst für Cyberpunk 2077 und, wie ich seit gestern weiß, für Hogwarts Legacy :D Aber für letzteres gibt es ja noch nicht einmal ein Datum.
 
  • Gefällt mir
Reaktionen: Colindo
Wadenbeisser schrieb:
Dir ist aber schon klar das die 2080Ti von sich aus lediglich mit 250W und die 3080 mit 320W geführt wird, oder?

https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080-ti/
Diese hat laut Spezifikation 260W. Anscheinend gönnt sich die 2080ti FE bei CB 270W.

Wadenbeisser schrieb:
Damit wäre sie effizienter weil die alte Generation über und die neue untertaktet wird....welch Erkenntnis.

Senke mal die Leistung (FPS, Frametimes) der 3080 auf das Niveau der 2080ti und vergleich, wieviel die 3080 hier schlucken würde. Nvidia hat einfach nur noch ein Leistungsplus der Effizienz geopfert.
Ergänzung ()

cruse schrieb:
Ich für meinen Teil werde das Powerlimit bei anspruchsvolleren Titeln senken.

:daumen: :daumen: :daumen:
 
Palomino schrieb:
Da laut es laut Test in keinem Szenario Probleme mit 10GB VRAM gab, wo wäre da der Mehrwert?[...]

Wird man sehen, wenn die Konsolen da sind und die Spiele mit deren 16GB VRAM im Hinterkopf produziert werden.
Ist noch kein Problem, aber es ist eben auch die dritte 80er Generation mit der gleichen Menge VRAM; auch wenn der natürlich schneller geworden ist. Da hätte ich mir einfach etwas mehr Fortschritt gewünscht.

Heschel schrieb:
Bitte? 25 % Effizienssteigerung ggü. dem Vorgänger (2080ti mit 270W vs 3080 mit 270W) ist keine Verbesserung?

Weil ein Test mit einer an der Kotzgrenze betriebenen 2080 Ti (runtertaten würde die 2080 Ti ja auch effizienter machen) gegenüber einer runtergetakteten 3080 auch so viel aussagt. Meinst du die Leute rennen NVidia die Bude für die 3080 ein um dann die TDP runter zu drehen?
Das macht höchstens eine recht kleine technikaffine und gleichzeitig auf Effizenz bedachte Randgruppe. Der 0815 Gamer baut die ein und spielt. Also ist der normale 4k Vergleich deutlich aussagekräftiger und da sind es gegenüber der 2080 Ti nur 10%. Gegenüber der 2080 immerhin 20%, aber mit TSMCs 7nm währe wahrscheinlich mehr drin gewesen.

Ich persönlich finde den absoluten Stromverbrauch der Karte einfach zu hoch. Ist halt meine Meinung.
 
  • Gefällt mir
Reaktionen: McTheRipper
Pixelkiller schrieb:
Ich warte erst mal die AMD Karten ab und entscheide dann.
NguyenV3 schrieb:
Im aktuellen Zustand hat die Karte bereits die höchste fps/W
Abwarten kann net schaden.
weil
vs. 5700 in WQHD siehts net so pralle mit der Perf/W aus: abzgl. 2-3 Ausreisser bleibt NIX
(vgl. in 4k ist Müll weil Navi dann vom Vram limitiert ist)
 

Anhänge

  • Perf@W_WQHD.png
    Perf@W_WQHD.png
    10,4 KB · Aufrufe: 143
Zurück
Oben