Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Reziel schrieb:
Hmmm schade es weiterhin keine 4K Grafikkarte auf dem Markt gibt.
Ich zock seit 2015 in 4K. Es zwingt einen niemand, alles auf maximale Details zu stellen.
Reziel schrieb:
DLSS = Augenkrebs
Je nach Spiel hätte ich im Blindtest wohl arge Schwierigkeiten, überhaupt einen Unterschied zwischen "WQHD DLSS" und "UHD nativ" festzustellen.
 
  • Gefällt mir
Reaktionen: engineer123 und Warlock-Gaming
fox40phil schrieb:
Muss ja nicht maxed sein! Hatte man ja bisher auch nicht bei 4k.

Zudem wird die 3090 ja als 8k60 Karte beworben (mit DLSS!)

Ja was soll dann die neue GRAKA bringen, wenn man die Settings auch jetzt nicht auf max. stellen kann.

Gefühlt haben wir jetzt mittlerweile die 3 Graka Gen. wo es 4k Monitore zum zocken gibt und die sind immer noch zu langsam dafür.

Die 2080Ti war in manchen Spielen zu langsam für 4k und max Settings, okay.
Da erwarte ich aber immer hin dass eine 3080 FE zumindestens 4k mit max Settings über 60FPS schafft.
Dem ist ja aber nicht so.

Da muss ich einem User in diesem Fall recht geben, das man nix falsch gemacht hat, wenn man sich in der Bucht noch schnell eine eine 2080 Ti mit 230 Watt Aufnahme für 500€ geschossen hat.

3090 8K60

Ja das kann ja alles bedeuten.
60Hz sind keine FPS und auch kein Garant dafür, dass alles auf High-Settings in jedem Spiel läuft.

Meine 1080 packt auch 4k, hab danach aber nur noch 30FPS....

Wie man in dem Test sieht, sind die Ergebnisse in 2K auch nicht wirklich gut.

Also ich sag das jetzt als 1080 mit einem 34" Besitzer und ner 3440x1440 Auflösung, das Teil haut mich echt nicht aus den Socken und die 2000 Serie erst Recht nicht.

Auf Reytracing setze ich nicht, da ich Spiele von kleinen Entwicklern spiele die sowas wahrscheinlich erst in 10 Jahren verwenden würden.

Bis da hin kann aber alles mögliche passieren, ne neue UT Engine oder RT hat sich nicht durchgesetzt etc.pp..

In meinem Augen hat NV die neuen Grakas nur für ihre neuen Spielerein optimiert, um ihre neue Technik jetzt besser vermarken zu können.

Weil mit der 2000 Serie war es einfach nicht möglich.

Nur aus diesem Grund ist sie so günstig.

Ist so ähnlich wie damals mit Windows 7 auf Windows 10.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Warlock-Gaming
Die Leistungsaufnahme ist einfach nur pervers. Da die Radeon Renders ja auch 2x8pol zeigen, wird es dort auch nicht viel besser werden. Trotzdem die noch abwarten und Custom Karten.
Wird am Ende wohl für mich dann auf Undervolten hinaus laufen bzw. PT runter setzen, scheint ja laut Artikel ein guter Kompromiss zu sein.
Die ist war doppelt so schnell wie meine 1070 (ok sogar etwas mehr), aber genehmigt sich auch gleich doppelt so viel Strom, schade. So lang ich noch kein Cyberpunk hab, ist noch genug Zeit zum überlegen.
 
th3o schrieb:
Deswegen wirds sehr wahrscheinlich im Frühjahr eine 3080Ti geben mit vielleicht so 5% weniger Leistung als die 3090 und 20GB Speicher für 999.
Beim Unterschied zwischen 3080 und 3090 wäre sie dann aber wohl auch nur ca 10% schneller als eine 3080, da werden für viele wohl eher die 20GB das Kaufargument sein, als die Mehrleistung.

Und dann hat sich im High end wieder so viel getan wie sonst auch und nur die 3080 sticht heraus, weil sie jetzt wieder den Big Chip nutzt.
3080Ti vs 2080Ti wird dann so bei 40% rumkommen
 
  • Gefällt mir
Reaktionen: 0-8-15 User
sialickiz schrieb:
4770k und RTX3080 ?! Bad Combination !
Geld aus dem Fenster !
Kommt, wie immer, darauf an. Hier ist aktuell eine 1650 mit nem 4590 am Start. Dennoch werde ich die 3070 zum Release kaufen und einbauen, zumal aktuell nur ein FHD Display angeschlossen ist. Zu Weihnachten kommt dann ein 1440p144 Display und nächstes Jahr ein neues Mainboard + CPU. Ist der Rechner meine Sohnes, der sich alles zusammen spart. Und bei dem Setup hat nunmal die Grafikkarte die erste Prio.
 
matty2580 schrieb:
Die 3080 muss man eigentlich mit der alten 2080 vergleichen.
Korrekt. Mal zu Vergleich vs "Ausbau":

3080 Ampere = 68 zu 84 SM, 10 GB zu 48 (?) GB, 320bit zu mind. 384 Bit
2080Ti Turing= 68 zu 72 SM , 11 GB zu 24 GB, 352bit zu 384 Bit

Die 3080 wurde deutlich stärker beschnitten gegenüber dem "Titan" Ausbau.

Der "Nachfolger" der 2080Ti scheint damit eher oder offensichtlich die 3090.

Die 3090 ist gegenüber der potenziellen Titan Ampere dann wieder eher so beschnitten wie es die 2080Ti gegenüber der Titan RTX war.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Hucken schrieb:
Die Leistungsaufnahme ist einfach nur pervers. Da die Radeon Renders ja auch 2x8pol zeigen, wird es dort auch nicht viel besser werden.
Was haben eigentlich alle mit den 2x 8 pin und dem daraus abgeleiteten Verbrauch? Die 5700 mit ihren 175W hat ebenfalls 2x 8pin
 
  • Gefällt mir
Reaktionen: yummycandy, stevefrogs, .Sentinel. und 4 andere
Wenn NV mit DLSS 3.0 oder was auch immer dieses Feature treiberseitig für alle Spiele anbieten wird, dann muss AMD zusehen, wie sie die mehr als 100% Extra-Performance bei zugeschaltetem Raytracing herbekommen. Ohne Zuhilfenahme von KI/DL wird da wohl kaum was gehen. Daher muss sich AMD mit diesem Feld beschäftigen auf kurz oder lang. Während dessen ist Nvidia´s Serverfarm fleißig am lernen...; wie ein Musterschüler ;)
 
m.Kobold schrieb:
@matty2580
Es sei denn es kommt ne 3080Ti... dann ist die 3090er nichts anderes als ne Titan, die man als Gamer
eh nicht kaufen sollte.
Die 3090 ist keine Titan! Die 2080Ti war auch keine Titan.
Beides sind Gaming GPUs.

Die Titan RTX war keine mehr, die Titan Ampere wird keine mehr.

Eine Titan heisst TITAN, weil sie eine ist ;)
 
Laphonso schrieb:
Die 3080 wurde deutlich stärker beschnitten gegenüber dem "Titan" Ausbau.
Dafür war die 2080 nicht mal der große Chip, also vom Vergleich her noch sehr viel mehr beschnitten^^
 
  • Gefällt mir
Reaktionen: stevefrogs und Laphonso
.Sentinel. schrieb:
Schönes Beispiel von Dir.

Anhang anzeigen 967352

Somit sind die ermittelten und hier veröffentlichten Werte zum Teil schlichtweg falsch unter dem Gesichtspunkt eines reinen Grafikkartentests.
Ich verstehe auch nicht, wieso man auf den im Gaming wesentlich schwächeren Ryzen beim Testsystem umsteigt, nur wegen PCI-E 4.0 das selbst in Horizon keine Mehr-FPS schafft, im Gegenteil, da ist der 10900K sogar 2-4FPS schneller und zwar durch die Bank.

Falsch sind die Tests mit Ryzen Systemen natürlich nicht deswegen, speziell unter 4K wird man kein CPU Limit antreffen aber für High Refreshgamer die logischerweise einen intel Prozesser im PC haben, sind die Ergebnisse natürlich irreführend.
 
  • Gefällt mir
Reaktionen: engineer123 und Laphonso
Gibt es wirklich nicht einen einzigen Reviewer, der die Karte mit UV betrieben hat? Das würde mich sehr interessieren... so muss ich noch mindestens 2 Tage warten bis ich es selbst testen kann.
 
  • Gefällt mir
Reaktionen: GreyPrinceZote
Luxmanl525 schrieb:
Hallo zusammen,

@ MRM

Wie ich schon sagte, es muß jeder für sich Entscheiden, was der beste Kompromiß in dem Bezug ist. Und eine 3070 wird zumindest leicht schneller als eine 2080 Ti erwartet. Bei ca. 220 Watt wäre das schon was wo zumindest ich Persönlich deutlich besser mit Leben könnte.

So long...

Insbesondere die Tests hier bei Computerbase haben mir halt verwundert da sie doch einige Benchmarks dazu abgeliefert haben-

Eine RTX3080 @ 270W liegt ja immernoch 25% vor einer 2080TI und im Gegenzug nur 4% hinter der regulären Konfiguration der 3080.
Bei einem Spiel das in 4K bei der 2080TI 40FPS erreicht bedeutet das, dass die 3080 @ 270W die 50 FPS macht und die 3080 @ Referenz 52 FPS.

Jetzt wäre es natürlich noch die Frage was das konkret bedeutet auf Zwischenwerte. Ich denke mal der Performancegewinn von 270W --> 320W wird eher nicht linear laufen. D.h. ich könnte mir vorstellen das dort im 280W / 290W Bereich ein absolut attraktiver Spot sitzen könnte.

Unabhängig von Custom Designs, ich denke die üblichen Verdächtigen liefern da insbesondere bzgl. Lautstärke noch was besseres ab, könnte ich mir fast schon vorstellen dass das für einige User interessant sein könnte. Man kann fast schon sagen das ich den Traum von der absoluten "Silent 3080" vor mir sehe.

Einzig zu ich mich wirklich schwer zu bewerten ob das ein wirklich realistisches Szenario ist oder ob das nur ein reiner Papiertiger ist.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Esenel schrieb:
Juhu.
Nun darf mans offiziell sagen :-)

Der 3900X ist einfach zu lahm für die Karte in 1440p und 1080p :-D

Aber wollte ja bis gestern keiner glauben :-P

als ob Intel besser ist ich sag nur Gamestar Test ;)
 
  • Gefällt mir
Reaktionen: DonL_ und Floppes
BOBderBAGGER schrieb:
Den besten Deal haben wohl diejenigen gemacht die sich ne 2080ti um 500€...

Oder diejenigen, die ihre 2080Ti nicht vorschnell zum Spottpreis verkauft haben... ;)

Nein, mal im Ernst. Bei der 3080 hat Nvidia sicher vieles richtig und auch besser gemacht gegenüber der Vorgängergeneration. Aber auch die neuen Karten haben ihre Schwächen...

Ich persönlich verstehe die Leute nicht, die sich für weit über 1000,- € eine 2080Ti angeschafft haben und diese nun sofort mit extrem hohem Wertverlust verkaufen. :rolleyes:

Das Erscheinen der Ampere Karten ändert ja nichts an der Leistungsfähigkeit der älteren Turing Karten...
 
playlord18 schrieb:
Ich persönlich verstehe die Leute nicht, die sich für weit über 1000,- € eine 2080Ti angeschafft haben und diese nun sofort mit extrem hohem Wertverlust verkaufen. :rolleyes:
Je länger man wartet, desto höher wird der Wertverlust. Ist ein Rechenexempel. Wirtschaftlich wird es am sinnvollsten sein, jetzt zu verkaufen und für gar nicht so viel Aufpreis die 3080 zu kaufen und übernächstes Jahr dann die 4080 zu kaufen.
 
Vendetta schrieb:
Ich verstehe auch nicht, wieso man auf den im Gaming wesentlich schwächeren Ryzen beim Testsystem umsteigt, nur wegen PCI-E 4.0 das selbst in Horizon keine Mehr-FPS schafft, im Gegenteil, da ist der 10900K sogar 2-4FPS schneller und zwar durch die Bank.

Falsch sind die Tests mit Ryzen Systemen natürlich nicht deswegen, speziell unter 4K wird man kein CPU Limit antreffen aber für High Refreshgamer die logischerweise einen intel Prozesser im PC haben, sind die Ergebnisse natürlich irreführend.
Yeah 2-4 FPS:cool_alt:
Nach Techpower Up sind es 10% - hot oder lit(?)🔥

War das eigentlich Sarkasmus?
 
Piledriver schrieb:
Heise hat bisweilen noch keinen Test zur 3080 vorgelegt...
Heiße steht bei Nvidia auf der Black List, und muss sich selbst Samples aus dem Handel besorgen.
Deshalb kommen dort die Test zu Nvidia-Produkten immer etwas später.
 
Hallo zusammen,

@ paylord18
playlord18 schrieb:
Ich persönlich verstehe die Leute nicht, die sich für weit über 1000,- € eine 2080Ti angeschafft haben und diese nun sofort mit extrem hohem Wertverlust verkaufen.
Das sind halt Enthusiasten-GPU`s, genau für diesen Kreis, für Enthusiasten. Und für Enthisiasten GPU`s Respektive CPU`s wurden nun einmal immer schon Enthusiasten-Preise verlangt, immer schon. So sollte man das Sehen.

Das muß einem nicht Gefallen, mit gefällt es z. b. auch nicht. Aber das hat auch was mit Toleranz zu tun, wie ich letztens auch anmerken mußte. Das muß nun eimal ein jeder für sich selbst Entscheiden, jeder muß Wissen, was einem sein Hobby Wert ist oder eben nicht.

So long...
 
BOBderBAGGER schrieb:
Den besten Deal haben wohl diejenigen gemacht die sich ne 2080ti um 500€ in der Bucht geschnappt haben.
Ich frage mich ernsthaft, was daran ein guter Deal sein soll?
Da kauft man sich doch dann lieber eine neue 3080, mit voller Garantie und ohne Abnutzung bzw. ein gewisses Restrisiko (man weiß ja nicht, was der Vorbesitzer damit gemacht hat).
Dann zahlt man zwar 40% mehr, aber man hat auch 30% mehr Leistung und mit DLSS / RT eher noch mehr.
Treiberupdates und eine bessere CPU vergrößern den Abstand dann bestimmt später noch.
 
  • Gefällt mir
Reaktionen: Gerithos, iceshield, McTheRipper und 2 andere
Zurück
Oben