Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Cohen schrieb:
Die RTX 2070 Super wurde ja schon oft als günstigere RTX 2080-Variante bezeichnet. Der 4K-Unterschied zwischen der RTX 2070 Super und der RTX 3080 ist über 80%:

Anhang anzeigen 967447
Da dürfte der 4K-Unterschied zwischen der RTX 2080 (ohne Super) und der RTX 3080 um die 70% liegen.
Der Vgl. hinkt, weil der 2070s sicher in manchen Games der Vram ausgeht.
Wenn, dann lohnen sich nur Vgl. zw. der Ti und der 3080, wobei die Ti-FE schon im Thermal-Limit eff.Takt verliert.
Da finde ich Perf/W dann erschreckend schlecht:
(wenn man dann noch 2-3 Ausreisser eliminiert bleibt fast NIX)
 

Anhänge

  • Perf@W.png
    Perf@W.png
    8,5 KB · Aufrufe: 104
In der Diskussion "Zu langsame CPU vs PCIe4" auch witzig: CB hat doch im Vergleich zu den Vorgängerkarten die schnellste 3080 am Start. Keine 3080 in irgendwelchen anderen Reviews war so schnell wie die von CB.

1600321946918.png

Quelle

Gleichzeitig waren sie afaik die einzigen im Testfeld mit einer modernen Plattform (stichproben).

Sieht also imfo so aus als hätte @Wolfgang jetzt keine so ganz idiotische Wahl getroffen. Das mag nicht jedem CPU Markenfetischisten schmecken, aber untervorteilt wurde Ampere hier ganz offensichtlich nicht.

Gruss, Ned
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nuon, eXe777, aldaric und 13 andere
DaBas schrieb:
Selbst wenn Big Navi ein paar Prozent unter der 3080 liegen sollte, aber dafür weniger Energie benötigt, 16 GB VRAM besitzt und 650€ als UVP mit auf den Weg bekommt, dann wäre das die deutlich attraktivere Karte.
Mehr muß AMD eigentlich gar nicht erreichen. Und das sollte durchaus machbar sein.
Ziemlich viel wäre und hätte. Wenn sie aber um kompetetiv zur 3080 zu sein an die Kotzgrenze getrieben wird, viel zu warm wird, dadurch laut und Stromhungrig sieht die Sache schon wieder anders aus. Vielleicht liegt die Wahrheit ja in der goldenen Mitte und AMD geht den "Vernunftsweg".

Du jedenfalls suchst dir das "Best Case" Szenario raus.
Igors Leaks pfeifen es von den Dächern...Und ja der Mann ist besser vernetzt als wir alle zusammen.
 
  • Gefällt mir
Reaktionen: akuji13
5hred schrieb:
@t3chn0 Daher mal den Esenel testen lassen. Ich kenne keinen aus meinem Bekanntenkreis, der einen GT3RS mit P-Zero Bereifung hat.

Leider nur in der Basisausstattung.
Im Luxx können zwei in auch bei 2x16GB 4600 CL17 betreiben.
Sind dann fast 70k Copy :-D

Auch Snakeeyes hier ausm Forum hat nen schnelleren.

Aber er ist trotzdem ganz ok ;-)
 
Matthias80 schrieb:
Boah du hast dich gerade so Krass unglaubwürdig gemacht.
Dachte eigentlich da ist nen bissel Schmalz da... was man so manchmal gelesen hat.
Aber das ist ja Bildzeitungsniveau!
de demmmmmmmmmmmmmm

Next Taxxor pls.
Darf ich fragen wie alt du bist ? 12 ? Lass doch bitte hier so ein Kindergarten Geschreibe.
 
  • Gefällt mir
Reaktionen: Pisaro
Wäre es AMD würde als Überschrift stehen
40% Leistung erkauft mit 40% höheren Verbrauch
 
  • Gefällt mir
Reaktionen: Benni82
@Ned Flanders liegen wir also im mittel bei 75-76% bei der 2080ti. Aber ich denke das spiegelt dann ziemlich gut wieder was wir erwarten können, sei das eigene System von Intel/AMD oder gar 1-2 Generationen zurück. Liegt aber alles im vertretbaren Rahmen würd ich sagen. War das bei der 2080/2080ti ähnlich damals oder ist das auf den größeren Leistungssprung zurück zu führen?
 
Ich glaube ja es wird noch eine 3080ti geben und hoffentlich mit mehr VRAM.
Zum Glück bin ich nicht im Zugzwang und kann gemütlich die komplette Entwicklung
abwarten. Die 3080 ist für noch nicht das Pferd auf das ich setzten würde.
 
  • Gefällt mir
Reaktionen: TorgardGraufell
larz schrieb:
Und für alles unter 1440p macht die Karte mMn keinen Sinn, es sei den für esports oder solche die es wollen.

Ich bin da komplett bei mir. Dennoch ist es halt leider ein Fakt das viele Prozessoren hier limitieren. Was man daraus macht ist jedem selbst überlassen :)
 
  • Gefällt mir
Reaktionen: .Sentinel. und larz
projectneo schrieb:
Wie immer ein hervorragender Test @CB, vielen Dank dafür.
Ich war eigentlich auch schon fast so weit direkt zu bestellen, nur ... was mich stuzen lässt ist die relativ große Ineffizienz der RTX380. Warum lässt NV diese mit 320 Watt laufen wenn 270Watt nur 5% Leistung kosten aber erheblichst mehr Effizienz bringen. Für mich sieht es dann mittlerweile doch so aus, als wüssten sie was mit RDNA2 kommt um auch noch das letzte bisschen Leistung rauszukitzeln. Ich denke ich werde dann doch bis Oktober mit meinem Kauf warten.

Nur damit es nicht falsch rüber kommt, die RTX3080 ist eine extrem gute Karte zu einem akzeptabelen Preis.
Auch das ganze Featureset mit DLSS und Raytracing müsste AMD erstmal irgendwie abliefern.
Da kann man wohl nur spekulieren. Ich kann nur vermuten, dass sich NVIDIA gedacht hat, dass sie möglichst viel Leistung aus der Karte rauskitzeln zu wollen, um gegen AMD im Novemenber nicht abzustinken. Es gibt schließlich genügend Leute, die nicht auf die Leistungsaufnahme der Grafikkarten achten, sondern nur auf Spielebenchmarks. Für solche Leute zählt nur der längere Balken und der Preis.
 
  • Gefällt mir
Reaktionen: GerryB
Pixelkiller schrieb:
Wäre es AMD würde als Überschrift stehen 40% mehr Leistung erkauft
Mit 40% höheren Verbrauch

Das Ammenmärchen wieder. Ist ein Unterschied, ob ich den Verbrauch steiger und dafür entsprechend Leistung bekomme, oder aber, wie bei AMD üblich, mit dem Verbrauch über der Konkurrenz liege, während die Leistung nicht mal ansatzweise ran kommt.
 
  • Gefällt mir
Reaktionen: McFritte und Kvnn.
Zockmock schrieb:
Ich glaube ja es wird noch eine 3080ti geben und hoffentlich mit mehr VRAM.
Da die 3080 schon so gut wie am Limit läuft wird die 20GB Variante nicht viel schneller sein denke ich.
Aber es kann ja auch die 3080 Super sein.

Allerdings denke ich das zwischen 3080 und 3090 20-25% liegen... dazwischen eine Ti naja.
Lohnt dann kaum für mehr Geld, denke das wird man dann durch mehr vRAM argumentieren

Btw, was weinen hier eigentlich so viele über den Verbrauch? Für mich ist es ein Hobby und mich juckts wenig wieviel die Karten verbrauchen... mir auch egal ob bei 1% mehr Leistung 50 Watt. (Solang die Karte keine 500Watt verbraucht) Über wieviel Euro sprechen wir denn hier im Jahr im Vergleich zur 2080Ti? Eine Karte für 700-900€ kaufen und sich über ein paar Watt mehr Verbrauch aufregen - Welcome to Germany.

Ich ahne das jetzt Umweltkommentare kommen... :smokin:
 
  • Gefällt mir
Reaktionen: Zockmock
Zockmock schrieb:
Ich glaube ja es wird noch eine 3080ti geben und hoffentlich mit mehr VRAM.
Zum Glück bin ich nicht im Zugzwang und kann gemütlich die komplette Entwicklung
abwarten. Die 3080 ist für noch nicht das Pferd auf das ich setzten würde.
Es wurde zumindest geleaked, dass es eine 3080 mit 20 GB VRAM geben wird, sowie eine 3070 mit 16 GB VRAM. Aber Leaks sind natürlich wie immer mit Vorsicht zu genießen.
 
  • Gefällt mir
Reaktionen: angband1 und Zockmock
Jake Grafton schrieb:
Wenn du mit 8 GB klarkommst, dann ist das schön für dich. Bei mir waren 8 GB schon 2016 voll bei 1080p.

Naja is jetzt nicht der überflieger an Ram aber deine Aussage glaub ich mal sowas von nicht.
8GB mit 1080p vor 4 Jahren schon voll? Was für ein mega schlecht optimiertes Spiel soll das gewesen sein?
Ich bekomm die 11GB meiner 1080ti nicht wirklich voll bei 1440p.
Also nie ne Situation erlebt wo ich sagen müsste mir reichen die 11GB in 2 k nicht und auch die 10 GB werden mir in 2k, die nächsten 2 Jahre reichen.
Ebenso gibts Regler die den Ram Verbrauch bei sogut wie keinem Qualitätsverlust senken.
Hätte mir auch 12GB+ gewünscht aber naja 10GB überleb ich auch und die Rohleistung der Karte is schon echt stark.
 
Zuletzt bearbeitet:
Pisaro schrieb:
Ich bin da komplett bei mir. Dennoch ist es halt leider ein Fakt das viele Prozessoren hier limitieren. Was man daraus macht ist jedem selbst überlassen :)
Ich denke mal fast Jeder der sich eine GK für 700€ und mehr kaufen will, hat auch eine dementsprechend moderne Basis.
 
Phear schrieb:
Netzteil Test von Igor mal angeschaut. Empfehlung bei einer 3080 FE und sehr gutem Unterbau ab Qualitätsnetzteil mit 650W. Eher Richtung 750-800W.

Skalieren wir das nun auf eine 3090 hoch und legen da nochmal 100 Watt drauf dann sind wir beim 1000 Watt Netzteil...
 
@Honkl Skyrim mit massig Grafikmods würde mir da einfallen. Aber das ist schon ein sehr spezielles Szenario :)

@Windell naaaajaa, also selbst mein Kollege kommt mit seinem 8700k ins grübeln als ich ihm das sagte. Und da wirds sicherlich viele geben die noch keine Intel 9th oder 10th gen CPU haben. Bei AMD wird das ja noch etwas schlimmer, da die nicht die Spieleperformance an den Tag legen wie die Intels. Da wirds sicher bei nem 2000er Ryzen schon spürbar. Es war ja die letzten Jahre so, dass die CPU da nie ein Problem war und somit auch keiner gezwungen war unbedingt aufzurüsten.
 
larz schrieb:
@Honkl Skyrim mit massig Grafikmods würde mir da einfallen. Aber das ist schon ein sehr spezielles Szenario :)
Gibt's auch ein normales Szenario? Mods allgemein zählen für mich nicht.
Aber letztendlich muss natürlich jeder selbst schauen was er spielt.

Und btw. Ja ich weiß man bekommt die Karte immer klein... aber sinnlos.
Würde mich wirklich mal interessieren als "normaler" Spieler.

Persönlich schaffe ich in WQHD keine 8GB bei den Spielen die ich spiele.
 
Zurück
Oben