Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Dass die neuen Radeons aber an die GeForce RTX 3080 heran reichen werden, auch dazu liegen noch keine gesicherten Informationen vor. Einen Hinweis darauf liefert ausgerechnet Nvidia mit Leistung und Preis der GeForce RTX 3080.

Das ist für mich der interessanteste Satz im ganzen Test.

Wieso sollte Nvidia die Karte so auf Kante nähen, wenn die nicht eine sehr starke AMD Karte erwarten.
 
  • Gefällt mir
Reaktionen: Zwirbelkatz, Cpt.Willard und WommU
cvzone schrieb:
Wie nur 60%? Der 4K Benchmark Index Vega 64 zur 3080 non OC liegt bei 253%, also +153%.

Ja zu meiner Vega das stimmt, hätte mich hier besser ausdrücken sollen, ich meinte im Vergleich zur 2080S.
Habe meine Vega für mich nicht als als Referenz genommen, da diese so oder so deutlich von den neuen Karten geschlagen wird.
Wie gesagt, mehr als doppelte Leistung nach Datenblatt von der 2080S zur 3080 und davon kommen dann im Schnitt 60% an bei nicht RTX/DLSS Features, hier hätte ich mir etwas mehr erhofft, das wollte ich ausdrücken.
 
  • Gefällt mir
Reaktionen: cvzone
Froz0ne schrieb:
Eigentlich ziemlich interessant, aber ich werde keine GraKa mit über 200 Watt Leistungsaufnahme mehr verbauen. Und ich hoffe auf mehr Speicher.

Selbst der Speicher schlägt sich im Energieverbrauch wieder, solche Wünsche solltest du sehr genau abwägen.
 
  • Gefällt mir
Reaktionen: Col.Maybourne
Nebula2505 schrieb:
Bin der Meinung eines anderen Nutzers hier, der auch meinte, dass die 3080 normalerweise die 3080ti und die 3090 normalerweise die Titan RTX gewesen wäre. Heißt Nvidia weiß auch, dass AMD sie dieses Mal entweder besiegt oder sehr sehr nahe kommt.
Hallo,

habe das nur exemplarisch für alle ähnlichen/gleichen Meinungen zitiert, dass Nvidia eventuell „Angst“ hat vor AMDs Ankündigung bzw. deren kommenden Grafikkarten.

Eure Gedankenwelt leuchtet mir nicht wirklich ein. Denn, dann müsste AMD doch SOFORT schreien HALT WIR SIND SCHNELLER, LEISER UND EFFEKTIVER. Außer AMD sagt: Uns sind die die jetzt Nvidia kaufen und es nicht schaffen auf die AMD Vorstellung im Oktober zu warten können egal. Das kann ich mir nicht vorstellen, dass ein gewinnorientiertes Unternehmen so agieren würde und auch nur einen potenziellen Käufer liegen lasst.

Ich bin der Meinung so lange AMD nicht schnellst möglich darauf reagiert und/oder durchsickern lässt, dass ihr eigenes Zeug wesentlich besser ist oder zumindest eine ernstzunehmende Alternative ist - sie auch einfach nichts besseres haben.

mfg. Dave
 
  • Gefällt mir
Reaktionen: uli_2112, Bert, SamSoNight und 2 andere
Danke für den tollen Test!

Sehr interessant die Karte. Ich bin eigentlich zufrieden mit dem Outcome. Immerhin ist die Karte der Nachfolger der 2080 und nicht der 2080Ti.

Damit steht für mich fest, dass es eine 3090 Custom wird. Auf Fiepen und Knarzen habe ich keine Lust und auch die 80°C erinnern mich an den Vorgänger 2080Ti FE. Die 80°C sind mir persönlich etwas zu viel.

Die Leistung ist aber schon ganz ordentlich. Hängt natürlich stark vom FP32 Usecase ab.

Mit besseren Treibern, dürfte es da mit der Zeit nochmal 5% on Top geben.

Ich bin wirklich gespannt was AMD dagegen zu setzen hat.

Ich wünsche allen viel Spaß mit der 3080.
 
  • Gefällt mir
Reaktionen: uli_2112
Bei dem Verbrauch frage ich mich wo das hingehen soll.
Damit dürfte mein be quiet! Dark Power Pro 11 550W nicht mehr ausreichen...

Wäre interessant mal den Verbrauch des Gesamtsystems zu sehen und nicht nur der Grafikkarte.
Die Karte verbraucht 200 f*cking Watt mehr als meine 1080. Ja sie hat doppelte Leistung, aber eigentlich würde man erwarten, dass Effizienz sich verbessert. Sie ist doppelt so schnell und verbraucht doppelt soviel.
 
  • Gefällt mir
Reaktionen: dohderbert, Valvana und telejunky
Wadenbeisser schrieb:
Gerade @ UHD dürfte der Vergleich schwierig sein denn bei FullHD sehe ich +70%, in 2.560 × 1.440 knapp unter 90% und spätestens in UHD dürfte der Radeon nicht selten der Speicher ausgehen und sie damit einbrechen lassen, siehe das recht konstante Verhältnis zur Vega64 und zur VII die auf einmal zulegt.

Also jetzt muss ich lachen, du verbreitest besseren Wissens doch hier wieder reinen Unfug.
In UHD limitiert in Anno selbst noch extrem die AMD CPU, da die 3080 nur 11% vor der 2080Ti liegt.
In den niedrigeren Auflösungen sieht man das CPU Limit dann extrem, logisch, dass die GPUs dort oben raus nicht die Leistung bringen können. In 4K geht der 5700XT quasi nie der Speicher aus und das im gesamten Testfeld...

Die 3080 wäre mit dem 10900K OC im Testfeld wesentlich schneller gewesen. In Full HD wohl 5 bis 10% in WQHD 5% und in UHD wohl mindestens noch 1%.
 
  • Gefällt mir
Reaktionen: Tschitta, tomasvittek, t3chn0 und 3 andere
Taxxor schrieb:
Wo liest du das?

Mit beiden auf 270W ist die 3080 noch 25% schneller.
Und gegenpber der 2080Ti OC liegt sie nur noch 15% vorne bei 334W gegen 322W

Dann hast du es ja wohl auch gelesen. Sie ist 25% Effizienter. Oder hast du irgendwo gelesen das die 2080ti Bei 320 Watt mehr als 5% schneller wird?
 
AUTScarab schrieb:
-Unnötiges Langes Zitat entfernt-
Wie es richtig geht, ist hier nachzulesen.

Darauf wird es wohl auch hinauslaufen. Wie du richtig sagtest, hier gehen potentielle Käufer weg. AMD ist in all der Zeit ziemlich kleinlaut. Ich erwarte daher nicht viel. Wird wohl wieder ein Rohrkrepierer.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: SamSoNight
Pisaro schrieb:
Aber auch nur wenn du zwangweise mal endlich deinen Prozessor wechselst ;)



Für eine FE ja, im Allgemeinen nicht.

Ja sonst würde das wohl schwierig werden :lol: , nene alles gut es kommt ein Komplett Neuer Rechner und OLED als Monitor das ganze Setup hier hat fast 7 Jahre auf der Uhr...da wird es dann auch mal zeit, obwohl es in FULL HD bei den meisten Games noch sehr gut läuft für das Alter der gute alte 2600K :daumen:
 

top test aber 370W sind schon ein Hammer, igor hat im 1ms bereich knappe 500w gemessen und das ist schon richtig Böse, wird wohl bad im Forum viele geben wo das NT einfach einfach abschaltet ...
 
  • Gefällt mir
Reaktionen: Col.Maybourne, Mike_MTL, Cpt.Willard und eine weitere Person
Ruff_Ryders88 schrieb:
Finde es immer wieder interessant wie viele mit eine 2080 Ti in der Signatur davon sprechen, diese Karte morgen ihr eigen nennen zu dürfen. Ich verstehe den Sinn nicht. Ich weiss, jeder soll machen was er will pipapo. Aber ich verstehe es einfach nicht ^^
Pcgh: „Während dieses Leistungsplus kaum den Wechsel von einer RTX 2080 Ti rechtfertigt“

Der oc Korridor der 2080 Ti ist hier zu mächtig.
 
  • Gefällt mir
Reaktionen: ZeroStrat
Adzz schrieb:
Dann hast du es ja wohl auch gelesen. Sie ist 25% Effizienter. Oder hast du irgendwo gelesen das die 2080ti Bei 320 Watt mehr als 5% schneller wird?
Natürlich, die 2080Ti verbraucht 270W bei 100% Leistung und die 2080Ti OC mit 334W liegt bei 114%

2080Ti OC vs 3080 ist also 334W zu 322W bei 100% zu 115%

Und 2080Ti OC vs 3080 OC ist 334W zu 370W bei 100% zu 120%.
 
CrustiCroc schrieb:
Wenn du den Test wirklich gelesen hättest, wüsstest du das die Performance / Watt und somit die Effizienz gegenüber Turing und erst Recht gegenüber AMD´s Pseudo 7nm Prozess stark verbessert wurde, und stand Heute die beste Effizienz am Markt ist.

Soll AMD im Oktober mal zeigen, wie ihre Performance / Watt aussieht. Jede Wette schlechter als diese hier.
Von nichts kommt einfach nichts.
Alles kla wir sprechen uns dann nochmal.
 
  • Gefällt mir
Reaktionen: Dimensionday
Vendetta schrieb:
Die Spannungsspitzen scheinen hoch, ich fürchte mein 550W Netzteil werde ich mit der Karte nicht verwenden können,

Da sprechen die Grafiken aber ein ganz anderes Bild.
1600267598278.png

https://www.igorslab.de/nvidia-gefo...t-nach-vorn-und-der-grabstein-fuer-turing/12/
Rechne mal bei einem guten 550W Netzteil mit 20% Leistungsreserven für Spitzen, dann kommt du locker ohne CPU OC mit einem 550W Netzteil aus, einzig die Effizienz wird darunter leiden.
 
  • Gefällt mir
Reaktionen: Holindarn und McFritte
Sollte man sich auch mal durchlesen: https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/28.html

Things get better for AMD at 1440p. Here. the Ryzen is only 7% slower than the i9-10900K—as resolution is increased, the bottleneck shifts further and further from the CPU to the GPU. For each frame, the CPU workload is roughly similar, no matter the actual resolution. This means higher FPS are more CPU intensive in the same title, while lower FPS give the CPU room to breathe as the GPU is working as hard as it can. You also have to realize that resolutions like 1080p and 1440p are not exactly what the RTX 3080 was designed for—the RTX 3080 is a 4K card, as that's the resolution you need to ensure the card can run unconstrained on most CPUs.

Results at 4K are highly interesting. Here, the difference between AMD and Intel blurs—with just 1% between AMD and Intel, I would call them "equal", no way you'd be able to subjectively notice any difference. This is great news if you're looking to build a powerful 4K gaming rig with the GeForce RTX 3080. No matter whether you pick AMD or Intel, everything will run great.
 
  • Gefällt mir
Reaktionen: uli_2112, Rubidox, Schattenthron und 7 andere
Also ich finde es wirklich Klasse das Nvidia mir überlässt wie viel Watt ich verbrauchen möchte, bei Turing hat mich das Power Target immer gestört und dieses Mal macht Nvidia einfach den Hahn auf und man darf selbst Entscheiden ob ich die Karte mit der Leistung so betreiben möchte wenn es mir stinkt wird sie einfach gedrosselt bin froh das Nv diese mal keinen Riegel vor schiebt und ich dieses Mal kein extra BIOS flashen muss damit ich die Leitung die ich gerne hätte auch bekommen kann.
 
Leistungsaufnahme in Spielen

Auch die Grafikkarten der Ampere-Generation halten sich strikt an die im BIOS hinterlegte maximale Leistungsaufnahme. Die GeForce RTX 3080 Ti benötigt beim Spielen gemessen 322 Watt und damit innerhalb der Messtoleranz so viel, wie Nvidia mit 320 Watt vorschreibt. Nvidia hat damit die Leistungsaufnahme deutlich nach oben geschraubt, die GeForce RTX 2080 Super ist 81 Watt, die GeForce RTX 2080 Ti 52 Watt sparsamer – aber eben auch deutlich langsamer.
3080 Ti :) aha
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Jan
Kenjiii schrieb:
Ich verstehe die ganzen Kommentare nicht.
Ich verstehe deine Begeisterung für "einfach eine neue Generation" nicht. Weil der Preis nicht weiter abartig steigt?! Der Rest ist schlicht was bei einem Node zu erwarten ist. In 7nm TSMC wäre noch mal 1/3 weniger Chipfläche möglich. Was entweder den Verbrauch oder die Leistung besser machen würden.
AUTScarab schrieb:
Ich bin der Meinung so lange AMD nicht schnellst möglich darauf reagiert und/oder durchsickern lässt, dass ihr eigenes Zeug wesentlich besser ist oder zumindest eine ernstzunehmende Alternative ist - sie auch einfach nichts besseres haben.
Ja AMD hängt bis jetzt massiv bei der Architektur zurück aber die Karten sind nun mal noch nicht fertig. Bei der typischen Startqualität erübrigen sich solche Marketingaktionen. Außer Bilder können und wollen die überhaupt nichts bringen. Warum auch? AMD wird sich wie bei Navi nett an das Preisgefüge von NV anpassen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Neronomicon und Laphonso
Zurück
Oben