Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

@Creeper777, bei deiner Betrachtungsweise wird es eventuell nie eine Karte geben, die für 4K schnell genug ist. In zwei Jahren gibt es längst wieder neue Spiele, die, wenn man ums Verrecken nicht bereit ist, den einen oder anderen Regler nicht ganz nach rechts zu schieben, wieder zu fordernd für die nächste Grafikkartengeneration sein werden.
 
  • Gefällt mir
Reaktionen: Matthias80
  • Gefällt mir
Reaktionen: trockenerToast
Also wenn ich das richtig sehe etwa 60-80% mehr Leistung bei 30-35% mehr Leistungsaufnahme.
Ist solide. Überragend würde ich es jetzt aber nicht nennen.

Interessant wäre noch die Leistung bei gleichem Verbrauch gewesen. Sprich das Powerlimit der 3080 auf dem Niveau der 2070S begrenzen.

Auch bin ich interessiert ob es eine Titan geben wird oder dir 3099 die Titan ersetzen wird. Falls zweiteres der Fall ist, dann müsste sich die 3080 mit der 2080 messen.
 
Krautmaster schrieb:
OC zersägt eine 980 Ti OC eine 1070 OC auch heute noch :D

Nicht wenn man eine 1070 mit Samsung Speicher hat. Dann kannst du den Speicher derart prügeln, dass die 980 Ti maximal noch mithalten kann. Ist halt wie immer, sie sind etwa gleich fix. Ich habe auch die 980 Ti damals im Abverkauf bei Caseking erworben für 399 € und habe dann per Step-Up bei EVGA die 1070 genommen. Nur die Versandkosten bezahlt und fertig.
 
A.Xander schrieb:
Bei dieser Generation empfinde ich ein Update eher unattraktiv. Ich kaufe auch gern nur eine neue GPU wenn mich eine neue Technik daran interessiert oder eben wenn das Gesamtpaket ein gutes Plus ergibt.

Du bekommst für 700€ eine 3080 die durchschnittlich 30-35% über einer 2080TI liegt, also einer Karte die 300-400 € teurer ist. Was erwartet ihr eigentlich noch?
 
  • Gefällt mir
Reaktionen: Relict, HorstSan und Tschitta
Gr33nHulk schrieb:
Aber vielleicht ändert sich das ja noch, eine 3080 Ti mit 20GB VRAM und noch mal ~20% Leistung on top,

Das wäre dann eine 3090, wobei auch hier 20% Mehrleistung eher optimistisch sind.
 
  • Gefällt mir
Reaktionen: shoKuu und Vexz
Replay86 schrieb:
So wird es wohl laufen. AMD deutlich leistungsschwächer aber dafür mehr Vram. AMD liegt Nvidia zwei Generationen hinterher. Da sollte man keine Wunder erwarten.

Einigen kann man wohl nicht mehr helfen.

RDNA vs. Turing ist Architektonisch absolut gleichauf. 1% Vorteil in der Architektur für RDNA wars glaub ich im CB Test.

AMD hat lediglich keinen großen Chip im damalig neuen 7nm Prozess fertigen lassen.

Das ändert sich aber mit RDNA2. Also wo ist bitte AMD zwei Generationen hinten dran, wenn man bei der letzten Generation schon gleich auf war von der Architektur?
 
  • Gefällt mir
Reaktionen: Grundgütiger, PS828, eXe777 und 2 andere
eyedexe schrieb:
Die RTX 3080 20GB kommt dann wohl doch bald
Bin gespannt wie der Aufpreis sein wird. 100€? Für 4k Gamer sicher überlegenswert, unterhalb von 4k aber womöglich rausgeschmissenes Geld. Aber letztlich wird sich das erst in ein paar Jahren zeigen.
 
Supermax2004 schrieb:
Eigentlich isses nicht spannend. Im groben Leistungsbereich ist AMD ja immer, auch diesmal sicher im 3070er vielleicht knapp 3080er Bereich. Aber spannend ist das nicht.

Die Vega ist über 3 Jahre alt und seit dem gab es nichts von AMD im High-End-Segment. Eben hat Nvidia eine sehr gute Serie raus gebracht und wenn jetzt der direkte Konkurrent nach so langer Zeit ebenfalls eine neue Serie raus bringt, finde ich das schon spannend.

Ich hoffe einfach, dass es besser läuft als bei Vega. Erstens konnte man damals leistungstechnisch nicht ganz mithalten und hatte auch deutlich mehr Stromverbrauch dabei. Unterm Strich hat damals eigentlich mehr für eine 1080 oder auch 1070 gesprochen, obwohl die Vega 56 ganz OK war. Man darf aber auch nicht vergessen, dass die 1000er Serie damals schon ca. ein Jahr alt war! Diesmal liegt ja nur 1 Monat dazwischen.

Egal, ich bin eh im Preisbereich bis 400 EUR unterwegs und mit meiner 5700 XT sehr zufrieden. Würde ich 700-800 EUR ausgeben wollen, würde ich aber wahrscheinlich trotzdem noch bis zu den ersten AMD-Tests warten. Aber viel falsch kann man in meinen Augen mit einer 3080 auch jetzt schon nicht machen. Kann mir nicht vorstellen, dass AMD so dermaßen gut kontert, dass sich 3080-Käufer in einem Monat sagen werden "Hätte ich mal lieber gewartet". Dazu bräuchte es schon eine Big-Navi mit mindestens so guter Preisleistung + weniger Stromverbrauch.
 
  • Gefällt mir
Reaktionen: MiG001
Microsoft schrieb:
darum geht es nicht!, ich will eine Karte haben die auf Herz & Nieren getestet wurde mit allen Vor & Nachteilen und keine einseitige Werbung.
Dann musst du dir Tests raussuchen, bei denen kein Testmuster vom Hersteller bereitgestellt wird mit Bedingungen. Bis es solche Tests gibt, dauert es aber bis nach dem offiziellen Marktstart und solche Tester haben aber meist nicht das Equipment für umfangreiche Tests und Expertise. Es wird also nie jemand deine Bedingungen erfüllen können. Und das sind ja auch wieder Bedingungen, die man als Manipulation von unabhängigen Tests auslegen kann, weil irgendwie muss ja das Geld dafür reinkommen und dann wird getrickst, um daran zu kommen. ;)
 
  • Gefällt mir
Reaktionen: Philanthrop
eyedexe schrieb:
Die RTX 3080 20GB kommt dann wohl doch bald zeitnah 😬

Quelle: videocardz

siehe Whitepaper Seite 12

Anhang anzeigen 967593
Dass das die Antwort auf die neuen AMD Karten sein wird, war abzusehen. Die Frage ist nur, wie bald die tatsächlich auf den Markt kommen. Sollten die doch schon dieses Jahr noch auf den Markt kommen, wird sich jeder in den Arsch beißen, der sich in den kommenden paar Wochen eine 3080 mit 10 GB holt. :D
 
Vitali.Metzger schrieb:
Das ist doch nix, wenn Zen 3 raus kommt und es dann vielleicht heißt, der König ist tot lang lebe der König dann wird vielleicht neuer Rekord aufgestellt. Aktueller Rekord ist der Zen 2 Test mit über 10.000 Posts.
Ja in welchem Zeitabschnitt ;)?
 
eyedexe schrieb:
Die RTX 3080 20GB kommt dann wohl doch bald zeitnah
zeitnah=2021=überflüssig, weil im 2.HJ2021 direct loading kommt.
(die 20GB gehen nur mit den 2GB-Modulen)
 
aldaric schrieb:
AMD hat lediglich keinen großen Chip im damalig neuen 7nm Prozess fertigen lassen.

Und warum hat man keinen fertigen lassen? Weil man es nicht nötig hatte? :lol:
Zitat eines unbekannten Sportlers:
"Ich könnte auch Weltrekorde aufstellen wenn ich wollte, das habe ich aber nicht nötig." :evillol:

Architektur ist auch nicht gleich Leistung.
 
  • Gefällt mir
Reaktionen: .Sentinel.
stevefrogs schrieb:
Bin gespannt wie der Aufpreis sein wird. 100€? Für 4k Gamer sicher überlegenswert, unterhalb von 4k aber womöglich rausgeschmissenes Geld. Aber letztlich wird sich das erst in ein paar Jahren zeigen.
Rausgeschmissenes Geld bestimmt nicht. Eher eine Zukunftssicherheit. Es gibt genügend Leute, die in 1080p zocken und die 8 GB VRAM schon mit Leichtigkeit voll kriegen. Da sind 10 GB auch nicht viel mehr. Da braucht es nicht mehr lange und die 10 GB sind auch zu wenig.
 
Falls ich mir einen Ersatz für meine 1080 Ti holen werde, wird es wohl erst der Refresh bzw. die Super Variante werden, die mit mehr RAM ausgestattet ist. Wenn man Spiele modded und höher aufgelöste Texturen nutzt, ist es relativ leicht an das bisherige VRAM Limit zu kommen. DIe 1080 Ti hat 11GB. Überall steht, dass die 20xx bessere Kompression haben und somit ihren VRAM Nachteil egalisieren können. Ist ja schön und gut. Gesichert ist so etwas nicht. Sowas will man einfach nicht riskieren. Ich hätte gerne eine Variante mit ~16GB sodass man auch für die nächsten zwei Generationen wieder gerüstet ist.
 
akuji13 schrieb:
Und warum hat man keinen fertigen lassen? Weil man es nicht nötig hatte? :lol:
Zitat eines unbekannten Sportlers:

Architektur ist auch nicht gleich Leistung.

Wieso? Weil der 7nm Prozess neu, geringe Yields hatte und teuer war. Den CPU's wurde da ganz klar die höhere Priorität eingeräumt, was man am Erfolg von Zen2 sieht.

So schwer ist das gar nicht, wenn man mal kurz drüber nachdenkt. :volllol:

Architektur nicht gleich Leistung ? :evillol: :evillol:
 
  • Gefällt mir
Reaktionen: Aza*
Meine Glaskugel sagt mir, dass AMD eine größere Herausforderung hat:

GPURTX 3090RTX 3080RTX 3070RX6900RX6800RX6700RX6600
CU1441048052
FP32-Leistung35,729,820,437,428,421,812,8
EUR1.5007005001.500700500300

Da ich glaube dass AMD nur bis zur "RX6700" mit 80 CUs vorbereitet ist, die anderen Größen kann ich mir nicht vorstellen. Die Berechnung erfolgt auf Grundlage der PS5 und Xbox Series X - Ja sehr ungenau aber einen Versuch wert.
 
DLSS ist meiner Meinung nach sowieso nur eine Funktion die für andere Bereiche als dem Gaming gedacht ist aber dem Spieler als DAS Feature mitverkauft wird.
 
  • Gefällt mir
Reaktionen: Zubz3ro und Otsy
Base_Dussel schrieb:
den Quatsch wirds in den nächsten Wochen hundertfach zu hören geben...ihr lernt es einfach nicht :)

Das ist kein Quatsch das ist nun mal die Realität. Für UHD und höher sind 10 GB nicht das Optimale auf lange Sicht.

Selbst Format-C (Igor) schreibst das 10 GB knapp werden könnten in UHD.

Es ist auch genau der Zuwachs, denn man z.B. beim Spielen in Ultra-HD schon immer eingefordert hat. Bitte schön, hier ist eine Offerte dafür. Dass der RAM mit seinen 10 GB spätestens in Ultra-HD dann aber ab und an schon mal knapp werden könnte, liegt in der Auslegung durch NVIDIA und auch an vielen Spieleherstellern, die mit daten genau das zumüllen, was zuzumüllen geht. Was natürlich keine pauschale Entschuldigung und somit auch der einzige Kritikpunkt wäre. Das Doppelte hätte es schon sein dürfen, Preispunkt hin oder her.

Quelle

Aktuell bestes Beispiel Horizon Zero Dawn:
Vram Verbrauch 3440x1440

Ich habe 11 GB Vram und nur 3440x1440 und hier werden selbst meine 11 GB teilweise knapp und hier und da gibt es auch mal kleinere Ruckler. In UHD ruckelt es natürlich dann erst recht wenn der Speicher voll ist, da HZD den Speicher nicht einfach nur voll macht sondern ihn auch wirklich benötigt.

Kommen mehrere solche Konsolenports auf uns zu, die PS5 steht ja auch vor der Tür und diese Spiele werden bestimmt nicht weniger anspruchsvoll werden, sind 10 GB definitiv zu wenig.

HZD ist nicht das einzige Game das in UHD ordentlich Vram benötigt. Die Spielehersteller werden bestimmt keine Rücksicht auf den VRAM Verbrauch nehmen, nur weil Nvidia meint sie müssten beim Vram sparen mit ihren 10GB.

Also solltest du mit solchen Posts vorsichtig sein und dich definitiv etwas besser mit der Materie beschäftigen.
 
Zurück
Oben