Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Beteigeuze. schrieb:
in einem jahr ne neue Graka? was soll das sein? eine 3090 oder 3080ti/super mit 20gb vram?
In einem Jahr wird es keine VRAM Probleme geben und in zwei Jahren aller Voraussicht nach die nächste Gen. Und es werden sicherlich auch noch Karten in der Zwischenzeit mit mehr VRAM kommen, wenn man es dann zu dem Zeitpunkt sehr eilig hat ;)
 
Ich hab keine Karte aktuell, weil meine V56 broken zu MF gegangen ist. Die 3080 juckt mich richtig aber fast schon zu schade für meinen FHD Moni🙄
 
KlaraElfer schrieb:
Ja, genau, du hast es erfasst, die Tatsache, dass sich die 3080 in UHD stärker absetzt, zeigt genau das CPU Limit auf.:rolleyes: Deine Aussage zeigt auch, dass du nach wie vor nicht verstanden hast, was ein CPU Limit überhaupt ist.
Und das die 8 GB Modelle in UHD unverhältnismäßig stark zurückfallen zeigt deren VRAM Überlauf auf, und nun?
Nicht verstanden was das zu bedeuten hat wenn die GPU auf die ausgelagerten Daten im deutlich langsameren Puffer Bereich im RAM warten muss?
 
sialickiz schrieb:
RTX3080 ist um fast 50% schneller als AMD stärkste GPU !

Es sind 88% in 1440p und 69% in 1080p. Du liest die Tabelle falsch ab.


RX5700XT ist aber auch mehr als halb so klein wie die RTX3080...
Das heißt.. wenn RX6900 doppelt so schnell wird wie die RX5700XT dann sieht die RTX3080 kein Land mehr.
 
  • Gefällt mir
Reaktionen: therealcola
...und sie haben richtig geliefert. CB als auch Nvidia.
Also ich für meinen Teil werde mir eine Grüne Karte ins System tun wegen mehr Features. Außer ich komme wirklich extrem günstig an eine 5700XT oder so :D
Die 3080 wirds nicht weil einfach für mich zu teuer und ehrlich gesagt sogar viel zu Leistungsstark aber der deutlich bessere OpenGL Support und NVENC/Decoding sind schon sehr gute Argumente. Glaube auch nicht mehr das mich AMD im nächsten Monat noch überzeugt. Wird auf jeden Fall Spannend.
 
20 FPS oder 30 FPS Gegenüber ner RTX 2080Super ist schon was aber der Sprung zu ner GTX1080 ist schon Heftig. Wenn ich mal Überlege als ich die GTX1080 in der Hand hatte war das schon der Burner.

Doom 100FPS mehr krass was haut dann erst die 3090 auf den Tisch.
 
Ihr vergleicht wirklich eine aktuelle RXT 3080 Karte mit eine alte AMD Grafikkarte? Wartet doch ab was AMD ab November rausbringt. bzw. bis RX 6000 erschreint. Dann könnt ihr es vergleichen.
 
duskstalker schrieb:
daher muss man für einen richtigen generationenvergleich die 3080 eigentlich mit der 2080ti vergleichen - beides mal die leicht beschnittene "non titan" version des 02er chips.
Nvidia konnte von der 600-2000er Serie nur lange Zeit, aufgrund ihres Vorsprungs, die Mid-Chips im High-End verbauen.
Davor war in der 80er Serie immer der Big-Chip.
Und genau genommen gehts noch ein Schritt weiter, die 80er waren damals (nahezu) Vollausbau Big-Chip, 70er waren beschnittene Big-Chips, die 3090 wäre also eigentlich ne 80er von damals.

TLDR: Nvidia hat mit Kepler Platz für 2 höhere Stufen geschaffen. Jetzt sind sie (aufgrund der schlechten Fertigung) eine Stufe zurück gegangen.

-> Nvidia macht sowieso alles was möglich ist für den Gewinn. Man kann nur preislich gesehen fair vergleichen, denn nächste Generation könnten die auch anfangen low-end Chips in der 4090 zu verbauen und darüber 5 verschiedene Titans zu platzieren (wenn ihre Chips schnell genug wären)
 
  • Gefällt mir
Reaktionen: Reziel
Payne19 schrieb:
Das heißt.. wenn RX6900 doppelt so schnell wird wie die RX5700XT dann sieht die RTX3080 kein Land mehr.

Ich denke AMD muss auch voll darauf setzen die Rasterizing Power zu boosten und ja, ich denke das machen sie auch.
Das ist AMDs günstigster und einfachster weg, also am wirtschaftlichen. Das was Nvidia an Tensor und Raytracing bezüglich Chipfläche raushaut ignorieren und stattdessen massiv die typische Rasterizing Power nach oben schrauben - so testen die meisten.

Allein der Preis der 3080 zeigt dass es eigentlich so sein MUSS. Nvidia wird das wissen.

5700 XT * 2 ist in 7nm TSMC durchaus realistisch, das wird nicht perfekt skalieren aber nahezu. Gehen wir von 80-120% Mehrleistung aus dann ist man in einer Liga mit RTX 3080 / 3090.

Die Frage ist aber wie es mit Raytracing und DLSS aussieht. Wenn AMD da "versagt" dann hat man schöne Rohleistung in vielen Titeln, aber bei zugeschaltetem DLSS spielt dann Nvidia wieder in anderer Liga und wie Raytracing bei AMD abschneiden wird kann man aktuell 0 sagen. Schwer da den Rückstand mal eben wegzumachen - das ist komplettes Neuland für AMD.
 
  • Gefällt mir
Reaktionen: nospherato, stevefrogs, Payne19 und eine weitere Person
catch 22 schrieb:
Mittlerweile Frage ich mich auch, ob es sogar zu einer 3080 "Super" (oder wie auch immer genannt) mit einem Chip aus der Samsung Schmiede kommen kann, die auch mehr Takt bieten soll (siehe OC Ergebnisse des GPU Chips von CB).
Selbst bzgl. mehr VRAM (20GB GDDR6x) scheint es mir dahingehend gar nicht mal so sicher, da es dafür auch wieder ordentlich mehr Leistung bedarf.
Davon kann man wohl ausgehen, siehe die Vorgehensweise bei den "Super" Modellen bei Turing.
Man gibt den Modellen mehr Recheneinheiten, nimmt den höheren Strombedarf in kauf und bappt das "Super" hinten dran, fertig ist der Lack.
 
Pisaro schrieb:
Wird es wohl nicht oft geben, da dieses Format eben NICHT stark verbreitet ist.
Macht doch aber jetzt Sinn, mit Ampere und den RDNA2 GPUs, denn viele werden nun die Transition auf 27 bis 34 Zoll angehen, denke ich.
 
  • Gefällt mir
Reaktionen: Pisaro
Monstranz schrieb:
Und wird von RDNA2 geschlagen.
LencoX2 schrieb:
Unnötig langes Zitat durch Moderator entfernt
Auch alle Customs die ich gesehen habe pusten durch wie das Design von Powoer Color am hintersten Luefter. Naja, Asus werfe ich deshalb groben Unfug bei ihrer RX5700XT vor. Denen wurede ich nix mehr geben. Gehen eh langsam vor die Hunde mit ihrer Preisgestaltung.
 
Zuletzt bearbeitet von einem Moderator: (Unnötig langes Zitat durch Moderator entfernt)
Jup, AMD ist dieses Mal ziemlich still und kam bisher nicht mit einem "Poor Ampere" o.ä. um die Ecke, um das Versagen der eigenen Marketingabteilung zu untermauern.

So eine 6900XT mit 100% mehr Leistung als eine 5700XT und 16GB VRAM wäre schon ziemlich verlockend. Für so eine GPU, wenn die Leistung ebenbürtig oder gar besser sein sollte, kann AMD dann auch mMn mehr Geld verlangen. Das sind schließlich die Top-Notch Karten und keine Midrange-Nachfolger.
 
  • Gefällt mir
Reaktionen: eyedexe
SKu schrieb:
Jup, AMD ist dieses Mal ziemlich still und kam bisher nicht mit einem "Poor Ampere" o.ä. um die Ecke, um das Versagen der eigenen Marketingabteilung zu untermauern.

Ich denke mal jetzt wo konkrete zahlen der neuen NVIDIA Karten da sind.. Kommen auch zeitnah ein paar neue Leaks von AMD.
 
  • Gefällt mir
Reaktionen: Holindarn, fox40phil, Monstranz und eine weitere Person
TheDarkness schrieb:
Im Gegenteil, man war zu risikofreudig.
Man wollte TSMCs Preise drücken indem man damit "droht" zu Samsung zu wechseln.

Gut, so herum kann es auch sein. Man haette auf jeden Fall mehr aus der Generation rausholen koennen wenn man wollte.

TheDarkness schrieb:
Stellt sich die Frage ob Nvidia das nun bereut oder lacht wie trotzdem alle auf ihre Karten fliegen und sie durch die günstigen Herstellungskosten noch mehr Gewinn machen.

Ich tippe auf lachen da es denen nur um Marge geht.

TheDarkness schrieb:
Positiv ist nur, dass AMD aufholen kann.

Ja, man haette es nicht fuer moeglich gehalten, aber jetzt ist es halt doch drin.
 
KlaraElfer schrieb:
Ich denke AMD wird unter Rasterbedingungen 20% effizienter sein und dann bei RT oder Pathtracing etwa gleichauf sein. Wird spannend.
Ich sehe nach diesem Test vor meinem geistigen Auge auch schon eine 6900 mit 275W die die Leistung der 3080 bringt und darüber dann noch eine 6900XT mit 300W die 10% düber liegt.
 
  • Gefällt mir
Reaktionen: sifusanders, eyedexe, KlaraElfer und eine weitere Person
Zurück
Oben