Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Pulver schrieb:
„Weil die neue Ampere-Karte 350 Euro weniger als die GeForce RTX 2080 Ti kostet und dennoch schneller ist, steht sie im Preis-Leistungs-Diagramm deutlich besser da.“

1249,- Minus 699,- sind bei mir 599,-. Oder wie soll man auf 350,- Preisdifferenz kommen? Bitte erleuchtet mich! Danke!
Meintest du nicht eher 550€ statt 599? ;)
 
@Kev2one

Keine Sorge, bei Turing kam das Umstricken der Modellpalette per "Super" Modelle auch erst fast ein Jahr später udnd ie RTX Titan wurde erst 3 Monate nach der 2080Ti auf den Markt geworfen. Letztere war warscheinlich aber die Super Modelle hatte bei release wohl keiner auf dem Schirm.
 
xexex schrieb:
Jegliche Leistungserhöhung der 3080 würde die 3090 obsolet machen, eine 3080/20GB für 900-1000€ ist denkbar, eine 3080Ti absolut unwahrscheinlich, da kann man dann schlichtweg die 3090 im Preis senken.
Aus meiner Sicht fokussieren sich zuviele auf das "ti". Wer sagt denn das es immer eine "Ti" der Art der Vorjahre geben muss ? In der Vergangenheit gab es bei nVidia auch bei den Topmodellen einfach Versionen mit doppeltem Speicher aber ansonsten gleicher GPU wenn ich mich richtig erinnere.
Aus meiner Sicht könnte daher auch einfach eine "3080-20GB" kommen und die in die Lücke zwischen 3080 und 3090 geschoben werden. Es muss da nicht zwangsläufig auch am GPU-Takt oder -Zuschnitt gedreht werden, wenn die Rechenleistung der 3080 völlig ausreicht, aber ihr einfach der Speicher ausgeht in der Zukunft, dann ist das durchaus eine Option die Käufer finden würde. Und wenn ich mir die Rechenleistung so ansehe dann halte ich das Szenario für durchaus realistisch.
 
  • Gefällt mir
Reaktionen: xexex
Kenjiii schrieb:
Schlussendlich sind es dennoch ca. 30% mehr Leistung in 4k im Vergleich zu der 2080 Ti und das bei einer 10% besseren Effizienz. Die Effizienz der 2080 Ti war ja auch schon ziemlich gut.
Zumal die Effizienz von Turing gemessen daran das dort 12 !!! nm Vs 7 nm Navi angetreten sind, dramatisch besser war. Und bei der 3080 ist die Effizienz die beste am Markt, was Performance / Watt angeht.
Das ist Fakt !
Aldaric wird das zwar wieder anders sehen, aber was solls.
 
wird die FE kühler bleiben? Die bläst ja die meiste heiße Luft hinten zum Slotblech raus,
die GPU sitzt ja am hinteren Lüfter.
 
@Wadenbeisser

Die Super Modelle kamen aber auch nur, weil Navi zu nah an den alten Turing-Karten dran war, sonst hätte es diese auch nicht gegeben, ich bleib bei meiner Meinung, dass es keine 3090 Ti/Super geben wird.
 
Tronx schrieb:
Hab es gestern irgendwo aufgeschnappt (vergessen von wo). Angeblich soll es Probleme damit geben, wegen der zu berücksichtigen Kühlung die dann quasi nicht vorhanden wäre. Vielleicht weis hier jemand mehr.

Meinst du evtl. das Video von Igor, wo er gesagt hat das es Probleme geben könnte, wegen der Stelle wo das Anschlussterminal verbaut wird?
 
xexex schrieb:
Klar! Aber die Karte wird dann als Quadro 16000 verkauft und nicht für "mickrige" 1500€ sondern eher 10000€.
Die gab es auch mit dem TU102 und dennoch wurde ne Titan mit dem vollem Chip für fast 3000€ auf den Markt geworfen.
Einfach mal abwarten....
 
Die GPU ist auf jeden fall Next-Gen Ready (Ports) ;)
Das kann man von GPU´s unterhalb RTX2080 nicht mehr behaupten, wird das minimum für anständige Frameraten sein.

5700XT oder RTX2070 die eigentlich recht neu ist, hatten eine kurze Lebensdauer ! Konstante 60FPS werden die Gpu´s in FULLHD in den kommenden Grafikkrachern garantiert nicht mehr halten können.

Das problem bei Amepre ist der Vram.

Wer von Pascal kommt macht sogar einen Downgrade !

GTX1070 - 8GB
GTX1080 - 8GB
GTX1080Ti - 11Gb

RTX3070 - 8GB
RTX3080 - 10GB !!!!

...10GB sínd noch so "halbwegs" Ok aber bei der grandiosen Leistung sollten es eigentliuch mindestens 12GB sein.


8gb indiskutabel, zu wenig !


Wer es nicht eilig hat sollte auf jeden Fall auf RTX3070TI warten ! 16Gb sind hier garantiert und die Karte wird leistungstechnisch praktisch On Par mit der RTX3080 sein bzw. -10%, komplett Wayne !


https://www.pcgameshardware.de/Nvid.../RTX-3070-Ti-mit-16GB-VRAM-gesichtet-1357337/

https://www.pcgameshardware.de/Nvid.../RTX-3070-Ti-mit-16GB-VRAM-gesichtet-1357337/

https://www.pcgameshardware.de/Nvid.../RTX-3070-Ti-mit-16GB-VRAM-gesichtet-1357337/
 
  • Gefällt mir
Reaktionen: Philanthrop und cyberpirate
Kev2one schrieb:
@Wadenbeisser

Die Super Modelle kamen aber auch nur, weil Navi zu nah an den alten Turing-Karten dran war...
Da siehst du mal wie schnell das gehen kann. ;)
Einfach mal angenommen AMDs große Radeon würden die 3080 um 3-5% schlagen, ich gaube kaum das es nvidia auf sich beruhen lassen wird.
 
Das einzige Spiel das ich momentan kenne und noch nicht draußen ist, ist Watch Dogs Legion, bei dem Ubisoft für 4K/Ultra 11GB VRAM empfiehlt.
Ob in Zukunft mehr Spiele kommen bei denen die Empfehlung bereits bei 2k&Ultra Settings die 11GB erhalten werden ist die Frage, aber vermutlich schon.
Möchte auch nicht downgraden von 11 auf 10, auch wenn es "nur" 1 GB ist. Aber wenn ich in einem Spiel für bessere Texturen 11 GB benötigen würde, aber aufgrund der 10 GB nicht auswählen könnte, würde ich mich echt schwer ärgern die 10 GB Variante genommen zu haben.
Auf der anderen Seite ist das Leistungsplus zu einer 1080Ti gewaltig. Ich warte bis Jahresende und hoffe das die 20GB Variante bis dahin rauskommt.
 
sialickiz schrieb:
...10GB sínd noch so "halbwegs" Ok aber die grandiosen leistung sollten es eigentliuch mindestens 12GB sein.
Wieso?

Schau dir DOOM Eternal an, da ist in Ultra Nightmare mit Ultra Texturen die 2080 wegen ihren 8GB aufeinmal statt 50FPS bei 80FPS(oder irgendsowas), weil der VRAM voll ist. Also nur die Texturen von Ultra Nightmare auf Ultra runter, optisch habe ich keinen Unterschied gesehen da muss man schon mit der Lupe ran. Für Leute die alles auf Max drehen wollen ohne Sinn und Verstand, die können sich ja ne 1500 Euro karte die 15% schneller ist kaufen mit 24GB :lol:
 
  • Gefällt mir
Reaktionen: Apocalypse, McFritte und xexex
@sialickiz

Macht natürlich sinn, ne 1070ti mit 16GB zu kaufen und in jedem Spiel deutlich schlechter als die RTX 3080 zu sein...
Der Ram wird auch ausgelagert und evtl wird auch noch pcie 4 helfen falls es mal wirklich in 2-3 Jahren zu knapp mit 10 GB wird... Die Unterschiede von 6GB zu 8 GB sind kaum vorhanden, gibt genug Tests. Erst bei 4 GB Arbeitsspeicher gibt es relevante Unterschiede. Was sagt uns das? Es wird noch lange lange dauern, dass 10 GB wirklich knapp werden, so dass man es spürt.

Eine 1070 TI mit 16GB ist doch keine Alternative!!!
 
https://www.pcgameshardware.de/Nvid.../RTX-3070-Ti-mit-16GB-VRAM-gesichtet-1357337/

Das wird die "perfekte" karte ohne nennenswerte schwächen, bis auf den Stromverbrauch der eindeutig zu hoch ist für eine neue GEN !

Klar, die Leistung ist toll aber der Verbrauch verglichen mit Pascal ist enttäuschend, gerade für 8nm ist das zu wenig bzw. zu viel. :(

Wir schreiben das jahr 2020 und Strom wird auch immer teurer und das nicht zu knapp !
 
  • Gefällt mir
Reaktionen: Wadenbeisser
Moin,

vielen Dank für diesen ausführlichen und sehr gut gemachten Test. Wie immer sehr übersichtlich. Also dann ist das Monster jetzt draußen. Ich wollte ja warten bis meine 980Ti mit min 100% mehr Leistung getoppt wird. Das ist ja jetzt definitiv so weit. Nur ist mir in Anbetracht das Ich die nächste GraKa auch viele Jahre nutzen will der RAM mit 10GB doch zu wenig. Erstmal die neuen Konsolen Games abwarten. Und Ich bin mir auch sicher das eine Karte mit 20GB oder mehr kommt. Daher setze Ich dann darauf. ich bin aus dem Alter raus jedes Jahr in eine neue GraKa zu stecken. Daher muss der RAM auch min 16GB betragen.Ansonsten ein beeindruckendes Stück Technik was Nvidia da abliefert. Mehr als Wahnsinn.

MfG
 
  • Gefällt mir
Reaktionen: Aduasen
Hallo.

Kann man eigentlich schon die Lüfter via MSI Afterburner (4.6.3 Beta 1) regulieren?

Danke
 
Nero2019 schrieb:
Jemand ne Idee wieso highend karten deutlich mehr verbrauchen als low/budget GPU (gtx1650, 1050) beim Videos gucken?
Man kann nicht immer alle nicht benötigten Teile in einem Chip abschalten, wenn man sie nicht benötigt. Das heißt je größer ein Chip wird, desto mehr nicht benötige Recheneinheiten müssen mit Strom versorgt werden, obwohl sie im Moment nicht benötigt werden.
 
tomasvittek schrieb:
als kunde inter. mich doch nicht die bohne was da für ein chip drin.

stimmt die leistung für den preis ist und sollte das einzige sein was dich inter.

oh... die neue grafikkarte leistet sehr viel mehr und ist günstiger. WOW. leider kaufe ich sie nicht weil chip xyz drin ist statt xyy. also der „logik“ kann ich nicht folgen...

wenn sich nvidia entscheidet dir jetzt den stärkeren chip für weniger geld zu verkaufen dann ist das ein grund zum feiern und nicht zum mosern ;-) ach deutschland... 😂

Der 102er Chip ist sogar eher ein Grund die 3080 zu kaufen.

Du hast den Sinn nicht verstanden. Nvidia bläst die Performance der 80er Karte mit dem größeren Chip im Vergleich zur Vorgängergeneration auf, damit es so aussieht, als ob sie 60-100% in der selben Performanceklasse zugelegt hätten. Haben sie aber nicht. Es sind 30-40%, wenn man chipklasse gegen chipklasse vergleicht und nicht Marketing vs Marketing.

Den Joker kann man ein Mal ziehen, damit das Produkt besser aussieht, als es ist. Den Puffer hat sich nvidia mit Maxwell zurecht gelegt, weil hier die 80er nur noch mit dem 04er Chip bestückt wurde, weil die Performance ausreichend war.

Jetzt gerät nvidia performancetechnisch unter Druck und nimmt wieder den 02er Chip für die 80er Karten her anstatt dem 04er.

Das muss nicht jeden interessieren, aber wer sich ernsthaft über die Grafikkarten unterhalten will, muss das entsprechend zur Kenntnis nehmen.
 
  • Gefällt mir
Reaktionen: catch 22, janer77, 0-8-15 User und eine weitere Person
Zurück
Oben