https://winfuture.de/news,118245.htmlmonitorhero schrieb:Quelle?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
- Ersteller Wolfgang
- Erstellt am
- Zum Test: GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen
Hier kämpft ein 250mm² Chip gegen 775mm² (2080TI) und 630mm² (3080) und 470mm² (1080TI)sialickiz schrieb:FÜr "richtige" Next-Gen Ports und konstante 60FPS wird mindestens eine RTX2080S von nöten sein.
So sicher wie das Amen in der Kirche !
Die ganzen AMD karten ala VII und 5700 und co. haben keine Zukunft mehr, viel zu langsam !
AMD muss praktisch mir RDNA2 abliefern und zwar richtig !
Anhang anzeigen 967332
monitorhero
Lt. Junior Grade
- Registriert
- Apr. 2017
- Beiträge
- 295
Zock schrieb:
Und das Update:
Update vom 15. September: Mittlerweile hat sich Sony gegenüber Gamesindustry zum Bloomberg-Bericht geäußert und dementiert jegliche Senkung der Stückzahlen. "Obwohl wir keine Einzelheiten zur Herstellung veröffentlichen, sind die von Bloomberg gelieferten Informationen falsch. Wir haben die Stückzahl-Prognose der PlayStation 5 seit dem Start der Massenproduktion nicht geändert."
Schranz0815
Ensign
- Registriert
- Dez. 2017
- Beiträge
- 231
Warum vergleichen hier so viele die neue 3080 mit AMD? AMD hat doch noch gar keine neue Produkte auf den Markte, welche zum Vergleich taugen! Muss man echt nicht verstehen und zeugt auch nicht von Sachverstand. Gerade wenn man berücksichtigt welchen Rückstand AMD über Jahre hatte und letzte Karte nur die Mittelklasse bedienen sollte.
Um wirklich Vergleiche anzustellen, muss man erst warten was AMD am 28.10. vorstellt. Alles andere ist Kaffeesatzleserei. Ich wäre zwar überrascht, wenn AMD in Teilen schneller und effizienter zugleich wäre, aber angesichts der Tatsache das Nvidia die Karten über dem Sweetpoint (tdp ca. 285 Watt) betreibt, lässt zumindest ein wenig Hoffnung auf echte Konkurenz aufflimmern.
In Sachen Leistung hat die Karte zumindest mal gut vorgelegt, aber war angesichts der schwachen 20er Reihe auch notwendig um Raytracing endlich marktreif zu machen.
Um wirklich Vergleiche anzustellen, muss man erst warten was AMD am 28.10. vorstellt. Alles andere ist Kaffeesatzleserei. Ich wäre zwar überrascht, wenn AMD in Teilen schneller und effizienter zugleich wäre, aber angesichts der Tatsache das Nvidia die Karten über dem Sweetpoint (tdp ca. 285 Watt) betreibt, lässt zumindest ein wenig Hoffnung auf echte Konkurenz aufflimmern.
In Sachen Leistung hat die Karte zumindest mal gut vorgelegt, aber war angesichts der schwachen 20er Reihe auch notwendig um Raytracing endlich marktreif zu machen.
demoness
Lt. Commander
- Registriert
- Dez. 2007
- Beiträge
- 1.639
Die Aussage, dass die 3080er in erster Linie eine ultra HD Karte sei kann ich nur bedingt nachvollziehen.
Zumindest bei den Spielen in eurem Test Parkour sieht man doch, dass selbst mit diesem Leistungsplus weder durchschnittliche +150fps (geschweige denn bei 0,2%) die Regel sind. Insofern seh ich die 3080 als dringend benötigtes Upgrade um den passenden QHD 144Hz Monitor mit genügend Leistung zu befeuern.
Für 4K 60Hz Monitore passt die natürlich auch super, aber ganz ehrlich wer kauft sich so ein Setup um dann in 60Hz herum zu krüppeln.
Für 4K 144Hz brauchts dann halt wieder ne 3090.
Insofern seh ich den 4K usecase nicht
Zumindest bei den Spielen in eurem Test Parkour sieht man doch, dass selbst mit diesem Leistungsplus weder durchschnittliche +150fps (geschweige denn bei 0,2%) die Regel sind. Insofern seh ich die 3080 als dringend benötigtes Upgrade um den passenden QHD 144Hz Monitor mit genügend Leistung zu befeuern.
Für 4K 60Hz Monitore passt die natürlich auch super, aber ganz ehrlich wer kauft sich so ein Setup um dann in 60Hz herum zu krüppeln.
Für 4K 144Hz brauchts dann halt wieder ne 3090.
Insofern seh ich den 4K usecase nicht
0-8-15 User
Vice Admiral
- Registriert
- Jan. 2008
- Beiträge
- 7.155
Nur wenn er sie erst vor Kurzem neu gekauft hat und noch hätte warten können.MarcoMichel schrieb:Heute wird sich doch jeder 2080 Ti - Besitzer schwarz ärgern.
LikeMikeSter
Lieutenant
- Registriert
- Juni 2008
- Beiträge
- 519
FX-Multimedia schrieb:Ich finde die Ergebnisse ehrlich gesagt enttäuschend dafür dass im Vorfeld von 50 % und mehr Vorsprung zur 2080ti die rede war
Wo war zu lesen, dass die 3080 50% mehr Leistung als eine 2080ti haben sollte?
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.890
m2020 schrieb:Ja ein Monster in Sachen Verbrauch.
Und? Juckt mich nicht. Ich kann es mir leisten ein Hobby zu betreiben.
Es ist mit Sicherheit eine gute Karte wenn man Power haben möchte. Aber dass nVidia im Vergleich zur 2080Ti nur 10% Performance/Watt rausgeholt hat zeigt dass es mit der Brechstange gelaufen ist.
Es bleibt abzuwarten ob AMD zumindest in dem Punkt das rundere Produkt abliefert.
Es bleibt abzuwarten ob AMD zumindest in dem Punkt das rundere Produkt abliefert.
- Registriert
- Dez. 2016
- Beiträge
- 231
Matthias80 schrieb:das ist ein Irrglaube.
In zwei Jahren ist wieder was neues da. Dann hast du zwar 20GB aber nicht die Leistung dazu.
Egal ob die neue Generation nen bissel mehr oder weniger VRAM hat.
Die Leistung ist immer noch das Entscheidende.
Wie jetzt.
Die 3080 mit "nur" 10GB ist schneller als eine 2080TI.
Was kannst du dir davon kaufen das du zwar 1GB mehr hast, aber IMMER weniger FPS?
GAR NIX!
Diese Logik... Spock würde solche Denke nur mit einem Wort abtun. -> faszinierend
MfG
Du lehnst Dich aber weit aus dem Fenster und pachtest dann auch nur das Wort "Logik" fuer Dich? B&#$h plz...

Fuer mehr Vram sprechen alleine die kommenden Konsolen und die dazugehoerigen Games. Hoehere Texturstufen sind quasi Eyecandy, welcher for free ist.
Nach deiner "Logik" (ist eigentlich das falsche Wort) sind dann wohl 1080tis jetzt unbenutzbar. Und meine olle R9 390 erst. Die hat nicht einmal Leistung, spendiert mir aber noch Ansehnliches in mittelpraecthige zweistellige FPS mit hohen Einstellung in TIteln ala Doom Eternal...
Das Problem bei VRAM ist, wenn es daran mangelt, dann kriegt man den fetten Einbruch. Ergo erhoeht das die Langlebigkeit. Auch frage ich mich, wie Du so eine Aussage raushauen kannst, ohne auch nur ansatzweise mein Anwedungsprofil zu kennen. Vll zocke ich Skyrim mit droelf 16k texture mods?
BTW: Meinen witzig geminte Anspielung mit den zusaetlichen 1GB und "doppelt" hast Du wohl leider auch nicht verstanden. Aber Logik ist dein Ding? hmkay
Bitte haue nicht so komische oberflaechliche Antworten an mich raus, denn sowas wirkt ziemlich schnell ziemlich dreist. Und ich mag derlei Dreistigkeiten nicht. Vll versteht Du dann auch meine Wortwahl.
Kryss
Commander
- Registriert
- Sep. 2018
- Beiträge
- 2.601
Leute, beruhigt euch und freut euch lieber, dass es neue Hardware gibt und die Entwicklung geht voran. Siehe dlss usw. Dass die Karten viel Strom ziehen, lässt sich sicher per undervolting einbremsen. Ist ja mittlerweile leider die Regel, dass CPUs wie gpus nicht mehr groß optimiert zum Kunden gehen leider...
Ich persönlich mit meiner ur turing kucke mir die Implementierungen vor allem bei dlss erst mal in ruhe an. Wenn ich da mit raytracing irgendwie auf 60 fps komme passt das für mich. Wenn nicht überlege ich mir ne neue Karte. Btw braucht meine 2080 oc und undervolted 170 Watt. Da lässt sich also enorm was einsparen.
Vg Chris
Ich persönlich mit meiner ur turing kucke mir die Implementierungen vor allem bei dlss erst mal in ruhe an. Wenn ich da mit raytracing irgendwie auf 60 fps komme passt das für mich. Wenn nicht überlege ich mir ne neue Karte. Btw braucht meine 2080 oc und undervolted 170 Watt. Da lässt sich also enorm was einsparen.
Vg Chris
Vendetta
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.133
warum liegt dann die 2080 Super mit ihren 8GB durchweg bei 125% der 5700XT während die 1080Ti mit ihren 11GB durchweg bei rund 105% einer 5700XT liegt? Wenn hier überhaupt etwas bewiesen wird, dann dass die Geschwindigkeit des VRAM die Performance beeinflussen kann.Wadenbeisser schrieb:Vielleicht einfach mal die Brille absetzen um klara zu sehen?
Anhang anzeigen 967326
Praktisch alle 8 GB Modelle brechen @UHD gleich stark ein und lediglich die Modelle mit mehr Speicher können sich absetzen.
Ich sehe da weder in 4K noch in anderen Auflösungen irgendwas auffälliges, außer dass du die 5700XT als baseline genommen hast. Von einem Einbrechen wegen dem VRAM kann hier nicht die Rede sein, höchstens vielleicht zur 3080 weil die nochmal deutlich schnelleren hat, mit der Speichergröße hat das nichts zu tun.
Lass sie doch, die 10GB sind halt der einzige (zu 99% Bedeutungslose) Punkt an dem sich
manche noch festhalten können, dementsprechend wir der dann alle 5 Sekunden rausposaunt.
Zwischendurch dann noch tolle Screenshots die vollen VRAM anzeigen von völlig fehl optimierten bzw. hochgemodetten Spielen um ihren Standpunkt noch zu unterstreichen.
Seit froh das AMD wohl was gutes in der Hinterhand hat, freiwillig wäre Nvidia nicht so "günstig"
(für ihre Verhältnisse) mit den 30XX rausgekommen.
Hab die 20XX Generation übersprungen und mir ein paar € auf die Seite gelegt,
mal abwarten was die Tests dann zur 3090 sagen.
manche noch festhalten können, dementsprechend wir der dann alle 5 Sekunden rausposaunt.
Zwischendurch dann noch tolle Screenshots die vollen VRAM anzeigen von völlig fehl optimierten bzw. hochgemodetten Spielen um ihren Standpunkt noch zu unterstreichen.
Seit froh das AMD wohl was gutes in der Hinterhand hat, freiwillig wäre Nvidia nicht so "günstig"
(für ihre Verhältnisse) mit den 30XX rausgekommen.
Hab die 20XX Generation übersprungen und mir ein paar € auf die Seite gelegt,
mal abwarten was die Tests dann zur 3090 sagen.
Ja genau,xexex schrieb:Ich bin bestimmt 90% der Zeit im Idle, schlichtweg weil ich während dieser Zeit irgendwas im Web nachlese, Office nutze oder in der Firma auf dem Terminal Server arbeite. Einzig wenn ich etwas spiele wird das System gefordert.

Wenns so ist, wie Du sagst, wird die Karte ohnehin kein Thema sein, denn warum brauchst Du dann so eine Karte?
und 2. Wenns so ist, hast Du ein ähnliches Problem mit einem 500W Netzteil. Denn es ist fast wurscht, ob ein Netzteil nun 5% Last hat oder 7,5%. Du willst doch jetzt nicht ernsthaft wegen vielleicht 5W höheren Effizienzverlust Leuten zu einem knappen NT raten, was dazu führen kann, dass sie ihre Hardware nicht nutzen können? Oder mit gar noch schlimmeren Folgen.
Dein Streit ist ein theoretischer. Aber mach was Du willst. Ich bin raus.
Matthias80
Captain
- Registriert
- Sep. 2004
- Beiträge
- 3.902
Ja die Erkenntnis muss erst noch reifen.Adzz schrieb:Wovon redest du? Die 3080 ist 110% schneller als die 5700XT. Die Leute dürfen auch nicht vergessen dass die 3080 in FullHD und Wqhd auch ins CPU limit läuft.
3080 aufwärts ist keine FullHD Grafikkarte.
Da wird es so schnell keine CPU geben die da nicht das Limit da stellt.
Auch kein 10900K irgendwas!
2K Bildschirm ist Minimum!
Jeder der FullHD hat und Aufrüsten will. Sollte gleich 4K machen.
Wenn die Leistung mal nicht reicht, halt die Quali nen bissel runter... oder DLSS.
Aber 2k ist eigentlich auch nicht wirklich sinnvoll.
Da "freu" ich mich schon auf die Fragen... "Warum läuft meine 3080 nur mit 50% Auslastung?"

MfG
FX-Multimedia schrieb:Ich finde die Ergebnisse ehrlich gesagt enttäuschend dafür dass im Vorfeld von 50 % und mehr Vorsprung zur 2080ti die rede war
Wenn dann war von "bis zu" die Rede und die 50% werden auch in gewissen Scenarios erreicht mit RT / DLSS
aldaric
Admiral
- Registriert
- Juli 2010
- Beiträge
- 8.233
Esenel schrieb:
Nö, eure Diskussion nervt nur schon seit letzter Woche. Und wird daher wohl eher von vielen einfach ignoriert. Wie man in anderen Tests sieht, limitiert ja auch der 10900k die GPU ordentlich.