Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

5hred schrieb:
Lösung wäre: Esenel testet eine 3080 FE auf seinem System und postet einen Test mit gleichen Spiele-Settings wie im CB-Test um mal einen passenden Vergleich anzustellen.

Einfach zuschicken ;-)
Die Adresse haben sie ja :-D

Die 3090 wird auch alsbald besorgt wenn sich das passende Modell gefunden hat.
 
  • Gefällt mir
Reaktionen: oemmes
Matthias80 schrieb:
Nein.
Dachte wir sind bei 4K.
da kam ich mit deinen 7-9% nicht nach...

Also hast DU auch gesehen. Wir reden hier von 2%.

Thema durch.

MfG
Wir sind schon die ganze Zeit bei Auflösungen unter 4K, eben weil man 4K Ergebnisse nicht 1:1 auf niedrigere Auflösungen übertragen kann.

Und wie bereits gesagt, auch wenn man nur 4K betrachtet, wo es 2% sind, 2% sind eben 2% näher an dem tatsächlichen Leistungswert des Produktes welches man hier testen will.

Matthias80 schrieb:
Da kommen nur die ich habe den längsten Balken Typen durch.

Das Brett vorm Kopf muss dich doch stören?!?!?!?!
Dazu passend, warum gehst du davon aus, dass ich irgendein Interesse daran habe, selbst irgendwo "den längsten" zu haben?
Es geht mir rein um ordentliche Tests, die Zahlen liefern, die so genau wie möglich sind.
Wie man das erreicht, hat @.Sentinel. hier bereits beschrieben.
 
  • Gefällt mir
Reaktionen: gesperrter_User, KlaraElfer und .Sentinel.
Rumguffeln schrieb:
und bis das alles soweit ist in 5-8 jahren ist 4k schon fast wieder veraltet (bzw mainstream) und 8k steht in den startlöchern ...und es wird erste tests zu 16k geben :D
Abwarten...
Ich denke 4K wird sich laaaaange halten und der neue Standard beim Gaming.
8K stockt ja jetzt schon...
Sehen wird man sowieso nix.
Die Auflösung ging ja hoch um auch größere Zoll klassen anbieten zu können.
Bei über 70 Zoll hört es auch solangsam auf... da muss man ja das Haus um den TV drum rum bauen...

MfG
 
>|Sh4d0w|< schrieb:
4K ist schon nen riesiger Unterschied, was die Qualität angeht. Da brauch ich dann aber auch keine Ultra-Super-Duper-Nightmare Max settings, sondern da reichen dann auch Mittel bis Hoch.
Die hohen fps Raten erreichst du dann auch damit locker, wobei sich das meiner Meinung nach nur in schnellen Shootern bemerkbar macht. Witcher und Co zock ich eh mit der Controllöse, da reichen dann auch locker 30-40fps..

Meine Meinung :D

Ja 4K ist ist ansich was feines.
Kenne ich ja von meinem TV wenn ich UHD Blu Rays schaue ^^
Aber ernsthaft, was bringt es einem, wenn man dann für ordentliche FPS doch wieder die Grafik runterschrauben muss. Ja man kann mit rund 50-60 FPS flüssig spielen, aber da können schon einige Mikroruckler ins Auge fallen.
Manche Grafiksettings machen die Grafik schon etwas schöner und die fehlen dann bei 4K wenn sie zu viel Leistung fressen. Finde das irgendwie nicht sinnvoll, wenn man sich das eine erkauft, in dem man das andere wieder runterschrauben muss. Damit verlagert man doch alles nur. Gut es sei denn es reichen einem halt die niedrigeren FPS. Bei ruhigen Spielen finde ich das auch nicht schlimm. Aber bei schnelleren schon. Zudem muss man auch sagen, dass auch ältere Spiele, vor allem Adventures gar kein 4K Supporten. Da müsste man die Auflösung dann massiv reduzieren und 1080P auf nem 4K Monitor sieht schlechter aus, als auf einem nativen.
Aber anderes Thema. Für mich persönlich ist 4K irgendwie eine Technik, die am TV super einsetzbar ist, aber am PC einfach zu viel Leistung frisst und mir persönlich dafür zu viel kostet. WQHD soll ja auch schon deutlich besser aussehen, als Full HD. Das wäre wohl dann eher mein nächster Schritt :D
Da habe ich dann einen Kompromiss, der mich eher zufrieden stellen wird.
 
Krautmaster schrieb:
Aber für die Unterschiede zur Vorgänger bräuchte so ein Test kleinere Auflösungen auch gar nicht.
Die schau ich mir nicht mal an, FullHD hätte man getrost raus lassen können, zumindest in dem Leistungsbereich. Auch wenn ich keinen UHD Monitor habe sind die Unterschiede dort nahezu unlimitiert und besitzen daher mehr Aussagekraft zur Leistung.
Wenn ich wissen möchte wie viele FPS ich in einem bestimmten Titel zu erwarten habe schaue ich diesen natürlich in meiner Auflösung an.
Ist zumindest eine gute Taktik um seitenlange Diskussionen zu vermeiden, welche irgendwann nur noch schrecklich nerven, dass sich diese nicht 1:1 übertragen lassen ist auch für den Popo, macht der nächste Patch bestimmt ebenso:daumen:
 
BlackhandTV schrieb:
Mit 3950x zB ist das Gameplay meist "smoother" da jedes Game über Windows läuft und Windows nutzt eben mehr als 10 Kerne.

Windows kann zwar sehr viele Kerne benutzen, heißt aber nicht dass dann auch das Spiel so viele nutzen kann.

Das mit dem "AMD is smoother" ist auch so ein altes Gerücht, das auch nicht (mehr) stimmt:

 
  • Gefällt mir
Reaktionen: Ctrl, KlaraElfer, .Sentinel. und eine weitere Person
gr1nd schrieb:
Ne ich meinte schon aktuelle Werte, sonst wären es ja etwas mehr als ein "paar" Prozent. Aber hier wird ja teils spekuliert, dass Big Navi die 3080 schlagen wird und genau das zweifel ich an. Dass Big Navi die 3070 schlagen kann, sollte klar sein (hoffe ich doch mal). Wobei da tatsächlich die Frage ist, zu welchem TDP Preis.

Jau da gehe ich mit. Wobei wenn wir die hier zitierten Werte zu den Auflösungen anschauen sollten wir uns auch bewusst sein, dass die meisten User nicht Zielgruppe der 3080 oder 3090 sind.
Das macht das Thema so witzig aktuell^^
 
  • Gefällt mir
Reaktionen: gr1nd
Taxxor schrieb:
Wir sind schon die ganze Zeit bei Auflösungen unter 4K, eben weil man 4K Ergebnisse nicht 1:1 auf niedrigere Auflösungen übertragen kann.

Und wie bereits gesagt, auch wenn man nur 4K betrachtet, wo es 2% sind, 2% sind eben 2% näher an dem tatsächlichen Leistungswert des Produktes welches man hier testen will.


Dazu passend, warum gehst du davon aus, dass ich irgendein Interesse daran habe, selber irgendwo "den längsten" zu haben?
Es geht mir rein um ordentliche Tests, die Zahlen liefern, die so genau wie möglich sind.
Wie man das erreicht, hat @.Sentinel. hier bereits beschrieben.
Das "längsten" war nicht auf dich persönlich gemünzt.
Also ich ned. 4K. der Rest ist Kindergarten. Will 4K. 2K wäre ein Kompromiss.
2% gehen ja vielerorts als Messungenauigkeit durch...

Du klammerst dich an Strohhalme. Das hat wirklich keinen Sinn so.

MfG
 
gr1nd schrieb:
Dann schau dir mal den Sprung von PS3 auf PS4 an und was da an VRAM in PC Grafikkarten verbaut war. Das ist eine andere Nummer im Vergleich zu dem was die Nextgen Konsolen haben und die Grafikkarten heute.
Ich frag mich was dieser Nextgen Hype ständig soll: Die PS4 ist auch als Pro Variante nicht in der Lage, 4k ordentlich zu verarbeiten. Jeder einigermaßen ausgestattete Gaming PC mit 2080ti kann das besser. Die Nextgen Konsolen werden diesen Mangel erstmal kompensieren und das war es dann auch. Und von Coding fails wie HZD wollen wir mal absehen. Die 10GB VRAM werden lange ausreichend sein.
Ich sage nicht dass das von Konsolen 1:1 übernommen wird. Das war noch nie der Fall. PCs sind nunmal schneller als Konsolen, Ports bieten höhere Auflösungen bei den Texturen, denn sonst kann man sich eh gleich ne Konsole kaufen.
Der VRAM Verbrauch des PCs ist mit jeder neuen Konsolengeneration massiv angestiegen, eben weil der Markt so sehr von Konsolenports dominiert wird. Echte und komplexe PC Spiele verbrauchen dann aber noch mehr!
Die 10 GB sind jetzt schon überholt und wohl nur benutzt worden weil es noch keine 16 Gbit Chips als GDDR6X gibt. Und das weiß Nvidia auch, sonst würden sie keine 16 und 20 GB Versionen planen.
 
Zuletzt bearbeitet:
Matthias80 schrieb:
Boah ist das übel... das ja quasi Trump Stile wenn der beim lügen erwischt wird kommt auch sowas...
Hab ja niemanden auf meiner ignore Liste. Aber so langsam wird es Zeit.

Das ist übelster Bauernfang und einfach nur Du******.

Wie soll dich jetzt noch wer ernst nehmen?

Das es immer Beispiele für irgendein Szenario geben wird... sollte klar sein.
Abe sich die Welt so zu recht biegen...

Echt krass.

keine MfG
Mach Dich nicht verrückt - ZEN3 tanzt mit Intel den Blooddance. Und ja ich weiß was kommt ...
 
  • Gefällt mir
Reaktionen: McTheRipper
Taxxor schrieb:
Hast du nach den ganzen Seiten noch nicht verstanden, dass es hier um ein ordentliches GPU Testsystem und nicht um meinen Privat-PC geht?

Ich weiß, dass ich mit Intel mehr FPS haben könnte(gesetz dem Fall dass ich mir eine der neuen GPUs hole), ich selbst limitiere die FPS aber meist sowieso, sodass das für mich nicht so tragisch ist.
Trotzdem möchte ich in einem GPU Test aber die Zahlen der GPU sehen.

Also dein Problem ist jetzt,dass CB mit einem AMD Threadripper System getestet hat und nicht mit einem Intel System um die maximal möglichen FPS zu zeigen?
 
matty2580 schrieb:
Nein, die 3090 ist ja eher der Nachfolger der 2080ti, und die wird ja noch einmal schneller sein, so dass am Ende auch 40% Mehrperformance herauskommen können. Das wird der Test hierzu bald zeigen.

Die 3080 muss man eigentlich mit der alten 2080 vergleichen.
Falsch. die 3080 ist eher die Nachfolgerin der 2080ti. Das sieht man vor allem da dran, das die 3080 nun auf GA102 basiert und nicht wie die 2080 auf TU104. GA102 respektive TU204 ist der größte Consumer Chip, der im Vollausbau dann entweder die TITAN RTX ist (TU102) und bald dann die 3090(GA102).

Weiterhin wurde das Powertarget massiv erhöht.
 
  • Gefällt mir
Reaktionen: DF86 und Pisaro
Tonks schrieb:
Windows kann zwar sehr viele Kerne benutzen, heißt aber nicht dass dann auch das Spiel so viele nutzen kann.

Das mit dem "AMD is smoother" ist auch so ein altes Gerücht, das auch nicht (mehr) stimmt:
ich kenn das Video, aber ich glaube nur was ich selbst sehen und proofen kann, es bleibt unbewiesen
 
An alle Battlefield-Fans: NAVI2 könnte mit der Frostbite-Engine genauso gut harmonieren wie es NAVI1 bereits tut.
Das wäre ein Argument, mal auf benchmarks der NAVI2 zu warten bevor man einen Ampere-Schnellschuss macht.
Für einen überlegten Kauf müsste man aber leider wissen wie viel VRAM das nächste Battlefield fressen wird.

Als Hinweis hier mal einen Kommentar:
But since the 3080 is only 27% faster than my VII in BFV, I'm gonna wait for the Big Navi benchmarks and see if it still performs much better then the Nvidia counterparts. For some reason, frostbite loves AMD cards.

Und hier der passende Benchmark.
 
Matthias80 schrieb:
Das "längsten" war nicht auf dich persönlich gemünzt.
Also ich ned. 4K. der Rest ist Kindergarten. Will 4K. 2K wäre ein Kompromiss.
2% gehen ja vielerorts als Messungenauigkeit durch...

Du klammerst dich an Strohhalme. Das hat wirklich keinen Sinn so.

MfG
Du weißt doch selber das in 4K sonst immer die GPU limitiert hat und darum der Abstand geringer ist. Jetzt mit der 3080 wäre der Abstand nochmals Größer. gebe es eine GPU mit unendlich viel Leistung wäre es der gleiche Abstand wie in Full HD.

5hred schrieb:
An alle Battlefield-Fans: NAVI2 könnte mit der Frostbite-Engine genauso gut harmonieren wie es NAVI1 bereits tut.
Das wäre ein Argument, mal auf benchmarks der NAVI2 zu warten bevor man einen Ampere-Schnellschuss macht.
Für einen überlegten Kauf müsste man aber leider wissen wie viel VRAM das nächste Battlefield fressen wird.

Als Hinweis hier mal einen Kommentar:


Und hier der passende Benchmark.

Ist doch 46% schneller als die Radeon 7. In Full HD rennt sie wohl ins CPU Limit und darum sieht es geringer aus.
 
Zuletzt bearbeitet von einem Moderator:
Windell schrieb:
Also dein Problem ist jetzt,dass CB mit einem AMD Threadripper System getestet hat und nicht mit einem Intel System um die maximal möglichen FPS zu zeigen?
Es ist kein Threadripper, aber ja, erfasst^^

Wenn ich eine GPU teste, dann möchte ich schließlich die Leistung der GPU sehen und nicht das Limit der CPU.

Und wenn die schnellere CPU ebenfalls noch limitiert und man das CPU Limit nicht ausschließen kann, so weiß ich mit einer 10% schnelleren CPU zumindest schonmal, dass die GPU auch diese 10% mehr FPS liefern kann.
 
  • Gefällt mir
Reaktionen: .Sentinel.
7700K vs 10900k mit 3080 hintendran

Auch spannend welche Games kein Thema mit CPU Last haben.
 
  • Gefällt mir
Reaktionen: poly123
Darkscream schrieb:
Die schau ich mir nicht mal an, FullHD hätte man getrost raus lassen können, zumindest in dem Leistungsbereich.
Nur darf man vor technischen Entwicklungen eben auch die Augen nicht verschließen.
Durch AI Upsampling verfahren werden GERADE die Leistungswerte in den Auflösungen 1080P und 1440P wieder vermehrt interessant. Für das hochgerechnete 4K und künftig auch 8k Bild.

Der technische Fokus beim Rendering und das, wie man die Bildinformationen bis zum "Rastern" gewinnt, wird sich in nicht allzu ferner Zukunft gewaltig verschieben....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra und Incident
5hred schrieb:
Ich kann nachvollziehen, das du es so gerne hättest, aber das wäre weniger repräsentativ als der Test bei CB. Schätze mal bitte, wieviele hier im Forum so einen Mords-PC auf Kante geprügelt laufen haben.
CB-Setup ist da viel realistischer und leichter zu bauen (also kein krasser Custom-Loop am Start kombiniert mit RAM-Timings, die man nur nach mühseliger und stundenlanger "Arbeit" stabil hinbekommt).
Sollte der nicht so ein System besitzen, dann kannste meinen Kommentar berechtigt kritisieren.
Wenn meine Erinnerung mich nicht täuscht, dann hat er ein krasses Intel-System am Start.

Lösung wäre: Esenel testet eine 3080 FE auf seinem System und postet einen Test mit gleichen Spiele-Settings wie im CB-Test um mal einen passenden Vergleich anzustellen.

Also mir persönlich ist es komplett egal wie repräsentativ ein System ist. Ich will für so einen GPU-Test das schnellst mögliche Rig sehen, damit wir eine grüne Spielwiese haben und nicht in 30% der Tests im CPU Limit liegen, wo die 2080Ti an die 3080 nah ran rückt, egal ob das System näher an der Praxis ist.

Ich will wissen was die 3080 im Optimalfall leisten kann und nicht was sie in einem Brot und Butter System leistet.

Mich interessiert was der 911 GT3RS auf der Nordschleife schafft mit den besten Reifen und nicht was er in einer 120er Zone mit normalen Sommerreifen macht.
 
  • Gefällt mir
Reaktionen: poly123 und .Sentinel.
Zurück
Oben