Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Grafikkarten 2021 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark
Bin voll und ganz bei dir! Das hat i.d.R. auch den größeren WoW-Effekt, siehe damals Half-Life 2.danyundsahne schrieb:ABER es geht noch besser....und zwar Physik!
RT ist aus technischer Sicht eine beeindruckende Sache, aber es gehört auch die richtige Umsetzung dazu. Bei BFV z.B. war es einfach nur völlig übertriebenes Gespiegel, völlig unrealistisch. Die Umsetzung bei CP ist da schon eher an der Realität, wenngleich auch hier die Spiegelungen stellenweise etwas übertrieben scheinen (nach Screenshots geurteilt, habe das Spiel selbst noch nicht gespielt). Aber es geht def. in die richtige Richtung.
Auch löst RT allerdings nicht das Problem, dass die Lichtstreuung von Oberflächen oft unrealistisch dargestellt wird. Mir fällt das immer bei Spielen auf, wenn es besonders dunkel sein soll. Da brennen dann Kerzen und beleuchten z.B. den Tisch, auf dem sie stehen, der Rest des Raumes ist aber absolut stockfinster. Jetzt macht mal abends Licht bei euch zu Hause aus und zündet eine Kerze an. Dann werdet ihr sehen, dass das Streulicht erhebliche Teile des Raumes erhellt. DAS müsste eine Spielengine mal hinbekommen, das habe ich so auch in RT-Titeln noch nicht gesehen.
trommelmaschine
Lt. Junior Grade
- Registriert
- Feb. 2012
- Beiträge
- 360
Kenjiii schrieb:@basic123
Yep, in UHD sind es im Durchschnitt knapp +5% für Nvidia
Ja, in UHD liegt Nvidia vorne. Bei 3080 und 6800 XT sind es dann allerdings nur noch 2%.
Wenn man jetzt mal die UVP von 6900 XT & 3090 miteinbeziehen würde, hat AMD da doch selbst in UHD noch ganz solide abgeliefert, aber bei den aktuellen Preisen macht das natürlich wenig Sinn.
In QHD und FHD liegt AMD dann vorne, aber natürlich wird kaum einer eine 3900 / 6900 XT kaufen, um dann in FHD zu spielen, außer es geht nur um maximale FPS.
Quake 2 rtx. Mal die Uhrzeit im Spiel auf nachts stellen und in dunklen Innenhöfen ein bisschen mit licht spielen.Maine schrieb:DAS müsste eine Spielengine mal hinbekommen, das habe ich so auch in RT-Titeln noch nicht gesehen.
Oder bei Minecraft rtx in einem dunklen raum etwas Sonnenlicht rein lassen.
Metro Exodus bietet das glaube ich , da weiss ich es aber nicht genau
fox40phil
Rear Admiral
- Registriert
- Okt. 2008
- Beiträge
- 5.987
Bin ich der Einzige, der mit der Spieleauswahl nichts anfangen kann?
F1, SS4, Mafia?!?
Diese vier markierten Games hätte ich sehr gerne weiterhin im Parkour gesehen. Sie sind nach wie vor extrem hardwarefressend! Man hatte doch auch gesehen, dass sie easy die stärkste Kombi in die Knie zwingen können.
Selbst GTA V hätte es immer noch verdient mit dabei zu seine.
F1, SS4, Mafia?!?
Diese vier markierten Games hätte ich sehr gerne weiterhin im Parkour gesehen. Sie sind nach wie vor extrem hardwarefressend! Man hatte doch auch gesehen, dass sie easy die stärkste Kombi in die Knie zwingen können.
Selbst GTA V hätte es immer noch verdient mit dabei zu seine.
Cameron
Lieutenant
- Registriert
- März 2004
- Beiträge
- 963
Ja, das tut Lightroom sehr wohl:Dig.Minimalist schrieb:Da muss ich nachfragen:
Die 3090 beschleunigt LR signifikant und nutzt den VRAM voll aus?
Ich hatte nicht erwartet dass eine 3090 dort wirklich mehr bringt als eine 2070...
Und das ist auch gut so! So flott durch meine 42-Megapixel-RAW-Dateien blättern und zoomen konnte ich mit den vorherigen Karten nie (GTX 980, GTX 1050). Ein spürbarer Unterschied, wenn man regelmäßig damit zu tun hat (Nebenberuf).
Zotac2012
Admiral
- Registriert
- Apr. 2012
- Beiträge
- 7.771
Selten so ein Gewäsch und Quatsch gelesen, Sorry! Warum sollte man sich eine Grafikkarte ala RTX 3080 oder RTX 3090 kaufen und dann einen Rechtfertigungdruck verspüren und sich Bestätigung bei anderen Usern für seinen Grafikkauf einholen, das man sich quasi für die richtige Grafikkarte entschieden hat..Sentinel. schrieb:Das ist weil viele indirekt einen gewisse Rechtfertigungsdruck verspüren und eben die Bestätigung anderer User suchen, dass genau die eigene Entscheidung für das Produkt XY die richtige war.
Ich habe mir ganz bewusst die RTX 3080 und nicht die RTX 3070 gekauft, weil bei mir UHD Gaming klar im Vordergrund stand. Es gab doch genügend User die von einem Kauf abgeraten haben, gerade bei der RTX 3080 mit ihren 10GB Speicher. Hat mich nicht im geringsten tangiert, mir ist es auch Schnuppe was andere denken oder wissen zu glauben, ich muss von dem Produkt überzeugt sein, sonst wird es nicht gekauft.
.Sentinel. schrieb:Im Internet zählt eher, was andere von einem Denken, als dass man selbst mit dem zufrieden ist, was man hat.
Vielleicht ist es bei Dir so, weil Du entsprechende Erfahrungen gemacht hast und Du nur Produkte kaufst, die Andere als toll und super bezeichnen. Wenn ich so Deinen Post lese, vermittelt sich mir immer mehr der Eindruck, hier schreibt jemand ohne jegliches Selbstbewusstsein, der seine Daseinsberechtigung über Dritte definiert haben muss, um bestätigt zu bekommen, das er überhaupt existiert beziehungsweise existieren darf!
.Sentinel. schrieb:Jeder will, dass seine Hardwarewahl die richtige und langfristig bessere ist.
Wenn man nicht gerade zur 3090 greift, die derzeit in allen belangen das komfortable Paket darstellt, dann muss man sich mit Kompromissen rumschlagen. Sei es der Preis, Verfügbarkeit, VRAM, Features des einen oder anderen Herstellers...
Das ist Deine rein subjektive Meinung, für mich ist die RTX 3090 alles andere als das derzeit beste Paket in allen bellangen. Völlig egal welche derzeitige High End Grafikkarte Du bei den beiden großen Herstellern kaufst, Du musst immer Kompromisse eingehen und wer dazu nicht bereit ist, der soll halt nicht kaufen.
.Sentinel. schrieb:Viele identifizieren sich mit ihrer Anschaffung dann eben so sehr, dass sie sich persönlich angegriffen fühlen, wenn ihr Produkt mal in einem schlechten Licht steht.
Man fühlt sich nicht angegriffen, aber, wenn man zum Teil den Mist liest, was manche User schreiben, die noch nicht mal die entsprechende Grafikkarte in Ihrem Rechner haben und einem dann erklären wollen, was mit der eigenen Grafikkarte geht und was nicht, dann spricht meist nur sehr viel Neid aus den Postings, weil diese User sich eine Grafikkarte ab einem bestimmten Preis nie kaufen würden. Und dann muss man für die eigene Unzulänglichkeit und aus finanziellen Engpässen heraus, anderen die sich das Produkt aber leisten können, wenigstens versuchen, diese Grafikkarte so madig wie möglich zu machen, da man sich diese ja selbst nie kaufen würde, oder besser gesagt nicht leisten kann!
.Sentinel. schrieb:Aber offenbar sind sehr viele verunsichert, da man sich derzeit einfach zwischen roher Leistung gepaart mit hohen VRAM- Reserven und erweitertem Featureset entscheiden muss.
Das sind aber meistens die User, die im Endeffekt eine Grafikkarte wie die RTX 3080 nie kaufen werden, weil sie nie so viel Geld für eine Grafikkarte ausgeben werden, weil eigentlich ihr ganzer Rechner schon so viel kostet, wie eine RTX 3080!
Und nur, weil es für manche wichtig ist, muss es ja nicht schlecht sein. Es wird genügend Dinge geben, die Du magst, wo andere nur den Kopf schütteln und wen interessiert es? Von mir aus können sich die User einen geschmückten Tannenbaum als PC ins Wohnzimmer stellen, juckt mich nicht, auch wenn ich es vielleicht nicht nachvollziehen kann oder übertrieben finde, kann sich doch jeder kaufen was er will, mir muss doch nicht gefallen, was andere sich kaufen..Sentinel. schrieb:Man braucht RGB, man braucht Bling Bling usw- usf.
Wenn für Dich Bling Bling keine Option ist, aus welche Gründen auch immer, dann kauf es nicht und gut ist. Aber warum musst Du dann andere abwerten, schon allein zu schreiben Bling Bling zeigt ja schon Deine Einstellung zu RGB. Wenn es für andere eine wichtige Option ist, dann sollen sich diese User / Kunden das kaufen, das ist doch das schöne in unserer Gesellschaft und freien Marktwirtschaft, jeder kann das machen was er will mit seinem Geld und kaufen was ihm gefällt, wo ist das Problem!
Cameron
Lieutenant
- Registriert
- März 2004
- Beiträge
- 963
Dateigröße ~45 Megabyte, ARW-Format (Sony), Bearbeitungsmodus Lightroom, diverse Anpassungen auf den Bildern. Lightroom nutzt den vollen VRAM aus, das merkt man spätestens dann, wenn man zügig durch die Bilder scrollt, immer wieder mal auf 100% Ansicht wechselt und diverse Anpassungen an den Bildern vorgenommen hat. Im obigen Screenshot hatte ich lediglich an drei Bildern gearbeitet. Eine Verzögerung beim Scrollen und Zoomen gibt es praktisch nicht mehr mit vollem VRAM. Weiß nicht, wie hoch Lightroom noch gehen würde. Letztlich wahrscheinlich auf den ausgelagerten Grafikspeicher ausweichen, schätze ich.fox40phil schrieb:@Cameron : Hui krass! Was nimmt der da alles in den Vram?
Das ist sehr spannend! Hast du das vorher irgendwo nach gelesen, dass es besonders mit der RTX 3090 besser laufen soll? Bin selbst auch Fotograf.
@Cameron so geht's mir in Resolve auch. Da sinds besonders color grading aufgaben welche die GPU übernimmt und dort ist es auch so dass in FHD, besonders bei mehreren Schichten die 4GB meiner 3200WX knapp werden. 16 GB sind dann für 4k ideal und sollte es mehr werden kann man immernoch auf die kommenden Pro GPUs von Nvidia und AMD warten welche mit 48 bzw 32 GB EEC VRAM dem ganzen die Krone aufsetzen hinsichtlich akkuratkeit und Stabilität für große Datensätze.
Selbst das ließe sich nochmal mit NVlink und infnity Fabric Verdoppeln sodass beide Karten den VRAM variabel aufteilen können.. dann kann man sprichwörtlich die rosarote Kuh fliegen lassen.
Wir leben in spannenden Zeiten und beim Thema VRAM habe ich diese Sachen auch immer im Hinterkopf wenn mir mal wieder einer erklären möchte dass 10 GB doch genug für alles seien..
Selbst das ließe sich nochmal mit NVlink und infnity Fabric Verdoppeln sodass beide Karten den VRAM variabel aufteilen können.. dann kann man sprichwörtlich die rosarote Kuh fliegen lassen.
Wir leben in spannenden Zeiten und beim Thema VRAM habe ich diese Sachen auch immer im Hinterkopf wenn mir mal wieder einer erklären möchte dass 10 GB doch genug für alles seien..
F
foo_1337
Gast
Naja, das "Blöde" ist halt, dass gerade in den VRAM intensiven Workloads nvidia wieder deutlich die Nase vorn hat. Damit meine ich die "Pro Apps" sowie ML als auch den FS 2020.
janeeisklar
Lieutenant
- Registriert
- Juni 2014
- Beiträge
- 552
Na dann gibt es mein System aber sehr oft, denn selbst auf Twitch konnte man das beobachten. Machte der Streamer DLSS aus waren die Probleme weg.Laphonso schrieb:Argerlich, aber das muss an Deinem System liegen. ich habe das mit der 2080Ti und der 3090 und auf verschiedenen Monitoren gespielt, läuft 1a.
M
matty2580
Gast
Netter Test, aber erst einmal müssen die GPUs zu einem halbwegs normalen Preis kaufbar sein.
Aktuell kann man man entweder gar nicht kaufen, oder nur zu einem völlig überzogenen Preis, weit ab von jeder UVP. Selbst gebraucht sind GPUs sehr teuer. Und auch die neuen Konsolen sind permanent ausverkauft.
Dieser Zustand hält jetzt schon seit 6 Monaten an, und kein Licht ist am Ende des Tunnels sichtbar.
Aktuell kann man man entweder gar nicht kaufen, oder nur zu einem völlig überzogenen Preis, weit ab von jeder UVP. Selbst gebraucht sind GPUs sehr teuer. Und auch die neuen Konsolen sind permanent ausverkauft.
Dieser Zustand hält jetzt schon seit 6 Monaten an, und kein Licht ist am Ende des Tunnels sichtbar.
janeeisklar
Lieutenant
- Registriert
- Juni 2014
- Beiträge
- 552
Welches CoD war das? Hast du Screenshot?ZeroStrat schrieb:Ne, da sprichst du mit dem Falschen foo. Dedicated VRAM ist das, was tatsächlich genutzt wird. CoD habe ich schon unter die Lupe genommen. Eine 6900XT und 3080 reichen überhaupt nicht mit max. Textur Einstellungen. Das Problem äußert sich meistens auch sehr subtil durch Texturstreaming. Die 10GB der RTX 3080 sind ein Witz, glaub's mir.
Naja, WÜRDE ich ja schon, weil es auch das zocken zusammen mit den Kiddies enorm vereinfacht, aber die gibt's ja auch nur ab und an mal. Auch das kann also noch dauern. -.-vforce schrieb:Zum Zocken würde ich mir momentan eine Konsole holen, da ein vergleichbarer PC locker das 3x kostet.
Epistolarius
Lt. Junior Grade
- Registriert
- Nov. 2012
- Beiträge
- 432
Super, danke sehr. 👍Wolfgang schrieb:Artikel-Update: Welches Spiel läuft im neuen Grafikkarten-Testparcours mit welcher API? Welche Grafikeinstellungen werden für die einzelnen Auflösungen genutzt? Und wie sieht die Benchmark-Sequenz aus? Gibt es einen Technik-Test zu den einzelnen Spielen? All die Informationen finden sich ab sofort ebenfalls in diesem Artikel. Wer ein Ergebnis der Redaktion nachvollziehen will, kann das auf dieser Grundlage ab sofort tun.
Edit: Kleine Bemerkung aber noch, Dirt 5 basiert wohl auf der gleichen Engine wie Onrush, nicht der EGO Engine.
Zuletzt bearbeitet:
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.647
Genau- Und warum glaubst Du, dass sie sich in Control genau das getraut haben (viel Interaktion mit der Umgebung)?danyundsahne schrieb:Aber das kommt nicht von RTRT diese tolle, dynamische und interaktive Spielwelt wie @.Sentinel. in seinem Kommentar anspricht. Das kommt von Physik
Weil die Engine komplett auf stochastisches Rendering ausgelegt ist mit dem Glück (für den Rasterpart), dass es keine Tag/Nachtwechsel zu berechnen gibt und somit auch mit der Rastergrafik noch einigermaßen etwas dabei rumkommt. Es ist nicht umsonst so, dass eine 6900XT in 4K hier nicht mal die 50 FPS grenze AVG knackt OHNE RT. Wo wir wieder beim Grenznutzen der Rasterisierung wären.
Mit RT, also der deutlich konsistenteren und grafisch überlegenen Lösung machst Du lt. dem Benchmark bei CB mit ner 3090 über 60FPS.
Das bestätigt genau meine Erklärungen.
Raytracing sorgt dafür, dass man sich diesbezüglich eben garkeine Sorgen mehr machen muss. Die Grafik bleibt trotz Dynamik auf hohem und physikalisch korrektem Niveau und ist ab einem gewissen Bereich einfach schneller als reine Rasterisierung.
Bis jetzt gilt immer der Kompromiss: Je toller und je realistischer die Grafik, um so statischer, vorberechneter und speicherplatzfressender muss es sein...
Ergänzung ()
Du scheinst trotz Deiner vielen Beiträge nicht viel in Foren unterwegs zu sein, in welchen es um diese Themen geht?Zotac2012 schrieb:...sollte man sich eine Grafikkarte ala RTX 3080 oder RTX 3090 kaufen und dann einen Rechtfertigungdruck verspüren und sich Bestätigung bei anderen Usern für seinen Grafikkauf einholen, das man sich quasi für die richtige Grafikkarte entschieden hat...
Da wird laufend der gleiche Circle Jerk anti und pro RT, VRAM, DLSS usw. praktiziert und das überwiegend aus dem Grund der Gruppierung.
Wie bereits oben beschrieben. Genau so sollte es sein.Zotac2012 schrieb:mir ist es auch Schnuppe was andere denken oder wissen zu glauben, ich muss von dem Produkt überzeugt sein, sonst wird es nicht gekauft.
Ja- So wirds sein...Zotac2012 schrieb:Vielleicht ist es bei Dir so, weil Du entsprechende Erfahrungen gemacht hast und Du nur Produkte kaufst, die Andere als toll und super bezeichnen.
Also wenn man mal ein par meiner Beiträge lesen würde, dann würde einem relativ schnell auffallen, dass ich auf den Markenkrieg nichts gebe und meine Ausführungen hier auf vielfältigen Erfahrungen beruhen. Das auch im professionellen Umfeld.
Genau das passiert hier am laufenden Band. Und das ist genau das, was ich anprangere.Zotac2012 schrieb:Wenn ich so Deinen Post lese, vermittelt sich mir immer mehr der Eindruck, hier schreibt jemand ohne jegliches Selbstbewusstsein, der seine Daseinsberechtigung über Dritte definiert haben muss, um bestätigt zu bekommen, das er überhaupt existiert beziehungsweise existieren darf!
Werdet und seid glücklich mit Euren Produkten. Wenn das die Leute nämlich umfassend wären, dann würden sie sich nicht laufend gegenseitig an die Gurgel springen.
Der Preis ist ein Manko. Ansonsten ist es die einzige rundum- Sorgloskarte, ohne technische Kompromisse eingehen zu müssen.Zotac2012 schrieb:Das ist Deine rein subjektive Meinung, für mich ist die RTX 3090 alles andere als das derzeit beste Paket in allen bellangen.
Welche technischen Kompromisse wären das denn bei der 3090?Zotac2012 schrieb:Völlig egal welche derzeitige High End Grafikkarte Du bei den beiden großen Herstellern kaufst, Du musst immer Kompromisse eingehen und wer dazu nicht bereit ist, der soll halt nicht kaufen.
Du hast mir oben noch widersprochen, als ich geschrieben habe, dass die Leute unter einem confirmation- Bias leiden. Schreibst jetzt aber letztendlich das gleiche...Zotac2012 schrieb:Und dann muss man für die eigene Unzulänglichkeit und aus finanziellen Engpässen heraus, anderen die sich das Produkt aber leisten können, wenigstens versuchen, diese Grafikkarte so madig wie möglich zu machen, da man sich diese ja selbst nie kaufen würde, oder besser gesagt nicht leisten kann!
Bingo!Zotac2012 schrieb:Von mir aus können sich die User einen geschmückten Tannenbaum als PC ins Wohnzimmer stellen, juckt mich nicht, auch wenn ich es vielleicht nicht nachvollziehen kann oder übertrieben finde, kann sich doch jeder kaufen was er will, mir muss doch nicht gefallen, was andere sich kaufen.
Es ist eine Metapher bzw. eine Ausführung zu dem, was ich weiter oben zusätzlich ausgeführt habe, nämlich dass viel eben ihren Computer nicht mehr als technisches Spielzeug sehen, sondern sich zum Teil emotional damit verbinden.Zotac2012 schrieb:Wenn für Dich Bling Bling keine Option ist, aus welche Gründen auch immer, dann kauf es nicht und gut ist. Aber warum musst Du dann andere abwerten, schon allein zu schreiben Bling Bling zeigt ja schon Deine Einstellung zu RGB
Wie beim deutschen liebsten Kind. Und das ist wiederum die Erklärung dafür, dass hier Fanboy- Wars wegen ein par kalter Schaltkreise ausbrechen.
Das gibt es eben genau nicht. Dennoch muss man sich hier immer seitenweise anhören, wie unsinnig Feature/Technik/Hardware XY sei.Zotac2012 schrieb:Wenn es für andere eine wichtige Option ist, dann sollen sich diese User / Kunden das kaufen, das ist doch das schöne in unserer Gesellschaft und freien Marktwirtschaft, jeder kann das machen was er will mit seinem Geld und kaufen was ihm gefällt, wo ist das Problem!
Man kann bereits am Text erkennen, welche Hardware in den jeweiligen Signaturen stehen wird.
Und das ist wiederum das, was ich anprangere.
Eine Diskussion ist keine solche, wenn sie nicht ergebnisoffen geführt werden kann.
Zuletzt bearbeitet:
sifusanders
Lt. Junior Grade
- Registriert
- Dez. 2017
- Beiträge
- 284
F
FormatC
Gast
Es geht doch nur um die zuführenden Rails. Ich will Dir die ganzen Voltages auf der Karte gern ersparen, das wird eine schöne lange Liste...bad_sign schrieb:Die 5V Aussage ist gefährlich
Ähnliche Themen
- Antworten
- 178
- Aufrufe
- 11.453
- Antworten
- 479
- Aufrufe
- 35.287
- Antworten
- 356
- Aufrufe
- 115.211
- Antworten
- 238
- Aufrufe
- 28.793
S
- Antworten
- 294
- Aufrufe
- 41.138