Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestResizable BAR im Test: Nvidia GeForce RTX 3080 mit „rBAR“ im Vergleich
Ich habe das BIOS Update auf meine 3070FE installiert, jedoch gibt es für mein Gigabyte X299 Board kein Update. Bei MSI und Asus gibt es bei X299 Boards dagegen ein Update, während AsRock ebenfalls kein Update bietet. Mein nächstes Board wird also aus Prinzip ein Asus oder MSI, wahrscheinlich eher MSI.
Unabhängig davon ist das Feature aktuell bei Ampere nur so "meh". Eine kleine Auswahl an Spielen ist überhaupt unterstützt, die Frametimes sind kaum besser und dann auch noch Probleme ist nicht so krass.
Ich denke der (relativ kleine Unterschied) zwischen AMD und Nvidia bei rBAR (wobei der Vorteil im Mittel selbst ja schon nicht groß ist) ist sicherlich ein Mischmasch aus, schwachem Speicherinterface bei AMD, hohe CPU Last bei Nvidia und Entwicklungsvorteil von AMD. Da wird sicherlich von allem irgendwas dabei sein.
Praktisch überall ist der Unterschied ca +100% für AMD. In fast jedem Spiel wo es läuft, fällt der Effekt @sam fast doppelt so hoch aus wie bei nVidia.
Klar im Gesamtmittel stehen dann +5% vs +2% da, aber wie ich oben schon schrieb ist der Effekt, WO er funktioniert wesentlich höher als das. (auch bei nVidia).
GPU-Planung oder ” Hardwarebeschleunigte GPU-Programmierung ”Ist eine Funktion, die in Windows 10 eingeführt wurde, um die Spieleleistung weiter zu verbessern. Mit dieser Funktion kann die GPU ihren Speicher verwalten, anstatt diese Aufgabe an das Betriebssystem zu delegieren. Auf diese Weise erzielen Benutzer bei Aktivierung eine höhere Leistung und eine geringere Latenz. Und das bedeutet mehr FPS und fließende Spiele.
Wichtig für gute Performance, was immer wieder viele vergessen, den Energiesparmodus vom win 10 auf max power und auch den von der gpu in den Treibereinstellungen (Energiemodus max Leistung).
Und vielleicht von Zeit zu Zeit das zugemüllte Win 10 mal neu aufsetzen, ich mache das 1 mal im Jahr.
Dann muss ich das auch nochmal in Verbindung mit Outriders ausprobieren. Bei CoD Black Ops lief es sehr gut damit, Destiny 2 hatte aber hier und da mal einen Mikroruckler, so dass ich es erst mal wieder ausgeschaltet hatte. Mit dem Windows jedes Jahr neu installieren, Respekt, da sind wir im Freundeskreis durch die Bank weg zu faul dafür. Ich selbst mich selbst deshalb aber als sehr "clean install faul".
Nicht zuletzt auch deshalb, weil bei uns auf Arbeit jeder Neuinstall am Client nicht einfach gemacht wird, nur mit ausführlicher Begründung und dem OK mehrerer Genehmigungsstellen, weshalb ich schon viele Softwareprobleme so lösen musste.
Sorry deshalb fürs folgende OT:
Ein Freund von mir ist letzten Monat von einem Intel i7 8700K auf einen Ryzen 9 5900X mit RTX3090 gewechselt, erneut ohne Neuinstallation. Nur die Intel Management Engine Reste musste er noch entfernen. Seitdem läuft er 1A. Wir haben sogar letzte Woche gemerkt, dass er noch eine MBR Partition hatte und diese in eine GPT umgewandelt, damit rBAR funktioniert. Sein Windows ist locker sechs oder sieben Jahre alt und vom i7 4770K und i7 6700K über den i7 8700K, auf den R9 5900X gewandert, zwischendurch sogar noch von einer SSD (Samsung 830) auf eine größere SSD (Samsung Evo 840) und dann schließlich noch auf eine NVMe (Samsung Evo 960), alles per Samsung Clone Tool.
Meines hatte ich zuletzt nach dem Plattformwechsel auf den i7 8700K Anfang 2018 clean installiert, aber auch nur, weil meine Aktivierung zerschossen war und dann gleich auf die Win10 Pro Version gewechselt bin. Aber auch ich hatte letztens einen Clone von einer Samsung Evo 840 auf eine Samsung Evo 970 Pro gemacht, auch hier ohne Probleme.
Den PC meines Vaters hatte ich letztens auch mal wieder neu installiert, nachdem ich ihm zwei SSDs als OS und Programmplatte verpasst habe und er seine Firma eh jetzt durch den Ruhestand geschlossen hatte. Da war als Windows ein Win10 20H2 drauf und der letzte Clean Install noch ein Win7 Pro mit dem Installationsdatum 27.12.2012. Die Installation war also neun Jahre und ein paar Tage alt. Aber er meinte immer zu mir "Der läuft, also fass den nicht an".
Allerdings ist der Zuwachs an Leistung bei den Nvidia Karten bisher eben sehr überschaubar. Hier hat AMD nun mal einen deutlichen zeitlichen Entwicklungsvorsprung, den Nvidia noch aufholen muß.
Ich persönlich werde deshalb vorerst noch auf Resizable BAR verzichten. Mir reicht die Leistung meiner Karte noch vollkommen aus, die Suprim hat gegenüber der 3080 FE ja auch so schon etwa 5 % Mehrleistung...
Im ersten Test der 6800XT war der overall Bonus im gesamten Test (wahrscheinlich noch nicht bei allen getesteten Spielen aktiv) 1-2%
Das kann man unter Messungenauigkeit verbuchen.
Jetzt, wo man direkt nur diese Spiele testet sind wir nach 5! Monaten immerhin auf 4-5% hochoptimiert (allerdings blenden wir dabei die Spiele aus, die es immer noch nicht können/Probleme machen/auf der White-/Blacklist stehen).
Das ist gerade so mehr als eine Messungenauigkeit. "Spüren" tut man als Anwender nichts. Wenn das Spiel "ruckelt" tut es das mit rBAR genauso. Hat man 200fps sind es mit rBAR 208fps...
Jetzt darauf pochen, dass aus dem Blickwinkel von einer Verbesserung von 2% bei Nvidia 4% bei AMD eine 100% bessere Steigerung ganze HUNDERT PROZENT sind, ändert an dem geringen Unterschied nichts.
Auf der anderen Seite haben Nutzer noch PCIe 3.0 statt 4.0 und werfen hier genau diese 2-4% weg und da wird hier im Forum gesprochen von "lohnt nicht" oder nur eine SATA SSD statt einer PCIe 4.0 NVME SSD, aber rBAR soll jetzt das Killerfeature sein?
Wir schauen gerade mit der Lupe im Tunnelblick drauf, dass darf man nicht vergessen.
DLSS bringt massiv Leistung. Das hat das Potenzial von einem Killerfeature. Raytracing bringt einen gewaltigen graphischen Fortschritt.
rBAR ist ein Feature, was man gerne mitnimmt, aber wenn man es eben nicht hat, oder eben nur 1-2% statt 4-5% bringt, macht den Kohl nicht fett, was natürlich nicht heißt, dass Nvidia es ignorieren sollte.
Seit dem BIOS Update ist das Spulenfiepen bei meiner ROG Strix 3090 OC besser geworden. Mit Wasserkühlung ist das Fiepen schon extrem in den Vordergrund gerückt. Auch wenn das BIOS nichts an der Karte ändert sondern nur das rBAR frei schaltet.
Krass auch das ich in CP2077 kein Fiepen habe, in Valheim und Elite Dangerous jedoch massiv laut... (jetzt besser geworden)
Laut GPUz ist jedoch mein rBAR noch disabled. Habe das BIOS aufgespielt und die Treiber aktualisiert (Version 466.11)...
Dann lies bitte noch den Kommentar des Readkteurs zu dem post des users, auf den ich geantwortet habe.
Vielleicht verstehst Du es dann ...
Scheint ein schwieriges Thema zu sein heute, ich bin aus dem thread raus...
Jetzt wäre die Frage wie Alltags Nahe man den cache voll bekommt.
Ich denke du hast absolut recht, WENN der Cache voll ist, wird’s langsam.
Ich frage mich jetzt nur ob den schon mal jemand voll bekommen hat und wie weit der jetzt bereits am Limit arbeitet.
Ich glaube nicht das du da einen Gedankenfehler hast (das hdd Prinzip ist ein gutes Beispiel).
Wie schnell sind die 256Bit mit vollem und leeren cach und wird dieser zu voll, bzw. Wann und womit?
Wenn die nicht in dem Fall eher im CPU Limit wären, als AMD, so wie es momentan den Anschein hat (finde gerade den Link nicht, reiche ich aber nach, sobald gefunden).
Ich habe mehrere Gründe genannt warum es so sein könnte und die Wahrheit wird irgendwo dazwischen liegen, aber momentan gibt (dieser Test) es noch keinen richtigen Aufschluss.
Das AMD ein geringeres Speicherinterface hat ist Fakt und das der Speicher langsamer ist, als auf der GDDR6X auf der 3080/3090 ist auch Fakt.
Das man mit einem Cache eine gute Lösung (damit bringt man nämlich nicht nur Geschwindigkeit sondern löst sich auch weitestgehend von den fixen Speichergrößen, was momentan bei Nvidia ein massives Problem ist)
gefunden hat ist genauso Fakt, aber dass dieser ein Limit hat (nämlich wenn er voll ist) ist genauso ein Fakt.
Warum immer gleich alle allergisch reagieren wenn man einen Nachteil bei AMD findet ist schon merkwürdig.
Ich habe im gleichen Satz auch Probleme von Nvidia aufgezählt, aber mäh, der hat was gegen AMD gesagt, das kann man so nicht stehen lassen.
Ergänzung ()
GERmaximus schrieb:
Jetzt wäre die Frage wie Alltags Nahe man den cache voll bekommt.
Ich denke du hast absolut recht, WENN der Cache voll ist, wird’s langsam.
Ich frage mich jetzt nur ob den schon mal jemand voll bekommen hat und wie weit der jetzt bereits am Limit arbeitet.
Naja irgendwo deutet rBAR/SAM ja darauf hin, dass man größere Dateimengen umherschaufelt.
Würde man nur bei kleinen Dateimengen bleiben würde ja rBAR/SAM nichts bringen. Also irgendwie ist das gerade ein Brainfuck
Das hat nichts mit AMD/Nvidia zu tun, sondern es ist einfach technisch absolut unlogisch.
Warum sollte ein Feature, welches Bandbreite des VRams beansprucht, ein Limit derselben Bandbreite lindern?
Aber wenn du sowieso wieder direkt mit dem Totschlagargument Fanboy kommst, lassen wir die Diskussion direkt bleiben.
Weil kein rBAR ein zusätzliche/größere Bremse ist als es zu nutzen?
Nehmen wir mal die ganze Kette:
Direct Storage + wenige CPU Overhead vom AMD Treiber + rBAR + AMD infinity Cache + großes Speicherinterface von Nvidia + GDDR6X (oder gleich HBM) (+ längere Treiberentwicklung von AMD)
im Vergleich zu
Umweg über CPU + Nvidia CPU Overhead + 256MB Schritte über PCIe + kein Cache + kleines Speicherinterface + langsameres GDDR6 (+ First Release Treiber)
Blöd ist nur, das wir nie jeden einzelnen Punkt alleine betrachten können, sondern sobald wir entweder eine AMD oder Nvidia Karte haben eine fest vorgegebene Konfiguration stehen haben.
Momentan haben wir aus der gesamten Kette einen einzelnen Punkt und der bringt stand Heute auf AMD etwas mehr.
Meine persönliche Einschätzung warum AMD bei diesem einen Punkt in der Momentan Aufnahme besser da steht habe ich in Post 124 geschrieben.
Anscheinend aber bei manchen Leuten einen Wunden Punkt getroffen.
Muß sich irgendjemand schämen oder verteidigen, dass er keine sauteure Nvidia mit größerem Speicherinterface gekauft hat? Hängt da die Penislänge von ab?
Oder liegen die Nerven einfach nur blank, weil man beim letzten Drop immer noch keine Karte kaufen konnte?
Im ersten Test der 6800XT war der overall Bonus im gesamten Test (wahrscheinlich noch nicht bei allen getesteten Spielen aktiv) 1-2%
Das kann man unter Messungenauigkeit verbuchen.
Ich habs oben schon mal erwähnt. Begeht doch nicht alle immer denselben Fehler !
rBAR/SAM bringt nicht "nur" 2% im Mittel ...weil es ENTWEDER funktioniert und was bringt, und wenn es das tut ist der Effekt deutlich größer als das Benchmark-rauschen.
Schau dir doch die Auswertung bei CB an ...in 11/16 spielen bringt SAM >3%. in 5/16 sogar >10%.
=> in ca 1/3 der Spiele bringt es genau 0...
Aber in den Verbleibenden 2/3 bringt es z.T. nicht unerheblich >10% Leistung.
10% Leistung haben oder nicht haben - ist derselbe Unterschied wie zwischen 3080 und 3090.
rBAR funktioniert ähnlich nur dass der Performance gain hier ca. den Faktor 2 kleiner ist als bei AMD....
in den meisten Spielen bringt es eben deswegen sehr wenig. Aber das ist ein nVidia-Problem, denn SAM (AMDs rBAR) bringt eben deutlich mehr.
Muß sich irgendjemand schämen oder verteidigen, dass er keine sauteure Nvidia mit größerem Speicherinterface gekauft hat? Hängt da die Penislänge von ab?
Oder liegen die Nerven einfach nur blank, weil man beim letzten Drop immer noch keine Karte kaufen konnte?
Gibt irgendwas in meiner Signatur auch nur den leisesten Hinweis darauf?
Aber wie gesagt, auf deine ad-hominem kann ich verzichten und schreibe jetzt auch wirklich nichts mehr dazu.
Netter Test, aber ich würde mir mal so einen Test unter CPU Limit wünschen. Da rBAR vor allem bei niedrigen Auflösungen was bringt spricht das ja eher dafür das es stärker im CPU Limit wirkt als im GPU Limit, und gerade im CPU Limit hat NV gegenüber AMD sowieso massiven Aufhohlbedarf.
Und AMD? Wobei sinnvoller statt niedrigere Auflösung, was weniger RAM verbraucht, was bei einem Feature, das den RAM betrifft, doof ist, wäre wohl gewesen eine langsamere CPU zu nehmen.
Mit der 6000er Generation hat Amd aber so weit aufgeholt, das im CPU Limit (kleinere Auflösung als 4K) die Amd Karten gar schneller sind als die Nvidia.
Die dx11 Schwäche ist bei Amd in der 6000er Generation nicht nur komplett weg, nein man hat gar die Konkurrenz überholt.
Ähm, in DX11 ist man mit einer Nvidia GPU im CPU Limit noch öfter genau so deutlich schneller als mit AMD, wie man es im Gegenzug mit einer AMD GPU in DX12 ist.
Nur wenn ein Parcour mehrheitlich auf DX12 Titel setzt, hat man am Ende einen Vorteil für AMD bei den FPS stehen.
Bei PCGH sind z.B. auch noch viele DX11 Titel drin. Auf ein Watch Dogs Legion(DX12), wo die CPU mit der 6900XT 12% schneller ist, folgt dann z.B. ein Jedi Fallen Order(DX11), wo die CPU mit der 3090 12% schneller ist.
Deren Fazit zu AMD vs Nvidia
Insgesamt können wir das oben gezeigte ganz einfach zusammenfassen: Kommt eine Lower-Level-API wie Direct X 12 zum Einsatz, ist die Performance mit einer AMD-Grafikkarte, wie der RX 6900 XT, im CPU-Limit mess- und fühlbar höher. Es gibt einige Titel, bei denen das nicht funktioniert, die Summe läuft aber merklich besser auf der AMD-Hardware. Dass die beiden Grafikkarten am Ende nahezu gleich schnell arbeiten, liegt an der Varianz unseres Testparcours und zeigt auf, dass die Kräfteverhältnisse fair verteilt sind.
also für meine Zotac gab es kleines Update-Programm, was auch komplett selbstständig durchlief. Kann mir nicht vorstellen, dass dies bei Gigabyte anders wäre.