Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Smart Memory Access: Nvidia bestätigt Arbeiten an vergleichbarer Lösung
Also ich dachte man kann das Wort so auslegen dass man es auch dafür verwenden kann.
Ja, ich meine das es derweil auf AMD begrenzt ist weil es kein anderer anbietet. Wollte natürlich auch kein Unwissen verbreiten.
Vermutlich nicht PCI64 konform. Dann ist es halt Essig Je nachdem, was an onboard bei den B550 / X570 Boards verbaut wurde, könnte das noch spannend werden.
@GerryB ich hab es (MBR->GPT) gelesen. Die Message meiner Aussage war dennoch nicht die selbe wie deine. Daher der Kommentar.
Ich habe keinen Account in diesem Forum und möchte mir auch nicht unbedingt deshalb einen erstellen. Man sieht anhand der Rhetorik dieses Beitrags, z.B. "da irrt sich Nvidia gewaltig - oder sie wollten diese Info absichtlich suggerieren. War ja klar, das die schnell die Gemüter beruhigen wollen", dass der Autor voreingenommen ist und vermutlich nur Gründe gegoogled hat, weshalb das ja alles so nicht sein kann. Nun irrt sich hier jedoch nicht nvidia gewaltig, sondern der Autor. Ich gehe hier mal auf die wesentlichen Dinge ein:
Claim: Nvidia kann nicht so einfach 2GiB von 10 der 3080 mittels BAR der CPU zuweisen, dann ist die Karte nicht mehr voll 4K tauglich und der Speichermangel schlägt diesmal voll durch.
Realität:
Es werden nicht "Portionen" des VRAM an die CPU zugewiesen. Das wäre völliger unsinn und würden das Prinzip konterkarieren. Wenn man den Code, der durch den patch hier https://lists.freedesktop.org/archives/amd-gfx/2017-March/006057.html commited wurde, liest, sieht man das auch sehr gut.
Claim: Nvidia kann ohne die I/Os und ohne den schnellen Cache nicht das Gleiche liefern, vor allem scheint es aufgrund dieser Intercommunication der I/Os eine feste Größe zu sein, die man zuweisen kann und die dann jeweils auch eine gleichhohe Geschwindigkeit zur Verfügung stellt.
Realität:
Der Infinity Cache hat damit überhaupt nichts zu tun. Diese Aussage geht auch wieder davon aus (erkennt man im nächsten Satz), dass Teile des VRAM dediziert an die CPU gemapped werden.
Nvidia nutzt einen ähnlichen (nicht für CPU, sondern für NICs/IB) Mechanismus bereits seit längerem via GPUdirect, siehe auch: https://htor.inf.ethz.ch/ross2016/slides/ross2016-daoud.pdf
Ich frage mich immer wie naiv man sein muss, nvidia zu unterstellen sie wüssten hier nicht was sie tun. Manchen würde es gut tun, die rote oder grüne Brille abzusetzen und nüchtern an die Sache zu gehen.
Alex Deucher, der bei AMD arbeitet und für mit für amdgpu (linux) verantwortlich ist, hat längst bestätigt, dass SAM keine Magie ist, sondern eben resizable BAR ist. Denn auch das wird ja nach wie vor in Foren/Kommentaren behauptet: AMD hätte eine "secret sauce" dazuentwickelt, was halt einfach so nicht stimmt.
Es ist cool und innovation, dass AMD das ganze voran getrieben hat und auch im Gaming Bereich einen use-case gefunden hat. Nun ist es aber kein proprietäres oder selbst designed feature, sondern man bedient sich eben vorhandenen technologien. Innovation != Invention. Und da ist es natürlich klar, dass die Mitbewerber nachziehen können, was hier anscheinend auch der Fall ist.
Vor allem ist es ein gutes Beispiel dafür, wie wichtig Konkurrenz ist. Ggf. hatte nvidia das ganze auch schon im Köcher, hatte aber bisher keine Notwendigkeit: Ein gutes Pferd springt nur so hoch wie es muss.
Ergänzung ()
GerryB schrieb:
Mal das Bsp. von AMD wie LPM on/off aussieht: detaillierter kostet hal
Allokieren kostet erstmal nichts. Die Frage ist, wieviel davon ist wirklich genutzt. Sobald es mal nen 3080/3090 User gibt, der das aktiviert und beides auslesen kann, wissen wir mehr. @HisN interesse?
Wievie RAM konsumiert die VM aktuell wohl? 15,3 oder 8GB?
Wenn es danach ginge, müsste ich die 32GB in dieser Kiste längst upgraden:
Weiss ja noch Keiner wie flexibel SAM mit dem IC+Vram umgeht.
Ob NV-BAR genauso in jedem Game optimal arbeitet, who knows.
Einfach mal so feste Werte einstellen wird wohl net optimal sein.
Aber mal wieder: Es wird lieber Gemeckert, Halbwahrheiten verbreitet - nicht du aber jemand anderes - und die, die wirklich sich für interessieren werden angegiftet, weil ja Meckern und sich aufregen für manche im Vordergrund steht, genauso das Recht haben, ohne sich jedoch mit der Materie zu befassen.
Das ist das gleiche Problem wie in vielen anderen Bereichen auch.
Was nicht sein darf, das nicht sein kann und wer etwas anderes behauptet muss natürlich auf irgendeine Verschwörung reingefallen sein oder ihr angehören weshalb dessen Aussage per se irrelevant oder gelogen ist denn was nicht sein darf.....
hat bei Ignors Lab echt jemand im Forum behauptet, SAM VRAM der CPU zur Verfügung stellt und der daher abgezogen wird vom VRAM der GPU, wenn ich das jetzt gerade richtig lese?
Alter Falter, … beim BAR geht es darum, dass man ohne »Umwege« den gesamten VRAM in der CPU sehen kann und über Steueranweisungen organisieren kann - vereinfacht. Nicht das die CPU sich VRAM schnappt und diesen benutzt.
…
Das ist aber genau das was ich meine und was mich auch hier oft ärgert, und wo ich - ich gebes zu - auch echt unhöflich werden kann: Man schreibt erst mal was, ohne sich damit zu befassen, verbreitet so im besten Fall nur Halbwissen und im schlimmsten Fall Falschwissen, dass man nur noch schwer korrigieren kann, weil es sich in den Köpfen vieler fest setzt. Es ist dann unglaublich schwer dieses falsche Wissen zu korrigieren und je nach Feld ist das sogar gefährlich - hier geht es zum Glück nur um PCs. Und wenn man dann merkt, dass man gegen eine Wand redet oder merkt, dass der andere nicht wirklich darauf ein geht, sondern nur das wiederholt, was man aber bereits als »Halbwissen« oder »Falschwissen« widerlegt hat, geht einfach jegliche Geduld flöten. Klar ich muss daran sicher wieder arbeiten und weniger stur sein, aber das könnte ich auch von den anderen erwarten.
@Teralios Ja, leider... Was teilweise an FUD sowohl von nvidia wie auch amd fanboys betrieben wird, ist leider nicht mehr schön. Schlimm ist auch, dass das ja in der Tech Branche schon länger so ist: Sega vs Nintendo, Linux vs Windows, iOS vs Android etc. Nun ist das ganze aber auch in der Politik und vielen anderen Dingen im sozialen Leben angekommen.. Aber das ist wieder ein anderes Thema
Wg. der ganzen Leakerei, wärs halt schön, wenn NV mal etwas mehr zu dem NvCache erzählt hätte.
Ganz klar, das jetzt Ideen aufkommen, das GPU+CPU gemeinsam in diesen Bereich adressieren.
(und das net der ganze Vram = NvCache ist)
Ansonsten wünsche ich Allen ein ordentliches soziales Leben an diesem WE.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Das ist aber normal und hat was mit dem Farbraum zu tun.
Jedes Bild am PC wird in dem RGB-Raum berechnet, jeder Pixel setzt sich aus 3 Farbwerten zusammen: Rot, Grün, Blau. Im »True Color« sind das 8 Bit pro Farbwert, oder eben die 16,7 Millionen Farben. Sind dann 24 Bit oder 3 Byte pro Pixel - ggf. kommt noch ein Alpha-Kanal mit 8 Bit hinzu um auf 32 Bit zu kommen.
Bei HDR wird »Deep Color« verwendet mit 10 Bit pro Kanal und damit 30 Bit oder 40 Bit - mit Alpha-Kanal und damit eben ein Viertel mehr.
Marktdominanz bedeutet nur, dass die Pläne "für was besseres" in der Schublade bleiben können und beim nächsten Mal diese geöffnet wird - die sollen am Limit laufen
Weil gerade Godfall angesprochen wurde, hier ein kurioser Bench von TPU:
Die 3090 hängt die 3080 über alle Maßen ab = NV-Bar aktiv -Joke Ende-
(warum TPU zu dämlich ist HDR in Betrieb zu nehmen, who knows)
edit: Bei AC:V@1080p hatte letztens PCGH auch so ein günstiges Ergebnis für die 3090 vs. 3080.
Nach m.E. kochen auch die Reviewer nur mit Wasser.
Ich für meinen Teil warte bis die User Ihre Erfahrungen mitteilen.
Text nicht verstanden? Die Tatsache, dass Nvidia es auch nutzen kann, so wie bereits vermutet, macht doch deutlich klar, dass AMD wieder mal auf einen offenen Standard setzt und sich Nvidia nun auch dieser Idee bedient.
und welcher offene standard soll das sein? das ganze klingt mehr danach, dass win10 nicht mehr auf die elendige paging geschichte mit den max. 256 mb angewiesen ist und man jetzt nur den treiber entsprechend umstricken muss.