News AMD Smart Memory Access: Nvidia bestätigt Arbeiten an vergleichbarer Lösung

Teralios schrieb:
SAM/BAR benötigt verschiedene Voraussetzung auf Hardware und Software-Ebenen.
In dem Forum bei Igorslab gabs auch Probleme mit Sound und anderen Geräten durch die Umstellung>4GB.
(könnte ne neue Bios-Version erfordern)

foo_1337 schrieb:
Wer es nicht geregelt bekommt, MBR auf GPT umzustellen, ohne neuzuinstallieren, schafft es auch nicht die Option im Bios zu aktivieren.
siehe #196, Konvertieren sollte on the fly gehen unter Beachtung...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Colindo schrieb:
Dann verstehst du aber das Wort "proprietär" nicht.

Also ich dachte man kann das Wort so auslegen dass man es auch dafür verwenden kann.
Ja, ich meine das es derweil auf AMD begrenzt ist weil es kein anderer anbietet. Wollte natürlich auch kein Unwissen verbreiten.
 
  • Gefällt mir
Reaktionen: Colindo
GerryB schrieb:
AMD - B550 oder X570, neuer Ryzen und das Hoffen auf die Radeon 6800 (XT) - Warum viele Ihr Windows wohl zunächst für SAM neu installieren müssen Seite 3 | igor´sLAB Community
"Bei einer suboptimalen Ressourceallocation hat Nvidia dann ein Problem oder muss ab der 3080 kleinere Bereiche zuweisen, weil die Karte eben nicht mehr voll 4k tauglich wäre. Da ist zuweilen 10GiB schon wenig."
Das Problem an dieser Überlegung ist, dass der Autor die Dokumentation falsch verstanden/interpretiert hat.
Ergänzung ()

GerryB schrieb:
In dem Forum bei Igorslab gabs auch Probleme mit Sound und anderen Geräten durch die Umstellung>4GB.
Vermutlich nicht PCI64 konform. Dann ist es halt Essig ;) Je nachdem, was an onboard bei den B550 / X570 Boards verbaut wurde, könnte das noch spannend werden.

@GerryB ich hab es (MBR->GPT) gelesen. Die Message meiner Aussage war dennoch nicht die selbe wie deine. Daher der Kommentar.
 
  • Gefällt mir
Reaktionen: Mcr-King
foo_1337 schrieb:
Das Problem an dieser Überlegung ist, dass der Autor die Dokumentation falsch verstanden/interpretiert hat.
Könntest Du Das bitte in dem Thread bei Igosrlab dem Hr. Gastello näher erläutern.

OT: weils auch um Vram-Bedarf geht, wie bei der Überlegung oben
In Godfall kostet HDR mehr Vram.
3DCenter Forum - Einzelnen Beitrag anzeigen - nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Mal das Bsp. von AMD wie LPM on/off aussieht: detaillierter kostet halt
FidelityFX - Luminance Preserving Mapper - GPUOpen
 

Anhänge

  • HDR@LPM.png
    HDR@LPM.png
    307,2 KB · Aufrufe: 347
Zuletzt bearbeitet:
Ich habe keinen Account in diesem Forum und möchte mir auch nicht unbedingt deshalb einen erstellen. Man sieht anhand der Rhetorik dieses Beitrags, z.B. "da irrt sich Nvidia gewaltig - oder sie wollten diese Info absichtlich suggerieren. War ja klar, das die schnell die Gemüter beruhigen wollen", dass der Autor voreingenommen ist und vermutlich nur Gründe gegoogled hat, weshalb das ja alles so nicht sein kann. Nun irrt sich hier jedoch nicht nvidia gewaltig, sondern der Autor. Ich gehe hier mal auf die wesentlichen Dinge ein:

Claim:
Nvidia kann nicht so einfach 2GiB von 10 der 3080 mittels BAR der CPU zuweisen, dann ist die Karte nicht mehr voll 4K tauglich und der Speichermangel schlägt diesmal voll durch.
Realität:
Es werden nicht "Portionen" des VRAM an die CPU zugewiesen. Das wäre völliger unsinn und würden das Prinzip konterkarieren. Wenn man den Code, der durch den patch hier https://lists.freedesktop.org/archives/amd-gfx/2017-March/006057.html commited wurde, liest, sieht man das auch sehr gut.

Claim:
Nvidia kann ohne die I/Os und ohne den schnellen Cache nicht das Gleiche liefern, vor allem scheint es aufgrund dieser Intercommunication der I/Os eine feste Größe zu sein, die man zuweisen kann und die dann jeweils auch eine gleichhohe Geschwindigkeit zur Verfügung stellt.
Realität:
Der Infinity Cache hat damit überhaupt nichts zu tun. Diese Aussage geht auch wieder davon aus (erkennt man im nächsten Satz), dass Teile des VRAM dediziert an die CPU gemapped werden.

Nvidia nutzt einen ähnlichen (nicht für CPU, sondern für NICs/IB) Mechanismus bereits seit längerem via GPUdirect, siehe auch: https://htor.inf.ethz.ch/ross2016/slides/ross2016-daoud.pdf
Ich frage mich immer wie naiv man sein muss, nvidia zu unterstellen sie wüssten hier nicht was sie tun. Manchen würde es gut tun, die rote oder grüne Brille abzusetzen und nüchtern an die Sache zu gehen.
Alex Deucher, der bei AMD arbeitet und für mit für amdgpu (linux) verantwortlich ist, hat längst bestätigt, dass SAM keine Magie ist, sondern eben resizable BAR ist. Denn auch das wird ja nach wie vor in Foren/Kommentaren behauptet: AMD hätte eine "secret sauce" dazuentwickelt, was halt einfach so nicht stimmt.

Es ist cool und innovation, dass AMD das ganze voran getrieben hat und auch im Gaming Bereich einen use-case gefunden hat. Nun ist es aber kein proprietäres oder selbst designed feature, sondern man bedient sich eben vorhandenen technologien. Innovation != Invention. Und da ist es natürlich klar, dass die Mitbewerber nachziehen können, was hier anscheinend auch der Fall ist.
Vor allem ist es ein gutes Beispiel dafür, wie wichtig Konkurrenz ist. Ggf. hatte nvidia das ganze auch schon im Köcher, hatte aber bisher keine Notwendigkeit: Ein gutes Pferd springt nur so hoch wie es muss.

Ergänzung ()

GerryB schrieb:
Mal das Bsp. von AMD wie LPM on/off aussieht: detaillierter kostet hal
Allokieren kostet erstmal nichts. Die Frage ist, wieviel davon ist wirklich genutzt. Sobald es mal nen 3080/3090 User gibt, der das aktiviert und beides auslesen kann, wissen wir mehr. @HisN interesse? ;)
1605351641192.png

Wievie RAM konsumiert die VM aktuell wohl? 15,3 oder 8GB? ;)

Wenn es danach ginge, müsste ich die 32GB in dieser Kiste längst upgraden:
1605351742626.png
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: DeltaPee, Demon_666 und Teralios
Vllt. warten wir einfach wie es von NV realisiert wird.(ganz abgesehen von Sicherheitsbedenken)

Mal sehen, obs nur für die 3090+3080Ti kommt oder auch für die Kleinen.(10GB+8GB)
Wäre dann ein zusätzliches Feature für die Großen.

thuNDa schrieb:
@Piktogramm
Ich beziehe mich darauf:
SAM is provide the same functionality as Resizable BAR. But it is designed to avoid the reprogramming phase.
Weiss ja noch Keiner wie flexibel SAM mit dem IC+Vram umgeht.
Ob NV-BAR genauso in jedem Game optimal arbeitet, who knows.
Einfach mal so feste Werte einstellen wird wohl net optimal sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Teralios schrieb:
Aber mal wieder: Es wird lieber Gemeckert, Halbwahrheiten verbreitet - nicht du aber jemand anderes - und die, die wirklich sich für interessieren werden angegiftet, weil ja Meckern und sich aufregen für manche im Vordergrund steht, genauso das Recht haben, ohne sich jedoch mit der Materie zu befassen.
Das ist das gleiche Problem wie in vielen anderen Bereichen auch.
Was nicht sein darf, das nicht sein kann und wer etwas anderes behauptet muss natürlich auf irgendeine Verschwörung reingefallen sein oder ihr angehören weshalb dessen Aussage per se irrelevant oder gelogen ist denn was nicht sein darf.....
 
  • Gefällt mir
Reaktionen: yummycandy und foo_1337
@foo_1337

hat bei Ignors Lab echt jemand im Forum behauptet, SAM VRAM der CPU zur Verfügung stellt und der daher abgezogen wird vom VRAM der GPU, wenn ich das jetzt gerade richtig lese?

Alter Falter, … beim BAR geht es darum, dass man ohne »Umwege« den gesamten VRAM in der CPU sehen kann und über Steueranweisungen organisieren kann - vereinfacht. Nicht das die CPU sich VRAM schnappt und diesen benutzt.



Das ist aber genau das was ich meine und was mich auch hier oft ärgert, und wo ich - ich gebes zu - auch echt unhöflich werden kann: Man schreibt erst mal was, ohne sich damit zu befassen, verbreitet so im besten Fall nur Halbwissen und im schlimmsten Fall Falschwissen, dass man nur noch schwer korrigieren kann, weil es sich in den Köpfen vieler fest setzt. Es ist dann unglaublich schwer dieses falsche Wissen zu korrigieren und je nach Feld ist das sogar gefährlich - hier geht es zum Glück nur um PCs. Und wenn man dann merkt, dass man gegen eine Wand redet oder merkt, dass der andere nicht wirklich darauf ein geht, sondern nur das wiederholt, was man aber bereits als »Halbwissen« oder »Falschwissen« widerlegt hat, geht einfach jegliche Geduld flöten. Klar ich muss daran sicher wieder arbeiten und weniger stur sein, aber das könnte ich auch von den anderen erwarten.
 
  • Gefällt mir
Reaktionen: yummycandy, Demon_666, Iapetus und 2 andere
@Teralios Ja, leider... Was teilweise an FUD sowohl von nvidia wie auch amd fanboys betrieben wird, ist leider nicht mehr schön. Schlimm ist auch, dass das ja in der Tech Branche schon länger so ist: Sega vs Nintendo, Linux vs Windows, iOS vs Android etc. Nun ist das ganze aber auch in der Politik und vielen anderen Dingen im sozialen Leben angekommen.. Aber das ist wieder ein anderes Thema :(
 
  • Gefällt mir
Reaktionen: yummycandy und Mcr-King
Wg. der ganzen Leakerei, wärs halt schön, wenn NV mal etwas mehr zu dem NvCache erzählt hätte.
Ganz klar, das jetzt Ideen aufkommen, das GPU+CPU gemeinsam in diesen Bereich adressieren.
(und das net der ganze Vram = NvCache ist)

Ansonsten wünsche ich Allen ein ordentliches soziales Leben an diesem WE.
 
  • Gefällt mir
Reaktionen: Mcr-King
GerryB schrieb:
Könntest Du Das bitte in dem Thread bei Igosrlab dem Hr. Gastello näher erläutern.

OT: weils auch um Vram-Bedarf geht, wie bei der Überlegung oben
In Godfall kostet HDR mehr Vram.
Hier mit FidelityFX LPM aktiv. Braucht nicht mehr VRAM als UWQHD ohne FidelityFX LPM in anderen Videos.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich habe sogar noch die PDF der PCI SIG mit in den Artikel reingehängt. Die Lektüre ist durchaus lohnend, zumal es bereits aus 2008 ist. :D

Mit den Foren ist es aber überall das Gleiche. Andere nennen es auch Meinungsvielfalt. ;)
 
  • Gefällt mir
Reaktionen: gesperrter_User, yummycandy, Colindo und 2 andere
GerryB schrieb:
In Godfall kostet HDR mehr Vram.
Das ist aber normal und hat was mit dem Farbraum zu tun.

Jedes Bild am PC wird in dem RGB-Raum berechnet, jeder Pixel setzt sich aus 3 Farbwerten zusammen: Rot, Grün, Blau. Im »True Color« sind das 8 Bit pro Farbwert, oder eben die 16,7 Millionen Farben. Sind dann 24 Bit oder 3 Byte pro Pixel - ggf. kommt noch ein Alpha-Kanal mit 8 Bit hinzu um auf 32 Bit zu kommen.

Bei HDR wird »Deep Color« verwendet mit 10 Bit pro Kanal und damit 30 Bit oder 40 Bit - mit Alpha-Kanal und damit eben ein Viertel mehr.
 
Darkblade08 schrieb:
Wie die ominöse Schublade bei Intel?
Wie ne Super, die sonst 12 Monate später käme, etc. denn die is auch nur durch Navi1 gekommen.
 
Weil gerade Godfall angesprochen wurde, hier ein kurioser Bench von TPU:
Die 3090 hängt die 3080 über alle Maßen ab = NV-Bar aktiv -Joke Ende-
(warum TPU zu dämlich ist HDR in Betrieb zu nehmen, who knows)
edit: Bei AC:V@1080p hatte letztens PCGH auch so ein günstiges Ergebnis für die 3090 vs. 3080.

Nach m.E. kochen auch die Reviewer nur mit Wasser.
Ich für meinen Teil warte bis die User Ihre Erfahrungen mitteilen.
 

Anhänge

  • Godfall1080p.png
    Godfall1080p.png
    139 KB · Aufrufe: 348
  • ACV-1080p_pcgh.png
    ACV-1080p_pcgh.png
    91,9 KB · Aufrufe: 343
Zuletzt bearbeitet:
Dai6oro schrieb:
Text nicht verstanden? Die Tatsache, dass Nvidia es auch nutzen kann, so wie bereits vermutet, macht doch deutlich klar, dass AMD wieder mal auf einen offenen Standard setzt und sich Nvidia nun auch dieser Idee bedient.

und welcher offene standard soll das sein? das ganze klingt mehr danach, dass win10 nicht mehr auf die elendige paging geschichte mit den max. 256 mb angewiesen ist und man jetzt nur den treiber entsprechend umstricken muss.
 
Erstaunlich wozu Wettbewerb fähig ist;) Vielen dank an AMD.
 
Zurück
Oben