News Ryzen 5000 und Radeon RX 6000: AMD zeigt Benchmarks zu Smart Access Memory

KlaraElfer schrieb:
Unique Selling point, wenn man ein B550 oder X570 Board und eine 5000 Ryzen CPU hat. :D

Und einmal darfst du raten woran AMD ueberall verdient... Richtig, an allem. Und ja, natuerlich ist es ein Unique Selling Point, denn derzeit bietet es kein anderer Hersteller. Oder verstehst du nicht was ein Unique Selling Point ist?

KlaraElfer schrieb:
Sicher, denn um die Funktion zu nutzen, muss man tief in die Tasche greifen wohlwissend, dass man das nicht müsste, weil Ryzen 5000 dafür gar nicht nötig wäre. ;) Aber Psst, nicht weitersagen.
Sparfüchse hassen diesen AMD Trick.^^

Oh nein, AMD will, dass man neue Hardware kauft um ein neues Feature zu nutzen, Skandal! Das macht sonst niemand! Oh, warte... doch. Intel verkauft den gleichen Mist sogar mehrmals!

Ganz ehrlich, sag einfach, dass du was dagegen hast weil AMD es macht. Es ist eh klar, dass das dein einziger Grund ist.
 
  • Gefällt mir
Reaktionen: bad_sign
Chismon schrieb:
Das ist es in der Tat, aber ich bezog mich ja auf den angeblichen Status dieses (und anderer) sog. Ueber-Features allgemein (den diese alle m.E. (noch) nicht innehaben oder nie innehatten)
Du bist doch auch schon lange bei CB hier im Forum. G-Sync, PhysX und auch diese komische 3D Shutterbrille wurden sehr häufig als DIE Features bezeichnet, warum man sich - selbst wenn AMD gleichstark, besser oder zumindest P/L besser war - trotzdem unbedingt Nvidia kaufen musste. Davor war Cuda das Killerargument, obwohl ich annehme, dass die wenigsten jemals die Möglichkeiten, die Cuda bietet, auch nur annähernd genutzt haben.
 
Mal abgesehn davon, dass es nett wäre dieses Feature auch auf B450/X470 und zumindest Zen2 zu aktivieren, verstehe ich noch nicht so ganz wie die Leistungssteigerung zustande kommt.

Zugriff der CPU auf den ganzen VRam, anstatt nur auch einen kleinen Teil....schön und gut, aber das klingt für mich danach, als müsste das Spiel auch wissen, dass es dies nun nutzen kann, sonst wird die Programmierung das vermutlich nicht berücksichtigen.

Und was ist daran schneller?
Schiebt die CPU vorsorglich Daten in den VRam, bevor die GPU sie anfordert?
Ist die Übertragungsrate dadurch höher oder mit weniger Latenz?
Bekommt die GPU schneller die Drawcalls zugewiesen?
Nutzt die CPU den VRam als Systemram-Erweiterung?
 
  • Gefällt mir
Reaktionen: Ned Flanders
Was ich mich frage, ist ob es auch Spiele gibt bei denen der Performancezugewinn negativ ist oder ob man das immer pauschal auf "on" lassen kann?

Außerdem, weiß jemand wieso der direkte Zugriff der CPU auf den GPU Speicher in einem Performancezugewinn bringt, wenn man eh schon GPU-limitiert ist?
Wenn überhaupt, dürfte doch auch das SI in dieser Konfiguration schon am Limit laufen und musste mit dem infinity Cache aufgebohrt werden.
 
Wie sie alle hier rumheulen wegen ~5% FPS, als ob die GPUs ohne SAM unbrauchbar wären. 🤣
Und überhaupt: Hab ich was verpasst und es gibt schon Testberichte zu den neuen Karten und SAM, weil hier jeder schon glasklar Bescheid weiß?
 
TxKreator schrieb:
Und was hat Virtualisierung jetzt mit Treiber zu tun?
Wäre mir auch neu das ne V-Software auf Windows basiert
Der Treiber greift auf die selben Low Level Primitives und damit Spezifikationen der Hardware zu.
Hyper-V anyone? Frag mal MS, worauf Azure so basiert und wieviele GPU die so im Einsatz haben.
GCP/AWS laufen unter KVM und teile von AWS noch unter XEN, ja. Aber gerade auch in Enterprises wird viel GPU Virtualisierung unter Hyper-V eingesetzt.

TxKreator schrieb:
Fakt ist SAM ist SAM
Ja, SAM ist SAM. Dieser Fakt (Marketing Name = Marketing Name) ist nunmal unstrittig.. hilft aber bei der Diskussion eher nicht weiter.
Und zum Rest: Tut mir leid, dass so sagen zu müssen, aber: Du solltest deine PCIe Kenntnisse auffrischen, den Code/Die Kommentare dazu im Linux Kernel bzw. im amdgpu Modul lesen und dann wirst du es vielleicht verstehen.
 
Teralios schrieb:
Er greift hier AMD als auch die »Community«, sogar mit dem Verweis, dass ja der Aufschrei bei Intel groß wäre, unterschlägt dabei aber nur, dass Intel GENAU DAS ja bereits bei Xeon-Phi gemacht hat - nachweisbar, Link ist in meinen Beiträgen zu finden - und nun sogar bei Xe DG1 - nicht SAM, aber eine »Optimierung« der CPU mit dGPU - mit DeepLink auch macht.

Ich finde es witzig wie du Xeon-Phi jetzt hervorkramst. Als ob jemand damit zocken würde.:D
Ich dachte es geht hier im die Desktop User, die spielen. Du holst ganz schön weit aus, das zeugt eigentlich stark davon, dass deine Beiträge hier dieses Thema betreffend tendenziös sind.

Teralios schrieb:
Den Artikel finde ich schlecht, weil man erkennt, dass hier das Urteil sowie der Skandal im Vordergrund stand, so wie es hier bei einigen aktuell der Fall ist.

Und ich finde deinen Beitrag hierzu schlecht, weil du ganz gezielt andere als unwissende und Trolle brandmarkst und den Artikel von Leonidas ungerechtfertigt schlechtredest.

Teralios schrieb:
Und nein, es ist auch keine neue »Funktion« von PCIe4.0, sondern PCIe bietet diese Funktion von Anfang an, aber eben mit der Limitierung, dass man immer nur »Slices« vom RAM sieht. WDDMv2.7 hat nun hier die Funktion unter Windows verbessert, sodass man nun entsprechend den ganzen VRAM »abbilden« kann, nicht nur mehr eine Tile/Slice, nenn es wie du magst!

Wieso ist es dann so gerechtfertigt, dass AMD das auf Zen 3 limitiert?:D

Teralios schrieb:
Ja uind nein. Es ist ein Treiberseitiges Feature, dass gewisse Anforderungen an die CPU sowie GPU stellt, aber diese Anforderungen erfüllen eigentlich heute fast alle CPUs und GPUs.

Lol.

Wenn AMD sich entscheidet, dass sie den BAR-Support für IHRE GPU nur mit Zen 3 gewährleisten wollen/können, dann ist das durchaus ihr gutes Recht und kein Dickmove

Also wir halten fest: AMD ist der/die/das Gute und Nvidia das phöse, ganz egal was die machen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ZeroStrat
Buildzoid hat neuigkeiten zum IF, bleibt wohl bei ~1900
 
Egal....is doch geil wie hier einige abgehen, weil sie sehen, ihnen könnten 5% FPS dadurchgehen.....
Das Nvidia das mit überteuerten Grakas macht, Intel ununterbrochen seit Jahren macht....alles Egal.....
AMD >>> H - A - T - E

Ich finds Geil!:daumen:
 
  • Gefällt mir
Reaktionen: Ned Flanders
Also ich kann mich sogar noch daran erinnern wie ein nvidia Chipsatztreiber eine Ati GPU ausgebremst hat :freak: Mit SAM wird nun endlich das was man von einen AMD Komplettsystem erwartet verwirklicht. Einen Bonus.
Das man für neue Features die auf aktueller Hardware entwickelt werden nicht zu alter Hardware abwärtskompatibel ist finde ich nicht ungewöhnlich. Wobei es mich nicht überraschen würde wenn da doch noch was kommt. Auch der Leistungsgewinn ist sicher im Schnitt viel niedriger als die 11% im best case Szenarien, es besteht doch absolut kein Aufrüstzwang. SAM ist eher ein nice to have und kein must have feature.
 
  • Gefällt mir
Reaktionen: PulsarS
@SV3N
Ich erwarte schon einen ausführlichen Technik Artikel zum Thema SAM. Das finde ich mit Abstand am interessantesten an Zen 3.
Warum sind die 30 GB/s bei PCIe 4.0 x16 so viel besser als die gut 25 GB/s bei DDR4-3200? Liegt es wirklich an den "nur" 5 GB/s?
Hilft das gegen zu wenig DDR4 RAM. Sagen wir 8 GB...
Und verschwindet der SAM Vorteil, wenn man sehr schnellen RAM hat? So 3600er, 4000er und aufwärts...
Hat SAM eine langfristige Perspektive oder ist es quasi tot, wenn schneller DDR5 RAM breit im Markt ist.

Hach... Fragen über Fragen.
 
Rodger schrieb:
ACH!!!
Dieses Posting war so intelligent, wie jemand der darüber gejammert hat, das es reine böswillige Verschwörungen sind, die ihn daran hindern mit seinem CD-Player 4K Blu-Rays abzuspielen.
Einfach jammern ohne Sinn und Verstand und Fakten herbeiführen, ohne jegliche Grundlage.
Meinst du mich?
 
Toprallog schrieb:
@SV3N
Warum sind die 30 GB/s bei PCIe 4.0 x16 so viel besser als die gut 25 GB/s bei DDR4-3200? Liegt es wirklich an den "nur" 5 GB/s?
25GB/s bei DDR4 3200 sind mit einem Riegel. Im Dualchannel hast du theoretischs 50GB/s, Quod 100GB/s.
Und ich bezweifle, das man an die Latenzen von DDR4 ran kommt, wenn man lahmen GDDR6/HBM nimmt, der auf der GPU liegt. Hier würden wir wohl von 20%+ einbußen ggü den jetzigen Lösungen reden.
 
  • Gefällt mir
Reaktionen: Toprallog
Ich glaube der Gebrauchtmarkt wird demnächst mit ryzen 3000 CPUs überflutet sein weil die G4M3R auch noch die letzten 5% haben wollen :) dann kann ich mir schön günstig einen Ryzen 3600 Abstauben
 
Wenn es denn 5% overall wären. Aber 5% ist eher schon best case..

@KlaraElfer wie rechtfertigt Intel eigentlich seine K CPUs, oder die Einschränkungen beim Chipsatz hinsichtlich OC und RAM OC. Evtl kann sich AMD hier die Argumentation abschauen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bad_sign
think->write! schrieb:
GSync schon, nur unterstützen doch inzwischen 76 von 88 GSync Monitore auch Freesync. Darunter werden einige sein mit NVs Sync Modul.

Mit G-Sync Monitoren ab Anfang 2020 können auch AMD Grafikkarten wir die 5700XT und neuer Angesprochen werden, das kam 2019 per Firmware für G-Sync Module.

Z.B. ist der "Freesync" Support sogar besser als der original Freesync hat man ein neues G-Sync Modul wie z.B. im LG 38GL950G-B.

Siehe dazu auch Artikel bei PRAD zu dem Monitor, er wird zwar absichtlich als reiner G-Sync Monitor beworden, die AMD Karten werden aber voll akzeptiert und bieten Support.
 
Hoffe nur, dass AMD nicht große Treiberproblem wie damals beim Marktstart der rx 5000 series haben wird. Dann wird sich die rx 6900xt erstmal gegönnt.
 
Folgende Zitate sind bezogen auf die Antwort von Teralios an KlaraElfer:

KlaraElfer schrieb:
Ich finde es witzig wie du Xeon-Phi jetzt hervorkramst. Als ob jemand damit zocken würde.:D
Ich dachte es geht hier im die Desktop User, die spielen. Du holst ganz schön weit aus, das zeugt eigentlich stark davon, dass deine Beiträge hier dieses Thema betreffend tendenziös sind.
[...]
Und ich finde deinen Beitrag hierzu schlecht, weil du ganz gezielt andere als unwissende und Trolle brandmarkst und den Artikel von Leonidas ungerechtfertigt schlechtredest.
[...]
Wieso ist es dann so gerechtfertigt, dass AMD das auf Zen 3 limitiert?:D
[...]
Lol.


Hier hilft einfach: Augen schließen. Tief durchatmen.
Bitte keine langen Diskussionen, dass hilft keinem.

Als Unparteiischer sehe ich das so:

Teralios hat mehrfach versucht in langen, meist sehr sachlichen Texten, zu erläutern wie er zu dem Thema steht und warum er diesen einen Artikel nicht gut findet, ohne die Person direkt anzugreifen oder generell Unwissen zu unterstellen. Er mag nicht, wie speziell dieser Artikel verfasst wurde und nur einseitig die Fakten beleuchtet wurden.

Darüber jetzt ewig zu streiten macht keinen Sinn und ist OT.

Wegen der Sache, dass AMD gewisse neue Features (vorerst) limitiert:

AMD stellt CPUs und GPUs her.
Die arbeiten mit vielen Abteilungen zusammen und forschen an ihren eigenen Produkten.
Nun haben sie es nach jahrelangen Anstrengungen erreicht, sowohl bei den CPUs als auch GPUs vorne mitzuspielen und ihnen ist dabei aufgefallen, dass man doch CPU und GPU miteinander verknüpfen kann.

AMD ist ein Unternehmen was Geld verdienen will.
Mit neuer CPU und neuer GPU bewirbt man offiziell die neue Gaming Lösung für den Desktop.
Das Marketing möchte bewusst den Kauf zu diesen Produkten anregen.
Es sollen bewusst Leute von Intel umsteigen und wieder AMD kaufen.
Ja, es sollen auch bewusst Leute von Zen2 oder Zen1 umsteigen, wenn Sie das neue Feature nutzen möchten.

Da ist nichts verwerfliches dran.
AMD ist sehr kulant was abwärtskompatibilität mit Chipsätzen und alten Boards angeht.
Überleg mal wie lange man schon den AM4 Sockel nutzt und dass viele CPUs auch mit alten Boards laufen.

Sehe das doch einfach als nettes i-Tüpfelchen und als Kaufargument für einen neuen AMD Prozessor.
Niemand verliert etwas dabei, wenn man nicht SAM nutzen kann.
Es entgeht auch niemanden etwas.

Hier wird auch nicht mit unterschiedlichem Maß gemessen.
Wenn sich das so als Killer-Must-Have Kriterium entwickelt, dann werden dazu (offene) Standards kommen, welche auch die Konkurenz nutzen kann, wie mit anderen Techniken auch.

Es braucht Pioniere, welche neue Techniken entwickeln und diese sollen auch bezahlt werden.
Genauso wie nvidia mit DLSS und Raytracing und damals AMD mit Mantle (hat zu Vulkan und DX12 geführt).
Wenn es gut ist, wird es dazu führen, dass es jeder nutzen kann oder ähnliche Techniken möglich sind.

Tut niemanden weh. Sondern hilft bei der Entwicklung.
Und ja, jeder möchte erst mal daran verdienen und Leute zum Kauf anregen.
So ist das. Das tut auch niemanden weh, der weiterhin Intel oder Nvidia kauft. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: hRy und PulsarS
Kacha schrieb:
Und einmal darfst du raten woran AMD ueberall verdient... Richtig, an allem.

Und das ist doch ihr gutes Recht, wenn es die Leute kaufen.
Kacha schrieb:
Und ja, natuerlich ist es ein Unique Selling Point, denn derzeit bietet es kein anderer Hersteller.

Ja, aber das ist es doch nur, weil AMD das nicht für die älteren CPUs freigibt, obwohl dies kein Problem darstellen würde.

Kacha schrieb:
Oder verstehst du nicht was ein Unique Selling Point ist?

Rüstet halt nicht jeder seine CPU wegen 20% mehr Leistung auf, das meinte ich damit.

Kacha schrieb:
Oh nein, AMD will, dass man neue Hardware kauft um ein neues Feature zu nutzen, Skandal!

Aus eurer Perspektive, müsste das ein Skandal sein, denn AMD wurde stehts auch unter anderem von dir für deren gute Kompatibilität gelobt, die jetzt anscheinend gar nicht mehr von Interesse ist.
So schnell können sich Ansichten wie das Fähnlein im Wind drehen.

Kacha schrieb:
Ganz ehrlich, sag einfach, dass du was dagegen hast weil AMD es macht.

Ich hab da gar nichts dagegen. Von mir aus können die machen was sie wollen, ich würde es, wenn das Angebot besser als bei der Konkurrenz ist, trotzdem kaufen. Was ich nur nicht verstehe ist, warum die Befürworter der Kompatibilitäten plötzlich scharf drauf sind CPU und teilweise Board nachzurüsten und es nicht mal leise Kritik gibt. Und wenn es dann Kritik gibt, dann wird das mit "das ist kein Dickmove" abgeschmettert, wohlwissend, dass das genauso ein Müll ist wie in Intel mit Z270 abgezogen hat, nämlich Funktionen nicht zu unterstützen die einfach funktionieren und das ganz ohne neue CPUs oder gar Boards für teuer Geld zu kaufen.

Dai6oro schrieb:
wie rechtfertigt Intel eigentlich seine K CPUs, oder die Einschränkungen beim Chipsatz hinsichtlich OC und RAM OC. Evtl kann sich AMD hier die Argumentation abschauen.

Spätestens jetzt driftet ihr vollkommen in den Whataboutism ab.
 
TxKreator schrieb:
Und was hat Virtualisierung jetzt mit Treiber zu tun?
Du musst hier jetzt etwas trennen: Virtualisierung ist nicht gleich Virtualisierung.

Es geht hier nicht ein »OS« auf einem Wirts-OS zu virtualisieren. Es geht hier bei darum, dass man den »VRAM« für die CPU sichtbar virtualisiert und auch dafür benötigt man eben Techniken der Virtualisierung.

Hier geht es darum, dass der VRAM in den »Adressbereich« der CPU mit eingebunden werden, gleichzeitig müssen Adressen auch »Übersetzt« werden und das passiert hier durch die Virtualisierung.

Die Virtualisierung läuft heute auf sehr vielen Ebenen im System statt, weil sie teilweise Geschwindigkeitsvorteile bietet, weniger Speicher »benötigt«, oder die Sicherheit erhöht, ohne dass es mit Nachteilen verbunden ist.

TxKreator schrieb:
Wäre mir auch neu das ne V-Software auf Windows basiert
Muss sie auch nicht, und doch werden Techniken der »Virtualisierung« heute in jedem modernen Betriebssystem verwendet, genau so werden entsprechende Techniken sogar in so einigen Programmen verwendet.

Sandboxen in Browsern nur mal so als Beispiel.

Baal Netbeck schrieb:
Mal abgesehn davon, dass es nett wäre dieses Feature auch auf B450/X470 und zumindest Zen2 zu aktivieren, verstehe ich noch nicht so ganz wie die Leistungssteigerung zustande kommt.
Ich hab es bereits ein paar mal erläutert. Der Treiber stellt für die GPU das Bild zusammen und sendet dann der GPU das Bild, dass diese rendert.

Der Treiber läuft auf der CPU ab, durch SAM hat der Treiber jedoch jeder Zeit vollen Zugriff - statt nur auf »Tiles« - auf den VRAM und kann so sehen, wo die GPU Daten im VRAM speichert. Der Treiber kann so den Renderanweisungen auch Informationen für die GPU mit geben, so dass diese schneller auf die Daten zugreifen kann.

Als Beispiel: Ein Bild aus den Modellen X, Y und Z, sowie den Texutren A, B, D, F und G soll berechnet werden. Der Treiber bekommt ja mit Geteilt was gerendert werden muss, er kann nun in den Arbeitsspeicher der GPU schauen, wo diese Daten sind und der GPU melden, bevor das Bild kommt: Optimiere dir mal den Zugriff auf diese Assets, denn in dem gleich kommenden Frame brauchst du diese Sachen.

Und nein, dass Spiel, besser der Programmierung muss eben nicht unbedingt wissen, dass das möglich ist. Er kann darauf hin optimieren - ebenso wie z.B. nun mit Direct Stroage um die Assets passend zu laden - gleichzeitig laufen aber viele dieser Daten ohnehin im Treiber zusammen, sodass man hier auch aufseiten des Treibers bereits abgreifen kann!
 
  • Gefällt mir
Reaktionen: hRy, xRedF, Baal Netbeck und 2 andere
Zurück
Oben