News Smart Access Memory: Ryzen 3000 und Vorgängern fehlt es an Hardware-Support

Schade das es nicht möglich ist auf älteren Ryzen CPUs, aber nicht schlimm! 3700X und 6800 laufen tip top in QHD :)
 
Du betrachtest (kopierst in dein Register) durch eine Maske einen Speicherbereich (in deine Abbildung des betrachteten Speicherbereichs). Was ist daran kein Fenster?
 
Das ist schade, hätte die Hoffnung das mein zweites Sys das auch noch bekommt.
Naja, so viel plus ist es ja dann auch nicht.

Bei den Games die ich so spiele sind es 2 bis 6% was ich gemessen hab mit SAM on/ofc
 
bad_sign schrieb:
Du betrachtest (kopierst in dein Register) durch eine Maske einen Speicherbereich (in deine Abbildung des betrachteten Speicherbereichs). Was ist daran kein Fenster?
Das ist doch ueberhaupt nicht der Punkt...

Die Frage ist, warum braucht man genau diese Funktion? Warum nimmt man nicht einfach Bit-Shifts und 64-bit Additionen, wenn man Adressinformationen von 32 bit auf 64 bit entpacken moechte - oder welches Problem auch immer diese Funktion angeblich ueberhaupt loesen soll?
 
@HighDefinist
Betrachte doch den Artikel so,
vielleicht fühlt sich AMD durch den Artikel schneller genötigt, eine entsprechend (detailierte?) Erklärung zu dem Thema abzugeben :)
 
bad_sign schrieb:
@HighDefinist
Betrachte doch den Artikel so,
vielleicht fühlt sich AMD durch den Artikel schneller genötigt, eine entsprechend (detailierte?) Erklärung zu dem Thema abzugeben :)
Ja, da stimme ich Dir zu, diese detailiiertere Erklaerung wurde mich in jedem Fall auch interessieren.
 
Wenn es mit einem Patch frei geschaltet werden kann, aber nichts bringt, ist es ein Null-Feature. Dann sollte man auch keine Ressourcen dafür verschwenden und den Leuten klaren Wein einschenken.
Und trotzdem geben sich Leute damit nicht zufrieden, weil sie sich ausgeschlossen fühlen. Das Problem können sie selbst beheben, indem sie neue Hardware kaufen. ;)
 
Berserkervmax schrieb:
16GB Vram bringen aber nix wenn du nur 256Bit hast um sie zu füllen.

Das wird bei der 6900XT noch mehr in Gewicht fallen und ohne SAM zu noch größeren Verlusten führen.


Jetzt wurdest du schön korrigiert und hörst trotzdem nicht auf, diesen Schwachsinn zu behaupten...
Big Navi hat mehr als genug Bandbreite, ganz egal ob nur 256 Bit oder nicht. Sieht man gut am Test von CB.
Aber da du den Kommentar von @bad_sign auch schon ignoriert hast muss man wohl davon ausgehen, dass du einfach nur trollst...

Desweiteren müsstest du mal erklären, warum es mehr Leistung bringt, wenn die CPU auf, wie du behauptet LANGSAMEREN Speicher zugreifen kann. Nach deiner Logik müsste nVidia STÄRKER von deren SAM-Implementierung profitieren, weil die Karten angeblich mehr Bandbreite haben.


Naja, wie auch immer. Ich warte mal ab. Alternativen zu meiner 3070 wird's eh nicht geben, bis nVidia in die Richtung was gebracht hat, also alles entspannt. Falls es dann nochmal ein bisschen mehr Leistung gibt freu ich mich und die 3070 darf fürs erste bleiben, ansonsten werden, sobald Cyberpunk durch ist, vorsichtig die Fühler nach einer Referenz-6800 ausgestreckt, die sagt mir insgesamt Stand jetzt doch mehr zu...
 
  • Gefällt mir
Reaktionen: Colindo
"sam" ist die marketing-bezeichnung für resizeable bar. das ganze wird unter linux seit jahren unterstützt - und damit auf hardware vor zen3. "_pdep_u32" ist keine bedingung für resizeable bar (das feature ist von 2008, da gab es noch kein haswell), aber sicherlich hilfreich, wenn man es performant verwenden will. insofern finde ich den artikel irreführend.
 
  • Gefällt mir
Reaktionen: elvis2k1 und Redundanz
Enurian schrieb:
Wie willst du das beurteilen, wenn du selbst nicht in der Materie steckst?
… Dir ist schon klar, dass man das theoretische Wissen über eine Technik haben kann und diese Technik auch verstehen kann, selbst wenn man sie nicht mehr direkt entwickeln kann, weil man sie eben nicht mehr braucht?

Bit-Maskierungen und die Möglichkeit Bit-Räume von größeren in kleinere zu konvertieren und umgekehrt, ist im Studium der Informatik durchaus eine Grundlage, die man vermittelt bekommt und genau darum geht es. Teile davon waren in theoretischer Informatik und der anderen Teil in der BS-Entwicklung.

Enurian schrieb:
Das widerspricht sich doch.
Nein, das widerspricht sich nicht. Im Gegensatz zu dir, als auch den meisten auf Reddit, habe ich ein Vordiplom in der Informatik und bin bis heute in der Code-Analyse tätig um Fehler zu finden und auch ggf. bereits Vorarbeit bei der Fehlerbehebung zu leisten. Ich bin sicher kein Genie, dass irgendwelche tollen Algorithmen ersinnen kann, dafür fehlt es mir an Erfahrung und Übung. Wenn ich aber ein Algorithmus sehe, dann kann ich dessen Funktionsweise verstehen und auch erklären.

Und ein ganz kleiner Tipp, nur so am Rande: Wer im Glashaus sitzt, sollte nicht mit Steinen schmeißen. Du hast hier inhaltlich nichts abgeliefert, sondern nur auf Reddit verwiesen und die meisten Kommentare da bringen auch keinen Inhalt, sondern widersprechen ohne wirkliche Erklärung.

@foo_1337 und ich haben uns hier - auch zusammen mit @Colindo sowie @yummycandy der die Folie gepostet hat, die Mühe gemacht verschiedene Möglichkeiten zusammen zutragen und haben sie auf einem fachlichen Niveau erläutert. @ZeroStrat wiederum hat seine Kontakte genutzt um gewisse Informationen aus erster oder zumindest zweiter Hand zu bekommen.

Enurian schrieb:
An deinen Ausführungen finde ich schon mal komisch, dass du meinst, der Controller würde das tun. Der PCIe-Controller steckt im IO Die und der ist identisch zwischen Zen2 und Zen3.
Du findest meine Ausführung nur komisch, weil du keine Ahnung von Informatik und Mathematik hast und ebenso, weil du nicht richtig liest. Weder meinen Beitrag, noch die Beiträge der anderen geschweige denn die News.

Enurian schrieb:
Zudem gibt es die Option "above 4g decoding", die die MMIO auf 64 Bit verbreitert, ja nun schon ewig. Wenn dabei Instruktionen verwendet werden, die arsch langsam laufen, müsste das dann nicht mit jeder GPU eine Performanceverringerung auf z.B. Zen 2 verursachen? Teste ich gern mal.
Und nun wird es peinlich, weil du hier nur selektives Halbwissen anwendest und denkst, dass du damit hier gegen Leute, die Ahnung von der Materie haben, bestehen kannst. Und ja, das, was ich schreibe, mag jetzt vielleicht arrogant klingen, aber direkt: Wissen und Kompetenz sieht nur wie Arroganz aus, wenn man beides nicht hat! Denn ich wiederhole mich nun gefühlt jeden Tag 8 oder 9 mal.

BAR ist eine Funktion, die bereits im PCI-Protokoll gab, wurde daher in PCIe übernommen. Mit PCIe wurde mit PCIe2.1 ausgebaut. Das ändert aber nichts daran, dass für das PCIe BAR 32-Bit vorgesehen sind. Um genau zu sein: Bis zu 6 pro Gerät, zwei davon können jedoch zu 64-Bit zusammen geschaltet werden.

Aber genau hier ist der Knackpunkt: Die MMIO in den heutigen CPUs sind dennoch NUR 32Bit-Breit, egal ob nun die neusten Intel oder AMD-Prozessoren oder deren Vorgänger. Man muss also die 64 Bit BAR des PCIe auf 32 Bit MMIO abbilden und die MMIO wird dann wiederum in den Adressraum der CPU abgebildet, der im Übrigen je nach x64-Generation zwischen 40 Bit und 64 Bit liegen kann. Athlon 64 hatte damals z.B. nur 40 Bit

Und genau hier kommen diese beiden Befehle zum Tragen: Mit einer Bit-Maskierung kann man nun anhand von gewissen Regeln 64Bit-Adressen - wobei hier ja keine 64Bit genutzt werden, 16 GByte braucht man 34 Bit - zu 32 Bit-Adressen umrechnenen lassen und genau das ist hier der Punkt. Hättest du grundlegende Ahnung von Programmierung und Adressierung und würdest du dich mit Bit-Operatoren auskennen, dann wüsstest du das!

Und der Rest steht bereits in der News: Die beiden Befehle kamen bei Intel mit Haswell und bei AMD mit Excavator, wurden aber im Excavator in Mikrocode implementiert und erst jetzt mit Zen 3 in Hardware!


HighDefinist schrieb:
Warum braucht man ueberhaupt genau diese Bit-Operation, um resizable BAR effizient zu verwenden? Warum soll keine einzige, der anderen Bit-Operationen, die es sonst noch so gibt, auch im Stande sein, etwas Aehnliches mit einer aehnlichen Performance zu erreichen?
Weil du in dem Fall keine 64Bit als ganzes auf 32 Bit abbilden musst - das wäre noch um ein vielfaches komplizierter, sondern du musst nur in der Regel - je nach RAM-Menge - nur 34 oder 35 Bit + die Device-Bits transformieren. Du musst in dem Fall die 34 Bit der GPU in 2 32 Bit-Blöcke der MMIO aufteilen.

Mit PDEX und PDDP kannst du nun die "64 Bit" in 2 32Bit-Blöcke aufsplitten oder eben diese beiden 32Bit-Blöcke in einen 64 Bit Block wieder kombinieren.

Um es dir an einem Beispiel zu geben du wendest auf 64 Bit 2 Regeln an, x steht in dem Fall dafür ein Bit zu verwerfen, a steht dafür ein Bit mitzunehmen:
Nummer der RegelInputOutput
RegelnummerInput RegelOutput Regel
Gerade-Bitsaaaa xxxx xxxx xxxx xxxx xxxx xxax axax axax axax axax axax axax axax axaxaaaa 0001 0000 000a aaaa aaaa aaaa aaaa
Ungerade-Bitsaaaa xxxx xxxx xxxx xxxx xxxx xxxa xaxa xaxa xaxa xaxa xaxa xaxa xaxa xaxaaaaa 0010 0000 000a aaaa aaaa aaaa aaaa

Jetzt kann man aus einer 64 Bit-Adresse mit der Bit-Maskierung 2 32 Bit-Adressen machen oder eben die beiden 32 Bit-Adressen über die Maskierung und eine Verknüpfung wieder zu einer 64 Bit-Adresse verwenden.

Und natürlich kann man die Maskierung auch mit anderen Befehlen nachbilden - macht Excavator bis Zen 2 - jedoch brauchst du dafür eben sehr viel länger.

In Zen 3 braucht man - vereinfacht gesagt - sehr viel weniger Zeit dafür. Um eine Adresse zu zerlegen braucht man 6 Cycle, Zen 2 und davor bräuchten 600 Cycle dafür. Um die Adresse zusammen zu fügen braucht man 6 Cycle + die zeit, die das XOR benötigt (die oberen Regeln funktionieren in dem Fall nicht "ganz", weil die Device-ID noch passend zerlegt werden müsste).

… Es ist nicht wirklich »kompliziert«. Ich hab es aber halt echt Ewigkeiten nicht mehr gemacht.
 
  • Gefällt mir
Reaktionen: sloven, simosh, 4nanai und 11 andere
Bierliebhaber schrieb:
Jetzt wurdest du schön korrigiert und hörst trotzdem nicht auf, diesen Schwachsinn zu behaupten...
Big Navi hat mehr als genug Bandbreite, ganz egal ob nur 256 Bit oder nicht. Sieht man gut am Test von CB.
Aber da du den Kommentar von @bad_sign auch schon ignoriert hast muss man wohl davon ausgehen, dass du einfach nur trollst...

Desweiteren müsstest du mal erklären, warum es mehr Leistung bringt, wenn die CPU auf, wie du behauptet LANGSAMEREN Speicher zugreifen kann. Nach deiner Logik müsste nVidia STÄRKER von deren SAM-Implementierung profitieren, weil die Karten angeblich mehr Bandbreite haben.


Naja, wie auch immer. Ich warte mal ab. Alternativen zu meiner 3070 wird's eh nicht geben, bis nVidia in die Richtung was gebracht hat, also alles entspannt. Falls es dann nochmal ein bisschen mehr Leistung gibt freu ich mich und die 3070 darf fürs erste bleiben, ansonsten werden, sobald Cyberpunk durch ist, vorsichtig die Fühler nach einer Referenz-6800 ausgestreckt, die sagt mir insgesamt Stand jetzt doch mehr zu...

Quelle :
https://www.igorslab.de/radeon-rx-6...ichstand-aber-mit-unterschieden-im-detail/18/

"Geht man auf Ultra-HD, dann sieht man erstaunliche Dinge, denn die Radeon RX 6800XT fällt auch ohne SAM hinter eine GeForce RTX 3080 FE zurück. Das lässt sich auch in Einzelspielen gut beobachten, denn selbst der große Cache der Radeon kann hier nicht mehr vollumfänglich das sehr schmal ausgefallene Speicherinterface kaschieren. Es ist beruhigend, 16 GB Speicher auf der Karte zu wissen, nützt aber nichts, wenn man sie nicht auch gleichzeitig schnell genug vollbekommt. Man kann das mit 5K oder gar 8K noch weiter auf die Spitze treiben, wo es dann extrem deutlich wird, aber eh nicht mehr spielbar ist, auf keiner der Karten.


Man kann über die in der Relation zum Preis eher mickrigen 10 GB GDDR6X der RTX 3080 schimpfen wie man will, sie sind unterm Strich besser angebunden, deutlich schneller als der GDDR6-Speicher und man kommt auch so schnell nicht ins Bandbreiten-Limit. Mit SAM kann es AMD einigermaßen kompensieren, so dass es am Ende (aber nur mit SAM) sogar noch zum gefühlten Gleichstand kommt. Ohne allerdings geht es definitiv nicht.
"
 
  • Gefällt mir
Reaktionen: LipsiaV
Und hat Igor nur einen RAM Test? Nein. Er hat seine Aussage nicht einmal nur überprüft.
Er verwechselt das unterfüttert sein, der Ampere FP32 Einheiten, in niedrigen Auflösungen mit Anbindungsproblemen seitens BigNavi

Edit:
Kurzversion

FormatC schrieb:
Watchdos Legend UHD und alle Ultra:

1800 MHz 46.8 FPS
1900 MHz 48,1 FPS
2000 MHz 49,3 FPS
2100 MHz 49.6 MHz
2150 MHz 48.2 MHz

Leider ist der Speicher schon bei 2150 MHz am Ende, denn ab 2.1 GHz gehts rapide runter. Da aber die Performance bis 2.1 GHz nahezu gleich skaliert, sehe ich hier durchaus ein Limit. Das Runtersetzen geht mit dem MorePowerTool recht gut, allerdings ist bei 1700 Ende, Green Screen.

Watch Dogs als Negativbeispiel für die 3080 sollte sich mit dem nächsten Treiber wohl auch noch etwas verbessern. Wobei die CPU bei mir sogar in QHD noch etwas im Flaschenhals klebt, da hilft der 6800XT nur SAM etwas weiter. Ohne ist die 3080 wieder vorn.
https://extreme.pcgameshardware.de/...h-redakteure-dazu.594999/page-2#post-10573004

Keine Skalierung über Standard Takt -> kein Bandbreitenlimit!
Von Igor selbst vorgeführt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Colindo, Maxxx800 und Teralios
Berserkervmax schrieb:
Bei NV wird es aber nicht soviel bringen weil NV nicht das Speicherbandbreiten Problem der AMD Karten hat.

das hat damit nichts zutun, den bei SAM limitiert der PCIE Bus womit CPU und GPU verbunden sind. Die Leistung kommt daraus das man direkten zugriff auf den VRAM bekommt und ggf. daten im vorraus speichert und so die performance erhöhen kann.
 
Berserkervmax schrieb:
"Geht man auf Ultra-HD, dann sieht man erstaunliche Dinge, denn die Radeon RX 6800XT fällt auch ohne SAM hinter eine GeForce RTX 3080 FE zurück. Das lässt sich auch in Einzelspielen gut beobachten, denn selbst der große Cache der Radeon kann hier nicht mehr vollumfänglich das sehr schmal ausgefallene Speicherinterface kaschieren. Es ist beruhigend, 16 GB Speicher auf der Karte zu wissen, nützt aber nichts, wenn man sie nicht auch gleichzeitig schnell genug vollbekommt.
Ich will Igor jetzt sein Fazit da nicht absprechen, muss an der Stelle aber sagen, dass es hier, gerade bei 4K auch noch einen weiteren Grund geben kann, warum die 3080 als auch die 3090 schneller sind und das hat nichts mit dem Cache oder eben der Bandbreite des VRAM zu tun und das wird hier außer Acht gelassen. Ich habe da schon mit @Colindo drüber gesprochen in einer PN.

Die 6800, 6800XT und 6900 XTX werden gerade in 1080p als auch 1440p - je nach Auswahl der Spiele - den Ampere-Karten sehr gefährlich, obwohl sie nominell ca. 50 % der Shader haben. Eine CU bei RDNA - und RDNA2 - bestehe aus 2 * Vec32-Befehle. Jede dieser Vec32 braucht seinen eigenen Thread/Wave-Befehl. AMD nutze bei GCN noch Wave64 im Treiber, hat das aber scheinbar mit RDNA auf Wave32 umgestellt - siehe Whitepaper von AMD zu RDNA oder ein paar meiner Beiträge, da hab ich sogar die Seite verlinkt, sorry mag jetzt nicht suchen.

Da Bilder heute immer »detailreicher« werden, kommen in vielen Szenarien auch mehr Shader zum Einsatz, die aber auf weniger »Pixel« angewendet werden. In 1080p und 1440p kann AMD mit der Wave32-Front also ihre GPU deutlich besser auslasten, da ein »Vektor« mit 32 Werten wahrscheinlicher gefüllt wird, als mit 64 Werten.

NVIDIA arbeitet - was ich so gesehen habe - seit Turing auch mit einer »Wave64« (nennen sie anders) und brauchen bei Turing als auch Ampere eben 2 Wave64 um eine SM voll auszulasten. In niedrigeren Auflösungen ist es aber schwerer immer die 64 Werte pro SM-Datenpfad (2 Pfade zu je 64 ALUs) zu bekommen. Je höher die Auflösung ist, umso einfacher ist es Daten in die Vektoren zu packen, sodass Ampere ihre Rechenleistung besser auf die Straße bringen kann.

Es ist wichtig, dass ihr versteht, dass die »Shader« - um sie einfacher ansprechen zu können - sowohl bei AMD als auch bei NVIDIA in Gruppen gefasst werden und ebenso als Gruppen angesprochen werden und damit automatisch »mehr« Shader erst mal nur die theoretische Rechenleistung steigert, die Daten müssen aber auch in passenden Happen ankommen.
 
  • Gefällt mir
Reaktionen: Looniversity, Tanzmusikus, JohnVescoya und 2 andere
letsdoscience schrieb:
Und schon fühlt sich mein Threadripper 3970X impotent an. Noinnnnnnnnnnnnnnnnnnn er kann was nicht, zu HÜLF'! :pcangry:

Same :D wobei es für mich kein Beinbruch ist^^ die Zuwächse sind nichts was ich in irgendeiner Anwendung merken würde^^
 
Ich würde als Fazit der seit Wochen andauernden Diskussionen anbieten, jetzt erstmal ein paar Schritte zurückzutreten. Am Anfang war es eine übertrieben hitzige Diskussion, warum AMD nur die neuen Prozessoren unterstützt, dann kamen die ersten Vermutungen bezüglich der Gründe, und jetzt können wir hoffentlich die nächsten Wochen ohne Wiederholung in jedem Thread, dass AMD "jetzt auch böse ist", weitermachen.

Die Wahrscheinlichkeit ist hoch, dass es nur mit Zen3 geht, aber es sollte allen klar sein, dass nur eine offizielle Aussage von AMD absolute Gewissheit liefern könnte. Aber bitte lasst die ständigen, unzulänglichen "Gegenbeweise", die nur das Verständnis vermissen lassen.

Streitet euch lieber darüber, warum die RX-5000er-Reihe kein SAM hat :D
 
  • Gefällt mir
Reaktionen: LukS
Und ZACK sind sie 5000er Ryzen wieder mehr wert und noch seltener geworden. Jetzt werden ganz ganz viele Leute ihren Ryzen 3000 doch gegen einen 5000 wechseln, weil man nun nicht nur den CPU Performance Schub bekommt, sondern damit dann gleich auch einen GPU Schub bekommt.

bin ich froh, dass ich meinen 5900x schon habe und mir das noch schlimmere gebashe nicht geben muss.

ich wechsle dennoch lieber zur 3080, wenn diese mal wieder für die 699 verfügbar ist.

CPU technisch ist AMD endlich ganz vorne, aber GPU fehlt noch eine Gen.
 
Teralios schrieb:
Nein, das widerspricht sich nicht. Im Gegensatz zu dir, als auch den meisten auf Reddit, habe ich ein Vordiplom in der Informatik und bin bis heute in der Code-Analyse tätig um Fehler zu finden und auch ggf. bereits Vorarbeit bei der Fehlerbehebung zu leisten. Ich bin sicher kein Genie, dass irgendwelche tollen Algorithmen ersinnen kann, dafür fehlt es mir an Erfahrung und Übung. Wenn ich aber ein Algorithmus sehe, dann kann ich dessen Funktionsweise verstehen und auch erklären.

Und ein ganz kleiner Tipp, nur so am Rande: Wer im Glashaus sitzt, sollte nicht mit Steinen schmeißen. Du hast hier inhaltlich nichts abgeliefert, sondern nur auf Reddit verwiesen und die meisten Kommentare da bringen auch keinen Inhalt, sondern widersprechen ohne wirkliche Erklärung.
Uuuh, getriggert.

1. Ich habe ein abgeschlossenes Studium in Informatik und mache seit vielen Jahren täglich "Code-Analyse" (lol) bzw. schreibe ihn selber. Dadurch ist man aber nicht zwangsläufig allwissend, insbesondere in Hardwarenähe (und das meine ich auf dich als auch auf mich bezogen).
2. Ich habe nicht auf reddit verwiesen, das tat der andere Kollege. Er meinte, ich solle doch dort meine Antworten suchen.
3. Ich stelle im Gegensatz zu euch keine Behauptungen auf, die ich nicht belegen kann. Ich fordere lediglich dazu auf, Beweise für Dinge zu liefern, die man als Tatsachen hinstellt.

Teralios schrieb:
@foo_1337 und ich haben uns hier - auch zusammen mit @Colindo sowie @yummycandy der die Folie gepostet hat, die Mühe gemacht verschiedene Möglichkeiten zusammen zutragen und haben sie auf einem fachlichen Niveau erläutert. @ZeroStrat wiederum hat seine Kontakte genutzt um gewisse Informationen aus erster oder zumindest zweiter Hand zu bekommen.
Schön, dass ihr euch etwas zusammenreimt, was vielleicht sogar stimmt. Es ist halt nur nichts wert, wenn es nicht bewiesen wird. Ansonsten bleibt es eine Theorie und Vermutung, das ist doch exakt worum es geht. Der Beweis wurde nicht erbracht. Jetzt versuchst du es immerhin, fragt sich halt warum das
a) der Artikel nicht tut
und
b) warum das erst in diesem Ton passiert. Erinnert an Cunningham's Law.

Teralios schrieb:
Und nun wird es peinlich, weil du hier nur selektives Halbwissen anwendest und denkst, dass du damit hier gegen Leute, die Ahnung von der Materie haben, bestehen kannst. Und ja, das, was ich schreibe, mag jetzt vielleicht arrogant klingen, aber direkt: Wissen und Kompetenz sieht nur wie Arroganz aus, wenn man beides nicht hat! Denn ich wiederhole mich nun gefühlt jeden Tag 8 oder 9 mal.
Sonst geht´s dir gut, ja? Meine Fresse blast ihr euch auf, weil ihr hier irgendwelche .pdfs durchlest und meint was gefunden zu haben. Das wirkt nicht nur arrogant, das ist Geltungsbedürfnis vom Feinsten.
Wie wäre es denn damit, in deinen Absätzen irgendwo auf die Frage einzugehen? Diese war durchaus ernst gemeint, denn wie gesagt kennen sich ja nunmal die wenigsten so hardware-nah wirklich aus.
Willst du sagen, dass "above 4g decoding" keine Auswirkung auf das Mapping hat, solang nicht mehr als 32 Bit wirklich genutzt werden? Wenn ja, frage ich mich warum der ein oder andere doch Unterschiede feststellt (sei es leicht andere Performance oder Windows lädt nicht mehr ohne UEFI oder weiß er Geier). Wenn nein frage ich mich, warum dann die angeblich langsamen Instruktionen keine deutliche Performanceregression aufweisen, wenn die Hardwarebeschleunigung umgekehrt so einen Boost bringen soll.

Keine Ahnung warum man hier auf persönlicher Ebene ausrasten muss, anstatt sachlich Argumente darzulegen.
 
Colindo schrieb:
Streitet euch lieber darüber, warum die RX-5000er-Reihe kein SAM hat :D
Imo ist der Treiber für die 6000er, ganz speziell RT (Minecraft, CoD...), noch nicht annährend Fertig.
Bevor die 5000er große Features bekommt, sollte die Basis der 6000er stimmen :)
 
  • Gefällt mir
Reaktionen: Maxxx800, Tanzmusikus und Colindo
Zurück
Oben