News Ryzen 5000 und Radeon RX 6000: AMD zeigt Benchmarks zu Smart Access Memory

Leute, das ist doch völlig normal? Ist doch völlig verständlich, dass eine Firma nach jahrelanger und teurer Forschung und Entwicklung dieses Feature erstmal nur für sich haben will?
KEINE Firma würde mehr solch eine Forschung und Entwicklung machen, wenn er alles zahlen soll aber dann direkt auch beim Konkurrenten eingesetzt werden kann.
Ich verstehe echt nicht wie man sich über sowas aufregen kann.
Genau für sowas gibt es Patente und co., dass man das "erfundene" erstmal für sich hat und nicht direkt mit jedem teilen muss.
Mir geht es nicht speziell um dieses Feature von AMD, sondern allgemein um spezielle Features von einzelnen Unternehmen, weil hier ja einige rumheulen, dass AMD so böse ist und alles proprietär machen.
Das gilt für Intel, AMD und auch nVidia und sonst auch für jedes technische Unternehmen auf der Welt.
 
  • Gefällt mir
Reaktionen: Schranz0815, GERmaximus, Apple ][ und eine weitere Person
der Traum von Fusion wird endlich wahr :love:, nur 11 Jahre später
1604412369353.png
 
  • Gefällt mir
Reaktionen: Onkel Föhn
pascaljackson schrieb:
der Traum von Fusion wird endlich wahr

Harvard für alle. Sage ich doch schon länger. Von Neumann braucht niemand mehr. Ab zurück in die Kiste :D

Selbst mein Amiga kann den RAM der Graka als "FastRam" ansprechen und wenn man "alte" (die letzte) Generation von PCI Karten mit 256 MB Graka RAM über Riser Karten da reinballert, rockt das richtig :D

Da ist zwar auch viel Schatten, in Harvard. Das bessere Gesamtkonzept haben sie aber in jedem Fall.

mfg
 
  • Gefällt mir
Reaktionen: think->write!
borizb schrieb:
Mehrleistung bei einer GPU hingegen greift bei jedem Spiel
So pauschal völliger Unsinn, denn meine Zotac läuft schneller als das 1:1 Modell eines Kumpels, und meine 980Ti lief langsamer als das 1:1 Modell meines Bruders.

Und hier reden wir auch mal schnell über mehr als 5% oc delta durch die dies/bins/samples.
Wenn ich in dem AMD Setup 5% planen kann, belastbar, ist es greifbare Mehrleistung.


Im übrigen sind wir in höchst heterogenen HW+SW Kombinationen hier unterwegs, hier haben keine 2 User 1:1 dasselbe System + dasselbe OS +denselben Treiberstand etc,, also kannst Du Deine Dialektik komplett mit Deinen Argumenten selbst aushebeln. ;)
 
ZeroStrat schrieb:
Wäre in meinen Augen ein Dick Move von AMD. Aber gut, war klar, dass sie sich irgendwann mal von einer "anderen Seite" zeigen werden...

eine APU nutzt doch bereits auch "gemeinsam" einen Speicher (in dem Fall den RAM), dass ist doch auch ok.
Nach all den open Souce den AMD betreibt, empfinde ich es als absolut ok wenn sie ihre (nativ in die Hardware gegossenen?) Features mal nicht "ehrenamtlich" teilen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn und QuackerJJ
Hoffentlich glänzt AMD mit Verfügbarkeit dann kann ich meine 3070 gleich wieder verscherbeln 😏 :D :cool_alt:
 
Du nennst dich rx6800xt und hast dir ne 3070 gekauft? :D
 
  • Gefällt mir
Reaktionen: Onkel Föhn, {Sardaukar}, hRy und 3 andere
3dcenter schrieb:
...... sprich es handelt sich um ein Feature, welches allein nur bei 100%iger AMD-Technik funktioniert......Es ist wenig erbaulich, dass AMD, sobald man mal eine Sekunde am wirklichen Erfolg schnuppert, gleich die (schlechten) Methoden der bisherigen Platzhirsche kopiert.
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-28-oktober-2020

Ich habe das Zitat einmal verkürzt.
Unter dem Zitat ist ja noch der Link dazu.

Und besser als Leo kann ich es auch nicht zusammenfassen
 
  • Gefällt mir
Reaktionen: foo_1337
seltsam, die schnittstelle zwischen cpu und gpu ist pcie, wieso sollte dies dann nicht mit jeder anderen kombination von cpu und gpu auch funktionieren?
von mir aus wird pcie4 benötigt, um einen performancevorteil zu bekommen.
oder bestimmte grafiktreiber, die das freischalten. oder evtl muss der grafikspeicher direkt mit pcie verbunden sein.
wieso sollte da die cpu und sogar der mainboardchipsatz eine rolle spielen?
 
@matty2580 Warum soll AMD nicht das tun durfen, was die anderen zwei (von apple, google reden wir erst gar nicht) bereits sehr lange machen?
Wichtig ist, dass keiner der anderen durch diese Funktion benachteiligt wird (MKL?).
Solange alles funktioniert wie es soll, alle die Möglichkeit haben es in ihrem System ebenfalls zu implementieren und keiner absichtlich Performance verliert sollte das OK sein.
 
  • Gefällt mir
Reaktionen: Colindo
matty2580 schrieb:
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-28-oktober-2020

Ich habe das Zitat einmal verkürzt.
Unter dem Zitat ist ja noch der Link dazu.

Und besser als Leo kann ich es auch nicht zusammenfassen
Also ich lese das ein klein wenig als Mimimi... ist das Feature wo CPU und GPU besser zusammen arbeiten können nicht auf dem Wunschzettel aller AMD Nutzer seitdem AMD damals ATI gekauft hatte?
Warum sollen PC Nutzer nicht davon profitieren was bei Consolen schon seit Generationen genutzt werden kann. Ist doch nicht AMDs Schuld wenn Intel oder Nvidia sich immer mit proprietären Features abschotten, als ob das jetzt das erst Mal wär wo sowas passiert und Leute sich beschweren.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, Kuba, xRedF und 5 andere
Ich frage mich ja schon seit Jahren, wieso AMD es nicht auf die Kette bekommt, seine Produkte im Zusammenspiel etwas effizienter wirken zu lassen. Wird doch mal Zeit, dass sie aus ihrer einzigartigen Möglichkeit, CPU und GPU aufeinander abzustimmen, etwas heraus holen. Also Daumen hoch, AMD!
 
  • Gefällt mir
Reaktionen: xRedF und Demon_666
Sephiroth51 schrieb:
Das könnte für die APU's sehr interessant werden vielleicht kommt ja dann auch das HSA wieder mehr in Fahrt.
Nicht unbedingt, da APU's sich ja sowieso den Speicher mit der CPU teilen müssen. Aber der Infinity Cache dürfte ganz besonders für APU's interessant werden. ;)
 
  • Gefällt mir
Reaktionen: Colindo
matty2580 schrieb:
http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-28-oktober-2020

Ich habe das Zitat einmal verkürzt.
Unter dem Zitat ist ja noch der Link dazu.

Und besser als Leo kann ich es auch nicht zusammenfassen

Prinzipiell stimme ich der These zu - aber andererseits stellt sich schon die Frage, inwiefern eine Implementation auf Intel-Plattformen an diesem Punkt überhaupt möglich gewesen wäre. Das Ganze ist zunächst mal proprietär, das stimmt und ist prinzipiell schlecht, weil kundenunfreundlich, da braucht man auch für AMD nicht den Unternehmensversteher spielen, solange man als Kunde den Nachteil hat. Das galt bei G-Sync und anderen Techniken, das gilt jetzt genauso.
Allerdings kann sich am proprietären Status auch schnell einiges ändern, sobald die Konkurrenz ähnliche Technologie einsetzt - dann könnte man sich öffnen und mittelfristig hätte jeder seinen (kleinen) Vorteil daran. Dasselbe ist mit G-Sync ja effektiv auch passiert. Es hat halt nur unnötig lange gedauert.

Letztlich treiben die Hersteller mit derlei Dingen auch vorwärts und so funktioniert Konkurrenz eben auch. DLSS ist ja auch proprietär (und an sich ein weit größerer Vorteil als SAM). Solange sich die Gesamtpakete ungefähr gleichwertig sind und man lediglich nach Prioritäten wählen muss, ist doch alles super :)
 
  • Gefällt mir
Reaktionen: matty2580
Ich hoffe doch, dass Computerbase und auch viele andere Institutionen sich zwei Testaufbauten leisten werden... klingt vllt. nach einem ausgesprochen gierigen Wunsch, doch ...

Ich würd schon gern wissen, wie eine 6800/6900/XT vs 3070/3080/3090 läuft, auf 10900k und 5950/5900x.
Denn es wird vllt. ein wenig schwieriger hier die GPU-Leistung wirklich zu bewerten und da sollte man mit und ohne Feature erkennen wollen, was Phase ist.
 
foo_1337 schrieb:
Du nennst dich rx6800xt und hast dir ne 3070 gekauft? :D
Ja :D namen sind ja nur Schall und Rauch ich wusste nicht wie ich mich nennen soll und zu dem Zeitpunkt was es halt das. Aber habe die Gigabyte Gaming Oc 3070 für 599€ bekommen die verkaufe ich dann einfach. Auch wenn es eine Tolle Karte ist die 8gb gefallen mir einfach nicht AMD bietet 16 mit allen 3 Karten :freak: 😏. Selbst die billigste dürfte schneller sein. Nobrainer für mich. Aber die 3070 ist schon cool mit UV kaum zu hören und nur 200 Watt aber die 8gb.....
 
  • Gefällt mir
Reaktionen: foo_1337
Zurück
Oben